View
2
Download
0
Category
Preview:
Citation preview
Una publicación de la Sociedad de Educación del IEEE (Capítulo Español)
Uma publicação da Sociedade de Educação do IEEE (Capítulo Espanhol)
DIC. 2015 VOL. 3 NÚMERO/NUMERO 4 (ISSN 2255-5706)
Versión Abierta Español – Portugués de la
Revista Iberoamericana de
Tecnologías del/da
Aprendizaje/Aprendizagem
Alcances y Limitaciones de la Evaluación Abierta: un Estudio de Caso basado en TIC………...……
……………………………..………….................................. A. Chiappe, R. A. Pinto and V. M. Arias
Enseñanza del Procesamiento de Imágenes en Ingeniería usando Python………...…......……….........
................Andrés Fernando Jiménez López, Marla Carolina Prieto Pelayo y Ángela Ramírez Forero
Una Arquitectura para un Sistema de Evaluación del Aprendizaje Aplicado a la Conducción
Eficiente………...…...............................……………………………..…………..................................
................................................ A. G. Pañeda, L. Pozueco, D. Melendi, Member, IEEE, X .G. Pañeda,
R. García, A. G. Tuero,A. Rionda, G. Díaz, Senior Member, IEEE, J. L. Arciniegas
EDICIÓN ESPECIAL: LEARNING ANALYTICS
Editores Invitados: Mariluz Guenaga, Member, IEEE y Pablo Garaizar
Editorial Especial Learning Analytics: Del Análisis del Aprendizaje a su Mejora: Retos y
Oportunidades……………….................................................................................................................
………….............................................................. Mariluz Guenaga, Member, IEEE y Pablo Garaizar
Nuevas Posibilidades de Aprendizaje por Proyectos Colaborativos Masivos mediante Learning
Analytics: un Análisis de Caso ...................................................………………………………………
………………………………..…………........................................................................ Jordi Sancho
Redes Sociales Académicas y Learning Analytics para Indagar el Aprendizaje Autorregulado: un
Estudio de Caso ......................................................……………………………………………………
…………………………………. Adriana Gewerc, Ana Rodríguez-Groba y Esther Martínez Piñeiro
Co-Creación y Evaluación de Recursos Educativos Abiertos Inclusivos y Accesibles: un Mapeo
hacia el IMS Caliper ..………………..…..........………………………………..…………...................
................................. Cecilia Avila, Silvia Baldiris, Ramon Fabregat, y Sabine Graf, Miembro, IEEE
173
179
187
197
199
210
219
VAEP-RITA (http://webs.uvigo.es/cesei/VAEP-RITA)
CONSEJO/CONSELHO EDITORIAL
Presidente (Editor Jefe):
Martín Llamas Nistal,
Universidad de Vigo, España
Vicepresidente (Coeditor):
Manuel Castro Gil, UNED, España
Editor Asociado para lengua
Portuguesa:
Carlos Vaz do Carvalho,
ISEP, Oporto, Portugal
Miembros: Melany M. Ciampi, COPEC, Brasil
Javier Quezada Andrade,
ITESM, México
Edmundo Tovar, UPM, España
Manuel Caeiro Rodríguez,
Universidad de Vigo, España
Juan M. Santos Gago,
Universidad de Vigo, España
José Carlos Lourenço Quadrado,
ISEP, Oporto, Portugal
David Camacho Fernández
Universidad Autónoma de Madrid,
España
María Mercedes Larrondo Petrie,
Florida Atlanctic University y
LACCEI, USA
Humberto Ramón Álvarez Alvarado,
Universidad Tecnológica de Panamá y
LACCEI, Panamá
Secretaría: Gabriel Díaz Orueta, UNED, España
COMITÉ CIENTÍFICO
Alfredo Fernández
Valmayor, Universidad
Complutense de Madrid,
España
Antonio J. López Martín,
Universidad Estatal de
Nuevo Méjico, USA
Antonio J. Méndez,
Universidad de Coimbra,
Portugal
António Vieira de
Castro, ISEP, Oporto,
Portugal
Arturo Molina, ITESM,
México
Baltasar Fernández,
Universidad
Complutense de Madrid,
España
Carlos Delgado,
Universidad Carlos III
de Madrid, España
Carlos M. Tobar Toledo,
PUC-Campinas, Brasil
Claudio da Rocha Brito,
COPEC, Brasil
Daniel Burgos,
ATOS Origin, España
Fernando Pescador,
UPM, España
Francisco Arcega,
Universidad de
Zaragoza, España
Francisco Azcondo,
Universidad de
Cantabria, España
Francisco Jurado,
Universidad de Jaen,
España
Geraldo Carbajal,
Universidad del Turabo
y LACCEI, Puerto Rico
Gustavo Rossi,
Universidad Nacional
de la Plata, Argentina
Héctor Morelos, ITESM,
México
Hugo E. Hernández
Figueroa, Universidad
de Campinas, Brasil
Ignacio Aedo,
Universidad Carlos III
de Madrid, España
Inmaculada Plaza,
Universidad de
Zaragoza, España
Ivan Esparragoza,
Pennsylvania State
University y LACCEI,
USA
Jaime Muñoz Arteaga,
Universidad Autónoma
de Aguascalientes,
México
Jaime Sánchez,
Universidad de Chile,
Chile
Javier Pulido, ITESM,
México
J. Ángel Velázquez
Iturbide, Universidad
Rey Juan Carlos,
Madrid, España
José Bravo, Universidad
de Castilla La Mancha,
España
José Carpio, UNED,
España
José Palazzo M. De
Oliveira, UFGRS, Brasil
José Salvado, Instituto
Politécnico de Castelo
Branco, Portugal
José Valdeni de Lima,
UFGRS, Brasil
Juan Quemada, UPM,
España
Juan Carlos Burguillo
Rial, Universidad de
Vigo, España
J. Fernando Naveda
Villanueva,
Universidad de
Minnesota, USA
Luca Botturi,
Universidad de Lugano,
Suiza
Luis Anido, Universidad
de Vigo, España
Luis Jaime Neri Vitela,
ITESM, México
Manuel Fernández
Iglesias, Universidad de
Vigo, España
Manuel Lama Penín,
Universidad de Santiago
de Compostela, España
Manuel Ortega,
Universidad de Castilla
La Mancha, España
M. Felisa Verdejo,
UNED, España
Maria José Patrício
Marcelino, Universidad
de Coimbra, Portugal
Mateo Aboy, Instituto
de Tecnología de
Oregón, USA
Miguel Angel Sicilia
Urbán, Universidad de
Alcalá, España
Miguel Rodríguez
Artacho, UNED, España
Óscar Martínez
Bonastre, Universidad
Miguel Hernández de
Elche, España
Paloma Díaz,
Universidad Carlos III
de Madrid, España
Paulo Días,
Universidade do Minho,
Portugal
Rocael Hernández,
Universidad Galileo,
Guatema
Rosa M. Vicari, UFGRS,
Brasil
Regina Motz,
Universidad de La
República, Uruguay
Samuel Cruz-Lara,
Université Nancy 2,
Francia
Sergio Mujica López
Universidad Finis
Terrae y LACCEI, Chile
Víctor H. Casanova,
Universidad de Brasilia,
Brasil
Vitor Duarte Teodoro,
Universidade Nova de
Lisboa, Portugal
Vladimir Zakharov,
Universidade Estatal
Técnica MADI, Moscú,
Rusia
Xabiel García pañeda,
Universidad de Oviedo,
España
Yannis Dimitriadis,
Universidad de
Valladolid, España
Title— Scope and limitations of Open Assessment: an ICT-
based Case Study.
Abstract— The article describes the results of a study that
presents Open Assessment as an innovative educational
practice, mediated by Information and Communications
Technologies (ICT). Also, it describes the implementation of an
experience of Open Assessment in higher education, as a study
case.
Results showed that Open Assessment are well accepted by
students due to the adaptability and flexibility of time and
space for testing, as it was also possible to demonstrate that the
responsibility and maturity of the student play an important
role to improve the learning process derived from this type of
evaluation, making it formative by nature.
Index Terms— Open educational practices, open assessment,
open educational resources, learning environment, e-learning.1
I. INTRODUCCIÓN
A integración educativa de las Tecnologías de la
Información y la Comunicación (TIC) es un fenómeno
internacional creciente que ha tomado tal impulso que se
considera hoy un elemento estructural dentro de las políticas
y dinámicas institucionales en todos los niveles educativos
[1].
En ese sentido, la UNESCO insiste en el rol fundamental
que desempeñan las TIC en la educación, ya que ofrecen a
los educadores las herramientas necesarias para impactar de
manera creativa el proceso de enseñanza y de aprendizaje,
permitiéndoles superar los retos que demanda un ambiente
global, cambiante y disruptivo en una sociedad basada en el
conocimiento [2].
A partir de lo anterior, una de las tendencias educativas
actuales, emergentes y de mayor crecimiento en el marco de
la integración educativa de las TIC se conoce como
Movimiento Educativo Abierto. Dicho movimiento
promueve la reflexión y la crítica relacionadas con el uso de
Recursos Educativos Abiertos (REA) y de experiencias
formativas (o prácticas educativas) basadas en la aplicación
de atributos de “lo abierto”, como el libre acceso, la
reutilización, la remezcla, la colaboración/compartir, etc., lo
cual caracteriza de manera especial a dichos procesos,
haciéndolos adecuados a un contexto educativo en red, cada
vez más global, social y cambiante[3].
En ese orden de ideas, el desarrollo del Movimiento
Educativo Abierto se despliega entonces tanto sobre los
REA como sobre las Prácticas Educativas Abiertas (PEA),
1A.Chiappe. Universidad de La Sabana, Centro de Tecnologías para la
Academia, Bogotá, Colombia. andres.chiappe@unisabana.edu.co
R. A. Pinto. Universidad Piloto de Colombia, Bogotá, Colombia, ricardo-pinto@unipiloto.edu.co.
V. M. Arias. Universidad de La Sabana, Centro de Tecnologías para la
Academia, vivian.arias@unisabana.edu.co.
las cuales, de forma articulada, terminan constituyendo el
ejercicio educativo en su conjunto.
Ehlers y Conole [4], consideran que las prácticas
educativas abiertas van más allá de la simple aplicación de
los REA, al decir que:
“...las prácticas que soportan el uso, reutilización y
producción de REA de alta calidad, a través de políticas
institucionales que promuevan modelos pedagógicos
innovadores, empoderan a los aprendices como
coproductores de su propia ruta de aprendizaje a lo largo de
la vida.” [4].
Por otra parte, una de las prácticas educativas sobre las
que más se ha debatido y sobre la cual recaen la mayoría de
las críticas desde distintos sectores y actores relacionados
con la educación es la evaluación. Lo anterior se debe a que
es un proceso que afecta no solo los aprendizajes de los
estudiantes (cuando la evaluación es formativa), sino los de
promoción y certificación.
En ese sentido, los estudiantes que se desarrollan en la
sociedad del conocimiento demandan que el aprendizaje
obtenido en el proceso educativo tenga significado y
aplicación[5]. Ahora bien, es preciso reconocer que los
sistemas de evaluación del aprendizaje que se emplean
“típicamente” en Educación Superior son tradicionales, de
tipo aditivo, que pocas veces utilizan recursos educativos
basados en TIC, y que no verifican el proceso continuo de
aprendizaje del estudiante más allá de una simple medición
de los temas abordados[6].
Teniendo lo anterior en consideración, se trazó un
proceso investigativo que se enfocó en la identificación de
los alcances y las limitaciones propias de esta práctica
educativa, cuando se diseña y despliega de manera abierta.
Esta investigación se trazó como un proceso eminentemente
cualitativo, a manera de un estudio de caso enmarcado en la
enseñanza de la Ingeniería de Telecomunicaciones en una
universidad privada en Colombia.
Para efectos de esta investigación la Evaluación Abierta
del Aprendizaje se considera como “el proceso de
verificación y realimentación de los aprendizajes que se
realiza de manera colaborativa, mediada por herramientas de
libre acceso, en la cual los profesores producen o adaptan
recursos evaluativos y los estudiantes adaptan y remezclan
dichos recursos para efectos de generar para sí mismos una
evaluación que responda a sus necesidades personales y de
contexto” [7].
A partir de las siguientes secciones se podrá observar el
planteamiento metodológico bajo el cual se condujo el
estudio, incluyendo sus fases, categorías y procedimientos
de análisis e instrumentos de recolección de información.
Igualmente, en la sección de resultados se describen los
principales hallazgos en función de las distintas categorías
de análisis propuestas, a partir del reconocimiento de los
alcances y limitaciones propias de los procesos de
evaluación abierta del aprendizaje.
A. Chiappe, R. A. Pinto and V. M. Arias
Alcances y Limitaciones de la Evaluación Abierta:
un Estudio de Caso basado en TIC
L
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015 173
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Finalmente, en la sección de conclusiones se plantean
posibles respuestas a la problemática de investigación que
dio origen a este proceso investigativo.
II. ASPECTOS METODOLÓGICOS
Para efectos de la investigación se diseñó e implementó
una experiencia de evaluación abierta, en la cual participaron
30 estudiantes de Ingeniería de Telecomunicaciones de la
Universidad Piloto de Colombia (UPC), durante un periodo
de tiempo de 13 semanas.
Debido a la diversidad propia de los estudiantes
participantes se encontró que el tipo de muestra más
adecuada para esta estudio era una muestra intencional no
probabilística, con la cual era posible enriquecer la
información a partir de la participación de estudiantes con
características muy distintas que reflejaran tal diversidad en
su conjunto. El grupo participante se conformó por hombres
y mujeres con edades tanto superiores como inferiores al
promedio general del curso (23 años) y que correspondieran
a las siguientes opciones: no repitientes y no trabajadores,
repitientes y no trabajadores, repitientes y trabajadores y por
último, no repitientes y trabajadores. Cabe anotar que el
término “estudiantes no trabajadores” hace referencia a
aquellos con dedicación de tiempo completo a sus estudios.
Por otra parte, los atributos de lo abierto que se aplicaron
a los procesos e instrumentos evaluativos para esta
experiencia fueron: acceso libre, adaptación, remezcla y
colaboración.
Para lograr los propósitos del estudio de caso y asegurar
la calidad y objetividad en esta experiencia investigativa, se
tuvo en cuenta la visión que sobre el estudio de caso
presentan George y Bennett[8], quienes indican que este tipo
de estudio se puede desarrollar en tres fases:
• Fase preparatoria y diseño del estudio.
• Implementación del estudio y trabajo de campo.
• Análisis y conclusiones.
En la Figura 1 se muestra el diagrama del proceso seguido
en la investigación.
Las categorías de análisis que se usaron incluyeron los
atributos de lo abierto aplicados además de otras dos
categorías relacionadas con el proceso evaluativo: 1)
tipología de los actores que intervienen en el proceso de
evaluación (Estudiantes y docentes) y 2) variables externas
que inciden en la aplicación de la evaluación.
El tipo y cantidad de instrumentos aplicados atendieron la
necesidad de triangular la información documentada en el
diario de campo acerca de las observaciones, a fin de obtener
mayor concordancia y fiabilidad en los resultados de la
experiencia y minimizar el error de variabilidad entre
observadores. Según Cabrera [9], la triangulación es un
proceso de cruce y verificación de información que fortalece
la validez del proceso de análisis.
El primer instrumento aplicado fue una entrevista
semiestructurada con 20 preguntas, la cual se aplicó al 10%
de los estudiantes participantes. Se consideró igualmente
importante hacer entrevistas a algunos profesores ya que el
aprendizaje de los contenidos temáticos de los cursos que
ellos dictan afecta el desempeño de los estudiantes en el
curso. Para enriquecer la muestra se escogieron dos
profesores antiguos, con más de diez años de experiencia, y
dos profesores nuevos con menos de tres años de labor
continua. En la Figura 2 se muestra el resultado de una de las
preguntas realizadas en la encuesta con relación a la
concepción de los estudiantes acerca de la evaluación
abierta.
Un segundo instrumento de recopilación de información
fue el diario de campo a través del cual se documentó la
observación continua del proceso evaluativo abierto.
Una vez finalizada la experiencia de evaluación abierta se
aplicó una encuesta de 24 preguntas sobre tres temas
específicos: el ambiente de aprendizaje en general, la
experiencia de evaluación abierta y los aprendizajes
generados. También se hicieron tres preguntas
complementarias sobre docentes e institución educativa.
Para efectos de triangulación, se realizó una entrevista
colectiva (grupo focal) a los estudiantes participantes al
finalizar el periodo académico.
El proceso de análisis de información se condujo a través
del uso de ATLAS.ti, la cual es una aplicación de análisis
cualitativo de datos (QDA) utilizada ampliamente en
estudios de naturaleza educativa [10]. Dicho proceso partió
de la selección aleatoria y posterior análisis de ocho
documentos primarios (DP), de los cuales se seleccionaron
Figura 1: Diagrama de método
Figura 2: Resultados de la encuesta a la pregunta: ¿Qué es la
evaluación abierta?
174 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
235 citas o segmentos de texto que tuvieran relevancia y
correspondencia con las categorías de análisis previstas. Las
citas se codificaron con palabras clave para identificarlos en
el análisis, obteniéndose 72 códigos, los cuales se filtraron y
jerarquizaron para obtener tres grandes supercódigos
correspondientes con las categorías de análisis relacionadas
con el proceso de evaluación.
En la Figura 3 se puede observar un extracto de la
distribución de los códigos de mayor densidad
(frecuencia/totalidad códigos) encontrados en el análisis con
AtlasTi, y que ayudaron en la clasificación de los
supercódigos y de las categorías de análisis emergentes.
Los datos recolectados en citas y segmentos textuales
mostraron aspectos comunes, concordancias, similitudes,
desacuerdos y situaciones antagónicas difíciles de codificar
que los protagonistas de la experiencia expresaron y que
necesariamente tuvieron que compararse mediante
triangulación.
La Figura 4 muestra una parte del listado de citas
clasificadas por frecuencias de los diferentes documentos
primarios.
Este proceso cualitativo, acompañado de un proceso
estadístico básico descriptivo y de correlación permitió
definir más claramente la intencionalidad y posiciones de
cada uno de los intervinientes y facilitar el análisis de los
resultados.
III. RESULTADOS
Los hallazgos del estudio se describen a continuación en
función de cada una de las categorías de análisis, a saber:
A. Alcances y Limitaciones en cuanto al Acceso Libre.
Este atributo de la evaluación abierta se refiere a la
oportunidad que estudiantes y docentes tienen para acceder
(en cualquier momento y desde cualquier lugar) a los
diversos recursos usados en la evaluación.
El 100 % de los profesores participantes consideran que
el acceso libre a contenidos, instrumentos evaluativos y
plataformas; ayuda en la elaboración del componente
evaluativo de sus cursos, debido a la posibilidad de usar
recursos ya validados por experiencias previas de otros
docentes, lo cual enriquece su perspectiva de la evaluación.
Por otra parte, el 75 % de los profesores participantes
consideran la evaluación abierta como una oportunidad de
hacerse visibles ante la comunidad educativa mundial al
compartir esos recursos educativos abiertos desarrollados de
manera libre y pasar de ser un solo consumidor de
contenidos y herramientas creadas por otros, a ser un
productores de recursos educativos para la evaluación de
unos aprendizajes.
Además, se encontró concordancia entre lo expresado por
los docentes acerca del acceso libre y lo respondido por el 70
% de los estudiantes en la encuesta final, con relación a la
libertad y diversidad para aprender y reforzar temas de su
interés y oportunidad para evaluarse sin restricciones de
tiempo y lugar. En ese orden de ideas, el acceso libre como
atributo de “lo abierto” mostró una alta correlación (r=0,78)
como factor clave de éxito de este tipo de prácticas
evaluativas tanto en los profesores como en los estudiantes.
No obstante lo anterior y aunque la literatura los reconoce
como elementos asociados al acceso libre, no parece pasar lo
mismo (r=0,26; r=0,31) en función de la posibilidad de ser
participes en la producción de conocimiento y en materia de
flexibilidad espacio temporal.
B. Alcances y Limitaciones en cuanto a la Colaboración.
Este atributo de la evaluación abierta se refiere a la
evaluación como trabajo en equipo, en el que se consiguen
resultados comunes en la adquisición de conocimientos y la
convierten en un proceso más formativo.
El 50 % de los docentes indicaron que el trabajo
colaborativo en la evaluación sirvió para fortalecer la
formación del estudiante, complementar conocimientos y
aclarar vacíos sin importar las fuentes y las formas que el
estudiante usó para lograrlo.
Por otra parte, para el 50 % de los docentes, la evaluación
colaborativa debe complementarse con la evaluación
individual para evitar sesgos y desviaciones perjudiciales en
estudiantes poco comprometidos con su aprendizaje.
En ese sentido el profesor identificado como P3HB
indica: “Yo pensaría que sí. La evaluación podría ser
colaborativa pero no exclusivamente colaborativa y en
grupo. Yo pensaría que tiene que haber una parte de la
evaluación que tiene que ser personal, individual tal como
son las personas, individuales y diferentes.”
El 75 % de los docentes también mostraron cierta
aprehensión en la posibilidad que esta forma de evaluar sea
una forma velada de “copia y fraude” por parte de los
Figura 3: Lista de códigos y de supercódigos.
Figura 4: Listado de citas codificadas de acuerdo con su frecuencia
CHIAPPE, PINTO Y ARIAS: ALCANCES Y LIMITACIONES DE LA EVALUACIÓN ABIERTA: UN ESTUDIO... 175
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
estudiantes, tal como lo indica el profesor identificado como
P5GV:
“[…] el problema sería que como lo pueden hacer en
cualquier momento, en cualquier lugar que de pronto sea
otra persona la que haga la respuesta por él.”
Con respecto a lo anterior algunos estudiantes indicaron:
“Ayudó a que todos pudiéramos complementar nuestro
aprendizaje, a que tuviéramos una retroalimentación por
parte del docente y los compañeros, ya que fue una
evaluación de tipo grupal, donde todos podíamos opinar,
donde todos podíamos dar nuestro punto de vista respecto a
una respuesta.”
Por otra parte, la evaluación colaborativa o en equipo
produjo una sensación de aceptación y pertinencia
interesante en el 100% de los estudiantes, tal y como se
menciona en el siguiente extracto de la entrevista 7:
“Pero este tipo de evaluación compromete más el
aprendizaje del estudiante y que esté más en contacto con el
profesor, que pueda despejar las dudas y estar en constante
retroalimentación, poder siempre estar en contacto con el
profesor, que es importante para que uno aprenda sobre el
curso que uno va a ver.”
C. Alcances y Limitaciones en cuanto a la Remezcla.
Según Chiappe [7], hacer remezcla en la evaluación
desde la perspectiva del estudiante consiste en tomar los
recursos evaluativos desarrollados o adaptados por los
profesores o también de repositorios libres, para que el
estudiante genere para sí mismo “una evaluación que
responda a sus necesidades personales y de contexto”. En
ese sentido, el estudiante podría autónomamente adaptar y
escoger los medios, la estructura y los tiempos de su
evaluación a partir de la disponibilidad de instrumentos
evaluativos.
Para lograr ese cometido, es necesario que dichos
recursos se encuentren disponibles en línea mediante el uso
de las TIC. Para efectos de este estudio, se desarrollaron
algunos instrumentos (juegos) y se adaptaron otros
(cuestionarios) para ponerlos a disposición de los estudiantes
en dos momentos diferentes, en los que el estudiante
libremente podía “escoger” entre varias alternativas para
conformar su evaluación, eso sí, dentro de unos parámetros
mínimos de número de instrumentos seleccionados, la
cantidad de veces en que podía cambiarlos y los tiempos
para la respuesta.
Cabe anotar que la aplicación de este atributo de lo
abierto a la evaluación generó resistencia por parte del25%
de los profesores, tal y como se evidencia en el siguiente
extracto de entrevista:
“Es decir que me parecería valioso, ¿no? Pero no todo lo
puede escoger el estudiante. Porque de lo contrario,
digamos, usted no podría o el estudiante responder por
algunos preceptos fundamentales del currículo. El currículo
podría volverse cualquier cosa.”
El 70% de los estudiantes en cambio, tuvieron una
opinión más favorable a esta forma de evaluación,
advirtiendo que es necesaria una buena oferta de
instrumentos evaluativos.
Las correlaciones encontradas para esta categoría
mostraron intereses contrarios en profesores y estudiantes.
De hecho, los coeficientes de correlación encontrados
aplicados a tres características de la remezcla (“escoger”,
“personalizar” y “decidir”) resultaron moderadamente
inversas (r=-0,65; r=-0,58; r=-0,51).
Un asunto interesante identificado a partir de los
instrumentos aplicados a los estudiantes es que, ante la
posibilidad de escogencia, el 75% de los estudiantes
prefieren los ejercicios o preguntas que más entienden o que
más saben, descartando de esta manera la posibilidad de
medirse a ciertos temas más complejos o más difíciles, no
obstante también se considera esto una oportunidad para
identificar vacíos en sus aprendizajes.
D. Alcances y Limitaciones en cuanto a la Adaptación.
Este atributo de la evaluación abierta se analizó desde la
oportunidad de uso que presentan los recursos y
herramientas evaluativas diseñadas para que puedan ser
modificadas y adaptadas libremente por otros usuarios
docentes y estudiantes. Para lograrlo, los profesores deben
estar dispuestos a desarrollar estos recursos de manera que
se permita su adaptación y a depositarlos en repositorios de
recursos educativos abiertos.
El 50% de los docentes consideraron que la adaptación de
recursos educativos para evaluación que encuentran en sitios
de acceso libre en la red es una buena opción para mejorar el
proceso evaluativo, siempre y cuando esos instrumentos
estén actualizados y sean fácilmente adaptables, es decir,
que no requieran de complicados procedimientos y
conocimientos técnicos para lograrlo.
No obstante el reconocimiento de aspectos positivos con
relación a la adaptación, el 100% de los docentes
participantes indican consistentemente que una gran
limitación consiste en la poca disponibilidad de tiempo para
desarrollar los recursos abiertos de manera que puedan ser
compartidos con otros profesores.
Un aspecto que llama la atención es que pese a que la
naturaleza abierta de la evaluación permite que el aprendiz
se empodere de su proceso de evaluación, todavía persiste la
concepción de conveniencia del dominio del proceso por
parte del profesor. Lo anterior se aprecia en un 60% de las
evidencias extraídas de las entrevistas de los estudiantes.
Comentarios como los siguientes ejemplifican esta
situación:
“Sí, siempre y cuando el profesor influya, en el sentido de
que genere dudas y haga salir a la luz las dudas que tiene el
estudiante”
“[…] puede que exista un banco o un directorio donde
estén cierto tipo de evaluaciones, pero depende del
contenido que él desarrolle. Puede que la evaluación
adaptada no corresponda con el contenido que él desarrolla y
no se profundice en lo que él especificó en su curso.”
E. Alcances y Limitaciones en cuanto a las
Características de los Actores que Intervienen en el Proceso
de Evaluación Abierta:
El análisis de algunas características de los estudiantes
participantes mostró que existe una correlación marcada en
cuanto a los resultados de la evaluación y dos factores
demográficos clave para este estudio: la edad y la dedicación
de tiempo al estudio (r=0,71; r=0,87). En ese sentido, pese a
las posibilidades y flexibilidad del proceso de evaluación
abierta, ésta no generó efectos positivos significativos en los
176 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
estudiantes trabajadores, los cuales, históricamente presentan
porcentajes de pérdidas o cancelación de asignaturas hasta
del 80%. De acuerdo a los resultados, de 10 estudiantes
trabajadores participantes en el estudio, 5 de ellos
reprobaron el proceso de evaluación.
Estos estudiantes trabajadores tienen edades superiores al
promedio del curso(entre 25 y 28 años), y deciden inscribir
finalmente el curso cuando ya se encuentran en niveles
superiores de la carrera. Los estudiantes más jóvenes no
trabajan y en un 83% aprobaron el curso.
Aún así, tal como se muestra en la Figura 5, los
resultados en las entrevistas mostraron que el 70% de los
estudiantes aceptan de buen agrado la implantación de la
evaluación abierta. Los profesores en cambio tienen una
menor aceptación (60%) por cuanto son los docentes de
mayor edad y más experiencia los que no ven muchas
ayudas en ella para el aprendizaje.
F. Alcances y Limitaciones en cuanto a las Variables que
Inciden en la Implementación de la Evaluación Abierta.
Esta categoría de análisis emergió luego de una segunda
codificación de las evidencias encontradas a partir de la
aplicación de instrumentos. La alta frecuencia de aparición
de aspectos comunes en estas evidencias (139 evidencias
asociadas o dependientes de 40 códigos), indicaban asuntos
que los entrevistados consideraban importantes al aplicar los
atributos de lo abierto a la evaluación. Estos asuntos fueron
clasificados y organizados como supercódigos o
subcategorías, siendo las de mayor co-ocurrencia las
siguientes: las competencias educativas y tecnológicas tanto
de los estudiantes como de los docentes y el uso de los
recursos educativos abiertos. De manera general la
respuestas dadas en las entrevistas, evidenciaron que
aproximadamente el 50% de los docentes indican
dificultades en la implantación de la evaluación abierta en
sus cursos, mientras los estudiantes manifiestan una
aceptación cercana al 70%.
A continuación se resaltan los aspectos más relevantes
encontrados para cada una de estas dos subcategorías.
En cuanto a las competencias educativas y
tecnológicas…
Se identificaron y seleccionaron 32 evidencias en los
resultados de los distintos instrumentos aplicados en los
cuales los estudiantes consideraron varios aspectos
relevantes acerca de las competencias educativas y
tecnológicas de los docentes y de ellos mismos en el proceso
de aprendizaje. La primera que se identificó tuvo que ver
con el escaso número de cursos o experiencias de
aprendizaje del Programa en las que los profesores aplicaban
las TIC para potenciar su proceso de aprendizaje.
Un ejemplo de lo anterior se extrajo de la entrevista al
estudiante codificado como “S”:
“Uno espera de pronto manejar más estas herramientas,
sinceramente solo me he encontrado con estas herramientas
en lo que fue en segundo semestre... y hasta ahora cuando
estoy viendo este curso.”
En cuanto a los Recursos Educativos Abiertos (REA)…
Esta subcategoría se enfocó en la disponibilidad, facilidad
de uso y otras características de los recursos educativos
utilizados en el proceso de evaluación abierta, tanto desde la
mirada de estudiantes como desde la de los docentes. Se
seleccionaron 38 evidencias asociadas o dependientes de 14
códigos.
Desde la perspectiva de los estudiantes, las apreciaciones
relacionadas con esta variable se encontraron en 50 % de las
evidencias seleccionadas, en las cuales se reflejaron
consideraciones importantes respecto de los recursos y
herramientas TIC aplicadas en sus clases y que se sintetizan
sobre tres aspectos clave: la flexibilidad espacio temporal, la
autonomía y la variedad.
Por otra parte, se encontró que la evaluación abierta
conlleva la aplicación de un alto grado de responsabilidad,
disciplina y concentración en los estudiantes para lograr los
objetivos. Al respecto, el estudiante denominado como “AL”
mencionó en el mismo Foro:
“Las plataformas virtuales actuales de aprendizaje
demandan mucha disciplina y responsabilidad por parte del
estudiante, dependen mucho de la capacidad autodidacta.”
Finalmente, los estudiantes reconocen consistentemente
que con el uso de REA se agregan elementos de variedad al
proceso evaluativo, ya sea en el uso de distintos formatos o
en la aplicación de diversos métodos.
Ahora bien, la perspectiva de los docentes en cuanto al
uso de los REA en el proceso de evaluación del aprendizaje
gira alrededor de una tensión permanente entre la
potencialidad que conllevan los REA y la zona de confort
que representa para los profesores la presencialidad
(asociada a la tradición) como entorno para el desarrollo de
los procesos evaluativos.
Como se ha mencionado a anteriormente, los profesores,
en su mayoría, encuentran que las TIC ayudan en el proceso
educativo, siempre y cuando la presencialidad no
desaparezca, porque para ellos la figura del profesor es
indispensable en el proceso; resaltan la importancia que
tienen las TIC para implantar una evaluación del aprendizaje
de manera permanente.
IV. CONCLUSIONES
Una característica muy propia y generalizada en la
Educación de las Ingenierías ha sido un marcado apego por
los esquemas tradicionales de enseñanza y evaluación. La
evaluación tradicional que se ha venido aplicando a los
estudiantes de los cursos del programa Ingeniería de
Telecomunicaciones de la UPC dista de ser formativa y en
ese sentido ha mostrado falencias para lograr aprendizajes
Figura 5: Hallazgos del estudio en función de las categorías de análisis.
CHIAPPE, PINTO Y ARIAS: ALCANCES Y LIMITACIONES DE LA EVALUACIÓN ABIERTA: UN ESTUDIO... 177
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
significativos en los estudiantes. Dada esta circunstancia se
encontró pertinente explorar nuevas formas de evaluación
que subsanaran la rigidez propia de la evaluación tradicional
que brindara a los estudiantes un panorama fresco y flexible
en materia de evaluación de sus aprendizajes.
En ese orden de ideas, se reconocen los aportes de la
aplicación de atributos de lo abierto a la evaluación, sobre
todo el libre acceso a la información y la oportunidad de
hacer remezcla en la elaboración de instrumentos
evaluativos parte del estudiante, de cara a una
personalización del proceso de evaluación.
En ese sentido, se evidenció que la evaluación abierta,
desde su componente colaborativo aportó al fortalecimiento
del aprendizaje en los estudiantes, debido al afianzamiento
en la confianza mutua por el trabajo en grupo, a la
posibilidad de interactuar para abordar con serenidad las
dudas relacionadas con la comprensión de algunos temas
complejos.
Ahora bien, no obstante la evidencia del aporte que “lo
abierto” aplica al proceso de evaluación, es necesario
reconocer que buena parte de sus limitaciones se generan
debido a la interiorización profunda de elementos asociados
a los esquemas tradicionales de evaluación. En la mayoría de
los estudiantes se genera temor ya que el trabajo
colaborativo en materia de evaluación se asocia fuertemente
con la “copia” o la “trampa”.
Por otra parte, aunque tanto profesores como estudiantes
reconocen que el proceso de evaluación abierta generó
resultados positivos en sus aprendizajes, todavía subsiste el
inconveniente de traducir los resultados de la evaluación en
forma de calificaciones numéricas. La equivalencia actual de
la evaluación con la promoción de los estudiantes a grados
superiores genera una desviación en la intencionalidad
formativa que debería tener la evaluación, porque induce al
estudiante a buscar un resultado que no necesariamente
refleje sus aprendizajes pero que le permita avanzar en el
desarrollo de sus estudios.
Cabe mencionar que el efecto generado por la
colaboración como atributo de “lo abierto” sobre el proceso
evaluativo, concuerda con lo obtenido por López, Martínez y
Julián [13]en el sentido de que una evaluación más abierta y
compartida motiva a los estudiantes, genera responsabilidad
y autonomía, incrementa el rendimiento y desarrolla
actividades metacognitivas en los mismos.
Por otra parte, en cuanto al atributo de remezcla en la
evaluación abierta, es decir, brindar al estudiante la
oportunidad de componer su propia evaluación a partir de
una diversidad de recursos educativos disponibles, diseñados
o previstos por el docente, se destaca la aceptación por parte
de los estudiantes y el mejoramiento de sus calificaciones.
Además de poderlos diligenciar de manera flexible en
tiempo y espacio, la remezcla posibilitó la adecuación del
ejercicio de evaluación a los estilos de aprendizaje de los
estudiantes, lo cual generó un mejoramiento en las
condiciones de motivación y autoconfianza, los cuales son
factores clave para el desarrollo del aprendizaje en general.
Para finalizar, cabe anotar que aunque se presentó un
incremento en el promedio de las notas de los dos últimos
períodos en los estudiantes participantes del estudio que
aprobaron el curso, se hace necesario implementar otros
procesos complementarios de verificación de los
aprendizajes que permitan identificar y reducir sesgos, si es
que existen, a raíz de la aplicación de los diversos atributos
de “lo abierto” en el proceso evaluativo.
Para efectos de profundizar en la comprensión del alcance
de la evaluación abierta, se recomienda la aplicación de un
mayor número de evaluaciones abiertas con relación a la
cantidad tradicional y realizar un seguimiento continuo del
aprendizaje de los estudiantes en las diferentes
oportunidades cuando se realiza realimentación.
AGRADECIMIENTOS
Agradecemos a la Maestría en Informática Educativa del
Centro de Tecnologías para la Academia de la Universidad
de la Sabana y a la Universidad Piloto de Colombia por su
colaboración efectiva y aportes a la investigación.
REFERENCIAS
[1] R. Carneiro, J. C. Toscano, y T. Díaz, Los desafíos de las TIC para el cambio educativo, vol. 32. Fundación Santillana, 2011.
[2] Unesco y Microsoft, Unesco ICT competency Framework for
teachers. Paris: United Nations Educational, Scientific and Cultural Organization, 2011.
[3] M. S. Ramírez Montoya y J. V. Burgos Aguilar, Movimiento
Educativo Abierto: Acceso, colaboración y movilización de recursos educativos abiertos. México, D.F.: Lulu.com, 2012.
[4] U.-D. Ehlers y G. Conole, «Open Educational Practices:
Unleashing the power of OER. ICDE», 2010. [5] M.-Á. Gómez-Ruiz, G. Rodríguez-Gómez, y M. S. Ibarra-Sáiz,
«Development of basic competences of students in Higher
Education through Learning Oriented e-Assessment», RELIEVE - Rev. Electrónica Investig. Eval. Educ., vol. 19, n.o 1, jun. 2013.
[6] B. Salinas Fernández, La evaluación de los estudiantes en la
Educación Superior, Servei de Formació Permanent. Universitat de València, 2007.
[7] A. Chiappe, «Prácticas Educativas Abiertas como factor de
innovación educativa con TIC», Bol. REDIPE, n.o 818, pp. 6-12, 2012.
[8] A. L. George y A. Bennett, «Case Studies and Theory Developmen
in the Social Sciences.», Lond. BCSIA Stud. Int. Secur., 2004. [9] F. C. Cabrera, «Categorización y triangulación como procesos de
validación del conocimiento en investigación cualitativa», theoria,
vol. 14, n.o 1, pp. 61–71, 2005. [10] C. Varguillas, «El uso de atlas. ti y la creatividad del investigador
en el análisis cualitativo de contenido UPEL. Instituto Pedagógico
Rural El Mácaro», Laurus Rev. Educ., vol. 12, pp. 73–87, 2006. [11] V. M. López Pastor, L. F. Martínez, y J. A. Julián Clemente, «La
Red de Evaluación Formativa, Docencia Universitaria y Espacio
Europeo de Educación Superior (EEES). Presentación del proyecto,
grado de desarrollo y primeros resultados.», Rev. Docencia Univ.,
vol. 2, p. 19, 2007.
[12] S. González, J. J. Brunner, y J. Salmi, «Comparación internacional de remuneraciones académicas: un estudio exploratorio», Calid. En
Educ., n.o 39, pp. 21-42, dic. 2013.
[13] D. Boud, «Assessment 2020. Propositions for assessment reform in higher education», Aust. Learn. Teach. Counc., 2010.
Andres Chiappe es Especialista en Investigación y Docencia Universitaria
de la Universidad Autónoma de Manizales in 1997, Magíster en Tecnología
Educativa del ITESM de Monterrey in 2002 y Doctor en Ciencias de la Educación de la Universidad de Caldas en 2012. Es actualmente Profesor
Asociado e investigador del grupo de investigación "Tecnologías para la
Academia – Proventus” del Centro de Tecnologías para la Academia de la Universidad de La Sabana, en Colombia.
Ricardo Pinto es Ingeniero Electrónico de la Universidad Antonio Nariño
en Bogotá en 1994, Especialista en Gestión de Proyectos de Ingeniería de la
Universidad Santo Tomás en Bogotá in 2002, Especialista en Enseñanza
Universitaria de la Universidad Piloto de Colombia en 2010, Magíster en Informática Educativa de la Universidad de La Sabana en 2015. Es
actualmente profesor e investigador en la Universidad Piloto de Colombia.
Vivian Arias es Ingeniera Biomédica de la Universidad Antonio Nariño en
Bogota en 2000, Magíster en Informática Educativa de la Universidad de La Sabana en 2013. Es actualmente profesora del Centro de Tecnologías para
la Academia de la Universidad de La Sabana, en Colombia.
178 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title— Teaching Image Processing in Engineering using
Python.
Abstract— This paper describes the experience lived in the
Faculty of Basic Sciences and Engineering of Universidad de
Los Llanos referred to the application of Project Based
Learning PBL-ABP as a strategy for teaching Image
Processing in undergraduate students of engineering. Through
this, learners are able to complement their readings and
lectures, to process and manipulate images and to build their
own Image Processing Tools using Python programming
language. This paper shows some projects resulting from the
application of the methodology and using the key concepts of
image processing and pattern analysis.
Index Terms— Engineering, Image Processing, Learning,
Project, Software.
I. INTRODUCCIÓN
L Procesamiento de Imágenes (PI) es una subcategoría
del tratamiento digital de señales. Es la ciencia de
manipulación de imágenes usando computadores para
realizar procedimientos específicos según las aplicaciones y
requerimientos del usuario, tales como: filtrado, recorte,
segmentación, compresión y reconocimiento [1]. Es un área
del conocimiento que tiene atención de investigadores y
escolares para desarrollar y mejorar algoritmos para
aplicaciones en: robótica, comunicaciones, sensores
remotos, biomedicina, automatización industrial, sistemas
de inspección, navegación, mediciones ópticas, entre otras
[2], [3].
Las prácticas de laboratorio son actividades pedagógicas, y
en el estudio del PI éstas se realizan mediante el uso de
algún software especializado [4]. Algunos software
comerciales de procesamiento de imágenes como:
Photoshop, CorelDraw, Ulead Photoimpact, entre muchos
otros, realizan procedimientos internos que no permiten el
entendimiento de algoritmos, la lógica o el método del
proceso [5],presentando cajas negras que no admiten su
manipulación [6]. Después de su uso, los estudiantes se
vuelven expertos en la herramienta mas no en el
procesamiento de imágenes, que por supuesto podría ser
adecuado para diseñadores digitales, pero no para ingenieros
electrónicos, ni de sistemas.
A. F. Jiménez. Universidad de los Llanos, Departamento de
Matemáticas y Física (FCBI), Grupo de Investigación Sistemas Dinámicos, Villavicencio, Colombia, ajimenez@unillanos.edu.co.
M. C. Prieto. Universidad de los Llanos, Escuela de Ingeniería (FCBI),
Grupo de Investigación Sistemas Dinámicos, Villavicencio, Colombia, marla.prieto@unillanos.edu.co.
A. Ramirez. Universidad de los Llanos, Escuela de Ingeniería (FCBI),
Grupo de Investigación Sistemas Dinámicos, Villavicencio, Colombia, angela.ramirez.forero@unillanos.edu.co.
Se han realizado esfuerzos por el desarrollo de herramientas
didácticas para la enseñanza del tratamiento digital de
imágenes y existen paquetes comerciales para aplicación de
laboratorios de PI, como por ejemplo MATLAB [1] y
Khoros [7], con desventajas similares a las herramientas de
manipulación de imágenes comerciales, adicionando el
elevado costo de licencias para su instalación en un aula de
clase [8]. Existen también plataformas no comerciales
independientes desarrolladas en C o Java [9], ambientes para
el análisis de imágenes tales como IPLab [10], colecciones
de rutinas y clases sin ambientes [11] y también gran
cantidad de applets interactivos independientes en internet
que permiten comprender algoritmos relacionados con el
tema. Varias universidades han implementado cursos
virtuales para trabajar bajo herramientas E-Learning con los
estudiantes interesados en PI[12], en donde se ha logrado
hacer que el aprendiz reciba instrucciones acerca de la
edición de imágenes y tener la opción de manipularlas en
línea [5].
Para que los estudiantes puedan comprender claramente los
conceptos y algoritmos del PI deben tener como
prerrequisito el conocimiento de: algebra lineal, análisis
multivariado y del procesamiento de señales, siendo estos
conceptos muchas veces abstractos. Por esta razón es
necesaria la práctica e interactividad con las herramientas de
software para lograr efectos positivos en la comprensión de
conceptos[10], ya que la enseñanza y aprendizaje de los
fundamentos de PI se logra si la atención está en la
representación visual de los algoritmos y el trabajo
experimental de los estudiantes [13]. La visualización en PI
puede considerarse como un factor de impulso cognitivo
mientras la descripción plana textual requiere un poco de
imaginación y habilidades interpretativas, con un resultado
pedagógico positivo al visualizar herramientas para la
demostración de aspectos básicos del procesamiento de
imágenes [14]. Muchas aplicaciones tales como: juegos de
video, graficas por computador, posprocesamiento de
imágenes y video, estimación y compensación de
movimiento, son implementados mediante soluciones de
software en procesadores de propósito general [15].
Para que la aplicación en software sea útil en el aprendizaje
del PI debe ser fácil de aprender, las tareas de PI deben
poder implementarse en pequeños programas y las
complejas usando subtareas, los programas deben correr lo
más rápido posible, la visualización de las imágenes debe
ser simple y rápida, y debe ser posible visualizar el progreso
del procesamiento en cada una de sus etapas [16]. En
esencia, se busca utilizar una herramienta de software que
permita a la vez aprender a utilizar un lenguaje de
programación mientras se aplican los conceptos teóricos,
para lo cual se pueden desarrollar aplicaciones en
MATLAB, C++, C, Java, Visual Basic, Python, entre otros.
Enseñanza del Procesamiento de Imágenes en
Ingeniería usando Python
Andrés Fernando Jiménez López, Marla Carolina Prieto Pelayo y Ángela Ramírez Forero
E
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015 179
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
En la Universidad de los Llanos se ha planteado el uso de
Python en el curso de PI, con el fin de lograr un aprendizaje
integral del estudiante, al permitirle desarrollar habilidades
de alta calidad en la producción de software, con
aplicabilidad en la investigación y el diseño de proyectos de
nivel avanzado. Python es un lenguaje de programación de
alto nivel, interpretado y multipropósito, cuyo creador es
Guido Van Rossum. En los últimos años su utilización ha
aumentado y es uno de los lenguajes de programación más
empleados para el desarrollo de software. Python puede ser
utilizado en diversas plataformas y sistemas operativos,
entre los que se puede destacar: Windows, Mac OS X y
Linux. Pero, además, Python también puede funcionar en
smartphones y sistemas embebidos.
Para la enseñanza de PI, además de la herramienta de
software es importante usar el Aprendizaje Basado en
Proyectos (ABPr), que permite a los estudiantes la
definición del propósito de la creación de un producto final,
identificar su mercado, investigar, crear un plan de trabajo,
diseñar y elaborar un producto. El proceso completo es
auténtico, referido a la producción en forma real, utilizando
las propias ideas de los estudiantes y completando las tareas
en la práctica [17]. Debido a esto, los estudiantes se enfocan
en lograr soluciones a problemas no triviales, generando
preguntas, consultando, discutiendo ideas, realizando
predicciones, diseñando planes de trabajo y/o experimentos,
recolectando y analizando información, estableciendo
conclusiones, comunicando sus resultados, cuestionándose y
creando o mejorando productos y procesos [18].
El ABPr es una estrategia pedagógica favorable para la
enseñanza de temáticas de ingeniería, que se complementa
al involucrar proyectos industriales y de impacto en la
comunidad universitaria y la región, para ofrecer una
experiencia tan auténtica como sea posible. La tendencia
también se dirige a realizar estos proyectos en forma
interdisciplinaria, con la colaboración de otras dependencias
o departamentos de ingeniería [19].
En este artículo se da a conocer la experiencia en la
realización del curso de pregrado: Electiva de
Profundización en Procesamiento de Imágenes de la
Universidad de los Llanos y unos de los proyectos
desarrollados en el curso; estos proyectos buscan brindar la
solución a necesidades del entorno, además de permitir a los
estudiantes la conceptualización de diferentes temáticas a
través de la interactividad con los resultados obtenidos en
las distintas etapas del procesamiento, enfocados en el
entendimiento de los algoritmos y códigos utilizados.
El software desarrollado en cada proyecto de curso está
basado en QT4 y Python 2.7, permitiendo que los resultados
se puedan aplicar no solo en el área de procesamiento de
imágenes, sino también en otras áreas del conocimiento,
especialmente en Ingeniería y Ciencias – Física. Algunas de
las aplicaciones desarrolladas en el curso han sido
fundamentales para los proyectos institucionales de la
Universidad de los Llanos: Diseño e Implementación de un
Laboratorio Virtual Remoto para prácticas de Mecánica –
Cinemática en la Universidad de los Llanos, para el
procedimiento de evaluación de las prácticas remotas
mediante procesamiento digital de imágenes y Diseño e
implementación de un sistema asistido por computador de
la prueba de Ronchi en la Universidad de los Llanos –
SAPRULL, en el que se optimiza el procedimiento de
adquisición de imágenes e identificación de aberraciones en
la fabricación de espejos.
II. ELECTIVA DE PROFUNDIZACIÓN EN
PROCESAMIENTO DE IMÁGENES
El curso de PI de la Universidad de los Llanos está
organizado en los módulos: Programación en Python,
Fundamentos de la Imagen Digital, Introducción al
Procesamiento Digital de Imágenes, Tipos de Imágenes –
Imágenes a Color, Adquisición de Imagen y video,
Detección de objetos en movimiento, Interfaz Gráfica de
Usuario en Python, Ingeniería de la Formación de Imagen,
Operaciones con Píxeles, Segmentación de Imágenes:
Bordes y Contornos, Representación y Descripción:
Operadores Morfológicos, Instrumentos Ópticos: Análisis
de imágenes para definición de frente de onda,
Transformadas de la Imagen y Sensores Remotos. Estos se
estudian en 17 semanas con una intensidad de seis horas
semanales, dos de teoría, dos de práctica de programación y
dos de tutoría. Los módulos de Programación en Python e
Interfaz gráfica de usuario utilizan las seis horas de la
semana correspondiente en actividades de programación.
Cada módulo del curso está dispuesto de una estructura que
incluye:
- Introducción. Se hace una descripción de las
aplicaciones y beneficios de la temática a tratar.
- Esquema del módulo. Temas incluidos en el módulo.
- Objetivos del módulo. Capacidades y conocimientos
que debe poseer al finalizar el módulo.
- Cuerpo Principal. Conceptos, ecuaciones y
procedimientos fundamentales de la temática explicada
en el módulo, utilizando ayudas audiovisuales como
presentaciones en formato .pptx que el docente prepara
con anterioridad y que muestra los contenidos del curso
de manera gráfica y llamativa para el estudiante.
- Desarrollo y aplicación en Python. Se desarrollan
algoritmos y se escriben programas en Python de
aplicaciones de la temática estudiada.
- Resumen. Se resaltan los aspectos fundamentales
tratados en el módulo
- Taller en Clase - Evaluación. Se desarrolla un taller en
clase, que permite avanzar en la temática del proyecto
final del curso, según los procedimientos vistos en
clase; cada grupo de estudiantes utiliza los ejemplos
vistos para adaptarlos según la necesidad de su proyecto
final.
En el curso se plantean tres evaluaciones parciales
teórico-prácticas y un proyecto final. Las evaluaciones
parciales consisten en un examen escrito (50% de la
calificación) y un miniproyecto (50% de la calificación).
Algunos de los miniproyectos que se han trabajado en el
curso son: a) Determinación característica de la ecuación de
movimiento de un objeto en caída libre y plano inclinado
mediante PI, b) Calificador de exámenes tipo Saber-Pro
usando PI, c) Guía de vehículo a control remoto mediante
barra de luces y detección de color.
En el curso se utiliza el modelo ARCS (Atención,
Relevancia, Confianza y Satisfacción), que es ampliamente
usado en el desarrollo de materiales de enseñanza [20]. Este
modelo desarrollado por John M. Keller [21] ha sido
reportado como uno de los más efectivos modelos en el
desarrollo de materiales de enseñanza atractivos en el
estudio de las secuencias de control [22], en control de
robots [23] y en Tratamiento digital de Imágenes [20].
180 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
III. RESULTADOS DEL APRENDIZAJE BASADO EN
PROYECTOS
La aplicación práctica de los conceptos se realiza
mediante la realización de un proyecto final y tres
miniproyectos, normalmente de cierta envergadura y en
grupo. El proyecto final se propone entre docente y
estudiante de forma tal que sea alcanzable y que en su
resolución se desarrollen todas las destrezas y se apliquen
los algoritmos fundamentales del PI.
Los proyectos inician con una pregunta generadora, que
no tiene respuesta simple basada solo en información, sino
que requiere del pensamiento crítico para su resolución y
ofrece andamiaje para que el estudiante aprenda a realizar
las tareas cognitivas que caracterizan este pensamiento, es
decir el estudiante debe: buscar el camino más eficiente para
realizar una tarea, sopesar la evidencia, revisar las ideas
originales, elaborar un plan o resumir los puntos más
importantes de un argumento. El proceso también se
fundamenta en el concepto de constructivismo, en el que el
estudiante aprende construyendo nuevas ideas o conceptos,
basándose en sus conocimientos actuales y previos.
Los proyectos se fundamentan en que son: centrados en el
estudiante, dirigidos por el estudiante, definidos claramente,
tienen contenido significativo para los estudiantes,
directamente observables en su entorno, se enfocan en
problemas del mundo real, son investigaciones de primera
mano, son sensibles a la cultura local, buscan obtener
productos tangibles que se puedan compartir con la
audiencia objetivo, con conexiones entre lo académico, la
vida y las competencias laborales, con oportunidades de
retroalimentación y evaluación por parte de expertos,
oportunidades para la reflexión, la auto evaluación por parte
del estudiante y una auténtica evaluación o valoración [24].
Estos proyectos se plantean de forma tal, que permitan el
aprendizaje de los conceptos y algoritmos de los
procedimientos esenciales en el mejoramiento y extracción
de información de imágenes con un propósito específico.
Teniendo en cuenta el enfoque que se daría a la herramienta,
se logran determinar nuevos procedimientos, metodologías y
modelos para promover el aprendizaje, mediante los cuales
los estudiantes de ingeniería desarrollan aplicaciones
prácticas de lo aprendido en sus cursos y grupos de estudio,
brindando solución a necesidades del entorno.Para el
desarrollo de las aplicaciones en software se utilizaron las
librerías de python: opencv, numpy, pyqt, sys, os y
matplotlib.
El proyecto se desarrolla durante todo el semestre, de
forma tal que dos semanas antes de finalizar el curso los
estudiantes han desarrollado el 80% de los procedimientos,
algoritmos, interfaces Gráficas de Usuario y programas; por
lo que el trabajo final consiste en ajustes y
perfeccionamiento de procedimientos. Algunos desarrollos
realizados por los estudiantes en el curso han sido:
1. Contador de varillas en camiones de acerías según
tipo,
2. Reconocimiento de Huella digital,
3. Detección de espacios libres en un parqueadero,
4. Detección de Movimiento para el desarrollo de
alarmas de un sistema domótico,
5. Detección de paso de vehículos en una vía
(Clasificación auto, camión o motocicleta),
6. Reconocimiento de Iris,
7. Reconocimiento de caracteres para Lenguaje de
señas,
8. Cálculo del tamaño de frutales mediante visión
artificial,
9. Reconocimiento de caracteres en Placas de
Vehículos,
10. Detección de vegetación mediante un vehículo en
campo y
11. Detección y caracterización de patrones de Ronchi en
Espejos Curvos, de los cuales se mencionan a
continuación algunos resultados.
A. Diseño e implementación de un sistema de adquisición y
análisis de información de Ronchigramas, mediante
tratamiento digital de imágenes. Marla Prieto.
El taller de óptica de la Universidad de los Llanos, se ha
constituido a lo largo de sus 25 años, como un destacado
referente en procesos de diseño y fabricación de diferentes
elementos ópticos en Colombia. Una de las tareas que se
realizan en el taller es la fabricación de espejos, proceso en
el que se involucran las fases de diseño, construcción y
prueba; en esta última etapa se ejecuta un test (La prueba de
Ronchi) [25], en donde el análisis de patrones de
interferencia se hace de manera cualitativa y no
cuantitativa, observando y dando una opinión de acuerdo a
la experiencia del operario. Por tal motivo se establece el
proyecto de desarrollar una herramienta que permita
optimizar el proceso de validación en la fabricación de
espejos mediante procesamiento digital de imágenes. En la
Fig. 1 se aprecia la interfaz gráfica de usuario desarrollada,
que permite realizar cuatro procedimientos fundamentales:
- Control de Movimiento, con los subprocesos: centro
de curvatura y foco.
- Adquisición de imágenes y video.
- Preprocesamiento, con los subprocesos:
Umbralización, Filtros espaciales, Transformación de
la imagen, algoritmos de umbralización, guardar
datos finales.
- Procesamiento: Análisis de ronchigramas.
B. Reconocimiento de Huella Dactilar como Mecanismo de
Seguridad. Natalia Barbosa.
El proyecto presenta la implementación de un sistema
biométrico como mecanismo de seguridad, al validar y
aceptar solo la huella que concuerda a la ingresada
previamente en la base de datos; para dicho proceso se
Fig. 1. Interfaz gráfica de Usuario ANGMAR –Image Processing V1.0. Fuente: Autores
JIMÉNEZ, PRIETO Y RAMÍREZ: ENSEÑANZA DEL PROCESAMIENTO DE IMÁGENES EN INGENIERÍA... 181
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
adquiere una imagen desde un dispositivo de captura de
huella dactilar, se adecúa para adquirir sus principales
características (minucias: Bifurcaciones y Terminaciones,
Fig. 2), usando procesamiento digital de imágenes y algunos
algoritmos matemáticos como el uso de filtros de la media y
la mediana para mejoramiento de la imagen y mapeos con la
fórmula de Crossing Number. El rendimiento de los
sistemas de reconocimiento de huella dactilar, se basa en la
precisión del algoritmo que se utilice.
El proceso realizado sobre las imágenes consiste en:
segmentación, filtrado, eliminación de ruido, gestión de la
cavidad y binarización, esqueletización, etiquetado,
eliminación de etiquetas inválidas, y comparación, Fig. 3.
Se utiliza un dispositivo Digital 4500 FingerPrint Reader,
que cuenta con funciones y librerías propias, pero que no se
utilizan debido a que el propósito del ejercicio es generar
algoritmos propios a partir de python.
Finalmente toda la información obtenida de las minucias
Fig.4, se compara con la información guardada en una base
de datos de huellas dactilares conocidas, si el número de
minucias coincide con respecto a la cantidad de minucias de
alguna huella de la base, se acepta como correspondiente, de
lo contrario es rechaza.
C. Cálculo del tamaño de frutales mediante visión
artificial. Diego Rojas, Alan Herrera.
El propósito de este trabajo es el de obtener una herramienta
útil para procedimientos automáticos de clasificación de
frutos. Se realizan algoritmos para el cálculo de integrales
mediante procedimientos de sólidos de revolución con
especial uso del método de disco a partir de la integración
numérica realizada con respecto a la regla del trapecio
compuesto, con el fin de obtener el volumen de una fruta en
particular. Las etapas básicas funcionales del sistema
desarrollado son: a) adecuación de iluminación, ruido de
captura y la oclusión de la escena, b) adquisición de imagen,
c) filtrado y corrección de la imagen, d) segmentación del
objeto, e) procesamiento y obtención de parámetro
dimensional, la cual se define por la ecuación 1, realizando
la aproximación a la fórmula del trapecio compuesto,
ecuación 2.
(2)
Donde y es el número de particiones.
El cálculo de volumen de la fruta se logra mediante la
relación del sólido de revolución y la integración numérica,
en donde se utiliza un sensor de ultrasonido para definir
distancias y la cámara Fig. 5.
D. Manejo de un Video Juego por Visión Artificial. Andrés
Zambrano, Cristian Torres.
Este proyecto se fundamenta en el reconocimiento de un
volante para generar el movimiento de un vehículo en un
videojuego mediante el uso de detección y análisis de color.
Al girar el volante hacia el lado izquierdo o derecho envía
una señal al videojuego y el vehículo se desplaza en la
dirección indicada, al acercar el volante a la cámara el
vehículo acelera y al alejarlo se frena, Fig.6. En esencia se
realiza una conexión entre Python y el Videojuego, que
permite realizar la emulación de las teclas en la ejecución
del videojuego. En la Fig. 7, se aprecia la interfaz gráfica de
usuario desarrollada para la conexión entre Python y el
juego Need of Speed, en donde se puede maniobrar el
videojuego mediante el volante diseñado para tal propósito.
Fig. 2. Terminaciones (izquierda) y Bifurcaciones (derecha). Fuente:
Natalia Barbosa.
a)
b)
c)
d)
e)
f)
Fig.3. a) Adquisición de huella dactilar con dispositivo digital FingerPrint
Reader. Desarrollo de algoritmos en python: b) preprocesamiento – filtrado,
c) segmentación, d) operaciones morfológicas - cierre, e) esqueletización, f)
etiquetado de minucias, Terminación (Blanco), bifurcación (Gris). Fuente:
Natalia Barbosa.
Fig. 4. Etiquetado de minucias correctas, Terminación (Blanco),
Bifurcación (Gris). Fuente: Natalia Barbosa.
Fig.5. Opción Captura de imagen. Fuente: Diego Rojas, Alan Herrera.
182 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
E. Reconocimiento de Gestos Manuales Mediante Visión
Artificial con Python y Opencv. Juan Reinoso.
Las etapas del sistema desarrollado para la detección de los
números mediante gestos manuales consiste en: la definición
de color del fondo de la escena, adquisición de imágenes,
transformaciones, filtrado, segmentación, definición de
características y reconocimiento e interpretación de la
escena. En la Fig. 7, se aprecian los resultados obtenidos en
el desarrollo de la aplicación, en la que se resalta la
definición de los números de uno a cinco mediante el
lenguaje de señas.
F. Método de Evaluación de un Laboratorio de
Movimiento Uniformemente Acelerado. Autores
Un aspecto importante cuando se trabaja con laboratorios
remotos en física es la forma de verificación de los
resultados que se obtienen en el experimento, es decir, cuál
es el mecanismo para evaluar un resultado experimental y la
veracidad de los datos que puede utilizar un estudiante para
realizar el informe. Para esta tarea se ha desarrollado una
aplicación en Python que permite adquirir información del
movimiento de un objeto de características específicas
usando una cámara, entregar los datos experimentales
mediante una tabla (que son los datos que el estudiante
recibirá mediante la plataforma virtual remota), y establecer
la ecuación de regresión de los datos de laboratorio
(Herramienta útil para la calificación por parte del docente),
para posteriormente comparar la información que entrega el
estudiante con la que da como resultado el algoritmo
implementado. Este algoritmo es desarrollado en la
Universidad de los Llanos para el proyecto de investigación
titulado: Diseño e implementación de un Laboratorio remoto
para prácticas de mecánica –Cinemática, a cargo del Grupo
de Investigación de Sistemas Dinámicos.
En la Fig. 9, se aprecia la interfaz gráfica desarrollada para
el estudio de movimiento uniformemente acelerado
mediante el uso de tratamiento digital de imágenes, en la
Fig. 10, la visualización de los procedimientos de
procesamiento y en la Fig. 11 las gráficas resultantes de
regresión que entrega el software desarrollado.
Los proyectos descritos con anterioridad son resultado de
la metodología aplicada durante el curso de Procesamiento
digital de Imágenes en la Universidad de los Llanos, en las
que los estudiantes desarrollaron habilidades para
identificar, formular y resolver diferentes problemáticas
haciendo uso de los conocimientos adquiridos en el curso.
IV. EVALUACIÓN DE LA METODOLOGÍA DE ENSEÑANZA-
APRENDIZAJE
El Aprendizaje Basado en Proyectos busca que el
estudiante se involucre de manera activa en su proceso de
aprendizaje, resaltando que es él quien dirige su formación a
partir de situaciones problema, que se transforman además
Fig. 6. a) Timón, b) Giro a la derecha, c) Giro a la izquierda, d) Acelerar, e)
Frenar. Fuente: Autores.
Fig. 7. a) Interfaz Gráfica, b) Ejecución de la Aplicación. Fuente: Andrés
Zambrano, Cristian Torres.
a)
b)
c)
d)
e)
f)
Fig. 8. a) Interfaz Gráfica, fondo de la escena, reconocimiento de los números: b) uno, c) dos, d) tres, e) cuatro, f) cinco. Fuente: Juan Reinoso
JIMÉNEZ, PRIETO Y RAMÍREZ: ENSEÑANZA DEL PROCESAMIENTO DE IMÁGENES EN INGENIERÍA... 183
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
en su estimulo por aprender, respondiendo de esta manera al
qué, cómo y para qué se aprende [26].Por medio de este
sistema de enseñanza es posible desarrollar estrategias para
la resolución de problemas, así como habilidades
específicas de una disciplina, por lo cual se ha seleccionado
como fundamento en la enseñanza del procesamiento digital
de imágenes.
El curso de procesamiento de imágenes es una electiva
profesional, que se ha dictado a los estudiantes de séptimo
semestre de ingeniería de sistemas e ingeniería electrónica
de la Universidad de los Llanos, la metodología de
enseñanza descrita se ha aplicado desde el segundo semestre
del 2014 hasta el segundo semestre de 2015 (tres grupos de
estudiantes).Con el fin de obtener la apreciación de los
estudiantes del curso, se plantearon diez preguntas que
permitieran reconocer la valoración del alumno sobre la
metodología de enseñanza – aprendizaje impartida.
El grupo de encuestados está conformado por 37
estudiantes que han asistido a la asignatura durante los
últimos 3 semestres, descritos en la Tabla I. Para el segundo
semestre del año 2014 los estudiantes que respondieron
fueron 9, para el primer semestre del año 2015 respondieron
13 estudiantes y para el segundo semestre de 2015
respondieron 15 estudiantes. Como se puede apreciar al ser
un curso electivo el número de estudiantes ha aumentado
cada semestre.
Al indagar sobre la posibilidad de realizar trabajos que le
permitiesen aprender con ayuda de sus compañeros, el 100%
de los encuestados estuvo de acuerdo, evidenciando que la
metodología del curso ha facilitado un aprendizaje
colaborativo, donde el estudiante es guiado por el profesor,
quien brinda espacios que permiten investigar y resolver
problemas en grupos de trabajo.
La totalidad de estudiantes encuestados, consideran que el
docente incentivó el uso de ayudas audiovisuales y
diferentes herramientas quitando protagonismo al tradicional
marcador y tablero, de esta manera se proponen estrategias
pedagógicas favorables en la enseñanza de temas de
ingeniería como factor importante en la metodología ABPr.
Se indagó acerca de si las herramientas de enseñanza que
utiliza el docente eran suficientes, para lo que 36 estudiantes
estuvieron de acuerdo; sólo una persona respondió
negativamente, justificando su respuesta por la falta de más
material bibliográfico para estudiar la teoría del
procesamiento de imágenes con Python. En cuanto a si el
docente fue claro en la temática expuesta, los 37 estudiantes
respondieron afirmativamente.
La fundamentación teórica del PDI, es realizada por el
docente en su explicación inicial, con utilización de apoyo
audiovisual y ejemplos prácticos del tema usando Python, de
esta manera se refuerzan los contenidos, permitiendo que el
estudiante asimile mejor la información y logre comprender
con mayor facilidad; por esta razón al cuestionar si la
metodología empleada facilita la comprensión de los
aspectos teóricos fundamentales de la asignatura todos los
encuestados indicaron una respuesta afirmativa.
Los encuestados consideran en su totalidad, que al cursar la
electiva de PI lograron adquirir habilidades para desarrollar
proyectos de ingeniería de una manera analítica y
propositiva, puesto que al diseñar proyectos se hace
necesario un análisis concienzudo de la problemática o
situación a trabajar, proponiendo alternativas de solución
efectivas, siendo posible conceptualizar la temática a través
de la interacción con los resultados progresivos que se
obtienen en el desarrollo del proyecto final.
La octava pregunta buscó reconocer aquellas aptitudes que
según el estudiante se incentivaron en su perfil profesional,
entre las siguientes opciones:
1. Trabajos o proyectos de innovación tecnológica.
TABLA I
ESTUDIANTES ENCUESTADOS EN LA VALORACIÓN DEL CURSO PI
Semestre 2014-2 2015-1 2015-2 Total
Estudiantes
Encuestados 9 13 15 37
Fig.9. Menú Principal software para la evaluación de un Laboratorio de
Movimiento Uniformemente Acelerado. Fuente: Autores.
Fig.10. Procedimientos de procesamiento software para la evaluación de un
Laboratorio de Movimiento Uniformemente Acelerado. Definición de centroides. Superior: Frame del Video adquirido, Inferior izquierda:
Detección del objeto e Inferior derecha: Detección de centroides Fuente:
Autores.
Fig.11. Software para la evaluación de un Laboratorio de Movimiento
Uniformemente Acelerado. Gráficos obtenidos de posición, velocidad y
aceleración respecto al tiempo. Fuente: Autores.
184 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
2. Actualizar sus conocimientos y especializarse en
alguna disciplina en particular.
3. Integrar y/o coordinar personas y grupos
interdisciplinarios.
4. Tener una alta capacidad de análisis y sentido crítico.
5. Participar en grupos de investigación y estudios.
6. Identificar posibles problemáticas del entorno, que
tuviesen solución a partir de la Ingeniería.
7. Formular y ejecutar soluciones para diferentes
problemáticas a través de su profesión.
Los resultados obtenidos en la Tabla II, reflejan que para
la mayoría de los encuestados se promovieron las aptitudes
1, 6 y 7, evidenciando que los estudiantes consideran como
factor importante la formulación y desarrollo de proyectos
innovadores desde el área de la ingeniería, respondiendo al
propósito de la aplicación de la metodología del curso, al
promover que el alumno formule y ejecute proyectos de
impacto para su entorno; por su parte los factores
relacionados con el trabajo en grupo y análisis crítico, tienen
falencias y debe incentivarse.
Se le solicitó a los estudiantes que respondieran si la
metodología desarrollada es mejor que la tradicional
teniendo en cuenta la clase impartida en el aula, haciendo
una valoración numérica en un rango de 1 a 5, donde 1 es
(muy bajo), 2 (bajo), 3 (medio), 4 (alto) y 5 (muy alto),
Tabla III; en esta pregunta dos personas dieron un valor de
tres, veinte contestaron 4, y quince consideraron como
respuesta un muy alto, demostrando la satisfacción por parte
de los estudiantes con la metodología de enseñanza.
También se indagó por el papel que ejerce el alumno en su
proceso de aprendizaje solicitando una valoración numérica
con la escala descrita, en la que los resultados reflejaron que
en lo referente a auto aprendizaje y aprendizaje compartido
cinco personas se autoevaluaron con un valor medio,
veintitrés dan como respuesta un valor alto y nueve de los
encuestados se otorgan un valor de muy alto, Tabla IV.
Estos resultados establecen la motivación de los estudiantes
por el trabajo individual al involucrarse con proyectos.
V. CONCLUSIONES
Se ha estructurado un método lógico para hacer uso de las
tecnologías avanzadas en el aprendizaje constructivo. Esta
aproximación es centrada en el estudiante, sobre técnicas de
análisis interactivo que son esenciales en el contexto del
diseño. El principal beneficio es que se provee un
aprendizaje práctico, sin dejar a un lado los conceptos
teóricos y matemáticos de la asignatura, que resulta de gran
utilidad para facilitar su comprensión y estimular al usuario
en el desarrollo de la asignatura de Procesamiento de
imágenes.
Con la metodología planteada el estudiante relaciona los
contenidos formativos con aplicaciones prácticas reales, que
le proporcionan un grado de satisfacción por la utilidad de
los contenidos, con el contacto con el mundo real en
aspectos vitales en su ejercicio profesional como lo son la
empresa y la investigación.
El lenguaje de programación Python es una excelente
opción para el aprendizaje del procesamiento digital de
imágenes, debido a que es un lenguaje interpretado, con
librerías dedicadas a tareas específicas, que en conjunto
permiten obtener herramientas de software robustas y
acertadas para la enseñanza del procesamiento digital de
imágenes, dejando a un lado la caja negra del software
comercial y permitiendo la manipulación de códigos y
algoritmos esenciales.
La integración de Python y Qt4 permite el desarrollo de
herramientas poderosas para el desarrollo de aplicaciones en
software, que han sido útiles en el desarrollo aplicaciones.
Esta herramienta permite complementar el aprendizaje del
tratamiento digital de imágenes en el aula; integrando
metodologías que dan un enfoque distinto a la forma
tradicional de aprender, pasando de “marcador y tablero”, a
la interacción del conocimiento con la implementación
práctica de nuevas técnicas y tecnologías que brindan
soluciones tangibles a diferentes planteamientos, haciendo
que el estudiante muestre mayor interés por las temáticas de
la asignatura al confirmar su importancia a través de la
experiencia.
TABLA II
APTITUDES QUE SEGÚN EL ESTUDIANTE SE INCENTIVARON
EN SU PERFIL PROFESIONAL.
TOTAL DE ESTUDIANTES: 37. FUENTE: AUTORES
Opción Definición Número de
Estudiantes
Porcentaje
1
Realizar trabajos o proyectos de
innovación
tecnológica
31 84%
2
Actualizar sus conocimientos y
especializarse en alguna disciplina en
particular
23 62%
3
Integrar y/o coordinar
personas y grupos interdisciplinarios
14 38%
4
Tener una alta
capacidad de análisis y
sentido crítico
15 41%
5
Participar en grupos de
investigación y
estudios
19 51%
6
Identificar posibles
problemáticas del
entorno, que tuviesen solución a partir de la
Ingeniería
29 78%
7
Formular y ejecutar
soluciones para diferentes
problemáticas a través
de su profesión
30 81%
TABLA III
VALORACIÓN DE LA METODOLOGÍA, RESPECTO A LA TRADICIONAL.
RANGO DE 1 A 5. FUENTE: AUTORES
Valor Definición Porcentaje
1 Muy bajo 0%
2 Bajo 0%
3 Medio 5%
4 Alto 56%
5 Muy Alto 39%
TABLA IV
VALORACIÓN DEL APRENDIZAJE. FUENTE: AUTORES
Valor Definición Porcentaje
1 Muy bajo 0%
2 Bajo 0%
3 Medio 14%
4 Alto 62%
5 Muy Alto 24%
JIMÉNEZ, PRIETO Y RAMÍREZ: ENSEÑANZA DEL PROCESAMIENTO DE IMÁGENES EN INGENIERÍA... 185
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
VI. AGRADECIMIENTOS
Se agradece a la Dirección General de Investigaciones y
al grupo de investigación Sistemas Dinámicos de la Facultad
de Ciencias Básicas e Ingeniería de la Universidad de los
Llanos, por su apoyo en el desarrollo del proyecto de
investigación: Diseño e Implementación de un Laboratorio
Remoto para prácticas de Mecánica (Cinemática) en la
Universidad de los Llanos código: FCBI-10-2014.
REFERENCIAS
[1] H. Al-Ghaib and A. Reza, "An E-Learning Interactive Course for
Teaching Digital Image Processing at the Undergraduate Level in
Engineering," in 15th International Conference on Interactive Collaborative Learning (ICL), Villach, 2012.
[2] L. Xiaohong, "Development and Application of Image Processing
Laboratory System Based on DSP," Journal of Hefei University, vol. 19, pp. 38-41, 2009.
[3] B. Jahne, Digital Image Processing, Heidelberg: Springer, 2005.
[4] D. Zhenhai, W. Yajing and C. Wengang, "Teaching software Development of Digital Image Processing Based on VB," in
International Conference on Educational and Information Technology
(ICEIT 2010), Chongqing, China, 2010.
[5] S. Poonam and S. Bhirud, "Interactive Web Based Learning: Image
Processing," in Application of Information and Communication
Technologies, AICT 2009, Baku, 2009.
[6] H. Zhang, Y. Zhao and X. Dai , "Method and Application of
Smoothing the Gray Image Based o VB," Journal of Shandong Institute of Technology, vol. 17, pp. 4-7, 2003.
[7] G. Donohoe and P. Valdez, "Teaching Digital Image Processing with
Khoros," IEEE Transactions on Education , vol. 39, no. 2, pp. 137-142, 1996.
[8] D. Sohi and S. Devgan, "Application to enhance the teaching and
understanding of basic image processing techniques," in Proc. IEEE Southeastcon 2000, Nashville, 2000.
[9] D. Bright, "Digital Image Processing with NIH Image (Mac)/Scion
Image (PC)/ImageJ," Report, surface and Microanalysis Science Division, National Institute of Standards and Technology,
Gaithersburg, 2004.
[10] D. Sage and M. Unser, "Easy Java Programming for Teaching Image Processing," in International Conference in Image Processing ICIP'01,
Thessaloniki, 2001.
[11] M. Powell and D. Goldgof, "Software Toolkit for Teaching Image Processing," International Journal of Pattern Recognition and
Artificial Intelligence, vol. 15, no. 5, pp. 833-844, 2001.
[12] H. Zhou, "Bridge the Gap between Traditional Course Teaching and E-Learning: a Case Study," in Information Technologies and
Applications in Education. ISITAE, Kunming , 2007.
[13] E. Ageenko and L. R. Gaetano, "A Visualization Toolkit for
Teaching, Learning and Experimentation in Image Processing," in 35th Asee/IEEE Fontiers in Education Conference, Indianapolis,
2005.
[14] R. Fisher and K. Koryllos, "Interactive textbooks: Embedding image processing operator demostrations in text," Int. J. Pattern Recognition
and Artificial Intelligence, vol. 12, no. 8, pp. 1095-1123, 1998.
[15] A. Davide and A. Yiannis, "Software Designs of Image Processing Tasks With Incremental Refinement of Computation," IEEE
Transactions on Image Processing, vol. 19, no. 8, pp. 2099-2114,
2010.
[16] J. A. Robinson , "A Software System for Laboratory Experiments in
Image Processing," IEEE Transactions on Education, vol. 43, no. 4, pp. 455-459, 2000.
[17] A. Mettas and C. Constantinou, "The technology fair: a project-based
learning approach for enhancing problem solving skills and interest in design and technology education," International Journal of
Technology and Design Education, no. 18, pp. 79-100, 2007.
[18] P. Blumenfeld, E. Soloway, R. Marx, J. Krajcik, M. Guzdial and A.
Palincsar, "Motivating project-based learning: Sustaining the doing,
supporting the learning," Educational Psychologist, vol. 26, no. 3&4,
pp. 369-398, 1991.
[19] S. Alptekin, D. Deturris and D. Macy, "Development of a flying eye:
A project-based learning experience," Journal of Manufacturing
Systems, vol. 24, no. 3, pp. 226-236, 2005.
[20] R. Yokokawa, H. Oneda, S. Osawa and K. Ozaki, "Development of a
Teaching Material that can Motivate Students to Learn Control
Engineering and Image Processing," in IEE 17th International Conference on Computational Science and Engineering, Chengdu ,
2014.
[21] J. M. Keller, "Development and Use of the ARCS Model of Instructional Design," Journal of Instructional Development, vol. 10,
no. 03, pp. 2-10, 1987.
[22] S. Inamori, K. Chida, M. Noguchi, M. Arai and M. Koshimizu, "Development of Sequence Control Educational Materials with
Module Structure for Engineering Experiments," Japanese society of
Engineering education, vol. 54, no. 04, pp. 21-26, 2006.
[23] T. Tasaki, S. Watanabe, Y. Shikanai and K. Ozaki, "Development of
Control Teaching Material for Mechatronics Education Based on
Experience," Japanese society of Engineering Education, vol. 58, no. 04, pp. 98-102, 2010.
[24] N. Martin and A. Baker, Linking work and learning toolkit, Portland,
2000.
[25] D. Malacara, Optical Shop Testing, 3 ed., Hoboken, New Jersey:
John Wiley & sons, Inc, 2007
[26] A. Escribano y A. Del Valle, El Aprendizaje Basado en Problemas ABP (Una propuesta metodológica en Educación Superior),2 ed.,
Bogotá, Ediciones de la U, 2015.
Ángela Ramírez. Candidata a Ingeniera Electrónica de la Universidad de
los Llanos–Villavicencio, Colombia. Grupo de Investigación Sistemas Dinámicos. Sus intereses de Investigación son: automatización, Sistemas
embebidos y programación.
Marla Prieto. Candidata a Ingeniera Electrónica de la Universidad de los
Llanos –Villavicencio, Colombia. Grupo de Investigación Sistemas
Dinámicos. Sus intereses de Investigación son: automatización, Sistemas embebidos y programación.
Andrés Jiménez. Ingeniero Electrónico de la Universidad Pedagógica y
Tecnológica de Colombia, Magister en ciencias – Física de la Universidad Nacional de Colombia (2011). Investigador de los grupos: Sistemas
Dinámicos y Macrypt de la Universidad de los Llanos, Villavicencio,
Colombia, desde el año 2013. Profesor del Departamento de Matemáticas y Física de la misma universidad. Sus intereses de investigación son:
procesamiento de imágenes, agricultura de precisión, simulación física,
laboratorios remotos, óptica y electrodinámica.
186 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title – An architecture for a learning analytics system
applied to efficient driving
Abstract— Transport companies are probably one of the
greatest sources of pollution nowadays. Maybe because these
companies would like to improve this situation, or maybe
because they simply would like to reduce the petrol they
consume, they are more than ever deploying plans in order to
increase the efficiency of their fleets. One of the easiest and
cheapest ways to increase this efficiency is to teach their drivers
how to be more efficient. Nevertheless, traditional learning
approaches were only successful on the short term according to
previous work. In order to achieve long term results, new
learning paradigms must be taken into account. Furthermore,
if we combine these paradigms with a learning analytics
system, we may achieve optimal results for both the company
and the drivers. In this paper we present a learning analytics
system applied to the efficient driving context. This learning
analytics system is used as a fundamental piece in the
deployment of the blended learning methodology for efficient
professional driving designed by our research group. We
describe the design and the integration of this system with a
real product used nowadays in many transport fleets. With a
technical approach, we also describe the main problems found
during the deployment of this system and the solutions
designed to cope with these problems.
Index Terms— Data warehouses, business data processing,
learning systems, vehicle driving, energy efficiency.
I. INTRODUCCIÓN
L transporte por carretera es uno de los sectores más
contaminantes y con mayor contribución al
calentamiento global en la actualidad. Conscientes de esta
situación, las empresas del sector del transporte están
desarrollando planes que mejoren la eficiencia en la
conducción con el fin de reducir su consumo. Entre estos
planes de mejora, la adopción de técnicas de conducción
eficiente es una de las opciones más demandadas, debido a
la reducida inversión que precisa y el ahorro en consumo de
combustible que se puede alcanzar. Este ahorro puede llegar
al 10% según algunos estudios [1].
La adopción de estas técnicas de conducción eficiente
implica necesariamente formar a los conductores de las
, A. Rionda, ADN Mobile Solutions, {alejandro.garcia,
abel.rionda}@adnmobilesolutions.com
, A. G. Tuero, Universidad de Oviedo, {pozuecolaura, melendi, xabiel, garciaroberto,
garciaalejandro.uo}@uniovi.es
(UNED), gdiaz@ieec.uned.es
, Universidad del Cauca,
jlarci@unicauca.edu.co
compañías anteriormente mencionadas. El método
tradicional de formación se basa en la impartición de cursos,
en los que se proporcionan a los conductores una serie de
pautas de conducción eficiente. No obstante, la efectividad a
medio y largo plazo de estas actividades de formación no es
muy alta, porque con el tiempo los conductores recuperan
los malos hábitos que se pretendían eliminar [2]. Por ello, es
necesario un nuevo enfoque que busque un aprendizaje de
largo plazo o permanente. En este sentido, hemos diseñado
un nuevo método de aprendizaje basado en los paradigmas
de blended learning y learning by doing. Este método,
denominado BLED [3], se ha diseñado para la formación de
conductores en técnicas de conducción eficiente. Combina
una retroalimentación en tiempo real con herramientas
personalizadas de formación offline. Este método se sustenta
sobre un sistema complejo en el que se almacenan grandes
volúmenes de datos capturados en los vehículos en
movimiento, para el posterior tratamiento de los mismos y la
realización de diversos análisis sobre la evolución del
aprendizaje de los conductores.
En este artículo se presenta una experiencia relativa al
diseño integral e implementación de un sistema de big data.
El sistema permite dotar al proceso presentado en [3] de un
módulo de learning analytics que, a su vez, sirve para
construir un entorno de aprendizaje personalizado para el
estudio de patrones de conducción. El proceso se inicia con
la recopilación de todos los datos correspondientes a decenas
de variables de los vehículos cada pocos segundos, mediante
la instalación de un sistema embarcado. Estos datos se
almacenan durante un periodo de tiempo limitado en un
sistema planteado para el control de las flotas. Este sistema
se denomina CatedBox. La versión original de este sistema
se describe en [4]. Mediante el procesamiento periódico de
los datos, se realizan una serie de informes para las
compañías correspondientes. Debido al volumen de
información recopilada, los datos se eliminan
periódicamente con la finalidad de ahorrar espacio de
almacenamiento. No obstante, el objetivo primordial de
nuestro sistema de learning analytics, es el de realizar
análisis a largo plazo que sean de interés para los
conductores y los formadores expertos en conducción
eficiente. Por ello, transferimos los datos de Cated Box junto
con parte de la información calculada para las compañías a
un datamart cuyo diseño presentamos en este trabajo. El
trabajo muestra los problemas encontrados durante la
implantación del sistema junto con las soluciones aplicadas.
Este conocimiento puede ser enriquecedor para otros
investigadores o ingenieros que se enfrenten a un problema
similar.
Una Arquitectura para un Sistema de Evaluación
del Aprendizaje Aplicado a la Conducción
Eficiente A. G. Pañeda, L. Pozueco, D. Melendi, Member, IEEE, X .G. Pañeda, R. García, A. G. Tuero,
A. Rionda, G. Díaz, Senior Member, IEEE, J. L. Arciniegas
E
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015 187
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
El resto del artículo está organizado de la siguiente forma.
En la Sección II se describe brevemente el sistema
CatedBox. En la Sección III se detalla cómo se realiza la
integración del módulo de learning analytics en CatedBox.
Los problemas y las soluciones adoptadas durante el
despliegue del sistema se resumen en la Sección IV.
Finalmente, la Sección V recoge las conclusiones y los
trabajos futuros.
II. EL SISTEMA CATEDBOX
El sistema CatedBox ha sido desarrollado por la empresa
ADN Mobile Solutions. Aunque originalmente era un
sistema muy sencillo pensado para vehículos particulares
[4], en la actualidad se trata de una solución diseñada para la
gestión inteligente y eficiente de flotas de vehículos. Entre
otros objetivos, persigue la gestión de la eficiencia
energética de las flotas, alineada con sistemas y normas de
calidad, así como la monitorización medioambiental de
última generación a través de vehículos públicos y privados
[5]. El sistema proporciona una experiencia homogénea para
cualquier vehículo, ya sea turismo, camión o autobús, y es
compatible con un conjunto de protocolos estándar de la
industria [6].
Básicamente, el funcionamiento de CatedBox se basa en
la recogida de datos de diferentes fuentes para su posterior
almacenamiento y tratamiento. La arquitectura general de la
tecnología CatedBox consta de dos subsistemas con
diferentes componentes que incluyen elementos software y
hardware. Un sistema embarcado que se encarga de recoger
datos de los vehículos, y un sistema central que se encarga
del almacenamiento de esos datos y su posterior
procesamiento.
A. Sistema Embarcado
Tal y como se observa en la Fig. 1, el sistema embarcado
de CatedBox permite la recogida de los datos mediante una
conexión a la unidad de control del motor del vehículo
(ECU, Engine Control Unit). Mediante esta conexión, el
sistema recupera los datos correspondientes a una serie de
variables del motor, que dependen de las características del
vehículo. Estas variables pueden incluir, entre otras, las
siguientes:
Velocidad del vehículo
Revoluciones por minuto del motor
Aceleración longitudinal del vehículo
Distancia total recorrida por el vehículo
Consumo instantáneo del vehículo
Porcentaje de carga del motor
Porcentaje del par de motor
Marcha engranada
Peso total del vehículo.
A estos datos, se suman otros que proporciona el propio
sistema embarcado mediante un módulo de procesamiento
local. Utilizando GPS, se calcula tanto la posición del
vehículo como su velocidad (complementaria a la que
proporciona el vehículo) de forma similar a [5].
Adicionalmente, unos acelerómetros permiten obtener las
fuerzas que actúan sobre el vehículo en un momento
determinado. Finalmente, el módulo calcula un conjunto de
alarmas que indican comportamientos que podrían ser
considerados poco recomendables.
Utilizando la red de telefonía móvil, todos los datos se
trasmiten al sistema central. En este envío también se
incorporan otros datos que permiten ubicar la medición en
un momento determinado y en un vehículo y ruta concretos.
El envío de los datos se realiza en formato JSON mediante
una invocación a unos servicios REST desplegados en el
sistema central. El sistema embarcado también consta de una
aplicación de presentación local de información. Mediante
un display, esta aplicación permite avisar al conductor de las
alarmas que se están generando en el sistema, así como
hacer sugerencias encaminadas a una mejora en la
conducción.
En la figura 2 se muestra una imagen que refleja la
interfaz de usuario utilizada en este display. Básicamente se
trata de cuatro alarmas visuales que proporcionan una
retroalimentación mínima pero evitando al mismo tiempo
posibles distracciones.
B. Sistema Central
El sistema central es el encargado de recibir la
información recogida durante el proceso de conducción y
almacenarla para su posterior tratamiento. Tal y como se
observa en la Fig. 3, el núcleo del sistema está formado por
distintas bases de datos. En primer lugar, se utiliza un gestor
de base de datos no relacional CouchDB para almacenar la
información recibida de los sistemas embarcados. En
segundo lugar, un gestor de base de datos PostgreSQL se
utiliza para almacenar el resultado de procesar los datos
recibidos de los vehículos, junto con información que
proporciona la empresa propietaria. Cada flota que se
gestiona en el sistema dispone de una instancia de base de
datos en cada uno de estos dos gestores.
De forma periódica, una serie de tareas planificadas
procesan los datos almacenados en las bases de datos
CouchDB y generan información calculada que se almacena
en las bases de datos relacionales PostgreSQL. Además de
los datos recuperados de la base de datos CouchDB
Fig. 1. Sistema embarcado.
Dispositivo
EmbarcadoCaptura
de datos
Procesamiento local
Transmisión
Presentación
local
ECU
Fig. 2. Interfaz de usuario del sistema embarcado.
188 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
correspondiente, el proceso de cálculo utiliza información
proporcionada por las empresas. Entre esta información se
encuentran detalles sobre los vehículos y sobre las rutas
recorridas. Adicionalmente, también proporcionan detalles
sobre los turnos de trabajo de los conductores. Esto nos
permite relacionar las muestras recogidas de los vehículos
con los datos anonimizados de la persona que estuvo
conduciendo en un momento determinado. Esta información
es imprescindible para realizar la evaluación de estos
conductores. Es decir, para modelar el comportamiento de
un conductor en un periodo de tiempo determinado
necesitamos saber qué vehículos utilizó ese conductor y
cuáles fueron sus horarios en ese periodo.
Los sistemas de gestión de base de datos comentados se
utilizan como núcleo de otros subsistemas que dan servicio a
distintos perfiles de usuario. A continuación se enumeran sus
principales funcionalidades:
La gestión de los dispositivos embarcados propiamente
dichos y de la infraestructura subyacente mediante
políticas de gestión TI
La elaboración de informes e indicadores destinados para
las empresas que contratan el servicio
El seguimiento del proceso de aprendizaje de los
conductores por parte de los formadores.
III. INTEGRACIÓN DE UN SISTEMA DE LEARNING ANALYTICS
Por todo lo anteriormente comentado, el sistema Cated
Box podría ser utilizado por las empresas para realizar una
evaluación de un conductor desde el punto de vista de la
eficiencia. Esta evaluación es de gran importancia a la hora
de que las empresas puedan analizar su mejora en términos
de eficiencia energética, como dicta por ejemplo la norma
ISO 50001 [8]. Pero también es un proceso interesante si se
utiliza en un contexto de aprendizaje. En este sentido, la
detección de patrones de comportamiento como los descritos
en [9] puede ser fundamental. Es decir, podemos caracterizar
la eficiencia en base a aspectos objetivos como el uso de la
inercia, la forma en la que se acelera o frena, o el tiempo que
el vehículo está en ralentí. Esta información es muy valiosa
tanto como retroalimentación para los conductores, como
para que los formadores puedan personalizar las actividades,
buscando corregir los defectos de sus alumnos y reforzar los
aspectos positivos. Es por ello que se pretende incorporar un
proceso de learning analytics en el contexto de la
conducción eficiente. No obstante, una evaluación rigurosa
requiere de un análisis exhaustivo que incluya otras fuentes
de información. Así, es necesario tener en cuenta el
contexto en el que se realiza la conducción. El proceso de
aprendizaje se verá influenciado de forma muy importante
por aspectos como la visibilidad, el estado del tiempo, de la
vía o del tráfico [10]. Todo esto hace que determinar si una
conducción es eficiente, o si el conductor ha mejorado, deba
de estar supeditado a esta información, por lo que se genera
un proceso analítico sumamente complejo. La segunda de
las consideraciones especiales es la dependencia de los
vehículos. Puesto que no es igual conducir un vehículo que
otro, será necesario determinar la influencia de los
diferentes tipos, potencias y combustibles en la eficiencia.
Esto obliga a hacer test de campo con diferentes vehículos
para calibrar y evaluar las métricas generadas.
En definitiva, Cated Box se está enriqueciendo con un
sistema adicional de learning analytics. Tal y como se
aprecia en la Fig. 4, este sistema se compone de un gestor de
base de datos CouchDB y de un gestor de base de datos SQL
Server.
El gestor de base de datos CouchDB contiene una copia
de las bases de datos CouchDB que hay en el sistema
central. El traspaso de los datos entre los gestores CouchDB
se realiza mediante los procesos de replicación propios de
este sistema. La decisión de disponer de una réplica, se tomó
principalmente por dos razones. Por un lado, se dispone de
una copia de los datos que puede ser utilizada en caso de que
sea necesario llevar a cabo un proceso de recuperación ante
la pérdida del sistema central. Por otro lado, no se penaliza
al CouchDB del sistema central durante la transferencia de
datos hacia el data mart implementado en SQL Server,
puesto que no hay impacto directo contra el servidor.
Se ha elegido SQL Server para implementar el data mart
por la disponibilidad de toda la suite de herramientas de
inteligencia de negocio de Microsoft. Tal y como se observa
en la Fig. 4, al data mart se traspasa toda la información de
la réplica del CouchDB, junto con otros datos necesarios
para la realización de los análisis. Una parte de estos datos
forma lo que denominamos el ―Contexto‖, es decir, los
detalles que proporcionan las empresas sobre las rutas y los
conductores que se recuperan del gestor de base de datos
PostgreSQL que hay en el sistema central. Esto incluye los
turnos de los conductores, las rutas asignadas por las
empresas a los vehículos, las líneas en las que circulan los
vehículo y otros, como pueden ser las paradas inesperadas
de servicio.
Igualmente, y tal y como se observa en la en la Fig. 4, el
sistema incluye funcionalidades de ubicación en mapas y
geocodificación inversa. Esta funcionalidad se utiliza para
mejorar la calidad de los datos de posicionamiento, mediante
el procesamiento de las coordenadas proporcionadas por los
sistemas embarcados. La falta de precisión del módulo GPS
incorporado en los sistemas embarcados provoca continuos
Fig. 4. Sistema de learning analytics.
Fig. 3. Sistema central.
PAÑEDA et al.: UNA ARQUITECTURA PARA UN SISTEMA DE EVALUACIÓN DEL APRENDIZAJE ... 189
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
errores de posicionamiento. Estos errores hacen que, en
ocasiones, se ubique a los autobuses encima de un edificio o
de forma ambigua en áreas de intersección. Por ello, esta
funcionalidad incorpora un módulo que corrige los datos de
longitud y latitud (map-matching) y un segundo módulo que
traduce esos datos corregidos en el valor nominal de una
calle (reverse-geocoding). La corrección de datos se realiza
con las funciones proporcionadas por OpenStreetMap1,
mientras que la ubicación en los callejeros se obtiene de
Nominatim2.
Tal y como se observa en el modelo de datos resumido de
la Fig. 5, en el centro del data mart se ubica una tabla de
hechos con las mediciones recuperadas de los vehículos.
Adicionalmente, existen otras tablas que almacenan, por
ejemplo, las alarmas registradas por el sistema embarcado.
A. Integración de Cated Box con el Data Mart
La interconexión del sistema Cated Box con la
arquitectura de análisis diseñada requiere el desarrollo de un
sistema de integración. Todo comienza con la réplica de
CouchDB que forma parte de la infraestructura analítica.
Como se había comentado con anterioridad, la réplica tiene
la finalidad de evitar la lectura directa del sistema central,
minimizando la congestión que sufre este sistema.
Posteriormente, el sistema de integración desarrollado
vuelca la información que obtiene de la réplica en el data
mart, enriqueciéndola con el resto de datos que se habían
comentado previamente. Este sistema se ha implementado
mediante las utilidades de extracción, transformación y
carga de datos (de ahora en adelante ETL) disponibles por
los servicios de integración de la suite de inteligencia de
negocio de Microsoft. Las especificaciones y el
funcionamiento de los paquetes desarrollados se describen
brevemente a continuación.
La arquitectura del sistema de integración consta de 3
fases, tal y como se muestra en la Fig. 6, en el formato de
modelado y notación de procesos de negocio (BPMN):
Parametrización, Procesamiento y Cierre. Durante la fase de
Parametrización, el proceso de integración obtiene los
parámetros necesarios para su correcta ejecución del gestor
de base de datos. Para ello, se selecciona la base de datos a
partir de la cual se va a realizar el proceso de migración,
que equivale a seleccionar la flota que se va a sincronizar.
La base de datos a sincronizar (la flota) se obtiene a través
de un procedimiento almacenado, que elige la que tenga una
prioridad mayor. Seguidamente, se obtienen del gestor las
URL necesarias para la conexión con el servidor CouchDB
adecuado y con los servicios REST que proporcionan la
información adicional a inyectar en el modelo. En último
lugar, se establece el intervalo de tiempo a sincronizar. Para
ello se toman como referencia los siguientes valores:
Fecha de Inicio: Será la fecha final de la última vez que
se sincronizó esta base de datos
Fecha de Fin: Varía en función de un parámetro de
entrada ―intervalo‖ que se obtiene de la base de datos.
Este parámetro determina el número de días que se van a
sincronizar. En el caso de el parámetro sea 0, se
cargarán los datos hasta el día anterior a la fecha actual.
1http://mapmatching.3scale.net 2http://www.nominatim.org
La fase de Procesamiento obtiene los datos de las fuentes
seleccionadas y los procesa para su carga en el data mart.
Durante esta fase se ejecutan tres bloques condicionados a la
validez de los parámetros obtenidos en la fase anterior.
Todos y cada uno de estos bloques se ejecutan de manera
transaccional, garantizando la validez de la operación de
manera íntegra, de forma que se verifica la continuidad del
proceso. Con esto se asegura la reducción de impacto sobre
los servicios que se consumen desde los servidores de
terceros, realizando peticiones sólo cuando sea necesario.
Cada uno de estos bloques realiza una petición al sistema
adecuado para obtener un tipo de información determinado.
Dos de ellos (Obtener Facts y Obtener Eventos) se conectan
a la base de datos CouchDB correspondiente para descargar
los datos obtenidos de los vehículos, incluyendo eventos y
alarmas. Un tercero se conecta a los servicios REST que
permiten obtener los datos proporcionados por las empresas
del sistema central (rutas, conductores y vehículos).
Finalmente, durante la fase de Cierre se realiza un
registro de las operaciones realizadas. Igualmente, se
eliminan las tablas temporales y se realiza la rotación de las
bases de datos. Esta rotación implica reajustar las
prioridades de las bases de datos que se sincronizan. De esta
forma, y tras un número de iteraciones determinado, se
realiza la carga de todas las bases de datos en el data mart.
B. Caso de Estudio
Como muestra de la aplicación del sistema de learning
analytics, se proporciona parte de la experiencia en una
Fig. 5. Modelo de datos resumido del data mart.
Fig. 6. Fases del sistema de integración.
190 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
implantación real en una empresa pública, responsable del
transporte urbano de pasajeros en una ciudad de España.
Esta empresa dispone de 35 líneas, transportando a más de
85 millones de pasajeros al año. En este caso, se ha utilizado
la información obtenida de los 20 autobuses que dan servicio
a una línea concreta.
Los resultados permiten localizar los puntos donde los
conductores tienen más potencial de mejora sobre su
conducción, en función de la hora del día. Tal y como se
puede apreciar en el mapa de la figura 7, existen una serie de
puntos en los que es muy frecuente registrar acelerones muy
ineficientes. Tal y como sucede con los patrones que afectan
a la conducción de forma negativa, el sistema también
proporciona información sobre los hábitos que hacen que la
conducción sea muy eficiente. Por ejemplo, en la figura 8 se
observan puntos en los que se hace un uso eficiente de la
inercia del vehículo.
Esta información permite la mejora continua de los
conductores de la línea. Esta mejora se fundamenta en dos
actores que utilizan la salida del sistema de learning
analytics. En primer lugar, los miembros del equipo de
recursos humanos, como punto de interacción frecuente con
los conductores y como encargados de un sistema de
recompensas implantado en la compañía. En segundo lugar,
los expertos en conducción eficiente encargados de la
formación, con la finalidad de adaptar el proceso de
aprendizaje a las necesidades particulares de cada uno de los
conductores. En la figura 9 se observa cómo el número de
acelerones desciende progresivamente en el tiempo,
demostrando la eficacia del sistema y de la metodología
subyacente [3].
IV. PROBLEMAS Y SOLUCIONES
A pesar de que hay muchos trabajos en los que se
desarrolla la problemática de trabajar con grandes
volúmenes de datos [11], nosotros presentamos en esta
sección los resultados más significativos de una experiencia
obtenida en el desarrollo de un proyecto real. En primer
lugar, cabe destacar que hay una serie de problemas
implícitos al uso de sistemas de gestión de base de datos no
relacionales para el almacenamiento de grandes volúmenes
de datos. En segundo lugar, las integraciones realizadas en
este trabajo han planteado una serie de problemas
específicos. Las soluciones a estos problemas pueden ser
consideradas lecciones aprendidas en proyectos de esta
naturaleza.
A. El Problema de Almacenamiento de Grandes Volúmenes
de Información en Bases de Datos No Relacionales
Las bases de datos no relacionales, como CouchDB, se
crearon única y exclusivamente para almacenar grandes
volúmenes de datos sin penalización de acceso a los mismos.
Esta peculiaridad es su principal defecto, puesto que los
procesos que se realizan en background (indexación,
replicación, compactación), suelen hacer que el tamaño
necesario para almacenar las bases de datos crezca y, en
determinados momentos, se necesite incluso el doble de
disco del que sería necesario en otros casos. Por ello, es
necesario realizar una estimación de la velocidad de
crecimiento del sistema de gestión de base de datos en
función de la inserción de documentos diarios. Por ello, la
escalabilidad del sistema es uno de los grandes retos que
debemos afrontar. Con el aumento de flotas y de vehículos
que utilizan el sistema Cated Box, y dado el elevado
volumen de información manejado, es necesario plantear
políticas para el borrado o el traspaso de la información
detallada que se almacena en el CouchDB del sistema
central. En este sentido, es necesario tener en cuenta que el
tamaño final de una instalación con esta tecnología se ve
influenciado por los datos propiamente dichos, pero también
por los índices y las vistas que se construyen para las
consultas. Los índices son las referencias de los documentos
insertados en la base de datos, mientras que las vistas
reflejan una consulta sobre los índices almacenada en disco.
Dado que estas consultas son necesarias para el acceso a la
información, es necesario tenerlas en cuenta durante el
diseño de datos del sistema.
En este sentido, una primera opción para la organización
del almacenamiento del sistema, sería la de disponer de
varias bases de datos de reducido tamaño (200GB
aproximadamente). Cada una de estas bases de datos se
utilizaría para almacenar las mediciones realizadas en una
flota determinada. Por otro lado, una segunda opción sería
la de disponer de una única base de datos de mayor tamaño
(4TB). La primera opción tiene como consecuencia tiempos
de peticiones a la base de datos más reducidos, así como
Fig. 7. Puntos de aceleración no eficiente en la ciudad.
Fig. 8. Puntos de inercia en la ciudad.
Fig. 9. Evolución en los problemas de aceleración tras la retroalimentación.
PAÑEDA et al.: UNA ARQUITECTURA PARA UN SISTEMA DE EVALUACIÓN DEL APRENDIZAJE ... 191
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
una reducción en el tamaño de los índices y las vistas. La
segunda opción implica una mejora en cuanto a la gestión y
mantenimiento del sistema, pero las vistas pueden llegar a
ocupar un 60% del tamaño de la base de datos, generando
problemas de almacenamiento y gestión. En base a nuestra
experiencia, cuando se alcanza un tamaño aproximado de
2TB la base de datos empieza a ser inmanejable. Llegado a
este caso, la decisión es la de optar por la clusterización de
las bases de datos. Esto consiste en la separación del sistema
en varias partes con un cierto nivel de redundancia, con lo
que se obtiene la capacidad de restaurar el sistema en caso
de pérdida de una de sus partes. Si el tamaño de dichas
partes clusterizadas se correspondiera con el indicado en el
primer caso expuesto, se conseguiría una solución para el
problema de indexación y manejo de las bases de datos.
Además del diseño de datos propiamente dicho del
sistema no relacional, es también necesario realizar algunas
consideraciones sobre la indexación, compactación,
fragmentación y borrado de datos en caso de ser necesario.
La indexación es un problema constante en las bases de
datos que utilizan CouchDB, puesto que los índices deben
estar regenerándose de manera permanente cada vez que se
realiza una inserción en el sistema. Esto puede desencadenar
en una saturación de la entrada y la salida del servidor,
perjudicando la consulta de los datos o incluso dejar las
bases de datos fuera de servicio temporalmente. Es por eso
que se deben de tener procesos automatizados que se
ejecuten en breves intervalos periódicos para facilitar su uso.
Otro factor a tener en cuenta es la fragmentación. La
fragmentación de las bases de datos CouchDB está
producida por diversas causas. Entre ellas la inserción de
documentos de manera descontinuada, el número de
inserciones concurrentes, el número de índices, etc. Es por
eso que se deben tomar ciertas medidas a la hora de
controlar la fragmentación de la base de datos. Esto se puede
solucionar a través de la auto-compactación de bases de
datos en una ventana de tiempo estricta, de forma que, en un
periodo de poca actividad en el servidor, se pueda conseguir
una compactación relativamente rápida sin llegar a
influenciar negativamente al servicio. Es necesario tener en
cuenta que también es necesario compactar las vistas. La
compactación es un proceso mediante el que el gestor
CouchDB crea una copia del sistema en otro fichero al que
transfiere únicamente los datos válidos, eliminando toda la
información no utilizada o antigua.
Dado que el espacio de almacenamiento consumido es un
punto crítico, es necesario proponer soluciones para la
liberación de disco. CouchDB no permite ninguna manera
directa de realizar un borrado de información. Cuando se
elimina un dato, el sistema crea una referencia a ese dato
denominada tombStone, con la finalidad de poder detectar
conflictos durante una hipotética sincronización con una
réplica. No obstante, el dato original no se elimina del disco,
por lo que continúa ocupando espacio. Uno de estos
tombStones incluye el identificador del dato original, su
versión y un campo protegido _deleted = true, lo cual
supone la unidad mínima necesaria para garantizar la
replicación. En caso de querer mantener únicamente el
tombStone liberando el resto del espacio utilizado, es
necesario ejecutar un proceso de compactación de datos.
En caso de requerir la compactación del sistema, como
puede ser el escenario de Cated Box, es necesario tener en
cuenta que la compactación es un proceso que puede llegar a
tardar varias horas. Igualmente, es importante tener en
cuenta que el proceso de compactación comprueba el
espacio de almacenamiento disponible, que debe ser al
menos del doble de tamaño del sistema compactado.
B. Compactación y Replicación Aplicadas en el Proyecto
En el caso del proyecto que nos ocupa, se ha decidido
disponer de dos niveles de replicación, tal y como se observa
en la Fig. 10. La empresa ADN Mobile Solutions ha
habilitado una réplica del CouchDB del sistema central, de
forma que se disponga de una copia que pueda ser utilizada
en caso de fallo. Por otro lado, se ha habilitado una segunda
réplica como paso previo a la transferencia de los datos al
data mart diseñado para el proceso de learning analytics.
El CouchDB principal se replica hacia la copia de
respaldo de la empresa ADN. Adicionalmente, la copia de
respaldo de ADN se replica hacia el CouchDB desplegado
en la parte analítica. Para realizar este proceso de
replicación, se utilizan los mecanismos estándar de
CouchDB basados en el envío de flujos HTTP. El modelo de
réplicas continuas que facilita CouchDB consiste en el envío
de peticiones a las réplicas en función de los cambios
realizados en la base de datos de origen. Con nuestro
modelo, se consigue la realización de una réplica en cadena
que comenzaría desde el primer mes.
Mediante la solución propuesta se consigue que, ante
fallos críticos de pérdida de información, se realice una
recuperación del funcionamiento básico de manera rápida.
El mecanismo de recuperación diseñado se muestra en la
Fig. 11. La restauración consiste en la recuperación de la
copia de la base de datos en el primer nivel de respaldo, de
tal manera que, posteriormente, se puedan replicar sobre ella
misma otras bases de datos complementarias. Conseguimos
así que el mes vigente y el anterior sean los primeros en ser
puestos en funcionamiento ante un fallo grave del sistema.
Adicionalmente, en la Fig. 10 se observa que a medida
que pasa el tiempo desaparecen del CouchDB principal los
datos antiguos. Es decir, cuando se alcanza el cuarto
mes/periodo desaparecen los datos del primer mes/periodo.
Este mecanismo de borrado de información, consiste en un
purgado FIFO que hemos diseñado para mantener en los
Fig. 10. Arquitectura base del modelo de traspaso de información.
192 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
CouchDB de producción información de un periodo
temporal determinado. La información detallada que
proporcionan los vehículos debe mantenerse durante unas
semanas hasta que la empresa proporcione la información
adicional que necesita Cated Box.
La información detallada de los vehículos es utilizada por
Cated Box para generar una serie de informes que se
guardan en el gestor de base de datos PostgreSQL. Estos
informes se generan a partir de agregaciones, cruces de datos
y cálculos sobre la información almacenada en CouchDB.
Una vez que se elaboran los informes, es conveniente borrar
la información de CouchDB. Esto se debe a que los datos
ocupan mucho espacio en los servidores correspondientes,
llegando a penalizar
el rendimiento por encima de los 2TB. Por ello, es
necesario plantear una estrategia de borrado de información
determinada. Como se había comentado con anterioridad,
este borrado solo es efectivo si se procede con una
compactación del sistema. No obstante, esta compactación
es un proceso que puede llegar a tardar varias horas en
función del estado de partida del CouchDB. Como ejemplo,
la Fig. 12 ilustra el impacto de este proceso. En ella se
muestra un proceso de compactación de una base de datos de
1TB con un overhead del 25%. El proceso dura
aproximadamente 14 horas obteniendo una reducción del
10% en almacenamiento.
Originalmente, se planificaban operaciones de borrado
periódicas en las que se procedía con la eliminación de datos
de varias semanas o meses. Estas operaciones eran
totalmente reactivas, con lo que se ejecutaban solo cuando
eran necesarias. Tras cada borrado se realizaba una
compactación que tardaba varias horas, llegando a penalizar
el rendimiento general del sistema Cated Box. Esta situación
se ha optimizado mediante el sistema de purgado FIFO
comentado con anterioridad. En CouchDB solo mantenemos
información correspondiente a un periodo móvil y
configurable. Por ejemplo, siempre podríamos tener
información de los últimos 90 días. De esta forma, todos los
días se incorporan nuevos datos y se eliminan los del día
más antiguo. Esto implica que se han reducido los tiempos
del proceso de compactación.
Para realizar de manera ordenada y controlada el proceso
de borrado, se ha desarrollado un paquete de integración
para el mantenimiento del sistema. Éste se encarga de la
transformación de los datos almacenados en CouchDB en
sus correspondientes tombStones utilizando las vistas
asociadas a la base de datos. Debido a que se utilizan las
vistas de CouchDB, el proceso puede ser parametrizado para
realizar el borrado del rango temporal que sea necesario,
desde unas horas hasta meses. Este proceso tiene en cuenta
el tamaño de la base de datos, tal y como se había expuesto
en el apartado A. de esta sección.
De forma similar al proceso descrito en la Fig. 6, el
borrado comienza con la obtención de los parámetros
correspondientes a la flota de que se trate, configurados de
forma independiente y almacenados en una base de datos
SQL Server de apoyo. El proceso borra las rutas una a una y
de forma completa. Por un lado, esto pretende mantener la
coherencia de los datos almacenados en CouchDB, evitando
encontrar rutas incompletas en el sistema. Por otro lado, el
consumo de memoria consigue mantenerse por debajo de
4GB, cantidad que presenta los problemas que se describirán
más adelante.
Finalizado el proceso de borrado, se procede con la
compactación de la base de datos para que la reducción de
espacio en disco sea efectiva. Para ello, el paquete de
mantenimiento desencadena una secuencia de instrucciones
para que la compactación pueda ser ejecutada con la mayor
eficiencia posible. Esto se consigue evitando nuevas
inserciones de datos en la base de datos mientras se realiza el
proceso de compactación. Dado que la compactación puede
llegar a durar muchas horas, es necesario realizar un
aislamiento de la base de datos para que este proceso no
desencadene en errores y fallos de sincronización. Para esto
el paquete de mantenimiento pausa temporalmente la réplica
continua que provee datos desde el servidor de Producción y
bloquea a la flota en el sistema de integración con el data
mart, evitando de esta manera la desincronización.
Posteriormente, se procederá a realizar la regeneración de las
vistas, eliminando los índices y referencias antiguas
enlazadas. Se consigue así una reducción significativa de
tamaño. Por último, una vez finalizados los procesos de
limpieza de la base de datos no relacional, se vuelve a incluir
a la flota correspondiente en el sistema de integración con el
data mart. Se actualiza la prioridad de la base de datos en
función del tiempo que ha estado en mantenimiento.
La ejecución del sistema de borrado cuenta con la
característica de poder ser ejecutada en dos fases distintas.
La primera fase dependerá exclusivamente del margen
establecido para el borrado o rotación de datos. Sin embargo,
la parte de compactación y regeneración de las vistas podrá
ir establecida en función de los índices de fragmentación
tanto de la base de datos como de las vistas. Ésta selección
será relevante, puesto que las compactaciones son
operaciones muy costosas a nivel de entrada/salida y podrían
penalizar el proceso de integración en el sistema de learning
analytics.
Fig. 11. Mecanismo de recuperación ante fallos críticos.
Fig. 12. Proceso de compactación.
PAÑEDA et al.: UNA ARQUITECTURA PARA UN SISTEMA DE EVALUACIÓN DEL APRENDIZAJE ... 193
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
C. El Problema de la Integración del Sistema de Base de
Datos No Relacional con el Data Mart
Pese a que la información detallada se elimina de los
CouchDB, y dado su valor desde un punto de vista analítico,
ésta se almacena en el data mart para la evaluación del
aprendizaje de técnicas de conducción eficiente. Por ello,
otro de los factores a tener en cuenta en el sistema es la
integración de CouchDB con el gestor de base de datos SQL
Server que forma el núcleo del sistema de learning
analytics.
Como se ha descrito anteriormente, la indexación es uno
de los principales problemas de rendimiento en esta
arquitectura, dado que el proceso ralentiza cualquier otro
tipo de operación que se desee realizar. Por ello, el proceso
ETL que integra el CouchDB con SQL Server debe tener en
cuenta factores de retardo y reintento sobre fallos en
previsión de que la sincronización coincida con la
indexación de CouchDB. Debido a que este sistema no
proporciona ningún mecanismo que indique cuándo están
indexando sus bases de datos, es necesario diseñar un
método alternativo para evitar los problemas de concurrencia
anteriormente comentados.
Para tratar de evitar estas dificultades nos hemos
decantado por incorporar en el proceso un método que
fuerce una indexación casi en tiempo real. La manera de
aplicar este método, consiste en automatizar la realización de
peticiones a la base de datos correspondiente mediante una
de las herramientas de ejecución periódica que proporciona
cualquier sistema operativo. Para conseguir esto se deberán
realizar peticiones a todos y cada uno de los documentos de
diseño de las bases de datos que se requieran indexar a
través de cualquier herramienta que permita peticiones
HTTP automatizadas. Dado que el sistema utilizado por
CouchDB como motor de vistas es NodeJS, el proceso
lanzado para realizar la indexación será mono-hilo,
permitiendo la simultaneidad del lanzamiento de
indexaciones dentro de las capacidades de entrada/salida de
los servidores. De este modo se consigue que las bases de
datos estén indexadas antes de la sincronización, evitando
penalizar la ejecución del proceso de integración y
mejorando el rendimiento del proceso general.
Otro aspecto relevante en la arquitectura de nuestro
sistema, es el control de las réplicas continuas. Un corte
entre cualquiera de los niveles de base de datos que forman
en sistema, puede producir una desincronización de las
mismas. Este tipo de suceso ocurre cuando los servidores
dejan de estar disponibles durante un periodo de tiempo
suficiente como para que uno de los nodos padre determine
que la conexión no está accesible, tras un número de
intentos configurable (10 por defecto). Llegado a ese punto
la replicación se detiene definitivamente. Si el servidor
caído fuese el que forma parte del sistema de learning
analytics, una vez que se restableciese el servidor el proceso
ETL consideraría que todo está en correcto funcionamiento
y realizaría la sincronización. No obstante, además de que
estaría almacenando información no sincronizada, la
replicación no se volvería a realizar nunca más. Este tipo de
situaciones se pueden solucionar aumentando los tiempos
de heartbeat entre servidores CouchDB, pero la distorsión
generada es mucho mayor que el beneficio real. Por ello,
hemos decidido incorporar un sistema de detección de cortes
entre réplicas continuas de servidores.
Tal y como se muestra en la Fig. 13el sistema consta de la
capacidad de comprobar bajo demanda la disponibilidad de
las réplicas que deberían estar activas. Esto permite al
proceso ETL de integración realizar peticiones que
determinen la disponibilidad de las mismas. Para ello, se
comprueba la validez de cada réplica alojada en los 2
CouchDB en los que el proceso de replicación se ha activado
(Producción y Backup). En caso de que la respuesta enviada
por el servicio al proceso ETL determine que la replicación
no está activa en cualquiera de los dos CouchDB, detendría
su ejecución, enviaría una alerta al administrador y enviaría
una petición al servicio de control de sincronización de
réplica para que éste levantase el proceso de replicación
pertinente (mediante una actualización de la base de datos
_replicator correspondiente). Igualmente, sacaría a la flota
correspondiente del proceso de integración hasta que el
servicio notificase que las réplicas se encuentran totalmente
sincronizadas. Si, por contra, la replicación sólo se hubiera
activado en uno de los dos CouchDB, se llevarían a cabo las
acciones descritas anteriormente pero comprobando si los
datos que faltan por replicar repercuten en la carga a realizar
por el proceso de integración. En caso de que puedan
repercutir en esa carga, se saca la flota del proceso de
integración hasta que la situación se haya recuperado. En
cualquier otro caso, se procede con la integración pero
teniendo en cuenta una serie de restricciones. Estas
restricciones dependerán del servidor afectado por el
problema, teniendo siempre como principal el nodo padre
(Producción) o el primer nivel de réplica (Backup). Es
necesario tener en cuenta este extremo, sobre todo cuando el
primer nivel de réplica (Backup) tiene otras bases de datos
consumiendo de él o cuando se están realizando tareas de
mantenimiento en el servidor de producción y pudiera estar
como único nodo activo.
Un último aspecto que tiene que ver con la integración
entre CouchDB y SQL Server, está relacionado con el hecho
de que es necesario transferir los datos de múltiples flotas.
Como se había expuesto con anterioridad, cada flota tiene su
propia instancia de CouchDB. En este sentido, un primer
enfoque podría ser el de lanzar una carga de todas las flotas
en paralelo. La paralelización podría realizarse tanto a nivel
de proceso ETL, como internamente mediante la ejecución
concurrente de varias tareas dentro del flujo interno de datos
Fig. 13. Arquitectura del sistema de réplica y control.
194 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
de este proceso. No obstante, esto produciría una enorme
sobrecarga tanto en el CouchDB como en el SQL Server.
Dado que el data mart no tiene necesariamente que tener
datos totalmente actualizados, lo que se ha decidido es
secuenciar la carga de las flotas, de manera que solo se
sincroniza una instancia de CouchDB de cada vez. En la fase
de Parametrización que se mostraba en la Fig. 6 se
sincroniza únicamente la base de datos de mayor prioridad.
Para que se sincronicen todas las bases de datos se utiliza el
mecanismo de rotación que se describe en el punto siguiente.
D. El Problema de la Escalabilidad en el Sistema
Dado que el sistema Cated Box está en continuo
crecimiento, el diseño de la arquitectura analítica debe
plantearse de tal manera que la incorporación de nuevas
flotas al sistema sea lo más sencilla posible. Esta situación
debe preverse en el sistema en dos puntos diferentes. Por un
lado, de qué forma se crea una flota en el modelo no
relacional, y por otro, cómo el proceso de integración con
SQL Server lo puede tener en cuenta.
En primer lugar, en el caso del modelo no relacional del
sistema, el administrador debe crear una nueva base de datos
en el CouchDB del sistema central para la incorporación de
una nueva flota. Esto ya formaba parte del procedimiento
original de incorporación de flotas. No obstante, con la
utilización del sistema de replicación en el marco del
despliegue del sistema analítico que se describe en este
trabajo, también es necesario realizar una tarea adicional. En
la situación actual el administrador también debe crear un
nuevo documento en la base de datos _replicator en el
gestor de base de datos de origen y en la réplica de ADN que
se muestra en la Fig. 10. Adicionalmente, una vez se tienen
en perfecta armonía las réplicas, es necesario crear las vistas
necesarias para la obtención de los datos por parte del
proceso ETL en cada una de las bases de datos. Estas
réplicas han de ser configuradas en torno a unas vistas que
realicen la transferencia de datos sin que los borrados que se
procesan desde ADN tengan efecto en la base de datos
CouchDB local.
En segundo lugar, en el data mart todo el esfuerzo se
centra en la fase de Parametrización que se mostraba en la
Fig. 6. En esa fase se obtienen todos los parámetros que se
van a utilizar durante el proceso de sincronización, así como
los ajustes necesarios para la correcta ejecución del paquete
de mantenimiento asociado. Básicamente, es necesario saber
qué base de datos (flota) se va a sincronizar, cómo se accede
a esa base de datos y qué periodo es necesario sincronizar.
Para ello, se ha creado una tabla en el data mart que controla
el proceso de sincronización. El administrador debe registrar
los datos de la flota a incorporar en esa tabla. Esto permite al
proceso ETL sincronizar esa base de datos sin necesidad de
cambiar su código fuente ni de planificar nuevas tareas.
Como se había indicado con anterioridad, el proceso ETL
solo sincroniza la base de datos de mayor prioridad. Para
permitir la sincronización de todas las bases de datos, es el
propio proceso ETL el que reajusta las prioridades de las
bases de datos, creando un sistema de colas de prioridad.
Este sistema permite sincronizar todas las bases de datos
después de un número determinado de iteraciones.
Otro de los parámetros que regulan el proceso de carga es
el periodo de datos a sincronizar. Tal y como se había
mencionado, el periodo se define en base a una fecha de
inicio y a un intervalo de tiempo (número de días/horas). La
fecha de inicio se reajusta en cada iteración del proceso
ETL, de forma que el proceso de sincronización va
avanzando en el tiempo en función de los parámetros
estimados. La incorporación del intervalo se realizó para
solucionar otro problema que se producía durante la
sincronización. El problema se produce cuando la base de
datos CouchDB a sincronizar contiene mucha información
en el momento de ser incorporada al data mart. En nuestro
caso, esto sucedió cuando se integró el sistema de learning
analytics con Cated Box. Esto también puede suceder
cuando transcurre mucho tiempo entre la incorporación de
una flota en el modelo no relacional y el alta en SQL Server.
Durante la descarga masiva de información, el componente
de los servicios de integración utilizado en el proceso ETL
para hacer peticiones REST a las bases de datos CouchDB,
interrumpe su ejecución cuando supera los 4GB de memoria.
Para evitar este error, la decisión que tomamos fue la de
definir un intervalo de tiempo parametrizable que permita
realizar una carga progresiva de datos. Es decir, si la base de
datos a sincronizar tiene un mes de datos y establecemos un
intervalo de tiempo de 4 días, el sistema estará plenamente
sincronizado tras 10 iteraciones. Esta parametrización del
sistema vendrá dada en la configuración inicial del mismo, a
través de una estimación del tamaño de la información a
descargar de manera diaria, de tal manera de que, en el caso
de que fuera necesario, se realizase el procesamiento de
datos en intervalos inferiores a una hora.
V. CONCLUSIONES Y TRABAJOS FUTUROS
En este artículo se presenta una experiencia relativa al
diseño integral e implementación de un sistema de big data
para soportar un proceso de learning analytics en el contexto
del aprendizaje de técnicas de conducción eficiente. En la
actualidad, este sistema se utiliza dentro el servicio de
aprendizaje personalizado de la compañía ADNMobile
Solutions como complemento a su tecnología Cated Box. En
este sistema se almacenan y procesan las rutas realizadas por
más de 150 vehículos de 14 compañías de transporte a un
ritmo de más de 3000 rutas al día, con una media diaria de
más de 4 millones de muestras.
El sistema mantiene la información que se utiliza en las
tareas analíticas que permiten detectar situaciones de
eficiencia e ineficiencia. El resultado de estas tareas se
incluye en los informes que se envían a los conductores y
responsables de flota o en las actividades de formación. Con
ello, el proceso de learning analytics facilita a formadores y
conductores localizar las ineficiencias de una forma precisa,
a la vez que se refuerzan los hábitos eficientes.
La implementación de este proceso de learning analytics,
compuesto en la actualidad por los análisis de detección de
patrones descritos en [9], ha permitido a las compañías
implementar un sistema de aprendizaje personalizado. El
proceso de learning analytics ha conseguido importantes
mejoras respecto a las versiones anteriores del servicio
donde simplemente se calculaban indicadores de evolución
de las métricas de eficiencia.
El número de flotas a las que la compañía ADN ofrece el
servicio crece mes a mes, por lo que se espera un incremento
exponencial de los datos a almacenar y procesar. Por ello, y
PAÑEDA et al.: UNA ARQUITECTURA PARA UN SISTEMA DE EVALUACIÓN DEL APRENDIZAJE ... 195
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
en lo que se refiere a los trabajos futuros, la principal
preocupación será la de analizar y evaluar la escalabilidad y
del rendimiento del sistema de big data. Adicionalmente,
otro punto de trabajo será el desarrollo de nuevos procesos
analíticos que localicen patrones más complejos a los que el
sistema de big data debe de dar soporte.
AGRADECIMIENTOS
Este trabajo ha sido financiado por el Plan Nacional de
I+D español en el marco del proyecto TIN2013-41749-R, así
como por la Dirección General de Tráfico (DGT) de España
a través del proyecto SPIP20141277 y por la Consejería de
Economía y Empleo del Principado de Asturias a través de
proyecto GRUPIN14-065.
REFERENCIAS
[1] T. Onoda, ―IEA policies—G8 recommendations and an afterwards‖,
en Energy Policy, vol. 37, nº 10, pp. 3823-3831, 2009.
[2] B. Beusen, S. Broekx, T. Denys, C. Beckx, B. Degraeuwe, M. Gijsbers, K. Scheepers, L. Govaerts, R. Torfs, y L. I. Panis, ―Using
on-board logging devices to study the longer-term impact of an eco-
driving course‖, en Transportation Research Part D: Transport and Environment, vol. 14, nº 7, pp. 514-520, 2009.
[3] A. Rionda, X. G. Pañeda, R. García, G. Díaz, D. Martínez, M. Mitre,
D. Arbesú, e I. Marín, ―Blended learning system for efficient
professional driving‖, en Computers & Education, vol. 78, pp. 124–
139, 2014.
[4] A. Rionda, D. Martínez, X. G. Pañeda, D. Arbesú, J. E. Jiménez y
F.F. Linera. (2012) Tutoring System for the Efficient Driving of Combustion Vehicles. En IEEE Revista Iberoamericana de
Tecnologías del Aprendizaje, vol. 8, 2, pp. 82-89.
[5] A. Rionda, I. Marin, D. Martínez, F. Aparicio, A. Alija, A. García Allende, M. Miñambres, X. G. Pañeda (2013). UrVAMM - A Full
service for Environmental-Urban and Driving Monitoring of
Professional Fleets. SmartMILE 2013. International Conference on New Concepts in Smart Cities. Spain.
[6] ACEA Working Group HDEI/BCEI ―FMS standard‖, 2012
[7] J. Yuan, Y. Zheng, X. Xie y G. Sun, ―Driving with knowledge from the physical world‖, actas del 17th ACM international conference on
knowledge discovery and data mining. ACM, NY, pp. 316-324,
2011. [8] ISO/TC 242 “ISO 50001 - Energy management‖.
[9] , D.
Melendi, G.
, en actas del 17º Simposio Internacional de
Informática Educativa (SIIE), Setúbal, 2015. [10] C. Hsu, C. Yang, L. Yu, C. Lin, H. Yao, D. Chen, K. Lai y P. Chang,
―Development of a cloud-based service framework for energy
conservation in a sustainable intelligent transportation system‖, en International Journal of Production Economics, 2014
[11] C.L.P. Chen y C. Zhang, ―Data-intensive applications, challenges,
techniques and technologies: A survey on Big Data‖, en Information Sciences, vol. 275, pp. 314-347, 2014
Alejandro G. Pañeda is a Computer Science Engineer from the University
of Oviedo, with an interest in the area of datamining, datawarehousing and big data systems. He is working as Systems Engineer in ADN Mobile
Solutions.
Laura Pozueco is a Telecommunications Engineer from University of
Oviedo with a PhD from the Spanish University for Distance Education
(UNED). She is a contracted researcher in the group of Distributed MultiMedia Systems and her current research interests are in the area of
telecommunication networks and services and efficient driving.
David Melendi is a Computer Science Engineer with a PhD from the University of Oviedo, with an interest in multimedia systems, content
distribution networks, idTV services and mobile ad-hoc networks. He is an
Associate Professor at the University of Oviedo and member of the W3C.
Xabiel G. Pañeda is a Computer Science Engineer with a PhD from the
University of Oviedo, with an interest in multimedia systems, content
distribution networks, idTV services and mobile ad-hoc networks. He is an Associate Professor at the University of Oviedo and member of the W3C.
Roberto García is a Telecommunications Engineer from The Technical
University of Madrid with a PhD from the University of Oviedo, with an interest in telecommunication networks and services, applied to
performance analysis, modelling and simulation of systems and services. He
is an Associate Professor at the University of Oviedo.
Alejandro García Tuero (BS in Mechanics) is a contracted researcher
specialized in machines and mechanisms and with wide knowledge in thermodynamics and automotive industry. He belongs to this research group
since January 2015. Previously he had been working for companies like Nestlé or Renault since he finished his degree in 2004.
Abel Rionda. Is a BS in Computer Science and MS in Computer
Engineering from the University of Oviedo. PhD student developing a thesis about adaptation mechanisms in device-independent mobile Web
applications, making use of context information. CEO of ADN Mobile
Solutions, his research interests are service and application adaptation to the delivery context, and ubiquitous and mobile computing.
Gabriel Díaz Orueta (PhD in Physics) is associate professor in Telematics
Area of Spanish University for Distance Education (UNED). After working more than 10 years for companies as Digital Equipment Corporation or HP,
he has been a research member for several national and international
projects and published more than 100 papers in international conferences and journals.
Jose L. Arciniegas is Telecommunication Engineer and PhD from the
University Polytechnique of Madrid. He is full Titular Professor with the Department of Telematics of the University of Cauca (Colombia). His
current research interests are in the area of services and application using
digital interactive television, software architecture and quality of software.
196 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title—From the analysis of learning to its improvement:
challenges and opportunities.
Abstract—Learning analytics (LA) is a multidisciplinary
area of research where education, statistics, and technology
experts collaborate with other disciplines to get insights from
learning data sets. This involves a continuous cycle of gathering
data from teachers’ and students’ interactions, filtering and
translating it to proper formats, using a wide range of analysis
techniques and starting again after taking advantage from
results found. Considering the variety of expertise involved, the
need of sharing knowledge and experiences is highlighted in
relevant forums such as the Learning Analytics and Knowledge
(LAK) Conference. The same happens at Spanish level with the
Learning Analytics Summer Institute (LASI-Spain) and the
Spanish Network of Learning Analytics-(SNOLA). Research
works presented in this special issue show the ability of
analysing and improving learning and teaching processes
through LA. These three papers address different educational
challenges such as assessing massive collaborative projects,
evaluating the accessibility and usability of open educational
resources and mapping them with the IMS Caliper standard,
and using social network analysis to evaluate the socio-
regulation skills among students.
Index Terms—Learning analytics, education, social network
analysis
I. INTRODUCTION
L Análisis del Aprendizaje o Learning Analytics (LA)
es un área de investigación en la que confluyen expertos
en tecnología educativa, inteligencia artificial, pedagogía,
minería de datos o psicología, con gestores, administradores,
políticos y empresas relacionadas con la educación. A pesar
de que el área ha experimentado un gran impulso desde su
inclusión en el informe Horizon de 2011, son muchos los
trabajos de investigación previos que venían empleando
técnicas similares en áreas próximas como la Minería de
Datos Educativos o Educational Data Mining (EDM). Esta
combinación de experiencia y novedad ha supuesto una
notable mejora en la cantidad y calidad de los trabajos de
investigación y su aplicación en contextos reales ha
permitido validar estos avances.
La creciente cantidad de datos disponibles sobre
estudiantes y docentes ofrece grandes posibilidades. Sin
embargo, también se han creado muchas expectativas sobre
la posibilidad de adaptar el aprendizaje al estudiante, los
Mariluz Guenaga. Departamento de Ingeniería Informática. Universidad
de Deusto. Bilbao 48007, España. (+34 944139000; fax: +34 944139101; email: mlguenaga@deusto.es)
Pablo Garaizar. Departamento de Telecomunicaciones. Universidad de
Deusto. Bilbao 48007, España. (email: garaizar@deusto.es)
sistemas de recomendación, el aprendizaje personalizado o
la evaluación formativa basada en el análisis de los datos
que los estudiantes generan al interaccionar con la
tecnología educativa. Es necesario evaluar cuáles de estas
expectativas se cumplen realmente o en qué condiciones lo
logran, así como recoger evidencias sobre el impacto del LA
en la mejora del proceso de enseñanza-aprendizaje, fin
último de esta disciplina.
Por su naturaleza, LA es un campo multidisciplinar, en el
que tecnólogos, pedagogos y otros agentes deben colaborar
para capturar, procesar e interpretar la información generada
desde el punto de vista educativo, que es, al fin y al cabo, lo
que diferencia el LA de otras disciplinas relacionadas con en
el análisis masivo de datos. La próxima edición del
Learning Analytics and Knowledge Conference-LAK 2016,
evento de referencia en el área, incide especialmente en la
necesidad de crear foros multidisciplinares y conexiones
sinérgicas con otras comunidades de investigación para
hacer frente a los retos actuales del sector educativo.
Son muchos y variados los retos a los que la comunidad
de LA se enfrenta. Entre otros, a problemas técnicos propios
del tratamiento de datos, como su procedencia y naturaleza
heterogénea (múltiples fuentes y formatos, falta de
estandarización), su calidad (la necesidad de discriminar los
datos útiles de entre la gran cantidad de datos disponibles y
trabajar hacia su estandarización), la diversidad de
herramientas y técnicas para su procesamiento, y una
visualización efectiva para que el usuario final pueda
beneficiarse de la información generada. A estos retos
tecnológicos se suman los de carácter pedagógico, como la
importancia de implicar a docentes y estudiantes en el
proceso de LA, la necesidad de constatar mediante
evidencias su impacto en la educación (ya sea este positivo
o negativo), el uso de LA en contextos formales e
informales, la identificación de patrones de comportamiento
entre los alumnos, o la interpretación pedagógica de la
información generada tras el análisis de datos.
Esta edición especial tiene como objetivo abordar algunos
de estos retos y considerar las diferentes propuestas para su
implementación y adopción. Su elaboración coincide en el
tiempo con la celebración del Learning Analytics Summer
Institute-LASI 2015 en Bilbao, y el reconocimiento de la
Red Española de Analítica del Aprendizaje o Spanish
Network of Learning Analytics-SNOLA por el Ministerio de
Economía y Competitividad como Red de Excelencia
Temática. Ambos hitos, junto con la edición de este número
especial, suponen un gran impulso para la comunidad
española de LA y una muestra más de colaboración entre
sus miembros.
Del Análisis del Aprendizaje a su Mejora:
Retos y Oportunidades
Mariluz Guenaga, Member, IEEE y Pablo Garaizar
E
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015 197
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
II. EDICIÓN ESPECIAL
Un panel de 18 expertos han evaluado los trabajos
recibidos. Después de un riguroso proceso de revisión en el
que cada artículo fue evaluado por tres revisores, fueron
seleccionados para formar parte de este número especial de
la Revista de IEEE RITA los siguientes artículos: “Nuevas
posibilidades de aprendizaje por proyectos colaborativos
masivos mediante learning analytics: un análisis de caso”,
“Redes sociales académicas y Learning Analytics para
indagar el Aprendizaje Autorregulado: Un estudio de caso”
y “Co-Creación y Evaluación de Recursos Educativos
Abiertos Inclusivos y Accesibles: un Mapeo hacia el IMS
Caliper”.
Jordi Sancho, en su trabajo “Nuevas posibilidades de
aprendizaje por proyectos colaborativos masivos mediante
learning analytics: un análisis de caso”, parte de una
experiencia personal en la evaluación de proyectos
colaborativos masivos para mostrar el potencial de Learning
Analytics. A través de técnicas como el análisis de redes
sociales, el análisis factorial, el agrupamiento por K-means
y el uso de algoritmos predictivos se han podido llevar a
cabo un seguimiento, una evaluación formativa y una
valoración del trabajo realizado por los alumnos en tiempo
real. Este trabajo pone de relieve otro de los retos de LA, y
es la necesidad de dar más importancia al aspecto
pedagógico frente al tecnológico. La disciplina de LA surge
del ámbito de la computación (minería de datos, análisis de
redes sociales, aprendizaje automático, etc.) y es necesario
poner el foco en la mejora de los procesos de enseñanza-
aprendizaje.
En el segundo trabajo, “Redes sociales académicas y
Learning Analytics para indagar el Aprendizaje
Autorregulado: Un estudio de caso”, Adriana Gewerc y Ana
Rodríguez-Groba emplean técnicas de análisis de redes
sociales para estudiar las habilidades de regulación y socio-
regulación entre los estudiantes, así como la evolución de
estas redes de interacción y colaboración.
En el último artículo, “Co-Creación y Evaluación de
Recursos Educativos Abiertos Inclusivos y Accesibles: un
Mapeo hacia el IMS Caliper”, Cecilia Ávila, Silvia Baldiris,
Ramón Fabregat y Sabine Graf presentan un modelo de co-
creación de recursos educativos de aprendizaje (Open
Educational Resources-OER) cuya accesibilidad y calidad
se evalúa utilizando diferentes técnicas de Analítica de
Aprendizaje. En el proceso de elaboración del modelo, se
realiza un mapeo de este con IMS Caliper, un estándar que
provee recomendaciones de alto nivel sobre cómo los
sistemas de aprendizaje deben capturar y compartir datos
sobre la interacción de los usuarios. Este trabajo pone el
énfasis en destacar la importancia de adoptar estándares para
la definición y procesamiento de los datos, lo que permitirá
incrementar la interoperabilidad de los sistemas LA
desarrollados, uno de mayores retos a los que nos
enfrentemos.
III. AGRADECIMIENTOS
Los editores quieren agradecer al Comité Editorial de la
Revista de IEEE RITA por acoger esta edición especial, a
Martín Llamas Nistal por el apoyo a que esta edición
especial se lleve adelante.
Como no podría ser de otra forma también nuestro
agradecimiento a los autores por el esfuerzo de extender y
mejorar sus artículos iniciales presentados a este número
especial. Asimismo, conviene recordar que este número
especial no se podría haber llevado a cabo sin el trabajo
voluntario, dedicado y exhaustivo de evaluación que han
hecho los revisores de estos artículos. A todos ellos también
expresarles nuestro agradecimiento.
Por último, al MINECO por el reconocimiento de la red
SNOLA (TIN2015-71669-REDT) cuyo objetivo es impulsar
la colaboración a nivel nacional e internacional, la
generación y difusión del conocimiento en torno a Learning
Analytics.
Mariluz Guenaga (M’14) es profesora del Dpto. de Ingeniería Informática
de la Facultad de Ingeniería de la Universidad de Deusto, España. Obtuvo su doctorado en Ingeniería Informática por la misma universidad (2007).
Responsable de la unidad de investigación DeustoTech Learning y
coordinadora de la red SNOLA-Spanish Network of Learning Analytics (TIN2015-71669-REDT), sus áreas de investigación se centran en las
tecnologías para el aprendizaje, learning analytics, game-based learning y
enseñanza-aprendizaje de áreas STEM (Science, Technology, Engineering, Mathematics).
Pablo Garaizar es profesor del Dpto. de Telecomunicaciones de la
Facultad de Ingeniería de la Universidad de Deusto, España. Obtuvo su doctorado en Ingeniería Informática por la misma universidad (2013).
Trabaja como investigador post-doctoral en la unidad de investigación
DeustoTech Learning y coordinador de la Cátedra Telefónica-Deusto “Nuevas Tecnologías para la Educación”. Sus áreas de investigación se
centran en las tecnologías para el aprendizaje, la investigación en Internet y
el aprendizaje asociativo.
198 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title—New learning possibilities in massive collaborative
projects with learning analytics: a case study.
Abstract—One way to improve the education of our students
is to promote the creation of massive collaborative projects.
These projects, also seen as learning products, would also help
to better scale our learning experiences (Massive Open Online
Courses-MOOCs) and generate collective value from the hours
and cognitive efforts invested doing academic work. But the
complexities to assess those projects are challenging. This
requires to develop new monitoring and feedback systems for
these kind of projects. This article presents an exploratory
analysis for applying learning analytics methodologies based
on social networks analysis, factorial analysis, k-means
clustering and “naïve” Bayes algorithms.
Index Terms—Active learning, Big data, collaborative
projects, learning analytics, MOOC.
I. INTRODUCCIÓN
NO de los principales retos del campo de learning
analytics es contribuir a mejorar el aprendizaje de
manera significativa, no marginal. Ello probablemente
signifique centrarse en el desarrollo de prácticas formativas
necesarias pero que no serían posibles de otro modo. En este
sentido, el desarrollo colaborativo masivo de productos de
aprendizaje sea quizás una de estas prácticas a las que vale
la pena dedicar un esfuerzo. Esto es lo que se propone a
continuación.
El problema de partida de este artículo es que las
actividades diseñadas para que los estudiantes aprendan y
demuestren las competencias de aplicación de
conocimientos son habitualmente poco consistentes y
fragmentadas. Nuestro sistema educativo, habitualmente,
desaprovecha el esfuerzo cognitivo de los estudiantes
haciendo masivamente pequeñas actividades individuales en
paralelo. Cambiar el enfoque hacia la elaboración
colaborativa de grandes proyectos complejos, podría
mejorar la motivación, el aprendizaje y la creación de
productos útiles resultado de la inversión social educativa.
Tomando esa idea como punto de partida, este artículo
Jordi Sancho es profesor del Departamento de Trabajo Social y Servicios
Sociales de la Facultad de Educación. Universitat de Barcelona. Grupo de investigación: Laboratori de Mitjans Interactius (LMI). Email:
jsancho@ub.edu. PasseigValld‟Hebron 171, Llevant 3ª planta, 356. 08035
Barcelona.
desarrolla, prueba e integra diversas técnicas y metodologías
(análisis de redes sociales, análisis factorial, clustering por
k-means y uso de algoritmos predictivos), que harían
factible el seguimiento y valoración formativa de los
proyectos colaborativos a gran escala en la educación
universitaria.
Hace ya tiempo que sabemos que hay un aprendizaje
profesional, ligado a la práctica, que posibilita una
integración de conocimientos que son difíciles de transmitir
oralmente. Para ello, diversos autores han propuesto
aprender de los sistemas de aprendizaje que son
tradicionales en ámbitos tan diversos como la psicoterapia,
arquitectura, la música, el trabajo social, o los artesanos
genéricamente [1-4], se trata de pensar mientras se
solucionan problemas trabajando y después compartir y
discutir lo aprendido.
Es más novedosa la constatación cuantitativa de que
incluso las disciplinas llamadas STEM (acrónimo inglés
para englobar ciencia, tecnología, ingeniería y matemáticas)
muestran una mejora significativa en el rendimiento
académico y en la reducción de los suspensos cuando se
utilizan técnicas de aprendizaje activo (básicamente diseños
constructivistas de simulación de problemas reales para
resolver y trabajo con proyectos, junto con una evaluación
formativa) [5-7]. El trabajo en base a proyectos mejora
también la motivación de los estudiantes, especialmente a
quienes tienen menor capacidad de autorregulación en el
aprendizaje [8].
A pesar de las evidencias, estos nuevos métodos de
aprendizaje parecen tener problemas para asentarse en el
sistema educativo universitario en España. A partir de la
última reforma, y bajo el paraguas de los llamados Planes
de Bolonia, las universidades se han llenado de sistemas de
evaluación continua que exigen a los estudiantes que
dediquen una gran cantidad de tiempo a realizar pequeñas
actividades, normalmente individuales o en pequeños
grupos, muy fragmentadas y con un nivel bajo de
complejidad (que es independiente del nivel de dificultad)
para generar aprendizaje o simplemente para obtener
“evidencias” de su existencia. El problema es que dichas
actividades, con un corto y uniforme recorrido, en el que
todos empiezan en el mismo punto y llegan al mismo lugar,
están habitualmente alejadas de la complejidad real muy
delimitadas y por ello tampoco fomentan ni una motivación
intrínseca [9,10] ni el aprendizaje significativo que sería
deseable. En este sentido, se añaden dos de las principales
dificultades que plantea la multiplicación de estos tipos de
Nuevas Posibilidades de Aprendizaje por
Proyectos Colaborativos Masivos mediante
Learning Analytics: un Análisis de Caso
Jordi Sancho
U
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015 199
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
actividades académicas: la limitación de escala y el
desperdicio social que representan. La limitación en la
escala de aplicación se debe a que algunas de las actividades
de aprendizaje más avanzadas (trabajos en grupo, trabajos
en base a problemas y proyectos, etc.) habitualmente están
diseñadas para clases con decenas de estudiantes, y grupos
pequeños de trabajo. Esta limitación no era un problema
anteriormente, pero ahora sí lo es. Hoy en día podemos
contar con MOOCs (Massive Open Online Courses) de
60,000 estudiantes, y este tipo de actividades no son
escalables, lo que acaba reduciendo las actividades de
valoración y seguimiento a pruebas de tipo test, revisión por
pares o similares, que ofrecen una evaluación más aditiva
que formativa. Con tasas de “aprobados” del 2% y
abandonos de más del 90% los MOOCs son menos masivos
de lo que parecen a primera vista. Levine[11 ] hace públicos
estos interesantes números de un MOOC de análisis de redes
sociales de los que partiendo de 60,000 estudiantes inscritos,
tan sólo el 11% realizaba al menos una actividad, el 2%
conseguía el certificado normal y el 0,17% conseguía el
“certificado con distinción”. La dificultad para realizar
actividades motivadoras y con seguimientos escalables
podría ser una de las razones de ese fracaso [12]. Por otra
parte es hiriente que habitualmente la inversión cognitiva
realizada por los estudiantes acabe en un desperdicio social
de esa producción. El hecho de tener a decenas o cientos de
personas haciendo un trabajo intelectual individual o en
pequeño grupo que luego se queda en el cajón de un
profesor, significa un desperdicio de esfuerzos y recursos
sociales. ¿No podría aplicarse ese esfuerzo cognitivo para
crear contenidos de valor o resolver problemas reales? Elena
Cano [13] (pág. 43) señalaba una posible solución al
problema:
“La tarea pequeña y fragmentada no facilita la
autonomía. Posiblemente pocas tareas y grandes, como
elaborar un proyecto, resolver un caso complejo o diseñar
algo, facilitan la autonomía, pero han de tener elementos
de regulación y feedback (controlando parcialmente su
éxito o no y progresando bajo una visión global).”
Este artículo sigue esa línea, con una propuesta de
potenciar la creación de proyectos colaborativos a gran
escala para mejorar la formación de nuestros estudiantes.
Estos proyectos, tratados como productos de aprendizaje (la
creación de un objeto que resuelve un problema y es el
resultado de un proceso de aprendizaje), también ayudarían
a escalar mejor nuestras experiencias de aprendizaje masivo
(MOOCs) y podrían generar valor colectivo a partir de las
horas y esfuerzos cognitivos invertidos realizando trabajos
académicos. Pero las complejidades para asesorar este tipo
de proyectos son un gran desafío. Es necesario desarrollar
nuevos sistemas de seguimiento, feedback y valoración
aplicables en tiempo real a esos procesos colaborativos
masivos.
II. PROYECTOS COLABORATIVOS A GRAN ESCALA
Adaptando la idea de trabajar en base a proyectos al
contexto actual que algunos identifican como de
colaboración masiva [14,15] se propone diseñar proyectos
colaborativos a gran escala desarrollados en base a una
visión constructivista del aprendizaje. Sus características son
motivadoras para el estudiante y le permitirían
contextualizar mejor las acciones y valorar las aportaciones
realizadas, facilitando un mejor aprendizaje autoregulado[8].
La característica clave es el feedback, tanto del
funcionamiento global del proyecto como del trabajo
individual. Sobre esta retroalimentación, Jonassen
[16,17]establece los principios básicos que deben guiar las
valoraciones de los procesos de aprendizaje constructivista:
1. Empezar la evaluación sin ideas preconcebidas.
2. Utilizar tareas auténticas, con diferentes niveles de
complejidad y de implicación de los estudiantes.
3. Basarse en la construcción de conocimiento en lugar de
la reproducción del mismo (incluyendo la
argumentación y defensa de una posición particular)
4. Pensar en términos de proceso en lugar de producto
acabado.
5. Realizar contextualizaciones ricas y complejas, ya que
los estudiantes tan solo pueden interpretar
correctamente la información si esta se da en contextos
precisos y propios.
Por todo ello, para conseguir un sistema que hiciese
posible trabajar en base a proyectos a gran escala con una
base constructivista, serían necesarios tres elementos clave.
El primero sería disponer de una base tecnológica para
construir proyectos colaborativos de tipo constructivista
aplicables en diferentes contextos educativos. El segundo
consistiría en desarrollar metodologías de valoración y
seguimiento que (1) utilicen la escala como una ventaja y no
como una limitación (es decir, que cuantos más estudiantes
haya, más adecuado sea el sistema de feedback); y (2)
capturen buena parte de la complejidad de este tipo de
procesos. Finalmente, el tercer elemento del sistema debería
ofrecer una automatización suficiente del análisis para
permitir un feedback global e individual en tiempo real.
El primer punto es quizás el más sencillo. Hay muchas
bases tecnológicas posibles y factibles. Unas pueden ser más
adecuadas que otras según los alumnos o según el proyecto
colaborativo que se quiera llevar a cabo. De entre las
diversas opciones posibles, una base factible y sencilla para
estos proyectos colaborativos masivos son los “wikis”, por
dos razones:
1. Son fáciles de utilizar y analizar. Además, pueden
centralizar con facilidad información, discusión, enlaces
y un histórico de cambios. Cualquier campus virtual o
LMS (sistema de gestión de aprendizaje en inglés)
dispone de un módulo de wikis y si no, hay motores
fáciles de instalar (MediaWiki).
2. Tienen una base constructivista. A parte de ser
herramientas probadas para aumentar una colaboración
efectiva a gran escala [18], diferentes autores [19-
22]señalan una relación intrínseca entre los wikis y los
paradigmas constructivistas y colaborativos. Así, Su y
Beaumont [22], pág. 417 explican que:
“Los wikis representan una tecnología con
potencialidades para ofrecer un marco que engloba los
principios del constructivismo social de Vigotsky [23] ya
que los grupos de estudiantes pueden crear, revisar e
insertar comentarios en un mismo artículo de una manera
sencilla, donde el resultado es inmediatamente obvio (y
200 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
no escondido en el hilo de discusión de un fórum o un
blog).”
III. EL PROYECTO: NADA MEJOR QUE UN BUEN FRACASO
PARA SABER QUÉ SOLUCIONES BUSCAR
El proyecto que constituye la base de este análisis surge
de un gran fracaso, y de lo mucho que se aprende de ellos.
En la universidad pusimos en marcha un proceso de
construcción colaborativa que nos desbordó completamente.
Morimos de éxito, y así se evidenció la necesidad de buscar
nuevas metodologías de análisis basadas en datos a gran
escala. Este artículo rescata los datos del proceso de
elaboración de dicho proyecto para construir un andamiaje
analítico que hubiese permitido su análisis en tiempo (casi)
real.
En 2004, y con el objetivo de facilitar el trabajo
multidisciplinar, un grupo de 9 profesores de 10 asignaturas
de los estudios de Trabajo Social de la Universidad de
Barcelona, iniciamos un proyecto (convocatoria Redice04
de la Universidad de Barcelona) con un objetivo
engañosamente sencillo: conocer de qué hablábamos en
clase cada profesor. Esa era la condición previa para poder
trabajar la interdisciplinariedad en nuestras asignaturas.
Creímos que la mejor manera para conseguir esa
información era preguntárselo a nuestros estudiantes.
Para ello iniciamos un wiki en el que pedíamos a nuestros
estudiantes algo muy simple: identificar y desarrollar
conjuntamente los temas principales de cada asignatura, sin
más limitaciones. Este proceso se valoraría en un 25% de su
nota. La idea era que salíamos ganando a tres bandas. Los
profesores obteníamos la información que buscábamos (y de
manera más interesante de lo previsto, ya que la percepción
de los estudiantes de lo que era importante o no en cada
asignatura podía ser diferente a la nuestra), los estudiantes
obtenían unos “apuntes colaborativos”, y finalmente, se
promovía el aprendizaje de competencias técnicas como la
búsqueda de información, argumentación, análisis de textos
y otras.
El resultado [24-25] fue excesivamente positivo, la escala
nos desbordó. Con la participación de 900 estudiantes se
desarrollaron 1.650 conceptos, en un proceso de 14.455
revisiones. El proyecto se hizo tan grande, dinámico y
cambiante, que hacía imposible realizar un seguimiento
adecuado del mismo, por muchas horas que le dedicáramos
los profesores.
Y este fracaso nos llevó al aprendizaje a diferentes
niveles. Aprendimos la facilidad con la que los estudiantes
podían motivarse para trabajar en grupo en un proyecto
colaborativo. Aprendimos la facilidad con la que
técnicamente se podía montar un proyecto de este tipo a
través de una plataforma de tipo wiki. Y aprendimos
también la dificultad para realizar un seguimiento de un
proyecto de este tipo, cuando tiene éxito. A pesar de que
éramos un grupo de profesores con experiencia docente y
ganas de invertir horas en el proyecto, nuestras técnicas no
servían en este nuevo contexto. Y sin guía, ni por parte de
los profesores, ni por parte de los estudiantes los procesos
autónomos tampoco funcionaban correctamente. El
problema principal estaba claro: era necesario aprender a
guiar una estampida de elefantes.
De estas reflexiones se derivaron los objetivos. Nos
preguntamos: ¿Qué información sería necesaria para poder
realizar el seguimiento de un proyecto colaborativo de
creación de contenidos a gran escala?
IV. OBJETIVOS: ¿QUÉ INDICACIONES SE NECESITAN PARA
GUIAR UNA ESTAMPIDA DE ELEFANTES?
Las tecnologías actuales hacen muy fácil una
colaboración masiva en la creación de contenidos escritos,
pero esa misma facilidad también puede comprometer la
calidad de los mismos. El proyecto de partida presentado es
un buen ejemplo de ello. Por ejemplo, los estudiantes
mostraban reticencias a “borrar” o “editar” contenido de
otros, con lo que al traspasarse un determinado umbral de
aportaciones, se disparaban las repeticiones y se perdía el
sentido de unidad de los textos.
Esta experiencia mostraba que se necesitaba información
a nivel macro sobre el desarrollo del proyecto, y al mismo
tiempo información a nivel micro o individual sobre cada
estudiante y sobre cada uno de los conceptos desarrollados.
Concretamente, se consideró la necesidad de automatizar al
máximo la consecución de la siguiente información,
necesidad aquí expresada en forma de objetivos:
A. A nivel global de proyecto
- Objetivo 1:Clasificar colaboradores y contenidos según
su rol e importancia en el proceso, para conocer a los
agentes del proceso colaborativo.
- Objetivo 2: Clasificar contenidos creados (conceptos)
según su temática y editores, para conocer en qué temas se
están desarrollando los contenidos y en qué líneas trabajan
los distintos estudiantes.
- Objetivo 3: Clasificar colaboradores (estudiantes
editores) según el tipo de contribución y rol en el proceso
colaborativo, para poder valorar el tipo de aportaciones que
realiza cada estudiante.
- Objetivo 4: Clasificar los contenidos según su calidad
(en base a los criterios establecidos por cada profesor), para
poder identificar qué contenidos se han desarrollado
siguiendo las pautas establecidas por el profesor.
B. A nivel individual
- Objetivo 5: Asignar y visualizar los ítems anteriores
para cada estudiante y para cada contenido (concepto), para
poder ofrecer un feedback rápido e individualizado para
cada estudiante.
V. METODOLOGÍA
Empezaré revisando análisis comparables en la
bibliografía de los que emerge la posibilidad de utilizar el
análisis de redes sociales. Posteriormente explicaré los tres
principios sobre los que he construido la aproximación
metodológica en base a los objetivos planteados: (1) analizar
los productos de aprendizaje, (2) integrar la visión analítica
y la pedagógica, y (3) la necesidad de combinar técnicas de
análisis diversas. Finalmente, se describe la recogida inicial
de datos.
A. Análisis existentes
La literatura muestra diferentes opciones para el análisis
de wikis a gran escala. Debido a su grado de apertura y
SANCHO: NUEVAS POSIBILIDADES DE APRENDIZAJE POR PROYECTOS COLABORATIVOS MASIVOS... 201
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
dimensión, muchos de los desarrollos están referidos a la
Wikipedia. Los primeros estudios utilizaron medidas
simples de variables clave, pero rápidamente emergió el uso
del análisis de redes sociales cada vez más complejas.
Por una parte, los estudios con metodologías tradicionales
se limitan a correlacionar algunas variables significativas
para explicar el éxito o la calidad de dichos proyectos. Roth
et al. (2008) [26] analizan 360 wikis pero se limitan a
utilizar factores relacionados con la viabilidad de los
mismos (número de usuarios, tamaño de los contenidos,
ediciones, etc.). Felipe Ortega (2009) [27] por su parte,
analiza los 10 principales proyectos de la Wikipedia a través
de la comparación del número de ediciones y editores
registrados, y fue de los primeros en mostrar la ralentización
de su crecimiento. Kittury Kraut (2008) [28] analizan la
calidad en la Wikipedia a través de la correlación de
diferentes variables con los distintos niveles de calidad
establecidos por la propia Wikipedia. Concluyen que más
que el número de editores, lo decisivo son las medidas de
coordinación entre ellos (algunas implícitas y otras
explícitas). Estos análisis destacan por su facilidad de
implementación pero también por lo reducido de su enfoque
y conclusiones. No son útiles para revisar un proceso
colaborativo de base constructivista, sin valoraciones
prefijadas a priori, como se especificó anteriormente.
Por otra parte están los análisis con metodologías más
avanzadas y ricas en detalles. En sus inicios, las redes
sociales se aplicaron de manera limitada. Así, Korfiatiset al.
(2006) [29] utilizaron el análisis de redes para páginas
individuales para comparar las redes de editores.
Hollowayet al. (2007) [30] dibujaron un mapa para
visualizar las relaciones entre artículos de la Wikipedia
según agrupaciones de categorías, y Klammay Haasler
(2008) [31] introdujeron una visión dinámica para mostrar la
evolución de un artículo en el tiempo. Posteriormente, otros
desarrollos más avanzados partieron del mismo análisis de
redes para complementarlo analizando patrones de
colaboración, clasificando a los editores según las acciones
de edición realizadas [32] y correlacionando estos patrones
de edición con las valoraciones existentes en la Wikipedia.
Welser et al (2011) [33] por último, utilizando datos del
2006, analizan y comparan las redes sociales de los cuatro
roles sociales básicos de editores (los editores técnicos, los
antivandálicos, los expertos sustantivos y los gestores de
red).
Estos ejemplos muestran la capacidad potencial de uso de
partida del análisis de redes sociales como base para estudiar
el proceso colaborativo y combinarlo posteriormente con
agrupaciones de editores y correlaciones con otras medidas
significativas.
B. Principios sobre los que construir una aproximación
desde las analíticas de aprendizaje
Este apartado fundamenta que una mirada adecuada desde
las analíticas de aprendizaje para el análisis de los proyectos
colaborativos masivos debería cumplir tres principios:
1. Analizar los productos de aprendizaje.
2. Integrar la visión analítica y la pedagógica.
3. Combinar tipos de análisis diversos.
1) La importancia de analizar los productos de
aprendizaje.
Deberemos analizar el proceso de construcción de un
producto colaborativo conjunto, que es distinto de las
medidas de aprendizaje comúnmente utilizadas. Gašević,
Dawson y Siemens (2015) [34] indican que el énfasis
primario en el campo del learning analytics ha sido en el uso
de puntuaciones de test “o bien en crudas aproximaciones
como las notas del curso, que no miden con exactitud los
productos académicos sino el rendimiento académico en un
momento dado del tiempo” (pág. 69). Los autores señalan
que debe corregirse ese fallo, pero pasar a analizar los
productos de aprendizaje hace necesario el desarrollo de
nuevas metodologías:
“Para analizar estos productos de aprendizaje textuales,
deberíamos escalar los métodos cualitativos de
investigación. El uso de métodos de minería de textos y
de procesamiento natural del lenguaje para crear análisis
de contenido y discurso es una dirección de investigación
críticamente importante.” (pág. 69).
Estos productos de aprendizaje, por ejemplo la
construcción de tipo wiki propuesta, requieren el trabajo en
base a información textual y poco estructurada, que es la
base del estudio que aquí se presenta. El objetivo es
ambicioso y requiere una estrecha colaboración entre la
parte analítica y la pedagógica.
2) La importancia de integrar la visión analítica y la
pedagógica.
Los desarrollos en el campo de Learning Analytics (LA)
muestran una gran tensión entre la minería de datos (parte
analítica) y la pedagogía (parte de aprendizaje). Este defecto
podría ser consecuencia de la división que Siemens (2014,
pág. 3-4) [35] señalaba entre los dos grupos actuales en este
campo:
“Habitualmente, los científicos informáticos, expertos
en machine learning, estadísticos y matemáticos tienen la
capacidad técnica de dar sentido a grandes conjuntos de
datos, pero les falta la base en educación, teorías de
aprendizaje y literatura al respecto. Por el contrario, los
científicos del aprendizaje, psicólogos y sociólogos tienen
las lentes teóricas para evaluar las estructuras de poder y
los ámbitos del aprendizaje, pero les falta la base en datos
emergentes y métodos analíticos”.
Esta tensión es quizás inevitable en el proceso de
configuración de una nueva disciplina, pero tras la
participación en el LASI (Learning Analytics Summer
Institute) de Bilbao de 2015[36], me atrevería a decir que el
bando de la ingeniería está ganando con diferencia, al menos
en España. Esta situación, tan similar a la división que
magistralmente explicaba C. P. Snow en el año 1959[37]
entre dos culturas, la de científicos y la de escritores,
comparables en inteligencia pero que ni se comprenden ni se
comunican entre ellos, no tiene solución fácil, pero el
desequilibrio anteriormente señalado puede tener
consecuencias negativas. Por una parte, el peligro de que
esta nueva disciplina acabe ofreciendo soluciones sin tener
claro los problemas a los que se dirigen. Y por otra, el riesgo
de inacción que conlleva comprender los problemas sin
poder desarrollar soluciones.
202 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
De hecho, si el ámbito de learning analytics se limita a
analizar las montañas de datos generadas en la interacción
de los usuarios con sus actividades online habituales, sus
aportaciones serán probablemente seguras pero limitadas. Y
al mismo tiempo, sin saber moverse entre en aguas
analíticas, quizás perdamos oportunidades de innovación
decisivas. En cambio, al integrar esas dos almas, las nuevas
analíticas de aprendizajes pueden permitir la aplicación de
nuevas experiencias pedagógicas. Aquí es donde el learning
analytics puede demostrar su mayor valor, pero para ello se
hace necesario enriquecer el trabajo analítico, como se
mostrará en la sección siguiente.
3) La importancia de combinar tipos de análisis
diversos
El análisis de un proyecto colaborativo masivo desde la
perspectiva educativa requiere una visión multidimensional
de un proceso muy complejo, y por ello se hace necesaria la
aplicación de técnicas diversas sobre un mismo objeto de
análisis. La colaboración implica un diálogo e intercambio
de habilidades entre estudiantes con diferentes intereses y
capacidades para conseguir un objetivo común. Ello
significa valorar una multiplicidad de interacciones a
distintos niveles (entre estudiantes, entre aportaciones, entre
contenidos) por separado y mezclados (estudiantes –
contenidos, aportaciones-estudiantes, etc.), así como
clasificar actores (clasificar los estudiantes según el tipo de
aportaciones, los contenidos según su proceso o su calidad,
etc.).
Este artículo presenta los resultados exploratorios del
desarrollo y aplicación de una muestra de estas técnicas y
metodologías de learning analytics a partir de un caso real
de construcción colaborativa masiva. Se destacan:
- El análisis de redes sociales (objetivo 1) que permitirá
estudiar las relaciones entre actores (sean estos estudiantes,
aportaciones de los mismos o contenidos generados),
aplicando medidas cuantitativas de dichas relaciones
(importancia, función en el proceso colaborativo, etc.).
- El análisis factorial (objetivo 2) para realizar
agrupaciones de contenidos en bloques temáticos y para ver
el peso de cada editor en el desarrollo de cada uno de estos
bloques.
- El clustering por K-means (objetivo 3) utilizado para
realizar agrupaciones de editores según el tipo de
aportaciones realizadas.
- El uso de algoritmos de aprendizaje supervisado de tipo
“naive” Bayes (Objetivo 4) para predecir, en función del
texto, si los conceptos están equilibrados o no según los
requisitos preestablecidos referidos al tipo de aportaciones
que los configuran.
C. Recogida inicial de datos
Este estudio realiza una analítica forense a partir de los
datos del proyecto anteriormente citado. Es decir, analiza,
aprende y construye la propuesta, a partir de los datos
recogidos de un proyecto ya acabado en el momento de
realizar el análisis. Para desarrollar esta aproximación
experimental al análisis, se redujo el alcance al wiki de una
sola asignatura (Elementos de economía y empresa) de cara
a facilitar la gestión de la prueba de concepto. En total
sumaban 148 conceptos (páginas web), creados en un
proceso de 2,881 ediciones por parte de 308 estudiantes-
editores activos.
Para obtener la información de partida escribí un pequeño
script en Python para realizar web scraping mediante las
librerías de BeautifulSoup de Python. Esta es una técnica
automatizada mediante software para extraer información de
la web, sin necesidad de acceso a una base de datos, sino
simulando la navegación web y descargando el texto
desestructurado de los sitios. Ello fue necesario ya que la
plataforma wiki utilizada no tenía base de datos, por lo que
no podía recuperarse la información de otro modo. Dicha
plataforma era un desarrollo propio realizado por Josep Sau,
de tecnologías de la UB, a través del lenguaje
AWK/GAWK, durante los años 2004-2006. De esta manera
se descargaron cada una de las aportaciones para cada
concepto por cada estudiante, con las marcas de tiempo y en
contextualización con el contenido del wiki (gracias a la
función de comparación del propio wiki). Las información
almacenada fue la siguiente:
- Marca de tiempo.
- Autor de la edición.
- Concepto editado (nombre de la página).
- Versión de la edición (en número).
- Aportación concreta (texto).
- Contexto de la aportación (texto total y contiguo a la
aportación).
VI. ANÁLISIS Y RESULTADOS
Partiendo de los cinco objetivos planteados anteriormente,
se adaptaron diferentes técnicas para dar respuesta a las
cuestiones anteriormente planteada.
A. Clasificación de los colaboradores y contenidos según
su rol en el proceso colaborativo (objetivo 1)
Para realizar esta acción se utilizó la metodología de
análisis de redes sociales. Las redes sociales pueden
definirse simplemente como un conjunto de nodos unidos
por uno o más tipos de relación [38]. Cabe destacar que esta
metodología tiene una importante historia de aplicación en
el campo de la educación desde sus inicios [39-40]. Su uso
muestra algunas ventajas evidentes: no tiene por qué hacerse
una clasificación previa al análisis ni tampoco se parte de un
análisis individualista. La unidad de análisis es la relación
entre nodos (entendida de maneras diferentes) y el objetivo
básico es descubrir patrones dentro de estas estructuras
relacionales [41]. Estos nodos pueden ser personas, páginas
web, organizaciones, palabras, países, etc.[42].
1) Datos de partida
Como se muestra en la Figura 1, del proceso de edición
de un wiki se puede derivar fácilmente la creación de una
serie de tablas de relaciones que permiten el análisis de
redes sociales (Figura 2). A partir de una tabla
bidimensional que relacione páginas con editores pueden
traducirse dos tablas unidimensionales que relacionen
editores con editores y páginas con páginas.
2) Filtro y refinamiento
Si el objetivo de esta técnica es permitir que emerjan las
estructuras de relaciones básicas del proceso colaborativo a
partir del marasmo de datos, el principal problema de este
tipo de análisis es la gestión de las relaciones espurias. Por
ejemplo, si el Editor 1 hace una pequeña modificación a una
SANCHO: NUEVAS POSIBILIDADES DE APRENDIZAJE POR PROYECTOS COLABORATIVOS MASIVOS... 203
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
página que han editado otros 80 editores, ¿debemos reflejar
que el Editor 1 se ha relacionado con los 80 restantes
editores? Probablemente no. De hecho, un exceso de
relaciones esconderá la estructura subyacente buscada. Por
ello, debemos encontrar el equilibrio entre recoger la
complejidad suficiente y conseguir una simplificación que
permita dejar al descubierto las relaciones significativas
entre nodos. Para ello, se normaliza la matriz de datos según
distintos criterios, hasta hacer desaparecer las vinculaciones
redundantes, como se muestra en la sección siguiente.
3) Planteamiento del análisis (minería y
representación)
La metodología de redes sociales se basa en el análisis de
relaciones, y estas se establecieron a tres niveles:
1. Relaciones entre editores y contenidos editados.
Corresponderían a las redes de afiliación, también
conocidas como bimodales o bidimensionales[43] y
cumplirían los requisitos de Skvoretzy Faust [44]. Ver
el ejemplo de la Figura 3.
2. Relaciones entre editores. Por ejemplo en la Figura 4,
donde se normaliza la matriz a partir de establecer la
relación entre dos editores cuando estos coinciden en la
edición de 4 o más conceptos.
3. Relaciones entre contenidos. Por ejemplo en la Figura
5, donde se normaliza la matriz a partir de establecerla
relación entre dos conceptos cuando estos comparten 4
o más editores.
Para el cálculo de medidas y representación se utilizó el
software Ucinet, de Analytic Technologies. Aparte de la
visualización, el análisis de estas redes normalizadas
permite el cálculo de medidas específicas, como por ejemplo
las medidas de centralidad, que permiten identificar a los
editores más importantes en el proceso colaborativo según
distintas acepciones de centralidad. Existen diversos
significados posibles que tienen sentido en este contexto: la
centralidad de grado (que indica que los nodos más
importantes serán los que tengan más enlaces con otros
nodos, sean estudiantes o conceptos), la medida de poder de
Bonacich (que identifica los nodos con más poder como
aquellos que tienen más vínculos con nodos que a su vez
tienen pocos vínculos) y la medida de intermediación (que
identifica a los editores que hacen de puente entre subredes)
o como señalan Tsvetovaty Alexander (pág. 51) [45]
asumen “que un individuo consigue poder si preside un
cuello de botella comunicativo”. Iguales o parecidas
medidas pueden utilizarse para conocer la importancia de
los contenidos desarrollados. Por último, este tipo de
análisis permite identificar las comunidades de contenidos y
de editores mediante los distintos algoritmos disponibles
generados a partir de las interacciones del proceso
colaborativo. Como por ejemplo el algoritmo de Girvan-
Newman [46,47]que determina las comunidades como los
grupos de nodos con una gran densidad de conexiones en su
interior y una baja densidad con los nodos exteriores al
grupo.
4) Principales resultados conseguidos:
Una visión general cualitativa (Figura 3) muestra que el
proyecto se divide en dos mitades asimétricas de editores
(identificados como números y en color rojo en el original)
que crean contenidos (identificados por el nombre en texto y
en color azul en el original). Es decir, que un grupo pequeño
de editores (parte inferior izquierda de la Figura 4)
desarrolla unas áreas temáticas distintas al grupo
mayoritario. Estas subredes de editores (llamadas también
cliques) tienen su correspondencia en la red de contenidos
(Figura 5), en este caso la subred menor de contenidos,
como comparte un pequeño grupo de editores, está más
cohesionada y probablemente sea más coherente.
Finalmente se destaca la función de puente que realizan los
editores que unen las dos subredes y se aprecian en la Figura
3. Estos, a pesar de no ser muy importantes por el número
de conexiones que realizan (el tamaño de los nodos, que
indican el valor de centralidad no es muy elevado), destacan
por su función de conectar y dar sentido coherente en el
proceso de escritura y desarrollo de los contenidos.
El análisis a nivel individual permite cuantificar los
resultados señalados en el párrafo anterior, permitiendo
identificar a los editores con más poder de centralidad según
los distintos significados. Por ejemplo, destacan 6 editores
con una centralidad de grado mayor entre 54 y 31 enlaces.
Otros con más poder según Bonacich (entre 56 y 96 en la
medida normalizada) y un tercer grupo con mayor grado de
intermediación (entre 605 y 1496). Como era previsible, los
editores más importantes según las dos medidas no
coincidían, excepto el caso del editor 10220556, con valores
elevados en grado y Bonacich, y el 10858746, en los
primeros puestos de grado e intermediación. Estos
resultados pueden incorporarse a la representación gráfica
de las redes de editores y conceptos a través de variables
como el tamaño del nodo, color y forma.
Figura 1. Ejemplo de relación entre editores y contenidos en el proceso de desarrollo.
Figura 2. Ejemplo de matriz de afiliaciones derivada del proceso de
elaboración de contenidos y las dos matrices unidimensionales derivadas de la anterior.
204 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
B. Clasificación temática de los contenidos y peso de
cada estudiante en ellos (objetivo 2)
Un efecto de los proyectos colaborativos a gran escala de
creación más o menos libre de contenidos es que el ritmo
elevado dificulta algo tan básico como la propia
clasificación temática de los contenidos y de los intereses de
los estudiantes. Realizar una aproximación a un sistema de
clasificación automática por temas era el segundo objetivo
marcado anteriormente. Para ello se utilizó el análisis
factorial. Esta técnica “comprende diferentes métodos que
permiten examinar la estructura subyacente en un conjunto
de variables y condensar la información que contienen
revelando las dimensiones fundamentales y, por tanto,
simplificando las relaciones existentes entre variables
observables” (Luque Martínez, 2000, pág. 39) [48].
Planteamiento del análisis y datos de partida:
La aplicación que aquí se realiza se basa en la hipótesis de
que los individuos tendían a especializarse en contenidos
similares. De esta manera, se utilizaron los 148 conceptos
como variables para el análisis, y los 308 editores como
casos. Se construyó una matriz que mostraba el número de
ediciones que realizó cada estudiante de cada concepto. Se
aplicó una rotación VARIMAX para intentar maximizar la
separación de la pertenencia a los factores.
Principales resultados conseguidos:
Recogiendo 10 factores (interpretados como áreas
temáticas), la variabilidad explicada es baja, del 29,7%, pero
permitía una aproximación clasificatoria de utilidad
significativa.
La Figura 6 muestra la etiqueta explicativa asignada para
cada factor. Dentro de cada uno de los factores (el Factor 8:
Social sirve como ejemplo) puede desglosarse el peso de
cada concepto (página web) en ese factor y una
aproximación del peso/importancia que tiene cada
estudiante en el desarrollo de ese factor.
C. Clasificación de los colaboradores (estudiantes
editores) según el tipo de contribución y rol en el proceso
colaborativo (objetivo 3)
El análisis de los registros (o “logs”) utilizado
anteriormente es útil pero limitado. No es lo mismo un
estudiante que corrige un acento que uno que añade
información útil, un ejemplo clarificador o uno que
simplemente “copia y pega” información irrelevante. El
valor de su aportación puede ser distinto, pero estas
diferencias pasan desapercibidas si tan sólo valoramos los
registros.
Este análisis entra en el detalle del tipo de contribuciones,
clasificando a los estudiantes a través de un clustering.
Como menciona Janert (2011, pág. 293) [49]: “El término
clustering se refiere al proceso de encontrar grupos de
puntos dentro de un conjunto de datos que están de alguna
manera „juntos‟. También es un método de aprendizaje no
Figura 3. Representación gráfica de la matriz bipartita conjunta de editores y conceptos, con el tamaño del nodo según el grado de centralidad y el color según sean editores (rojo) o conceptos (azul).
11130335
10209640
10913265
10858746
10896642
11006376
93255175
10854966
10235050
98205505
10915542
9807230610867441
11014474
94176261
11017845
10858105
10890235
11019072
99028193
10137503
10129453
10259900
10916334
10867010
10187391
10916135
11017963
10916916
10914061
11181785
11113410
11751666
11103492
11147043
11163530 11167284
11141362
10852472
11171996
11165512
11110050
11182765
10810273
10273594 11100471
11135773
97176752
11129602
11763850
11011405
11185182
11174763
10098093
11107504
10264225
11003521
11760560
11118376
11132634
10916172
11100224
99027095
11110805
10897375
10897331
10137702
10094302
10854480
10879293
1092020610236811
11012923
10155611
11010786
10865901
96225791
10853205
10878442
11119824
99054012
11169233
10287406
11168986
11176712
11136532 11130560
11162141
11106874
11173153
10311475
11138573
99400534
11101333
11004641
98221336
11152105
11131422
11171020
11771336
11104752
11016482
10220556
11013520
10861701
10850125
11008491
10254075
10859855
11011534
10882686
10241254
10858621
10907551
10858750
10892372
11763334
10876445
11186560
11122882
11002040
11014441
10259885
10860872
10883084
11153564
11177530
1022569211156810
11162734
11223344
10528372
10869316
10222461
10878431
10087431
10090931
11175496
11117875
11111586
11186346
10882900
93503826
11136086
11771561
11142880
11156062
11151125
10301815
11157440
11144965
11109921
10907422
98050820
11751445
10211891
10903340
10910572
10889830
10860721
10876331
10907046
11016025
10910115
10884436
10859914
10872923
10202183
10875480
10894332
10918832
11122915
11161581
11106631
11126312
99140016
95034133
1050340410877053
10306015
11182124
11126953
11162524
11174612
11102641
11150834
18587729
11155546
11178790
10297910
11013785
10074433
10292796
10864361
11002530
11127550
10866623
10020441
10872654
10913733
10284945
10267795
10107263
11100843
11153811
11169196
11124411
11103654
11155745
10904051
10869353
11010856
11011954
10046691
10271133
22457869
11013936
11172781
10172396
11157333
10124015
10201214
10913276
10912086
10862250
10877694
10286124
10891160
10911250
10892873
10891952
11173680
11176082
1116403111003020
11117341
10878162
10863296
10882130
10270153
95237601
11164591
11100235
11184891
11124396
11117400
10862806
10900190
11179652
11166643
11104074
10883961
10866236
10313645
99039640
1113675394003851
11158545
11104671
11162196
11141992
10027065
11184154
10911456
10870882
11764384
10145575
12345678
10894365
11002272
11172070
10142090
10887424
10250962
11166761
11012676
10913195
10882690
10915450
10859984
10879245
11172803
11002460
11171823
87291875
84208036
11008955
10873855
10292273
10094895
11323432
25124536
98083414
11165140
10899033
10917443
1024035511761606
10151503
1088203411006111
10301093
11132251
96226922
11186685
11018361
11131120
EcoDemanda
EcoProblemaVivenda
EcoTipusDeMercat
EcoDiscussioSocietatConsum
EcoMercat
EcoAvantatgeComparatiu
EcoDifer
EcoMonopoli
EcoVidalaboralvsvidafamiliar
EcoCompetenciaPerfecta
EcoEconomia
EcoElasticitatPreuDemanda
EcoSocietatConsum
EcoAnalisiValoratiu
EcoLaSituaci
EcoEmpresa
EcoCompetenciaImperfecta
EcoOferta
EcoElfuturodelestadodebienestarEcoImmigrants
EcoMicroeconomiaIMacroeconomia
EcoClassificaci
EcoPisosde30m
EcoComerEcoConceptoPIB
EcoProductoInteriorBruto
EcoCreacioigestiodeserveis
EcoFiscal
EcoIpc
EcoModelosdeEstadodelBienestar
EcoCorbaDeOfertaDelMercat
EcoCostDeOportunitat
EcoSAD
EcoDeudaExt
EcoInflacio
EcoElsDeterminantsDeLaDemanda
EcoFunci
EcoLaMujerAlTrabajo
EcoAltresConceptes
EcoCeterisParibus
EcoFuncioRedistributiva
EcoCapitalismeicultura
EcoFonsMonetariI nternacional
EcoPensadores
EcoAnalisiComparativaDelMonopoliI LaCompetenciaPerfecta
EcoArticle
EcoPoblacioActiva
EcoProduccio
EstatBenestar
EcoBequesMenjador
EcoCapitalSocial
EcoCorbaDeDemandaIndividua
EcoCreaci
EcoElasticitat
EcoEstadodelBienestar
EcoExcedentDelConsumidor
EcoParisBotellon
EcoPerqu
EcoPreu
EcoTipusDeDemandes
EcoCorbaDeDemandaDelMercat
EcoCostosDeProduccio
EcoCrisisEstadoBienestarYTrabajoComunitario
EcoExc
EcoFontsAvantatgeComparatiu
EcoRelacioRealD
EcoRenta
EcoTasaAtur
EcoTipusImpostos
EcoAutarquia
EcoElmercat
EcoNoticia
EcoPoliticaurbanisticadelsajuntaments
EcoPuntEquilibri
EcoQuantitatDemandada
EcoArticleCrash
EcoBens
EcoChinaanteelmundo
EcoCostOportunitat
EcoDirectCostingEcoElasticidadpreciodelademanda
EcoProductivitat
EcoTeleassist
EcoTreball
EconomiesDescala
EcoAtur
EcoConstrucciocomunitaria
EcoServeisSocials
EcoSistemaImpositiu
EcoTr
EcoTreballSocialiEstatdeBenestar
EcoConfer
EcoDemandaAgregada
EcoDiscursosdelDesinter
EcoEstabilitat
EcoFuncionsEconomiques
EcoLaGeneraci
EcoPIRMI
EcoPol
EcoComercioJusto
EcoCrecimientoEconomico
EcoDeuteEcol
EcoDevaluacio
EcoExcesDeOferta
EcoGlobalitzaci
EcoLaDonaiEstatdeBenestar
EcoNecessitatdeCanvi
EcoPoliticaMonetaria
EcoPoliticaMonetariaRestrictiva
EcoProblemaEconomic
EcoProgramasp
EcoProteccionisme
EcoAranzel
EcoDiferenciassalariohombreymujer
EcoEconomista
EcoElProblemaDeLaVivienda
EcoElsCiclesEconomics
EcoExternalitats
EcoFuerzasMercado
EcoL
EcoM
EcoNacionalitzacioPertroli
EcoOligopoli
EcoPoliticaeconomica
EcoPoliticamacroeconomica
EcoPrestacionsecon
EcoRespostaq
EcoActivitatEconomica
EcoArticuloElPeriodico
EcoBancMundial
EcoCooperativa
EcoLliurecanvisme
EcoPoliticaMonetariaExpansiva
EcoResistenciasantelaglobalizaci
EcoSituaciodelmercatdelavivenda
EcoVivenda
EcoDiners
EcoDiscussioEspingAndersen
EcoDivises
EcoElementsQueComponenLaEmpresa
EcoEstatdelbenestar
EcoFactorsdeproduccio
EcoLesfalladesdemercat
EcoLleideDemanda
EcoLosimpuestos
EcoPoliticaFiscal
EcoServiciosySectorP
EcoTipusd
Figura 4. Red de editores que comparten la edición de 4 o más
conceptos. Tamaño del nodo según medida de centralidad.
Figura 5. Red de conceptos que comparten 4 o más editores. Tamaño
del nodo según medida de centralidad.
SANCHO: NUEVAS POSIBILIDADES DE APRENDIZAJE POR PROYECTOS COLABORATIVOS MASIVOS... 205
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
supervisado, porque no sabemos con antelación dónde se
sitúan los clústeres y a qué se parecerán”.
1) Datos de partida y planteamiento del análisis
Para este análisis se hace necesario generar una muestra
de aportaciones suficiente y validada por observación
humana. Se realizó una clasificación manual de una muestra
de ediciones para obtener datos con los que realizar esa
clasificación y posteriormente entrenar al algoritmo
predictivo que se muestra en la sección siguiente. Para ello,
adaptando la clasificación de Liu y Ram (2011) [32] se
identificaron 14 tipos de ediciones importantes, algunas
valorables como positivas para mejorar la calidad del
desarrollo (introducir información relevante, introducir
ejemplos relevantes, combinar argumentaciones,
reestructurar correctamente contenido, corregir faltas de
ortografía, editar el formato wiki, etc.)y otras valorables
como negativas (introducir información irrelevante,
introducir ejemplos irrelevantes, correcciones ortográficas
incorrectas, borrar incorrectamente contenido, etc.).
Posteriormente se analizó una muestra de 1,167 ediciones
individuales en base a esos tipos de ediciones, en las que el
profesor de la asignatura situó cada aportación analizada
dentro de una de las 14 acciones posibles.
Los resultados aparecen en la Tabla I.
Se utilizó un programa libre del campo de la investigación
genética llamado Cluster 3.02 (utilizado para comparar y
agrupar cadenas de ADN y ARN), mientras que para la
visualización se recurrió a Java TreeView 3. Tanto para los
datos agrupados del tipo de acción como para el número de
acciones, se normalizaron las filas (editores) y columnas
(acciones), multiplicándose los valores de cada fila por un
factor S tal que la suma de los cuadrados de cada fila fuese
0, e igual para cada columna. Con esta matriz normalizada y
centrada se ha procedió a realizar un doble análisis de
clústeres para agrupar tanto las categorías de edición como
los editores en base a estas categorías.
Este análisis requiere la determinación previa del número
de clústeres en los que se quiere agrupar la información.
Después de distintos ensayos, se determinó que el número
más adecuado era de 6 grupos en ambos casos. El análisis de
clúster consiste en un proceso de iteración a partir de una
asignación aleatoria de puntos, para posteriormente
reposicionarlos de manera que queden al medio de la
distancia con los elementos que quedan más cercanos a este
punto. El criterio utilizado para calcular las distancias de
estos puntos centrales (o centroids) fue el de la distancia
euclídea. Debido a esa asignación aleatoria, puede darse el
caso de que el mismo análisis llegue a soluciones diferentes.
Para encontrar una solución única se repitió el análisis
10,000 veces, llegándose a la misma solución en 508 casos,
un número considerado suficiente para validarla como
óptima.
2) Resultados
Se identificaron 6 clústeres de estudiantes en función del
tipo de aportaciones, que se denominan como: Grupo motor
- Figura 7; Vinculadores; Formateadores; Informadores y
más; Informadores y Pasivos.
Estos clústeres agrupan de manera autónoma a los
estudiantes, generando distintas identidades o roles en base
al tipo de aportaciones que han realizado en el proceso
colaborativo.
Figura 6. Ejemplo de descomposición del Factor 8, “Social” según peso
de los contenidos (páginas el wiki) y editores que lo configuran.
TABLA I NÚMERO DE ACCIONES RECOGIDAS POR CADA CATEGORÍA DE EDICIÓN DE
CONTENIDOS EN LA CREACIÓN DE LOS CONCEPTOS ANALIZADOS
Figura 7. Ejemplo de clúster. Grupo motor del proceso colaborativo,
formado por 3 editores del Clúster 5 y descomposición de su nivel de actividad en los ítems analizados.
206 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
D. Clasificación de los contenidos según su calidad en
base a los criterios establecidos por cada profesor
(objetivo 4)
La última parte de la información propuesta es una de las
más complicadas: analizar la calidad del contenido
construido colaborativamente de forma masiva. En primer
lugar, el problema para esta aproximación es que la calidad
habitualmente requiere un análisis externo cuando el
proyecto está acabado, cosa que conlleva un feedback
costoso y con demasiado retardo [50]. En segundo lugar, la
propia definición de calidad es más compleja y subjetiva de
lo que a primera vista se podría pensar.
1) Planteamiento del análisis
Para clasificar los contenidos a partir del texto se utilizó
un algoritmo predictivo, de tipo “naive” Bayes, que
podríamos traducir como “bayesiano ingenuo” que ha
demostrado su efectividad en contextos muy distintos, desde
el procesamiento de lenguaje natural [51], la clasificación de
documentos textuales en procesos de generación de
inteligencia colectiva [52-54] o la creación de filtros de
spam para el correo electrónico [55]. Esta sorprendente
efectividad y eficiencia puede ser debida a que aunque no
suele cumplirse la independencia condicional en la que se
basa, en las aplicaciones reales las dependencias suelen
cancelarse mutuamente [56]. En este caso se utilizó una
versión adaptada del algoritmo propuesto por Hillary Mason
[53]sobre Python con la implementación de Pyyaml 6 y el
Natural LanguageToolkit.
La aplicación del algoritmo se basa en el supuesto de que
encontrará patrones en el uso de palabras y composición del
texto final que permitan diferenciar un texto bien construido
de un texto mal construido. La idea básica del análisis es
que un contenido sería adecuado si está construido a partir
de partes que el profesor marca como deseables, y viceversa,
y estas partes probablemente dejarán rastros (patrones) en el
lenguaje escrito. Por supuesto, es una aproximación no
exenta de riesgos: un contenido construido en base a partes
y elementos positivos deseables puede ser modificado por el
último editor y mostrar una calidad aberrante, y también al
revés, pero puede ser un compromiso aceptable si se piensa
en términos de proceso de aprendizaje.
Este algoritmo de clasificación supervisado requiere una
entrada dicotómica de textos “correctos” y de textos
“incorrectos” para aprender de ellos detectando patrones y
poder posteriormente predecir la clasificación al encontrar
un nuevo texto. El elemento clave será, entonces, la
preparación de los textos para este entrenamiento.
2) Datos de partida
A partir de las acciones señaladas y recogidas en el
apartado anterior, se ponderaron los elementos constructivos
(las aportaciones), algunos positivos y deseables y otros
negativos e indeseables. La clasificación y ponderación
otorga un margen importante de adaptación a los criterios de
cada docente (puede decidir qué valora y cómo lo valora en
el proceso de construcción del proyecto). Con ello se realizó
una valoración acumulada de la calidad del proceso de
construcción del contenido y de esta manera se llegó a una
escala de valoración del proceso (Figura 8). Como algunos
conceptos estaban escritos en catalán, otros en castellano y
algunos de forma mezclada, se utilizó un algoritmo de tipo
“stemmer” derivado del clásico de Porter [57]. Estos
algoritmos, aunque con dificultades de adaptación a nuestras
lenguas, permiten obtener tan solo la raíz de cada palabra.
Se utilizó una pequeña parte de los conceptos valorados en
el algoritmo, los conceptos mejor valorados como “texto
modelo tipo 1” y los menos valorados como “texto modelo
tipo 2” para el aprendizaje supervisado. Finalmente, se
probaron los conceptos con los casos más complicados, los
de valoración intermedia, para comprobar si el algoritmo los
valoraba más próximos a un tipo u otro.
3) Resultados
Después de trazar una línea ciertamente arbitraria en la
mediana de valoración de los conceptos ordenados para
separar en dos mitades los conceptos (identificando los
“mejor” y “peor” construidos), el resultado fue que el
algoritmo era capaz de clasificar el 75% de los conceptos
identificados como “más correctamente desarrollados” y el
62% de los identificados como “menos correctamente
desarrollado”. Una aproximación débil, contando que se
sitúa en condiciones de prueba muy desfavorables, pero que
abre un planteamiento interesante para desarrollos
posteriores.
E. Asignar y visualizar los ítems anteriores para cada
estudiante y para cada página de contenido (objetivo 5)
Toda la información del proceso, hasta ahora analizado de
manera global, debía ofrecerse de manera resumida y visual
para cada uno de los estudiantes editores. Se trataba de
poder ofrecer una información tanto al estudiante como al
profesorado, sobre la situación individual contextualizada
dentro del proceso colaborativo global. Ello requiere una
representación individualizada de los resultados de los
análisis anteriores. Como se muestra en la Figura 9, la mejor
opción considerada era utilizar el análisis de redes, ya que
permitía también la contextualización necesaria.
De esta manera, tomando como ejemplo el editor
10273594 señalado en la Figura 9, conocemos su posición,
importancia y función en el proceso colaborativo. Destaca
una importante centralidad de grado y de intermediación en
el análisis de redes (hacer la función de “puente” entre
editores), aunque no es de los que más ediciones ha
realizado. Por otra parte, conocemos el tipo de acciones que
realiza ya que pertenece al clúster que introduce
información y más cosas, pero no al grupo motor. Por
último, se permite una aproximación a los temas que
desarrolla, básicamente de los factores de Teoría económica
Figura 8. Esquema de la aplicación y funcionamiento del algoritmo de
aprendizaje supervisado de tipo “naive Bayes”.
T ex t o s T ip o 1 T ex t o s T ip o 2
Crit erio s d e d ic o t o m izac ió n
A nális is d elleng uaj e A p r end izaj e D et ec t a e id ent i?c a
Pat r o nes
A lg o rit m o I np ut
T ex t o a c las i?c ar A nális is d elleng uaj e
Clas i?c ac ió n p r o b ab ilí s t ic a
D elanális is d e c ús t er es
SANCHO: NUEVAS POSIBILIDADES DE APRENDIZAJE POR PROYECTOS COLABORATIVOS MASIVOS... 207
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
(donde es el 5º editor por importancia) y Sociales (donde es
el 10º editor).
VII. CONCLUSIONES
Este artículo muestra dos cosas: (1) que el desarrollo y la
aplicación de nuevas analíticas de aprendizaje es un
elemento decisivo para hacer posible el uso de proyectos
colaborativos masivos como productos de aprendizaje con
los que trabajar en nuestro sistema educativo; y (2) que es
factible diseñar e implementar estas analíticas de manera
mayormente automatizada y con una visión general de
distintas facetas del proceso colaborativo, tanto a nivel de
proceso global como de cada uno de los participantes y
contenidos desarrollados.
Esta es tan sólo una primera aproximación que pretende
avanzar hacia el planteamiento de productos de aprendizaje
complejos, que intenten al mismo tiempo mejorar los
procesos de aprendizaje y contribuir a la creación de
resultados finales que sean de utilidad social. Las técnicas
mostradas parten del uso de wikis, pero pueden ser
adaptadas a otras plataformas con relativa facilidad.
Para seguir en esta línea queda mucho por hacer. Es fácil
proponer que los futuros y necesarios desarrollos de esta
línea vayan encaminados a: (1) desarrollar una plataforma
específica que permitiera unificar los distintos análisis y
ofreciera un fácil acceso y usabilidad para los usuarios; (2)
mejorar la visualización de los resultados, por ejemplo
añadiendo la variable tiempo para mostrar la evolución
continuada en los distintos indicadores; (3) aumentar la
dimensión para mejorar y hacer más precisas algunas
medidas; y (4) mejorar la calidad y automatización de las
analíticas propuestas.
Para conseguir estas mejoras probablemente no haya
mejor camino que el andar, creando proyectos similares,
perdiendo el miedo al tamaño y probando y añadiendo las
mejoras necesarias. Todo ello abriría la puerta a un segundo
nivel de investigación: datos comparables permitirían
avanzar en el análisis comparativo de los procesos de
colaboración en el aprendizaje y en la construcción
colaborativa de valor. En cualquier caso, se requiere un
inexcusable trabajo conjunto entre el campo analítico y el
campo pedagógico y la ambición suficiente para innovar al
respecto.
REFERENCIAS
[1] Schön, D. La formación de profesionales reflexivos:
hacia un nuevo diseño de la enseñanza y el
aprendizaje en las profesiones (Paidós, Barcelona,
1992).
[2] Schön, D. El profesional reflexivo: Cómo piensan los
profesionales cuando actúan (Paidós, Barcelona,
1998).
[3] Lishman, J. Handbook for practice learning in social
work and social care: knowledge and theory (Jessica
Kingsley Publishers, 2015).
[4] Sennet, R. El artesano (Anagrama, Barcelona, 2012).
[5] Deslauriers, L., Schelew, E. & Wieman, C. Improved
learning in a large-enrollment physics class. science
332, 862-864 (2011).
[6] Freeman, S. et al. Active learning increases student
performance in science, engineering, and
mathematics. Proceedings of the National Academy
of Sciences 111, 8410-8415 (2014).
[7] Wieman, C. E. Large-scale comparison of science
teaching methods sends clear message. Proceedings
of the National Academy of Sciences 111, 8319-8320
(2014).
[8] Helle, L., Tynjälä, P., Olkinuora, E. & Lonka, K.
Ain‟t nothin‟ like the real thing‟. Motivation and
study processes on a work-based project course in
information systems design. Br J Educ Psychol 77,
397-411 (2007).
[9] Argyris, C. Teaching smart people how to learn.
Harvard business review 69, (1991).
[10] Argyris, C. Empowerment: the emperor‟s new
clothes. Harvard Business Review. Maig - juny,
(1998).
[11] Levine, A. Owning Your Massive Numbers. (2012).
[12] Sancho, J. MOOCs are knocking on the university‟s
door: trick or threat? Roundtable - UNESCO Chair in
Education & Technology for Social Change - UOC.
http://goo.gl/OQDGRc (2013).
[13] Cano, E. Buenas prácticas en la evaluación de
competencias. Cinco casos de educación superior.
(Laertes, Barcelona, 2011).
[14] Cress, U., Moskaliuk, J. Y. & Jeong, H. Mass
Collaboration and Education (Springer International
Publishing, 2016).
[15] Tapscott, D. & Williams, A. D. Wikinomics: How
mass collaboration changes everything (Penguin
Group, London, 2007).
[16] Jonassen, D. H., Peck, K. L. & Wilson, B. G.
Learning with technology: A constructivist
perspective (Prentice Hall, 1999).
[17] Jonassen, D. H. 137-148 1992).
[18] Davidson, R. Wiki use that increases communication
and collaboration motivation. Journal of learning
design 5, 38-49 (2012).
[19] Cole, M. Using Wiki technology to support student
engagement: Lessons from the trenches. Computers
& Education 52, 141-146 (2009).
[20] Tetard, F., Patokorpi, E. & Packalen, K. Using Wikis
to support constructivist learning: a case study in
university education settings. HICSS’09. 42nd
Figura 9. Ejemplo de visualización individualizada de los resultados anteriores para el editor 10273594.
208 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Hawaii International Conference on System Sciences
1-10 (2009).
[21] Parker, K. R. & Chao, J. T. Wiki as a Teaching Tool.
Interdisciplinary Journal of Knowledge and Learning
Objects 3, 57-72 (2007).
[22] Su, F. & Beaumont, C. Evaluating the use of a wiki
for collaborative learning. Innovations in Education
and Teaching International 47, 417-431 (2010).
[23] Vigotsky, L. S. El desarrollo de los procesos mentales
superiores. Editorial Grijalbo. Barcelona. España
(1978).
[24] Sancho, J. Presentación de una metodología para
desarrollar la transversalidad disciplina en los
estudios de trabajo social. Acciones e investigaciones
sociales Extra, 377 (2006).
[25] Sancho, J., Barbero, M., Canals, J., Cortès, F.,
Iannitelli, S., Llobet, M., Mestres, M., Prat, N., Tous,
J. Una nova metodologia d‟identificació i anàlisi per
potenciar la transversalitat disciplinària aplicada als
estudis de treball social. Butlletí La Recerca (2006).
[26] Roth, C., Taraborelli, D. & Gilbert, N. Measuring
wiki viability: An empirical assessment of the social
dynamics of a large sample of wikis. Proceedings of
the 4th International Symposium on Wikis 1-5 (2008).
[27] Ortega, F. Wikipedia. A quantitative analysis.
doctoral dissertation. University Rey Juan Carlos
(2009).
[28] Kittur, A. & Kraut, R. E. Harnessing the wisdom of
crowds in wikipedia: quality through coordination.
Proceedings of the ACM 2008 conference on. (2008).
[29] Korfiatis, N. T., Poulos, M. & Bokos, G. Evaluating
authoritative sources using social networks: an insight
from Wikipedia. Online Information Review 30, 252-
262 (2006).
[30] Holloway, T., Bozicevic, M. & Börner, K. Analyzing
and visualizing the semantic coverage of Wikipedia
and its authors. Complexity 12, 30-40 (2007).
[31] Klamma, R. & Haasler, C. Dynamic Network
Analysis of Wikis. Proceedings of I-KNOW ’08 and
I-MEDIA ‘08 (2008).
[32] Liu, J. & Ram, S. Who does what: Collaboration
patterns in the wikipedia and their impact on article
quality. ACM Transactions on Management
Information Systems (TMIS) 2, 11 (2011).
[33] Welser, H. T., Cosley, D., Kossinets, G. & Lin., A.
Finding social roles in Wikipedia. Proceedings of the
2011 iConference 122-129 (2011).
[34] Gašević, D., Dawson, S. & Siemens, G. Let‟s not
forget: Learning analytics are about learning.
TechTrends 59, 64-71 (2015).
[35] Siemens, G. The Journal of Learning Analytics:
Supporting and Promoting Learning Analytics
Research. Journal of Learning Analytics 1, 3-5
(2014).
[36] Sancho, J. Learning analytics to ignite massive
collaborative projects. Learning Analytics Summer
Institute (2015).
[37] Snow, C. P. The two cultures (Cambridge University
Press, New York, 1998).
[38] Wasserman, S. & Faust, K. Social Network Analysis
Methods and Applications (Cambridge University
Press, New York, 1994).
[39] Moreno, J. L., Jennings, H. H. & Stockton, R.
Sociometry in the classroom. Sociometry 425-428
(1943).
[40] Moreno, J. L. Sociometry in action. Sociometry 5,
298-315 (1942).
[41] Garton, L., Haythorntwaite, C. & Wellman, B. in
Doing Internet Research: Critical Issues and
Methods for Examining the Net (ed Jones, S.) 75 -
106 (Sage, Thousand Oaks, CA, 1999).
[42] Marin, A. & Wellman, B. in Handbook of Social
Network Analysis (eds Carrington, P. & Scott, J.)
(Sage, Londres, 2010).
[43] Borgatti, S. P. in Encyclopedia of Complexity and
System Science (ed Meyers, R. A.) (Springer, 2009).
[44] Skvoretz, J. & Faust, K. Logit models for affiliation
networks. Sociological Methodology 29, 253-280
(1999).
[45] Tsvetovat, M. & Alexander, K. Social Network
Analysis for Startups (O‟Reilly, Sebastopol, 2011).
[46] Newman, M. E. J. & Girvan, M. Finding and
evaluating community structure in networks. Physical
review E 69, 26113 (2004).
[47] Girvan, M. & Newman, M. E. J. Community
structure in social and biological networks.
Proceedings of the National Academy of Sciences 99,
7821-7826 (2002).
[48] Luque Martínez, T. in Técnicas de análisis de datos
en investigación de mercados (ed Luque Martínez,
T.) 39 -387 (Ediciones Pirámide, Madrid, 2000).
[49] Janert, P. K. Data analysis with Open Source tools
(O‟Reilly, Sebastopol, 2011).
[50] Arazy, O. & Nov, O. Determinants of Wikipedia
quality: the roles of global and local contribution
inequality. Proceedings of the 2010 ACM conference
on Computer supported cooperative work 233-236
(2010).
[51] Bird, S., Klein, E. & Loper, E. Natural Language
Processing with Python (O‟Reilly, Sebastopol, 2009).
[52] Segaran, T. Programming Collective Intelligence
(O‟Reilly, Sebastopol, 2007).
[53] Mason, H. An Introduction to Machine Learning with
Web Data (O‟Reilly, Sebastopol, 2011).
[54] Barber, D. Bayesian Reasoning and Machine
Learning (Cambridge University Press., Cambridge,
2012).
[55] Conway, D. & White, J. M. Machine learning for
hackers (O‟Reilly, Sebastopol, 2012).
[56] Zhang, H. The optimality of naive Bayes.
Proceedings of the XVII International Florida
Artificial Intelligence Research Society Conference 1,
562-568 (2004).
[57] Porter, M. F. An algorithm for suffix stripping.
Program 14, 130-137 (1980).
Jordi Sancho es doctor por la Universidad de Barcelona y profesor de
Política Social en el departamento de Trabajo Social y Servicios Sociales
de la Facultad de Educación de esta universidad.
Licenciado en Ciencias Económicas y Empresariales por la UB y Máster en Análisis de Políticas Sociales Europeas por la Universidad de Bath
(Inglaterra), ha sido profesor de las últimas 15 ediciones del Máster de
Estudios Sociales Comparativos de la Universidad de Zuyd en Maastricht y la London Metropolitan University de Londres. Es investigador del
Laboratorio de Medios Interactivos de la UB.
SANCHO: NUEVAS POSIBILIDADES DE APRENDIZAJE POR PROYECTOS COLABORATIVOS MASIVOS... 209
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Title— Academic social networks and Learning Analytics to
find out about self-regulated learning: a case study.
Abstract— Social networks have become a new form of
communication which allow students to share and
collaborate. In that sense they have become allied with
self-regulated learning skills (SRL). This paper presents
an experience at the University of Santiago de
Compostela to analyze how the SRL is developed in a
course that uses a social network.
In this research, were used: 1-MSLQ questionnaire
Pintrich. [1]; 2- social network analysis techniques (SNA)
in the framework of Learning Analytics. The results
show that pedagogy encouraged students to interact and
create a rich environment for developing self- regulated
learning skills.
Index Terms— Social network, Learning Analytics, Self-
Regulated Learning.
I. INTRODUCCION
N una sociedad que propone el reto de aprender
permanentemente empiezan a emerger nuevas
necesidades que deben ser atendidas. El aprendizaje
autorregulado se configura como una habilidad clave de los
estudiantes para establecer por sí mismos los objetivos que
pretenden alcanzar y la manera en que se llega a ellos [1].
La universidad puede ser un lugar clave para fortalecer y
crear estas habilidades tan demandadas en los inicios del
siglo XXI [2].
Como señalan Espuny, González, Lleixà y Gisbert [3], las
redes sociales pueden ser herramientas que ayuden a
conseguir el desarrollo y el fortalecimiento de los procesos
de aprendizaje autorregulado a través de los métodos
participativos que se adoptan en el Espacio Europeo de
Educación Superior (EEES). El contexto donde se ponen en
marcha estos procesos condiciona de lleno los otros
elementos que forman este concepto: comportamiento,
cognición y motivación [4], de ahí que, cuando los espacios
de enseñanza y aprendizaje se utilizan para fomentar las
Adriana Gewerc, es docente del departamento de Didáctica y
Organización Escolar, en la Facultad de Ciencias de la Educación de la
Universidad de Santiago de Compostela, España. E-mail: adriana.gewerc@usc.es
Ana Rodríguez-Groba, es becaria del Ministerio de Educación y Cultura
en el departamento de Didáctica y Organización Escolar, en la Facultad de Ciencias de la Educación de la Universidad de Santiago de Compostela. E-
mail: ana.groba@usc.es
Esther Martínez-Piñeiro, es docente del departamento de Métodos de Investigación y Diagnóstico en Educación en la Facultad de Ciencias de la
Educación de la Universidad de Santiago de Compostela. E-mail:
esther.martinez@usc.es
conexiones entre alumnos/as, entre ellos y tutores o, entre
una comunidad y sus recursos de aprendizaje [5], la
regulación acaba adquiriendo el carácter no solo de “auto”,
sino que también está socialmente regulada.
En este artículo se presenta una investigación que pone de
relieve y analiza los procesos de socio-regulación del
aprendizaje del alumnado en una asignatura de la Facultad
de Ciencias de la Educación, en la Universidad de Santiago
de Compostela. Se pretende que los alumnos desarrollen y
utilicen estas estrategias en una red social propia, donde las
posibilidades de compartir e interactuar les permiten la
creación de una comunidad de aprendizaje.
Con el objeto de analizar qué influencia tiene sobre la
regulación del aprendizaje el trabajo de una materia a través
de una red social, hemos utilizado: el cuestionario MSLQ de
Pintrich et al. [6] y técnicas de análisis de redes sociales
enmarcadas en Learning Analytics (Ucinet y Netdraw) en un
análisis comparativo de las interacciones (comentarios) y
amistades de los cursos 2013-2014 y 2014-2015. Los
hallazgos nos permiten poner de relieve la importancia del
contexto en la regulación del aprendizaje del alumnado y el
lugar que ocupa la colaboración en su desarrollo.
II. APRENDIZAJE SOCIO/AUTORREGULADO
La regulación del aprendizaje se define como un proceso
activo y constructivo por el cual el estudiante establece sus
propios objetivos, procurando monitorizar, regular y
controlar sus pensamientos, motivación y comportamiento
de acuerdo a dichos objetivos [4].
Los sujetos necesitan seleccionar, estudiar y crear
ambientes para optimizar el aprendizaje con
comportamientos que les conduzcan a alcanzar sus objetivos
[7]. La cognición incluye procesos de percepción, atención,
cognición espacial, imaginación, lenguaje, memoria,
resolución de problemas, creatividad, pensamiento e
inteligencia [8]. Se considera la motivación como un
conjunto de procesos implicados en la activación, dirección
y persistencia de la conducta [9]. Todos estos factores se
encuentran fuertemente influidos por el contexto donde
interactúan y se ponen en marcha. Ahora bien, este último
no es solo un elemento que rodea a los aspectos
involucrados, sino que influye directamente en la manera en
que se desarrollan.
Desde la teoría socio-cultural [10] justamente se llama la
atención sobre el hecho fundamental que ningún estudiante
aprende aislado del ambiente y las herramientas sociales
[11] ya que el conocimiento es el resultado de un proceso de
interacción entre el individuo y su entorno [10].Como
señalan Martin y McLellan[12] existen interpretaciones
erróneas que con frecuencia hacen prevalecer un enfoque de
la autorregulación centrado en el individuo, en detrimento
Redes Sociales Académicas y Learning
Analytics para Indagar el Aprendizaje
Autorregulado: un Estudio de Caso
Adriana Gewerc, Ana Rodríguez-Groba y Esther Martínez-Piñeiro
E
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015 210
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
de una adecuada consideración de los contextos sociales que
determinan la función reguladora del comportamiento a
través de la participación situada en los sistemas de
actividad [13], cuando las tareas de aprendizaje que se
realizan están apoyadas por otros, o cuando se comparten
tareas, percepciones, objetivos y estrategias [14].
Hadwin et al. [15] señalan que la autorregulación del
aprendizaje puede llegar a ser socialmente regulada a través
de las actividades que se apoyan en otros (co-regulación), o
cuando los individuos negocian sus percepciones, objetivos
y estrategias en tareas compartidas.
Desde este marco, los modelos sociocognitivos describen
al individuo como protagonista del desarrollo de su
aprendizaje autorregulado, que es asistido y moldeado por el
contexto, pues sólo se aprende en interacción con otros. Las
funciones psicológicas superiores se dan primero en un
plano social y después en el nivel individual [16].
Esta asistencia se concreta con “andamios” [10]. Se trata
de co-construir estrategias de regulación actuando en
aquellos elementos que ayudan a traspasar la Zona de
Desarrollo Próximo [17]para superar la distancia entre el
nivel real, determinado por la capacidad de un alumno para
resolver independientemente un problema y el potencial que
posee.
Los andamios se caracterizan por ser propuestas que
ayudan a la resolución de un problema, bajo la guía de un
adulto o en colaboración con otros compañeros. El
intercambio de ideas, explicaciones, objetivos y las
actividades que se articulan en torno a una tarea,
contribuyen a las construcciones y reconstrucciones de las
habilidades consideradas dentro del aprendizaje
autorregulado [13].
Investigaciones recientes han demostrado que las redes
sociales pueden convertirse en espacios para promover la
regulación, [18] sugieren que los medios de comunicación
sociales facilitan y apoyan el aprendizaje autorregulado.
Algunos autores señalan la falta de soporte de lo social
como una de las principales razones por la que los
estudiantes no logran desarrollar habilidades de
autorregulación (Self-Regulated Learning, SRL) [19]y
comienzan a aparecer investigaciones que señalan que los
instructores deben crear ambientes sociales abiertos
conducentes a SRL, en los cuales los estudiantes puedan
practicar públicamente habilidades SRL y animarse unos a
otros[19]. Diferentes publicaciones [20] relacionan la
regulación con la interacción, y señalan que las habilidades
de regulación están relacionadas con la calidad de las
interacciones sociales de los estudiantes con sus
compañeros.
Así, las redes sociales académicas pueden transformarse
en entornos de trabajo que posibilitan el desarrollo de estas
habilidades por su potencial para la comunicación y la
colaboración.
III. LEARNING ANALYTICS PARA DESCUBRIR PROCESOS
Los entornos virtuales de aprendizaje se han expandido
con mucha rapidez, sobre todo desde la ampliación de
oportunidades que ofrece la web 2.0.Pero además, el trabajo
que realizan alumnado y profesorado en esos espacios deja
huellas que posibilita indagar acerca de cómo se producen
los procesos de aprendizaje, una indagación que posibilita
solventar obstáculos y/o mejorar estos procesos. Es común
que los profesores desconozcan qué hacen sus alumnos para
aprender más allá de un producto final, sin embargo, existen
algunas herramientas en el contexto de la Analítica del
Aprendizaje (Learning Analytics-LA-)que revelan el camino
seguido por los estudiantes cuando trabajan con dispositivos
digitales.
En este artículo pretendemos mostrar algunas de las
posibilidades que ofrece LA. Se trata de "la medición,
recopilación, análisis y presentación de datos sobre los
alumnos y sus contextos, con el objetivo de entender y
optimizar el aprendizaje y los entornos en los que se
produce" [21]. Permite la construcción de sentido en torno a
una serie de datos, sobretodo posibilita comprender el
proceso de aprendizaje en una determinada tarea o materia y
muestra las debilidades o fortalezas del alumnado y de la
propuesta de enseñanza.
Learning Analytics supone profundizar en los
comportamientos reales de los estudiantes y en la
identificación de vínculos potenciales con otros datos y con
los resultados obtenidos. Una combinación de estos datos
nos permitirá conocer, en profundidad, el proceso de
aprendizaje que se desarrolla en un contexto determinado.
IV. ENSEÑANZA Y APRENDIZAJE SOCIO-AUTORREGULADO
Diseñar entornos y situaciones de aprendizaje que
proporcionen estímulos y soportes adecuados para el
desarrollo de habilidades de regulación del aprendizaje[16]
debería ser uno de los objetivos de la enseñanza en
educación superior. En este caso queremos conocer si la red
social que se utiliza como entorno para la enseñanza,
combinada con e-portfolios, posibilita el desarrollo de
estrategias de aprendizaje autorregulado.
Para ello se analizan las características de la red social
académica y la propuesta de enseñanza en la que se enmarca
el trabajo que realiza el alumnado.
A. El Caso de la Red Social del Grupo Stellae
El grupo de investigación Stellae, de la Facultad de
Ciencias de la Educación de la Universidad de Santiago de
Compostela, trabaja desde el año 2006 en asignaturas de
diferentes titulaciones con la plataforma de código abierto
ELGG, alojada en un servidor institucional
(htpp://stellae.usc.es/red).
Se trata de una red social que incluye foros de discusión,
blogs, micro-blogging en el espacio central, detalles del
perfil de usuario, listas de amigos, pantalla de actividades,
muro personal, calendario, favoritos, páginas y la
posibilidad de realizar comentarios en las diferentes
contribuciones que hacen los compañeros. Cuando un
usuario añade un contenido en la plataforma tiene la opción
de seleccionar con quién quiere compartirlo (privado,
amigos, todos los usuarios de la plataforma o público). Esto
último posibilita que el contenido pueda ser compartido, o
que por el contrario, la visualización sea nula y se creen
espacios individuales.
Estas posibilidades se conectan con un encuadre
pedagógico que enmarca una propuesta para apoyar el
desarrollo del aprendizaje socio-autorregulado [22]. Debe
tenerse en cuenta que el tipo de tarea y el contexto de
aprendizaje moderan el uso real de las herramientas
tecnológicas que se utilizan [23].
B. La Materia y su Propuesta de Enseñanza
El contexto de esta investigación es una materia troncal
de 3º del Grado en Pedagogía que combina clases
GEWERC, RODRÍGUEZ Y MARTÍNEZ: REDES SOCIALES ACADÉMICAS Y LEARNING ANALYTICS... 211
ISSN 1932-8540 © IEEE
presenciales semanales expositivas e interactivas, con
enseñanza online (Blended-Learning).
La propuesta de enseñanza se enmarca en las nuevas
formas que poco a poco están penetrando en la docencia
universitaria: Personal Learning Enviroments (PLE), redes
sociales y e-portfolios[24][25].
El e-portfolio muestra el crecimiento del alumno, sus
fortalezas y debilidades, animando al desarrollo de
habilidades de proceso; comunica los logros de los
estudiantes, sirve para los propósitos de calificación [26] y
supone un avance frente al uso de sistemas de evaluación
convencionales [27]. Cuando los estudiantes usan e-
portfolios, asumen una mayor responsabilidad en su
aprendizaje, conocen mejor sus fortalezas y limitaciones, y
aprenden a establecer metas [28]. Permite además la
negociación de significados de las evidencias de aprendizaje
presentadas por el alumnado y ayuda a adquirir una
autonomía progresiva que le compromete y refuerza en la
comunicación con los otros [29]. Tiene el propósito de
fomentar la mejora individual, el crecimiento y desarrollo
personal y un compromiso con el aprendizaje permanente
[30], posibilitando desarrollar y poner en marcha las
habilidades de aprendizaje autorregulado.
El espacio para su construcción es una red social,
compartida con los compañeros de la materia (dependiendo
de cómo haya seleccionado la privacidad), quienes pueden
leer y comentar las aportaciones que se realizan. De este
modo, aunque las evidencias que cada uno va recogiendo
del proceso son individuales, al ser expuestas públicamente
en el espacio “virtual” se ven influenciadas en todo
momento por el contexto social en el que están insertas.
También se realizan trabajos en pequeños grupos en los que
se coopera para el logro de un producto compartido.
La evaluación del conjunto de elementos que configuran
su entorno personal es llevado a cabo por las profesoras a
través de una rúbrica presentada al inicio del curso, y se da
en dos momentos: en la mitad del desarrollo de la asignatura
y al final.
La materia propone una serie de trabajos obligatorios
individuales durante las clases presenciales y otros en el
espacio virtual (reflexión crítica de artículos y diseño de una
producción multimedia). Además, realizan una búsqueda
personal de elementos que muestran cómo han re-
significado los conceptos trabajados en las clases
presenciales; seleccionan un aspecto o una vía de
profundización que responde a una decisión personal en
función de sus objetivos, motivaciones e intereses [31]. El
producto de este proceso es un texto que incorporan en su
entorno personal de la red social (ya sea en el blog o en el
espacio de archivos). Escriben sobre los tópicos de la
materia, los relacionan con la vida real y con otras
investigaciones y surge entre ellos feedback de manera
espontánea.
A través de la rúbrica se les ofrecen pautas claras de
aquellos elementos que son necesarios para superar la
materia, más allá de los trabajos obligatorios, y el alumnado
fija sus propias metas. De ahí que el camino que cada uno
recorre sea diferente.
Se parte de la idea de que cuanto menos estructurada es la
actividad más estrategias de aprendizaje se ponen en
marcha, aspecto fundamental del aprendizaje autorregulado
[32]. Por lo tanto, se intenta no ofrecer pautas específicas
que constriñan este proceso. Por el contrario, se estimula la
toma de decisiones consciente, y al mismo tiempo, es
aprendizaje colaborativo porque los miembros del grupo
representan agentes interdependientes de autorregulación,
pero constituyen una entidad social que crea posibilidades y
limitaciones para el grupo y compromiso individual [32].
De esta forma, el alumnado se enfrenta a situaciones de
aprendizaje social donde se plantean actividades
colaborativas y espacios para el intercambio que requieren
el desarrollo de procesos motivacionales, cognitivos y
habilidades socio-emocionales, distintas a las que tienen
lugar situaciones de aprendizaje muy estructuradas [33]. La
regulación va variando cuando se ponen en marcha procesos
en el entorno social. Las habilidades se modifican cuando se
encuentran con las de otros individuos, conformando un
espacio de confluencia donde las interacciones influyen y
afectan a la regulación del aprendizaje de los sujetos.
V. METODOLOGÍA
Nos proponemos averiguar acerca de la existencia de
co‐regulación dentro del grupo y cómo se producen los
intercambios de esos procesos en la materia señalada,
teniendo en cuenta la importancia de la red social como
contexto. Para ello, en primer lugar se analizó el curso 2013-
2014 de la asignatura Tecnología Educativa de la
Universidad de Santiago de Compostela, y en segundo lugar
se compararon algunos parámetros entre éste y el curso
2014-2015.
Al inicio del curso 2013-2014 se aplicó el cuestionario
MSLQ elaborado por Pintrich et al. [1] que evalúa las
orientaciones motivacionales de los estudiantes
universitarios y el uso de las diferentes estrategias de
aprendizaje en la universidad.
Los resultados del cuestionario han permitido realizar un
diagnóstico del punto de partida del aprendizaje
autorregulado del alumno. Luego, se han utilizado
herramientas de Learning Analytics, específicamente de
SNA (Social Network Analysis), para observar las
variaciones de la red en cuanto a grado de centralidad y
densidad, tomando los comentarios realizados a los
compañeros. Por último, se compararon estos índices entre
las dos cohortes estudiadas (2013-2014 y 2014-15)[34].
El cuestionario MSLQ (Motivated Strategies for Learning
Questionnaire) de Pintrichel al. [6] fue traducido y adaptado
al contexto de desarrollo de la asignatura. Presenta 81 ítems
que se dividen en dos secciones: las estrategias de
motivación (31) y las estrategias de aprendizaje (50). Esta
última sección se subdivide, a su vez, en cuestiones que
analizan estrategias cognitivas, metacognitivas y la gestión
que los estudiantes hacen de los recursos de los que
disponen. Si bien la fiabilidad es mayor en el modelo de
siete respuestas, teniendo en cuenta que las diferencias son
mínimas y que no se perdería información [35], se ha
empleado la escala con cinco opciones de respuesta –de 1 a
5- dos valores menos que la escala original, atendiendo a la
mayor familiaridad de la muestra con esta escala y por ser la
utilizada mayoritariamente en su contexto.
Por otro lado, con el objeto de sacar a la luz los procesos
de interacción que se producen en el contexto de la red
social, se utilizaron técnicas de SNA en el marco del
Learning Analytics (LA). A través de software Ucinet y
NetDraw se construyeron grafos de interacciones
(entendidas como los comentarios que se realizan a las
aportaciones de los compañeros) y de amistades entre los
212 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 1932-8540 © IEEE
estudiantes. Se analizaron los parámetros de densidad de la
red y centralidad de un/los nodo/s.
El primero de ellos, la densidad, hace alusión a la
proporción de vínculos entre los nodos del grafo en relación
al total de vínculos posibles. Este parámetro nos indica la
intensidad de la colaboración. Los comentarios permitirán
analizar si es una red donde todos los actores están
vinculados, interactuando entre ellos y si tiene, por lo tanto,
una densidad máxima. En las redes en las que los actores
interactúan a lo largo del tiempo, como la que se analiza, la
densidad irá variando.
El segundo de los parámetros analiza la centralidad1 de
un nodo y nos indica su importancia en la red social como
consecuencia de las relaciones. Una red centralizada tendrá
un conjunto de nodos relevantes que establecen un gran
número de relaciones. En este caso muestran la noción de
indegree y outdegree que contabilizan las relaciones de
entrada y salida de un nodo, es decir, tanto las amistades
realizadas por otros al nodo (indegree) como las realizadas
por ese nodo hacia otros compañeros (outdegree).
Utilizaremos también los porcentajes generales de
centralidad de la red.
Estos dos elementos, centralidad y densidad, permiten
conocer de cerca cómo funciona esta red, indagar en los
lazos de amistades, en las interacciones entre compañeros/as
y su evolución a través del tiempo. Como señala [36]
podemos identificar miembros o grupos periféricos, su
conectividad y la emergencia de miembros centrales y de
otros que, sin serlo, actúan como intermediadores entre otros
miembros de la red. En este caso, se busca observar el
alumnado que permanece más alejado del proceso y a los
que se encuentran inmersos en la dinámica de la materia,
identificar hacia dónde se dirigen los miembros, y por
último, conocer los procesos de aprendizaje socio-
autorregulado que se desarrollan en este espacio.
Interesa resaltar si existen variaciones en el modo y el
número de interacciones que se dan en la materia a lo largo
del curso, indagando si apuntan hacia una mejora de los
procesos de socio-autorregulación de la clase. Para ello se
aplicaron las técnicas de SNA en cuatro momentos (3ª
semana, 5ª semana, 10ª semana y 16ª semana) comparando
los índices obtenidos en dos cursos 2013-2014 y 2014-2015.
VI. RESULTADOS
El cuestionario MSLQ se aplicó al iniciar el curso,
buscando obtener información sobre las habilidades de
aprendizaje autorregulado del alumnado antes de comenzar
el proceso, con el objeto de implantar estrategias que
favorecieran su desarrollo. La tasa de respuesta fue del 72%
(52 alumnos/as de 72). La media de las puntuaciones
obtenidas fue de 3,49 (transformada a una escala del 1-7, se
corresponde con 4,88). Investigaciones precedentes en
universidades de distintos países que utilizaron el mismo
cuestionario obtuvieron una media de 4,97 en Argentina
[37] y 4,90 en Navarra, España [38], lo que indica que no
hay diferencias significativas entre universidades.
Esto supone que el alumnado de nuestro caso se encuentra
en el nivel medio de desarrollo de las habilidades de
aprendizaje autorregulado. La puntuación más baja ha sido
1El software UCINET, calcula la centralidad de grado normalizado entendida como el
grado dividido por el máximo grado posible, expresada en porcentaje. Esto es seguido
por el índice de centralización de la red expresado como un porcentaje. UCINET 6 for
Windows Help Contents –Guide-. Disponible en:
http://www.analytictech.com/ucinet/help/3ava_zr.htm [Última consulta: 16/10/2015]
de 4,06 y la más alta de 5,99. Podríamos inferir que el
alumno/a con la puntuación más baja posee, por un lado,
menor motivación y por otro, que no tiene desarrolladas
estrategias organizativas, como por ejemplo, pedir ayuda a
otros compañeros y profesores, aprovechamiento del
tiempo, o mantenimiento del esfuerzo, etc.
Con referencia a la fiabilidad del MSLQ, a través del
software SPSS se establece un coeficiente de Alfa de
Cronbach de 0.84, un valor considerado por la comunidad
científica como de buena consistencia [39].
El uso de las herramientas en el contexto de Learning
Analytics ha permitido generar grafos que evidencian una
red descentralizada con alta densidad de interacciones, con
un total de 2550 comentarios, lo que indica la gran actividad
que mantienen los 72 alumnos matriculados en la asignatura.
Los alumnos/as están representados en los distintos nodos
(cuadrados) cuyo tamaño es proporcional al número de
comentarios recibidos y enviados. Así mismo las flechas
indican la dirección de las interacciones. Si la punta de la
fecha señala a un nodo, significa que ese sujeto ha recibido
un comentario, si la punta no está en ese nodo sino que se
dirige hacia otro, es ese estudiante el que ha redactado el
comentario. Como se puede observar (Fig 1a, 1b, 1c y 1d)
muchos de los nodos que se encuentran en los márgenes
solo reciben o han enviado algún comentario.
La posición de los sujetos en la red es también
ponderada, es decir, aquellos que se encuentran en el centro
poseen un nodo de mayor tamaño, acorde con su
participación (cuadrados más amplios principalmente en
Fig. 1a, 1b y 1c).
Para la realización de los mapas se parte de los datos
obtenidos desde el inicio de la materia hasta la semana
indicada en los gráficos, por lo que los datos se van
acumulando y formando nuevos panoramas sobre lo que va
sucediendo en este espacio.
En este caso podemos observar que la red va
disminuyendo en su grado de centralidad (Tabla I) y, al
mismo tiempo, aumenta el grado de densidad (Tabla II) lo
que implica que cada vez más alumnos/as interactúan y
contribuyen a que la base de las interacciones se reparta
entre muchos más nodos, como vemos en la Tabla I.
En el análisis de la centralidad de cada nodo, se evidencia
la tendencia a acercarse al centro del grafo a medida que
avanza el tiempo. Esto puede interpretarse como avance de
procesos de autonomía al realizar comentarios en las
TABLA I ÍNDICES DE CENTRALIDAD POR SEMANAS
SEMANA (OUTDEGREE) (INDEGREE)
3º 81,966% 11,162%
5º 80,549% 14,437%
10º 79,030% 13,420%
16º 65,059% 14,374%
TABLA II
DENSIDAD POR SEMANAS
SEMANA DENSIDAD
3º 5,640
5º 8,047
10º 8,409
16º 25,297
GEWERC, RODRÍGUEZ Y MARTÍNEZ: REDES SOCIALES ACADÉMICAS Y LEARNING ANALYTICS... 213
ISSN 1932-8540 © IEEE
aportaciones de los compañeros y contribuir a la densidad de
la red.
Por otro lado, el alumnado que ha recibido mayor
puntuación en el cuestionario, al iniciar el proceso, y que
por lo tanto considera que tiene amplio desarrollo de
habilidades autorreguladas, se mantiene en el centro del
grafo desde el inicio y hasta la semana 16 (figuras 1a, 1b, 1c
y 1d). Mientras tanto, muchos de los alumnos que en el
cuestionario obtuvieron la puntuación más baja, semanas
después han aumentado su participación. La proporción de
las interacciones de la red crece a un ritmo constante con
una clara tendencia de los nodos a dirigirse hacia el centro
aportando densidad a la red. Se han considerado como bajas
las puntuaciones de los 10 alumnos con peor resultado en el
MSLQ (puntuaciones normalizadas menores de -0,90) y
altas a los 10 mejores alumnos puntuaciones Z mayores de
0,90.Este porcentaje se corresponde con el 36% del total
(Tabla III) 18% más bajo y el 18% más alto.
En los grafos representados en la figura 1, (a, b, c, d) se
han añadido diferentes símbolos (estrella, rombo, triángulo,
círculo y equis) sobre cinco de los alumnos que más baja
puntuación alcanzaron, mostrando cómo van acercándose al
centro del grafo e incrementando el número de sus
interacciones. Podemos observar que aquellos que se
encontraban en los márgenes de esta red, se van acercando
al núcleo del grupo, siendo en la Figura 1 (d) donde se ve
que se cómo se han integrado.
En la siguiente tabla (tabla IV) se observan los
porcentajes relacionados con el grado de centralidad de la
red según los 5 casos seleccionados (aproximando números
enteros en los casos en los que había más de 1%).
Debe señalarse también, que a medida que pasan las
semanas del curso aumenta el número de nodos e
interacciones, de 49 nodos en la 3ª semana, a 65 en la
semana 16, entendiendo que los 7 restantes (pues son 72
alumnos los matriculados en la asignatura) pueden, o bien
haber abandonado la materia no formando parte de la
plataforma, o no haber interactuado hasta el momento con
ningún compañero.
Las relaciones entre los datos extraídos en el NSA con las
calificaciones resultantes de la evaluación procesual que
realizaron los docentes de la asignatura muestran que existe
relación entre las calificaciones del alumnado y el sitio que
ocupa en el grafo. No todos los alumnos que se encuentran
representados en el centro son los que mejores notas poseen.
Sin embargo aquellos que se encuentran en los márgenes
más externos se corresponden en su gran mayoría, con
aquellos que peores notas poseen en la materia [3].
No obstante, a medida que avanza la materia, las
posiciones de estos alumnos tienden a ser más céntricas, por
lo que podría entenderse que la materia ayuda a los alumnos
que peor se desenvolvían en sus inicios a poner en marcha
estrategias para mejorar, la que aquí se recoge tiene que ver
con la interacción con sus compañeros/as. Debe resaltarse
además que en la última semana analizada todos los
alumnos han recibido algún comentario (no existe el 0%
indegree) aunque no todos los estudiantes son igual de
activos a la hora de iniciar o responder a esas interacciones.
Fig. 1. Curso 2014-2015, Mapa de interacción de la a) semana 3 a la d) semana 16
TABLA III
GRUPOS ESTABLECIDOS SEGÚN RESULTADO MSLQ
MSLQ
Bajo
MSLQ
Medio
MSLQ
Alto
Porcentaje seleccionado
18% 64% 18%
Número de
alumnos/as 10 33 10
Puntuaciones
obtenidas X
2,91>X<3,27 3,28>X<3,79 3,8>X<4,29
214 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 1932-8540 © IEEE
Los mapas y los análisis realizados en el curso 2014-2015
nos permiten obtener una visión más completa de lo que
sucede en la red social en esta materia y cómo la propuesta
metodológica influye en los procesos de regulación de
nuestros alumnos. En este curso se han recogido 1.320
interacciones entre los estudiantes, lo que supone una caída
del 48% con respecto al curso anterior. Es necesario señalar
que durante este curso la materia comenzó un mes más tarde
por el periodo de prácticas, por lo que hay cuatro semanas
menos de interacciones, y las medidas que presentamos son
recogidas en cuatro momentos de tiempo de un periodo más
breve. Los nodos que interactúan en la última semana son
67, descendiendo así el número de alumnado activo en la red
con respecto al mismo periodo del año anterior.
La densidad es similar entre los dos cursos (Tabla V),
pues la proporción de vínculos entre los estudiantes es del
25%. Como señala [36], la densidad suele representar
también una medida de cohesión del grupo. Podemos
observar que no es alta, sin embargo, esta baja conectividad
no es una propiedad uniforme de toda la red, existen ciertas
zonas con una conectividad alta, como se muestra en
diferentes partes del grafo donde las líneas se superponen
unas con otras. En los mapas de ambos cursos existe un
conjunto de nodos que son más activos y que van
estimulando a los otros hacia el centro, promoviendo la
interacción entre iguales para realizar una tarea, donde las
personas interactúan y construyen de manera conjunta
durante el proceso (co-regulación del aprendizaje)[40].
Además, a través de un crecimiento continuo de las
interacciones se pone de relieve la continuidad en el
aprendizaje, elemento fundamental en la regulación.
En relación a la centralidad, podemos observar que en
este caso los valores son menores, la media de outdegreees
considerablemente más alta en el curso 2014 (un 43%) y
un15% mayor en el caso del indegree.
Podemos destacar que en los dos cursos (2013-2014 y
2014-2015) es más elevado el rango de salida (outdegree)
que de entrada, es decir, que son más los lazos que salen de
los nodos-sujetos (comentarios enviados) que los que
reciben.
Al mismo tiempo presentamos los mapas de interacciones
realizados en las diferentes semanas (5º, 10º y 12º) (Figura
2a, 2b y 2c) que permiten ver la construcción del entramado
y ponen de relieve de forma gráfica cómo ha sido el proceso
y cómo se han producido las interacciones. Como ya hemos
advertido, el número de interacciones en 2015 es menor y la
centralidad también, algo que se puede percibir a través de
los mapas y la dispersión de nodos no concentrados en el
centro, pero que se van acercando con el paso de las
semanas. La dinámica de la materia sigue promoviendo que
los alumnos se acerquen al núcleo, fomentando habilidades
cognitivas, motivando o modificando comportamientos,
todos ellos elementos de la regulación [2] que han variado
en el contexto de red social académica
VII. CONCLUSIONES
Tal y como ya han señalado algunas investigaciones [23],
y como se pone de relieve en este estudio, las redes sociales
posibilitan el desarrollo de habilidades de regulación en un
contexto donde la participación, entendida a través de los
comentarios, puede ser fundamental. La relación entre las
percepciones que tiene el alumnado sobre sus estrategias de
motivación y aprendizaje y el proceso de enseñanza
desarrollado (lo que dicen y lo que hacen)ha evidenciado
que aquellos que tienen una mejor valoración en el
cuestionario (MSLQ) tienden a establecer más conexiones
con otros, situándose en el centro del grafo a medida que
avanza la asignatura. Esto indica que se utilizan estrategias
de apoyo académico con el profesor o con otros
compañeros, siendo esta una estrategia de regulación que
Fig. 2. Curso 2015-16, Mapa de interacción. a) semana 5 a la c) semana 12
TABLA IV
ALUMNOS/AS CON BAJA PUNTUACIÓN MSLQ. CENTRALIDAD EN DISTINTAS SEMANAS
Al. MSLQ/
Puntuaciones
Z*
Semana
3
Semana
5
Semana
10
Semana
16
OUT IN. OUT IN. OUT IN. OUT IN.
1 3,14/-1,36* 0,4 0,11 41 9 40 9 33 10
2 3,22/-1,07* 0,16 0,10 15 12 21 13 19 17
3 3,23/-1,03* 0 0,18 0 19 0 18 18 28
4 3,23/-1,03* 0 0,12 0 15 0 15 0 19
5 3,25/-0,98* 0 0,14 0 19 0 18 6 31
UT=Outdegree, IN=Indegree
GEWERC, RODRÍGUEZ Y MARTÍNEZ: REDES SOCIALES ACADÉMICAS Y LEARNING ANALYTICS... 215
ISSN 1932-8540 © IEEE
señala el valor de la dimensión social en el proceso de
aprendizaje. En este sentido, se ha detectado que a través de
la propuesta de enseñanza y aprendizaje planteada, los
alumnos que menos habilidades poseían al inicio comienzan
a desarrollar estrategias socio-reguladoras apoyándose en
los otros compañeros (Figura 1), que se transforman en
andamios para la mejora de su propio proceso. La
metodología de la materia, como se puede observar en las
Fig.1 y Fig.2, impulsa al alumnado con menos habilidades
hacia el centro, donde el núcleo de interacciones es más
fuerte y donde obtiene cada vez más protagonismo [42].
La co-regulación del aprendizaje implica la
reconstrucción de la propia regulación, incorporando
habilidades aún más complejas [32], por este motivo el
alumno con menos estrategias podría tardar en sumergirse
en el entorno y comenzar a nadar hacia el centro de este
entramado.
Se pone de relieve también que a pesar de que la materia
tiene una propuesta metodológica similar cada año, las
características del alumnado varían, aunque existen
tendencias generales claras. A lo largo de las semanas, en
los dos cursos analizados ha aumentado la interacción entre
los nodos, construyendo una red más densa y menos
centralizada. Cabe señalar que investigaciones precedentes
demuestran que el nivel de centralidad en las redes sociales
influye en la efectividad y logro en el aprendizaje [43][44].
En este caso, el protagonismo está dividido entre muchos de
sus actores.
Los datos generados (tablas V y VI) y visualizados en los
mapas (Fig.1 y Fig.2) dejan al descubierto una propuesta
metodológica que propicia las interacciones, pues ningún
alumno/a permanece totalmente aislado en una red que
mantiene y aviva su dimensión “social”, como se ve en la
evolución de los gráficos. Los andamios entre el alumnado
tienen cabida en esta madeja de interrelaciones donde la
regulación social del aprendizaje adquiere todo su sentido.
Las relaciones observadas ponen de relieve, una vez más,
la importancia de la dimensión social en el aprendizaje [10]
y las posibilidades que nos ofrece el trabajo colaborativo,
que debe ser uno de los objetivos de la enseñanza
universitaria. Según señala Beltrán [45], la calidad del
aprendizaje no depende tanto de las actividades del profesor
como de la calidad de las acciones en las que se implica al
estudiante, siendo fundamentales las estrategias no sólo de
aprendizaje sino de enseñanza [46].
Es importante explorar nuevos espacios de aprendizaje en
el que puedan desarrollar conocimientos, habilidades y
actitudes asociadas con el aprendizaje autorregulado [47] y
tener en cuenta que esta habilidad fundamental no sólo
depende del sujeto, sino que está formada por otros dos
pilares, tales como el objetivo o fin que dirige la acción y los
medios que se utilizan, [48] que forman un triángulo clave a
la hora de analizar la regulación en sus distintos espacios.
Las redes sociales se pueden convertir en uno de los
apoyos apropiados para el trabajo en habilidades de co-
regulación. Como señaló Zaidieh [49] estos sitios serán
herramientas útiles que pueden generar una revolución en el
campo de la educación, si tenemos la capacidad de
controlarlos para satisfacer las necesidades. Sin embargo, el
trabajo en este entorno exige tener en cuenta la propuesta
metodológica que posibilite estos aspectos, en este caso el e-
portfolio y la rúbrica apoyan, entre otros objetivos, a la
autorregulación del aprendizaje [49]. En pocas palabras, los
educadores creen que los e-portfolios ayudan a convertir a
los estudiantes en aprendices activos, independientes y
autorregulados [50].
La nueva disciplina “Learning Analitycs” en su objetivo
de mejorar el aprendizaje y la enseñanza [51] ha permitido
poner en marcha técnicas de análisis de redes sociales que
posibilitan conocer la situación de la clase, más allá de lo
presencial, adentrándonos en el espacio virtual. ¿Qué
alumnos se quedan descolgados?¿La metodología de la
materia analizada impulsa la interacción? ¿Existe relación
entre las habilidades de regulación de nuestros alumnos y las
interacciones? La respuestas a estas cuestiones ha sido
posible gracias a las oportunidades que nuevos técnicas de
LA nos ofrecen, pudiendo descubrir procesos de aprendizaje
hasta ahora ocultos e ir más allá de los productos.
La tecnología, puesta al servicio de la educación tiene, sin
duda, mucho potencial y es importante seguir trabajando en
el desarrollo y uso de herramientas creadas por y para la
educación.
Por último, consideramos fundamental animar a trabajar
en la mejora del aprendizaje socio-autorregulado de nuestros
alumnos y capacitarlos para “aprender a aprender”, pues es
quizás, como dijo Weinstein [52], la meta más importante de
la educación universitaria.
AGRADECIMIENTOS
Esta investigación ha sido co-financiada por la Red
513RT0471 de CYTED RIURE (Red Iberoamericana para
la Usabilidad de Recursos Educativos, www.riure.net).
REFERENCIAS
[1] A. Kitsantas, y N. Dabbagh. “The role of Web 2.0 technologies in self-regulated learning”. New Directions for Teaching and Learning
(NDTL), 126, pp. 99-106, 2011.
TABLA V DENSIDAD POR SEMANAS
CURSOS 2013/2014- 2014/2015
2013-2014
Semanas:
2014-2015
Semanas: Densidad Densidad
3º 1º 5,640 5,2
5º 5º 8,047 11,3
10º 10º 8,409 19,6
16 º 12 º 25,297 25,1
TABLA VI CENTRALIDAD EN DISTINTAS SEMANAS/CURSOS
CURSOS 2013/2014- 2014/2015
SEMANA 2013/14
(OUT)
2013/14
(IN ) SEMANA
2014/15
(OUT )
2014/15
(IN)
3 81,966% 11,162% 1 51,420% 7,267%
5 80,549% 14,437% 5 58,155% 12,873%
10 79, 030% 13,420% 10 63,287% 13,052%
16 65,059% 14,374% 12 58,064% 12,783%
OUT=Outdegree , IN=Indegree
216 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 1932-8540 © IEEE
[2] J. Rué. El Aprendizaje Autónomo en Educación Superior. España:
Narcea, 2009.
[3] C. Espuny, J. González, M. Lleixà, y M. Gisbert, “Actitudes y
expectativas del uso educativo de las redes sociales en los alumnos
universitarios”. Revista de Universidad y Sociedad del Conocimiento,
vol.8, 11, pp. 171-185, 2011. [4] P. R. Pintrich. “The role of goal orientation in self- regulated
learning”. En Handbook of self-regulation. Ed. P. R. Pintrich, y M.
Zeidner. San Diego, CA: Academic Press, pp. 452–502, 2000. [5] S. Banks, P. Goodyear, V. Hodgson y D. McConnell (eds). Advance
in Research on Networked Learning. Kluwer: Academic Publishers,
2004. [6] P.R. Pintrich, W. J. Mckeachi, D.A. Smith, R. Doljanac, Y.G. Lin,
M. Naveh-Benjamin, T. Crooks y S. Karabenick,. A manual for the
use of the motivated strategies for learning questionnaire (MSLQ). National Center for Research to Improve Post secondary Teaching
and Learning. Michigan: University of Michigan, 1991.
[7] B.J. Zimmerman. “Theories of self-regulated learning and academic achievement: An overview and analysis”. En Self- regulated learning
and academic achievement: Theoretical perspectives, Ed. B.
Zimmerman y D. Shunk. Mahwah, NJ: Erlbaum, pp. 1–37, 2001. [8] A. V. Martín. “Más allá de Piaget: Cognición y Educación”. Teoría
de la educación, 11, pp.127-157. 1999.
[9] J.C. Nuñez. Motivación, aprendizaje y rendimiento académico. En Actas do X Congresso Internacional Galego- Português de
Psicopedagogía. Universidade do Minho, Braga, 41-67, Septiembre,
2009. [10] L.S. Vygotsky. Historia del desarrollo de las funciones psíquicas
superiores. Editorial Científico Técnica, La Habana, 1987.
[11] G. Huber. “Aprendizaje activo y metodologías educativas/Active learning and methods of teaching”, Revista de Educación,
SpecialNumber, pp. 59-81, 2008.
[12] J. Martin, y A. M McLellan. “The educational psychology of self-regulation: A conceptual and critical analysis”. Studies in Philosophy
and Education, 27(6), 433-448, 2008.
[13] A. Fiona, S. Järvela y M. Miller, “Self-Regulated, Co-regulated and
Socially Shared Regulation of Learning”. En Handbook of Self-
Regulation of Leaning and Performance, Ed. Fiona, A., Järvela, S. y
Miller, M. New York: Routledge. pp. 65-87, 2011. [14] I. Molenaar y S. Järvelä, “Sequential and temporal characteristics of
self and socially regulated learning”. Metacognition Learning, 9, pp.75-85,2014.
[15] A.F. Hadwin y M. Oshige. “Self-regulation, co-regulation, and
socially-shared regulation: Exploring perspectives of social in self-regulated learning theory”, Teachers College Record, vol.113, 2, pp.
240-264, 2011.
[16] I. M. Á., Valdivia, “Evaluar para contribuir a la autorregulación del aprendizaje”. Electronic Journal of Research in Educational
Psychology, 7(19), pp. 1007-1030, 2009.
[17] M.Cole. “The zone of proximal development: where culture andcognition create each other”. En Culture, communication, and
cognition: Vygotskian perspectives. Ed. J. Wertsch New York:
Cambridge University Press, pp. 46-162, 1985.
[18] N.Dabbagh, & A. Kitsantas, “Personal Learning Environments,
social media, and self-regulated learning: A natural formula for
connecting formal and informal learning”. The Internet and higher education, 15(1), pp. 3-8, 2012.
[19] K. Cho & M.H. Cho,“Training of self-regulated learning skills on a
social network system”. Social Psychology of Education. 16, 617-634, 2013.
[20] P. Lopes, P. Salovey, S. Cote & M. Beers, “Emotion Regulation
Abilities and the Quality of Social Interaction”. Emotion, 5, 1, pp.113-118, 2005.
[21] R. Ferguson, “Learning analytics: Drivers, developments and
challenges. International”. Journal of Technology Enhanced Learning, 4 (5/6), pp.304–317, 2012.
[22] A. Gewerc, L. Montero y M. Lama. “Colaboración y redes sociales
en la enseñanza universitaria”. Comunicar XXI, 42, pp. 56-63, 2014. [23] S. Volet y S. Järvelä, Motivation en Learning contexts: Theorical and
ethodological implication. Oxford: An Imprint of Elsevier Science,
2001. [24] R. Bass. “Disrupting ourselves: The problem in higher education”.
EducauseReview, 47, 2, 2012. Disponible en:
http://www.educause.edu/EDUCAUSE+Review/EDUCAUSEReviewMagazineVolume47/DisruptingOurselvesTheProblemo/247690.
[25] L. Castañeda y J. Adell, Entornos personales de aprendizaje: claves
para el ecosistema educativo en red. Alcoy: Marfil, 2013. [26] J. Mueller, Portfolios. 2010.Disponible en:
http://jfmueller.faculty.noctrl.edu/toolbox/portfolios.html
[27] O. LópezFernández y J.L. Rodríguez Illera, “Investigating university
students´adaptation to a digital learner course portfolio”. Computers
& Education, 52 (3), pp.608-616. 2009.
[28] J. Hillyer y T.C. Lye. "Portfolios and second graders’ self-
assessments of their development as writers." Reading
Improvement, 133, p.148-159, 1996. [29] F. Sabirón, y A. Arraiz. ”Aprendiendo de la evaluación: decálogo
para la evaluación auténtica de competencias profesionales a través
del Portafolio”. Revista Iberoamericana de Evaluación Educativa, 6(1), pp.135-152, 2013.
[30] E. Meyer, P. C. Abrami,, A. Wade, O. Aslany y L. Deault.
“Improving literacy and metacognition with electronic portfolios: Teaching and learning with ePEARL”. Computers&Education, 55 (1),
pp.84-91, 2010.
[31] A. Gewerc, L. Montero y M. Lama. “Colaboración y redes sociales en la enseñanza universitaria”. Comunicar, 42, 55-63, 2014.
[32] S. Järvelä, y H. Järvenoja. “Socially constructed self-regulated
learning in collaborative learning groups”. Teachers College Records, 113, 2, pp.350-374, 2011.
[33] P.H. Winne y N.E. Perry. “Measuring self-regulated learning”. En
Handbook of self-regulation, Ed. M. Boekaerts, , P.R Pintrich, M. Zainer. California: Academic Press, pp. 531-566, 2000.
[34] A. Gewerc&A.Rodríguez-Groba, “The social dimension ofSelf
Regulated Learning. Social networks as a mean for teachers”. Actas XV International Conference on Human Computer Interaction.
Universidad de Tenerife, pp. 502-509, Septiembre, 2014
[35] P. Morales Vallejo, “Medición de actitudes en psicología y educación.”Madrid: Universidad pontificia Comillas. 2000.
[36] J. Ricardo, “Análisis de redes sociales de la información
sociobibliometrica”, PsicoUSF, 9 (1), 2004. [37] D. Donolo, A. Chiecher, y M. C. Rinaudo. “Motivación y uso de
estrategias en estudiantes universitarios. Su evaluación a partir del
MotivatedStrategies Learning Questionnaire”, Anales de Psicología, 19,1, pp.107-119, 2003.
[38] C. Roces, J. Tourón, y M. González. “Motivación, estrategias de
aprendizaje y rendimiento de los alumnos universitarios”. Bordón, 47,
1, pp.107-120. 1995.
[39] George, & P.Mallerys “SPSS for Windows step by step: A simple
guide andreference. 11.0update”, Boston: Allyn& Bacon, 2003 [40] C. Oviedo& A. Campo-Arias,“Aproximación al uso del coeficiente
alfa de Cronbach”, Revista Colombiana de Psiquiatría, 34 (4),2005. [41] J.M. Gaete Fiscella, “Conocimiento y estructura en la investigación
académica: una aproximación desde el análisis de redes
sociales”,Revista hispana para el análisis de redes sociales, 14 (8) 2008. Disponible
en:http://www.raco.cat/index.php/Redes/article/viewFile/115327/144
496 [42] R. Ellis y P. Goodyear. Students' Experiences of e-Learning in
Higher Education: The Ecology of Sustainable Innovation, New
York: RoutledgeFalmer, 2010. [43] J, Cadima,T, Leal, &M, Burchinal. The quality of teacher–student
interactions: Associations with first graders' academic and behavioral
outcomes.Journal of School Psychology, 48, 457–482, 2010.
[44] R, Cadima, J. Ojeda, & J.M., Monguet, “Social Networks and
performance in Distributed Learning Communities”.
EducationalTechnology&Society, 15 (4), pp.296–304, 2012. [45] J.A. Beltrán. “Estrategias de aprendizaje en sujetos con necesidades
especiales de formación”, Comunicación pedagógica, 131, pp.16-26,
1995. [46] J. De la Fuente y F. Justicia. “Estudio de las dificultades de atención
asociadas a las estrategias de autorregulación en alumnos de
Secundaria”. Revista Galego-Portuguesa de Psicoloxía e Educación, 1 (1), pp.103-117,1997.
[47] M. Boekaerts. "Self-regulated learning: Where we are today."
International journal of educational research, 31.6, pp.445-457. 1999. [48] D. L. Dinsmore, P. A. Alexander y S. M. Loughlin. “The impact of
new learning environments in an engineering design course”.
Instructional Science [Special Issue on Effects of Constructivist learning environments], 36, pp.375-393. 2008.
[49] A. Zaidieh. “The Use of Social Networking in Education: Challenges
and Opportunities”.World of Computer Science and Information Technology Journal , 2, 1, pp. 18-21, 2012.
[50] P.C. Abrami, R. M. Bernard, E. Borokhovski, A. Wadem, M. A.
Surkes, R. Tamim y D. Zhang. “Instructional interventions affecting critical thinking skills and dispositions: A stage 1 meta-analysts”.
Review of Educational Research, 78(4), pp. 1102-1134, 2008.
[51] T. Elias, “Learning Analytics: Definitions, Processes and Potential”, 2011. Disponible en :
http://learninganalytics.net/LearningAnalyticsDefinitionsProcessesPo
tential.pdf [Última consulta: 16/10/2015]
GEWERC, RODRÍGUEZ Y MARTÍNEZ: REDES SOCIALES ACADÉMICAS Y LEARNING ANALYTICS... 217
ISSN 1932-8540 © IEEE
[52] C.E. Weinstein. Students At-Risk for Academic Failure: Learning to
Learn Classes. En Handbook of College Teaching: Theory and
Applications, Ed. Prichard K.W y Sawyer, M. EE.UU: Greenwood
Press, pp.375-385, 1992.
Adriana Gewerc nació en Córdoba, Argentina. Es licenciada en Ciencias
de la Educación por la Universidad Nacional de Córdoba-Argentina(1982)
y Doctora en Pedagogía (1998) por la Universidad de Santiago de Compostela. Coordinadora del grupo de investigación Stellae. Actualmente,
es Directora del Departamento de Didáctica y Organización Escolar y
profesora titular en esta universidad impartiendo las asignaturas Tecnología Educativa y Multimedia y Software Educativo.
Sus líneas de investigación se centran en la problemática y el significado de
la integración de las tecnologías en las organizaciones educativas y sus implicaciones en la enseñanza. En ese contexto en el último tiempo explora
para la docencia y la investigación, la utilización de nuevos entornos de
enseñanza y aprendizaje. Ha dirigido tesis doctorales sobre estas temáticas y tiene libros y artículos publicados que evidencian el trabajo realizado en
estos años.
Ana Rodríguez-Groba nacida en Mos, Galicia. Es licenciada en
Pedagogía (2007-2011) y Psicopedagogía (2011-2013) por la Universidad
de Santiago de Compostela. Realizó un Máster en Procesos de Formación (2012-2013). Su participación en la investigación comenzó con un proyecto
para la inserción de las TIC en universidades latinoamericanas.
Actualmente realiza su Doctorado en Educación con una beca de Formación para el Profesorado Universitario, especializándose en el
aprendizaje autorregulado en redes sociales, con dos estudios de caso en
universidades gallegas. Forma parte del grupo de investigación Stellae de la USC y se encuentra inmersa en proyectos que trabajan sobre la formación
de los maestros en el Grado y la mejora de la evaluación cuando se utilizan
redes sociales.
Esther Martínez-Piñeiro nació en Vigo, en Galicia. Es doctora en
Ciencias de la Educación (1999) por la Universidad de Santiago de
Compostela y profesora titular del Departamento de Métodos de Investigación y Diagnóstico en Educación en esta universidad, en la que
imparte materias relacionadas con metodología de investigación en
Ciencias Sociales y de la Educación. Pertenece al grupo de investigación Stellae en el que desarrolla funciones
relativas al diseño metodológico y a la coordinación de los procesos de
análisis de datos cuantitativos y cualitativos. En la actualidad es investigadora principal del proyecto subvencionado por el Ministerio de
Economía y competitividad “Desarrollo del conocimiento profesional a
través del plan de estudios del grado de maestro en educación primaria. Perspectivas del alumnado y profesorado”.
218 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 1932-8540 © IEEE
Title— Co-creation and evaluation of Inclusive and
Accessible Open Educational Resources: a mapping towards
the IMS Caliper.
Abstract—The aim of this paper is to introduce a model to
co-create and evaluate Inclusive and Accessible Open
Educational Resources (IA-OERs) towards the perspective of
the IMS Caliper Analytics Framework. The model was applied
by 72 teachers of primary and secondary schools who co-
created and evaluated IA-OERs in the context of the validation
phase of the Inclusive Learning Project. The evaluation of the
IA-OERs covered two aspects: web accessibility and quality.
Moreover, an accessibility dashboard was developed to display
graphics of the results obtained from the web accessibility
evaluation.
Index Terms— Inclusive and Accessible Open Educational
Resources, Co-creation, IMS Caliper Analytics framework,
web accessibility and quality.
I. INTRODUCCIÓN
OS Recursos Educativos Abiertos Inclusivos y
Accesibles (REA-IA) son recursos digitales con una
intencionalidad pedagógica definida que se caracterizan por
estar disponibles y accesibles para que todos los estudiantes
o aprendices puedan utilizarlos y para que otros autores
puedan, como lo plantean Hilton III et al. [1], revisarlos,
reutilizarlos, remezclarlos o redistribuirlos. El profesor,
aunque no es el único, es uno de los principales actores en el
proceso de creación de este tipo de recursos. Por este motivo
hablaremos del proceso de co-creación de REA-IA como el
proceso de creación donde los profesores interactúan de
forma colaborativa con otros profesores, expertos,
académicos, estudiantes y otros actores vinculados al
proceso de enseñanza/aprendizaje. Cuando en el proceso de
co-creación se involucra el uso de Tecnologías de la
Información y la Comunicación (TIC) se requiere que los
actores del proceso tengan una formación previa en la que se
promueva la interacción en equipos de trabajo [2].
Por otro lado, que el profesor sea cada vez más partícipe
del proceso de co-creación de REA-IA promueve la puesta
1Cecilia Avila es estudiante del programa de Doctorado en Tecnología
de la Universitat de Girona, Girona (España) (e-mail:
ceciliaagarzon@yahoo.com). 2 Silvia Baldiris y Ramon Fabregat son profesores del Institut
d‟Informàtica i Aplicacions (IIiA), Universitat de Girona, Girona (España)
(e-mail:baldiris@eia.udg.edu, ramon.fabregat@udg.edu). 3 Sabine Graf es profesora del School of Computing & Information
Systems, Athabasca University, Edmonton (Canadá) (e-mail:
sabineg@athabascau.ca).
en marcha de iniciativas que van desde el desarrollo de
herramientas de software de autoría (Amara[3],
Compendium[4], GLOMaker[5], GLUE!-PS[6],
LabSpace[7], LdShake[8], OERPub[9], OpenTapestry[10],
entre otras) hasta la definición de un conjunto de estándares
o pautas que soportan la generación de nuevo conocimiento
y la mejora de la calidad de los REA-IA (Common core –
OER rubrics[11], OER in higher education[12], entre otros).
En el estudio de Güler y Altun[13], además de darse una
perspectiva sobre las dificultades que se presentan en el
proceso de creación de recursos digitales de aprendizaje, se
propone que los programas de formación de profesores
deberían incluir la creación de Recursos Educativos
Abiertos (REA) y que debe considerar la evaluación de
accesibilidad y calidad de los recursos creados como un
aspecto relevante.
La evaluación de REA ha sido abordada en algunos
estudios que proponen diferentes formas o procesos que
pueden ser utilizados para evaluar los REA-IA [14]–[17]
considerando aspectos como los tecnológicos, pedagógicos,
de contenido, entre otros.
En el proceso de co-creación de un REA-IA la
información que normalmente se genera y almacena sobre el
REA-IA tiene asociado un modelo dinámico de datos con
representaciones concretas. Este modelo, por lo general, está
auto-contenido en el recurso o en las bases de datos de las
herramientas de autoría que se utilizan para crearlos. Este
modelo es también una representación del proceso de co-
creación de REA-IA, y puede ser utilizado con el propósito
de generar analíticas de aprendizaje que permitan identificar
posibles oportunidades para que el autor mejore su práctica
durante el proceso de co-creación de los REA-IA. Las
técnicas para la generación de estas analíticas pueden ser
muy variadas, desde análisis estadísticos hasta el uso de
algoritmos de aprendizaje especializados.
Este artículo introduce CO-CREARIA, un modelo de co-
creación y evaluación de REA-IA y describe una
experiencia con profesores que crearon sus propios REA-IA
siguiendo el modelo y que evaluaron REA-IA de otros
compañeros. También se explica el modelo desde la
perspectiva del estándar de IMS para analíticas denominado
“Caliper Analytics Framework” [18].
La hipótesis de este estudio es que los profesores pueden
crear REA-IA y evaluar su accesibilidad y calidad siguiendo
el modelo CO-CREARIA.
El artículo se encuentra organizado de la siguiente forma:
en la sección II se abordan los fundamentos teóricos sobre
recursos educativos abiertos, las analíticas de aprendizaje y
Co-Creación y Evaluación de Recursos
Educativos Abiertos Inclusivos y Accesibles: un
Mapeo hacia el IMS Caliper
Cecilia Avila1, Silvia Baldiris
2, Ramon Fabregat
2, y Sabine Graf
3, Miembro, IEEE
L
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015 219
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
el framework IMS Caliper; en la sección III se describe el
modelo CO-CREARIA; en la sección IV se presenta el
escenario de validación; en la sección V se analizan los
resultados obtenidos de la experiencia de co-creación y
evaluación de REA-IA; en la sección VI se describe el
modelo de co-creación de REA-IA desde la perspectiva del
IMS Caliper y el tablero de visualización de accesibilidad
que se desarrolló; y finalmente en la sección VII se
presentan las conclusiones y trabajo futuro.
II. FUNDAMENTOS TEÓRICOS
A. Recursos Educativos Abiertos
Los Recursos Educativos Abiertos (REA) son materiales
digitales educativos utilizados en ámbitos como la
enseñanza, el aprendizaje y la investigación que se
encuentran en un dominio público y que pueden ser
libremente consultados, compartidos, modificados o
reutilizados en otros contextos [19]–[22]. Estos recursos
representan una revolución en los procesos de enseñanza y
aprendizaje por la gran acogida que han tenido entre
docentes, diseñadores y otros actores, quienes están creando
una amplia variedad de REA que están disponibles en
Internet para su libre uso [23]. Algunos estudios resaltan el
uso de estrategias colaborativas para la producción o
creación de este tipo de recursos [2], [24]–[26].
Ramaswamy y Gouillart[27] destacan tres aspectos en un
proceso de co-creación: las experiencias humanas, el
proceso colaborativo de crear con otros individuos y el uso
de plataformas que fomenten la interacción y permitan a los
participantes compartir sus experiencias. Además, plantean
que el pensamiento de diseño co-creativo amplía las
posibilidades de los diseñadores de plataformas
permitiéndoles obtener ideas a partir de las opiniones de los
otros participantes en el diseño. En el caso de los REA-IA la
co-creación se basa en las interacciones que los co-autores o
co-creadores de REA-IA (profesores, expertos, académicos,
estudiantes, entre otros) establecen entre sí para generar
recursos inclusivos y accesibles.
B. Analíticas de Aprendizaje
Las analíticas de aprendizaje son un conjunto de técnicas
para medir, recolectar, analizar y reportar datos sobre los
aprendices y su contexto [28]. Representan un área de gran
crecimiento dentro del área de investigación de las
tecnologías para las mejoras en el aprendizaje o Technology
Enhanced Learning (TEL) [29] por cuanto sirven como
estrategia para entender y optimizar los procesos de
enseñanza y aprendizaje a través del análisis de datos
generados a partir de las actividades realizadas por el
estudiante en un entorno virtual de aprendizaje [30], [31].
Según Ferguson[29] hay cuatro factores clave a
considerar al trabajar con analíticas de aprendizaje: 1) tener
claro que en el aprendizaje en línea se hace necesario que
tanto el profesor como el aprendiz cuenten con un
mecanismo que les permita llevar un seguimiento o
monitoreo del proceso de enseñanza/aprendizaje con el fin
de poder plantear mejoras al mismo; 2) pensar que la
generación de analíticas de aprendizaje se basa en el manejo
de un gran conjunto de datos; 3) las analíticas apoyan la
toma decisiones a nivel institucional; y 4) es necesario
pensar en quién(es) se beneficia(n) con el uso de las
analíticas.
C. IMS Caliper
En los procesos de aprendizaje en línea, el uso de
analíticas favorece un contexto de aprendizaje más eficiente
y guiado. El objetivo de las analíticas en este contexto es
medir e interpretar la información de las actividades de
aprendizaje [18]. El estándar de IMS “Caliper Analytics
Framework” [18] provee recomendaciones de alto nivel
sobre cómo los sistemas de aprendizaje deben capturar y
compartir datos sobre las interacciones de aprendizaje de los
usuarios. Considera además las especificaciones IMS que
son utilizadas para modelar la información de los actores y
procesos involucrados en actividades de aprendizaje. IMS
Caliper utiliza los modelos de información de varias
especificaciones IMS para soportar y avanzar en la medición
del aprendizaje a través de la generación de analíticas. La
figura 1 muestra la arquitectura del IMS Caliper y consta de
3 ejes principales:
- Los perfiles de métricas de aprendizaje IMS o Learning
Metric Profiles: se tienen en cuenta las acciones/actividades
realizadas por los estudiantes y los elementos relevantes de
su contexto.
- El sensor de aprendizaje o Learning Sensor API:
representa las acciones que se ejecutan en las
actividades que se plantean dentro de un contexto de
aprendizaje.
- Extensiones IMS: el Learning Tools
Interoperability (LTI) [32], el Learning Information
Services (LIS) [33] y el Question and Test
Interoperability (QTI) [34] son especificaciones IMS
que soportan la forma como se tratan los datos
generados a partir de las actividades realizadas por el
estudiante en evaluaciones o en interacciones
provenientes de diferentes sistemas que inter-operan.
En este artículo se describe CO-CREARIA, un modelo de
co-creación y evaluación de REA-IA y se presenta un
mapeo de los elementos de este modelo hacia el IMS
Caliper.
Fig. 1. Arquitectura del IMS Caliper (Fuente[18])
220 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
III. CO-CREACIÓN Y EVALUACIÓN DE REA-IA
A. Modelo de Co-creación de REA-IA
El modelo de CO-CREAción de REA Inclusivos y
Accesibles (CO-CREARIA) [35] fue co-creado durante la
ejecución del proyecto Inclusive Learning [36] por un grupo
de profesores de diferentes países europeos participantes en
el proyecto que provenían de diversas áreas de conocimiento
como el diseño, la pedagogía, la informática y la
sicopedagogía. CO-CREARIA está basado en la
metodología ADDIE (Análisis, Diseño, Desarrollo,
Implementación y Evaluación)[37].
Otros estudios también han tomado como referencia
ADDIE para la creación de REA. Por ejemplo, en el estudio
de Cueva, Rodríguez y Pelaez[38] se presenta un ciclo de
producción de REA que extiende ADDIE incluyendo
elementos de autoría social y web semántica. Además, en el
estudio de Rodríguez, Cueva y Tovar [39]se presentan una
serie de especificaciones basadas en estándares para la
reusabilidad e interoperabilidad de REA, incluyendo las
fases de: diseño, desarrollo, implementación y evaluación.
A diferencia de los estudios mencionados, el modelo CO-
CREARIA enriquece ADDIE considerando elementos del
Diseño Universal para el Aprendizaje (DUA) [40]y las
pautas de accesibilidad para contenidos web [41]
estableciendo pautas y procesos claros para el logro de REA
realmente inclusivos y accesibles. A continuación se
describen los actores vinculados al modelo y para cada una
de las fases del mismo se destacan los elementos
innovadores introducidos.
Actores
- Autor: crea un REA-IA.
- Evaluador: evalúa la accesibilidad y calidad del
REA-IA.
- Experto: profesional con conocimientos en inclusión,
accesibilidad web y calidad de recursos de
aprendizaje.
- Estudiante: cuando el autor lleva el REA-IA a un
escenario real de uso, el estudiante puede acceder,
consultar el REA-IA y dar comentarios al autor sobre
elementos a mejorar en el recurso.
Fases
- Análisis: en esta fase el autor define los contenidos y
el contexto en el que se utilizará el REA-IA. Además
define el perfil de los estudiantes teniendo en cuenta
fortalezas, debilidades y preferencias desde las tres
redes de aprendizaje del DUA (de reconocimiento,
estratégicas y afectivas)[40].
- Diseño: en esta fase el autor realiza la identificación
de las barreras y oportunidades que se pueden
presentar de acuerdo al perfil de los estudiantes y la
descripción detallada de los métodos y materiales que
planea utilizar en su REA-IA. Para cada material
debe indicar nombre, descripción, justificación de
uso, tipo de material (video, documento, página web,
archivo de audio) y elementos de accesibilidad a
considerar.
- Desarrollo: en esta fase se desarrollan los contenidos
y se preparan los materiales definidos en la fase de
diseño. En esta fase se sugiere el uso de una
plataforma accesible como ATutor[42] en la que cada
autor crea su propio REA-IA considerando los
elementos definidos en las fases previas.
- Evaluación: esta fase cada autor evalúa el REA-IA
de otro autor en términos de calidad y accesibilidad.
Para cada una de estas evaluaciones se creó un
instrumento web en el que se asocian los datos del
REA-IA con la respectiva evaluación de
accesibilidad y calidad. Este proceso de evaluación
se explica en detalle en la siguiente subsección (B.
Modelo de evaluación de REA-IA).
- Implementación: en esta fase el autor describe el
escenario de despliegue o uso del REA-IA teniendo
en cuenta las características del contexto descritas en
la fase de análisis. Además, reporta y presenta
resultados de la ejecución del escenario a fin de
analizar la experiencia de los estudiantes con el
REA-IA.
Para realizar el seguimiento en la creación de los REA-IA
se definieron productos específicos asociados con las
actividades a realizar en cada fase (ver figura 2).
B. Modelo de Evaluación de REA-IA
La fase de evaluación del modelo CO-CREARIA tiene
como principal objetivo verificar la accesibilidad y calidad
de los REA-IA creados por los autores. El enfoque de
evaluación adoptado es una revisión de pares en la que uno
o más evaluadores evalúan uno o más REA-IA. La etapa de
evaluación se divide en 2 partes: evaluación de accesibilidad
y evaluación de calidad. Para cada tipo de evaluación se
desarrolló un instrumento web [43].
Por un lado, en el instrumento web para la evaluación de
accesibilidad se verifica la accesibilidad de los elementos
web que los profesores incluyeron en los REA-IA de
acuerdo al cumplimiento de las Web Content Accessibility
Guidelines 2.0 [41]. La verificación se realiza a través de
una rúbrica diseñada específicamente para evaluadores de
accesibilidad novatos y consta de 21 preguntas distribuidas
en 8 categorías como se presenta en la Tabla I. Cada
categoría de preguntas corresponde con un tipo de contenido
web incluido en los REA-IA: encabezados de nivel,
imágenes, tablas, enlaces, listas de elementos, videos,
abreviaciones y acrónimos, listas de definiciones. Estos
tipos de contenidos se seleccionaron por ser los más
utilizados en la creación de REA-IA por profesores. Las
opciones de respuesta para cada pregunta fueron: Sí, No y
No Aplica. Además se proporcionó un espacio para añadir
comentarios indicando en cuál elemento en particular se
presentaban fallos de accesibilidad. Para dar respuesta a
cada una de estas preguntas los evaluadores contaron con
una guía que explica paso a paso cómo realizar este proceso
y con herramientas de soporte como el Web Developer y
Longdesc que son complementos para el navegador web
utilizados en el proceso de evaluación y que permiten
revisar en detalle las propiedades de los elementos web
constitutivos de un REA-IA.
Aunque cada categoría contiene varias preguntas, se
considera que un elemento es accesible cuando cumple con
los criterios evaluados en todas las preguntas de la categoría.
Por lo cual el autor del REA-IA debe prestar especial
AVILA et al.: CO-CREACIÓN Y EVALUACIÓN DE RECURSOS ABIERTOS INCLUSIVOS Y ACCESIBLES... 221
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
TABLA I PREGUNTAS DE LA EVALUACIÓN DE ACCESIBILIDAD
Categoría Pregunta
1. Encabezados/Títulos
de nivel
1. ¿Se respeta el orden de los títulos?
2. ¿La estructura de títulos es apropiada?
2. Imágenes
3. ¿Las imágenes contienen texto
alternativo?
4. ¿Las imágenes complejas tienen descripción larga?
5. ¿Las imágenes que no tienen texto
alternativo son decorativas?
3. Tablas
6. ¿Todas las tablas tienen título? 7. ¿Todas las tablas tienen un resumen?
8. ¿El resumen de las tablas es apropiado? 9. ¿Existen tablas utilizadas con fines
decorativos?
10. ¿En las tablas están bien definidos los encabezados?
4. Enlaces
11. ¿Al leer el texto de los enlaces se
comprende fácilmente su propósito?
12. ¿Los títulos de los enlaces son claros y orientan al estudiante?
13. ¿Existe algún enlace que no se puede
abrir o visualizar?
5. Listas de elementos 14. ¿Las listas están bien definidas?
15. ¿Se justifica el uso de listas ordenadas?
6. Videos
16. ¿En las páginas donde hay videos se
describe textualmente el propósito u objetivo del video?
17. ¿Los videos tienen subtítulos?
7. Abreviaciones y acrónimos
18. ¿Las abreviaturas están definidas? 19. ¿Los acrónimos están definidos?
8. Listas de
definiciones
20. ¿Los términos de las listas están
enlazados (anclados) al texto de la página?
21.¿Se comprende la definición de los términos presentes en las listas?
Fig. 2. Fases y productos de CO-CREARIA
atención a las categorías en las que hay preguntas evaluadas
como no accesible.
Por otro lado, en el instrumento web para la evaluación de
la calidad de los REA-IA se consideraron 8 de las categorías
planteadas del instrumento LORI (Learning Object Review
Instrument) [44]: calidad en los contenidos, adecuación a los
objetivos de aprendizaje, retroalimentación, motivación,
diseño, usabilidad, reusabilidad y cumplimiento de
estándares. Se eliminó la categoría de accesibilidad ya que
ésta fue objeto de la evaluación descrita anteriormente. Para
cada categoría se creó una pregunta a la que el evaluador
debía asignar una puntuación entre 1 y 5 estrellas de acuerdo
a los criterios que se presentan en la Tabla II. Además, por
cada pregunta se incluyó un campo en el que el evaluador
podía añadir comentarios sobre la calidad del REA-IA.
IV. ESCENARIO DE VALIDACIÓN
Uno de los escenarios de validación del modelo CO-
CREARIA fue un curso de diseño de REA-IA impartido en
el contexto de la Maestría en TIC de la Universidad
Pontificia Bolivariana en Colombia en el cual participaron
72 profesores (46 hombres y 26 mujeres) que enseñan en los
niveles educativos de primaria y secundaria y que asumieron
el rol de Autores y Evaluadores de los REA-IA creados
durante el curso. El curso consideró los siguientes temas:
ADDIE, aprendizaje inclusivo y DUA, accesibilidad web y
evaluación de accesibilidad y calidad. Los contenidos de
este curso fueron desarrollados en el contexto del proyecto
europeo Inclusive Learning [36]. Teniendo en cuenta que la
creación de REA-IA involucra el uso de herramientas TIC,
al inicio de la formación se preguntó a los profesores
participantes del curso sobre su experiencia en el uso de
herramientas TIC (computador, Internet y otras
herramientas). Se identificó que más de la mitad de los
participantes tiene un dominio intermedio en el manejo tanto
del computador (13% experto, 77% intermedio, 10%
principiante) como en el manejo de Internet (8% experto,
83% intermedio, 10% principiante). Con respecto al uso de
otras herramientas se identificó que las más utilizadas son
correo electrónico (99%) y chat (93%), seguidas de redes
sociales (89%), foros (82%), blogs (78%), wiki (67%), redes
profesionales (42%) y aplicaciones móviles (40%). Además,
la motivación principal de los participantes era la de
aprender estrategias en cuanto al uso de TIC que les
permitieran mejorar en su práctica educativa y tener en
cuenta estrategias para la inclusión de estudiantes en
contextos de diversidad.
Por otro lado, se contó con la participación de 5
instructores que impartieron el curso mencionado, quienes
actuaron como Expertos en el proceso de creación
retroalimentando a los profesores participantes en las
diferentes etapas de la creación y evaluación del REA-IA.
Los autores de este artículo participaron como parte del
equipo de instructores.
222 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Fig. 3. Distribución de recursos creados por tema.
Ciencias sociales
3%
Inglés4%
Comunicación oral6%
Gramática7%
Naturaleza14%
Lectura17%
Otros15%
Tecnología15%
Matemáticas
19%
TABLA II
PREGUNTAS DE LA EVALUACIÓN DE CALIDAD
Pregunta Criterios
1. Calidad de los contenidos Veracidad, exactitud, presentación
equilibrada de ideas y nivel adecuado de detalle.
2. Adecuación de los
objetivos de aprendizaje
Coherencia entre los objetivos,
actividades, evaluaciones y perfil del
alumnado.
3. Feedback
(Retroalimentación) y
Adaptabilidad
Contenido adaptativo o feedback en
función de la respuesta de cada alumno/a
y su estilo de aprendizaje.
4. Motivación Capacidad de motivar y generar interés en un grupo concreto de alumno/as.
5. Diseño y presentación El diseño de la información audiovisual
favorece el adecuado procesamiento de la información.
6. Usabilidad Facilidad de navegación, interfaz
predictiva para el usuario y calidad de
los recursos de ayuda de la interfaz.
7. Reusabilidad Capacidad para usarse en distintos
escenarios de aprendizaje y con
alumnos/as con distintos bagajes.
8. Cumplimiento de
estándares
Adecuación a los estándares y
especificaciones internacionales.
La meta principal consistió en que cada profesor creara un
REA-IA siguiendo las fases del modelo de co-creación y
evaluación.
V. RESULTADOS
En esta sección se describen los resultados obtenidos en el
proceso de co-creación y en particular en la evaluación de
los REA-IA creados.
A. Sobre el Proceso de Co-Creación de REA-IA
Los recursos creados por los profesores (72 en total) se
centran en diferentes áreas temáticas. La figura 3 muestra la
distribución de recursos creados por área temática: Ciencias
sociales (3%), Inglés (4%), Comunicación oral (6%),
Gramática(7%), Naturaleza(14%), Lectura(17%),
Tecnología (15%),Matemáticas (19%) y Otros (15%)
relacionados con temas como mercadeo, didáctica del
aprendizaje, herramientas pedagógicas, entre otros. Cada
profesor en su rol de autor seleccionó el tema del recurso de
acuerdo a sus preferencias o área de actuación y también de
acuerdo a la problemática que identificaba en su aula y/o
institución educativa.
Aunque era deseable que los profesores validaran el
REA-IA creado con sus estudiantes (fase de
implementación), solamente 4 de ellos lograron utilizarlo.
De esta forma los autores de los REA-IA contaron con la
interacción de los estudiantes. Los restantes profesores no
utilizaron con sus estudiantes el REA-IA que habían creado
debido a restricciones de espacio físico y de tiempo. Los
profesores que utilizaron el REA-IA con sus estudiantes
observaron en ellos una participación más activa y un mayor
interés por acceder a los contenidos de aprendizaje (en
especial a los contenidos multimedia como imágenes y
videos). Además, en el reporte de la ejecución del escenario
de despliegue, comentan que aunque se requiere invertir
mucho tiempo en la elaboración del REA-IA, se tiene una
mayor claridad frente a las características de los contenidos
que se presentan a los estudiantes y se implementan
estrategias enfocadas a todos los estudiantes teniendo en
cuenta sus fortalezas y debilidades.
Otro aspecto a resaltar es que los profesores siempre
estuvieron interesados en hacer mejoras a los REA-IA en
términos de accesibilidad y calidad, utilizando para ello la
retroalimentación obtenida desde los comentarios del
instructor, de los otros compañeros autores y algunos de la
experiencia con sus propios estudiantes. Por otra parte, el
acompañamiento de los instructores fue fundamental para
que los profesores tuvieran retroalimentación en cada una de
las fases del proceso de co-creación de los REA-IA.
B. Sobre la Evaluación de Accesibilidad de los REA-IA
Durante la fase de evaluación cada profesor actuó como
Evaluador del REA-IA de un compañero. En la figura 4 se
presentan los resultados generales obtenidos como respuesta
a las 21 preguntas de accesibilidad para los 72 REA-IA
creados por los profesores. Los resultados de las preguntas 9
y 13 se presentan de manera invertida ya que el texto de
estas preguntas está planteado en forma de negación.
Como se mencionó anteriormente, las opciones de
respuesta a las preguntas eran “Sí”, “No” o “No aplica”.
Algunas preguntas no fueron contestadas para algunos REA-
IA y a esta opción se le denominó “Sin respuesta”. Lo ideal
es que el “Sí” abarcara el 100% de los REA-IA que sí
aplicaron las características de accesibilidad a los
respectivos elementos web mencionados en cada una de las
8 categorías. Esto indicaría que según la evaluación
proporcionada por los evaluadores, todos los REA-IA
creados son completamente accesibles.
Como se puede observar en la figura 4, los resultados son
positivos. En los siguientes párrafos se analizan los
resultados de cada categoría:
- Encabezados de nivel (Cat. 1): los encabezados de
nivel se utilizan para dar jerarquía a los contenidos y
presentarlos de una forma organizada. Los resultados
indican que 69 de los REA-IA utilizan encabezados
de nivel, de los cuales 67 sí respetan el orden de los
títulos y 63 utilizan una estructura de títulos
adecuada.
- Imágenes (Cat. 2): las imágenes accesibles deben
incluir un texto corto que las describa (texto
alternativo). Si una imagen tiene elementos
complejos que requiera de una descripción más
extensa se utiliza entonces un texto descriptivo.
AVILA et al.: CO-CREACIÓN Y EVALUACIÓN DE RECURSOS ABIERTOS INCLUSIVOS Y ACCESIBLES... 223
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Además, aquellas imágenes que son utilizadas con
fines decorativas no deben incluir texto alternativo.
Según los resultados, 60 de los REA-IA utilizan
imágenes, de los cuales 44 sí incluyen texto
alternativo. Además 47 de los REA-IA utilizan
imágenes complejas, de los cuales 25 sí incluyen una
descripción larga. Este último resultado se debe a que
el proceso para agregar la descripción larga a una
imagen puede ser complejo. Aunque las imágenes
utilizadas con fines decorativos no deben incluir
texto alternativo, de los 38 de los REA-IA que
incluyen imágenes con fines decorativos 29 sí
cumplen con esta característica.
- Tablas (Cat. 3): para que una tabla sea accesible debe
incluir un título, un resumen comprensible y se deben
definir los encabezados de tabla que indican los
títulos de las columnas o filas. Los resultados de la
evaluación de accesibilidad indican que 38 de los
REA-IA utilizan tablas, de los cuales 23 incluyen el
título de las tablas, 29 incluyen el resumen de las
tablas, en 26 el resumen de las tablas es apropiado y
25 definen adecuadamente los encabezados de las
tablas. Las tablas son elementos que permiten
representar información de manera tabular, por tanto
no deben ser utilizadas con fines decorativos. En este
sentido, tan solo 4 de los REA-IA incluyeron tablas
con fines decorativos.
- Enlaces (Cat. 4): los enlaces son accesibles cuando se
presentan mediante un texto que sea comprensible y
contienen un título que indique su propósito. Los
resultados de la evaluación de accesibilidad indican
que 65 de los REA-IA incluyen enlaces, de los cuales
en 54 se comprende el texto con el que se presentan,
en 49 el título es claro y orienta al estudiante y tan
solo en 10 REA-IA se identificó que existen enlaces
rotos.
- Listas de elementos (Cat. 5): las listas de elementos
(ordenadas o no ordenadas) pueden ser creadas
agregando viñetas de forma manual (por ejemplo
utilizando caracteres como asteriscos o guiones) o
creando una lista accesible utilizando para ello la
herramienta del editor de textos provisto en la
plataforma utilizada para crear los REA-IA. Además,
una lista ordenada se refiere a elementos que deben
ser presentados en un orden secuencial. Según los
resultados de accesibilidad 62 de los REA-IA
incluyen listas de elementos, de los cuales 59
agregaron las listas utilizando la herramienta
mencionada y en 51 sí se justifica su uso.
- Videos (Cat. 6): para que un video sea accesible
deben incluirse los subtítulos y acompañarlo de una
descripción textual que oriente sobre su contenido y
propósito. Además de la descripción textual las audio
descripciones son otro elemento que se incluye en los
videos para mejorar su accesibilidad y permitir que
las personas que no pueden visualizar el video
conozcan la descripción de personajes, lugares u
otros elementos que no pueden percibir por medio de
la vista. Debido a que para la mayoría de profesores
era la primera vez que trabajaban con contenidos de
video, en este escenario de validación se trabajaron
los dos primeros elementos: el subtitulado de videos
y la descripción textual. Para subtitular un video los
profesores aprendieron sobre el uso de la herramienta
Subtitle Edit que permite generar un archivo de
subtítulos que se adjunta cuando se agrega el video
en el REA-IA. Según los resultados de la evaluación
de accesibilidad, 58 de los REA-IA incluyen videos,
de los cuales 39 cuentan con una descripción que
define su propósito y 32 incluyen subtítulos. Los
11REA-IA que no incluyen subtítulos a los videos se
refieren a videos que no cuentan con una pista de
audio.
- Abreviaturas y acrónimos (Cat. 7): las abreviaturas y
acrónimos son el elemento web menos utilizado en
los REA-IA creados. Los resultados de accesibilidad
indican que 10 de los REA-IA incluyeron
abreviaturas, de los cuales 4 las definen
adecuadamente. En el caso de los acrónimos 8 de los
REA-IA incluyeron acrónimos, de los cuales 3 los
definen adecuadamente.
- Listas de definiciones (Cat. 8): las listas de
definiciones se asemejan a los glosarios en el sentido
en que presenta la definición de una serie de
conceptos. En un contexto web las definiciones
deben enlazarse con el contenido principal. Según los
resultados de accesibilidad 32 de los REA-IA
incluyeron listas de definiciones, de los cuales 21
enlazan las definiciones al texto o contenidos
principal de las páginas y en 27 sí se comprenden las
definiciones utilizadas.
Por otro lado, se hizo un análisis de los resultados de la
evaluación de accesibilidad con respecto al área temática
de los REA-IA (ver figura 5). Las áreas temáticas de
ciencias sociales (54%) y gramática (61%) son las que
menos porcentaje de recursos accesibles presentan,
mientras que las demás áreas temáticas superan el 70% de
Fig. 4. Resultados de la evaluación de accesibilidad.
224 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
recursos accesibles. A manera de ejemplo, en la Tabla III
se presentan los resultados de la evaluación de
accesibilidad de uno de los REA-IA y los comentarios
proporcionados por el profesor evaluador.
C. Sobre la evaluación de calidad de los REA-IA
Además de la evaluación de accesibilidad, a los
profesores en su rol de evaluadores se les pidió que
realizaran una evaluación del REA-IA de otro profesor en
términos de calidad. Aunque los evaluadores y los autores se
conocían entre sí, se hizo énfasis en que no se trataba de dar
la calificación de calidad más alta en beneficio del
compañero, sino que por el contrario la idea era identificar
aquellos aspectos en los que el autor podría mejorar su
REA-IA.
Los resultados obtenidos en la evaluación de calidad se
presentan en la figura 6. Según estos resultados se puede
concluir que los profesores (en su rol de evaluadores)
evaluaron positivamente la calidad de los REA-IA en cada
una de las 8 preguntas ya que asignaron entre cuatro y cinco
estrellas para la mayoría de los recursos y muy pocos
recursos fueron evaluados con una o dos estrellas.
D. Lo aprendido en la Validación del Modelo
Ofrecer procesos de aprendizaje realmente inclusivos es
una necesidad actual del sistema educativo que es
naturalmente diverso y el cual debe poner especial énfasis
en la consideración de las preferencias y necesidades
educativas de todos los estudiantes. El proceso de validación
del modelo CO-CREARIA permitió evidenciar el reto que
supone para los profesores el ofrecer a sus estudiantes
recursos de aprendizaje que sean realmente inclusivos,
accesibles y de calidad mitigando así las barreras de acceso
que estos recursos puedan presentar a sus estudiantes. En
este sentido, los resultados de la validación del modelo CO-
CREARIA indican que siguiendo los pasos del modelo los
profesores fueron capaces de crear recursos de aprendizaje
inclusivos y accesibles partiendo de un análisis centrado en
las necesidades de los estudiantes, siguiendo con un diseño
de los métodos y materiales más adecuados para la atención
de las necesidades y preferencias identificadas y
concretando todo esto en el desarrollo de un REA-IA que
cumple con los criterios definidos en las pautas de
accesibilidad para contenidos web a nivel técnico.
Por otra parte, la etapa de evaluación del REA-IA en
términos de accesibilidad y calidad brindó elementos a los
profesores creadores de los REA-IA que les ayudaron a
mejorar sus recursos. Además la etapa de implementación
brindó escenarios reales de prueba a algunos profesores que
enriquecieron sus REA-IA con la retroalimentación directa
de los estudiantes que interactuaron con los recursos.
El proceso de creación colaborativa de REA-IA permitió
a los profesores ser más conscientes sobre las ventajas de la
utilización de un modelo que se enfoca en el aprendizaje de
todos los estudiantes y no solo de aquellos que presentan
necesidades educativas particulares debidas a alguna
discapacidad.
VI. MAPEO DEL MODELO HACIA EL “IMS CALIPER
ANALYTICS FRAMEWORK”
En el proceso de co-creación y evaluación de REA-IA se
ven involucrados diferentes elementos que están
relacionados con el contexto donde los profesores aprenden
a crear REA-IA. Así mismo se maneja un gran volumen de
datos que deben gestionarse de manera tal que sean útiles en
los diferentes momentos del aprendizaje. De acuerdo con la
experiencia descrita en las secciones anteriores se hizo un
mapeo del modelo creado para la co-creación y evaluación
de REA-IA hacia el “IMS Caliper Analytics Framework”
que se encuentra representado en la figura 7 y en el que se
consideran los siguientes elementos:
TABLA III
RESULTADOS DE EVALUACIÓN DE ACCESIBILIDAD
DE UNO DE LOS REA-IA
Preg. Respuesta Comentarios
SÍ NO NA
1 X Los títulos conservan un orden
jerárquico
2 X Considero que los encabezados están
bien y no es necesario agregar más.
3 X Da cuenta del propósito de la imagen
4 X
No encuentro que sean imágenes
complejas, por lo cual no requieren de
una descripción larga.
5 X Todas las imágenes tienen texto
alternativo.
6 X
Ninguna de las tablas tiene asignado título: la primera no tiene ningún tipo
de contenido; la segunda fue utilizada
únicamente con el fin de resaltar el
título de la tercera.
7 X No, ninguna tabla tiene resumen.
8 X No se evidencia resumen en ninguna
de ellas.
9 X Sólo la segunda porque fue utilizada para resaltar un título.
10 X
En este caso sólo aplicaría para las
tablas 3 y 4, pero no lo tienen definido.
11 X
El texto del enlace da cuenta de su
finalidad, pero no para el caso de
aquellos en los que el enlace corresponde a una URL.
12 X Se observa claridad en todos los
enlaces que tienen títulos.
13 X Todos los enlaces llevan a las páginas externas correspondientes.
14 X
15 X
En los casos en que es utilizada
percibo que no se requiere de un orden jerárquico para los ítems
presentados en las listas.
16 X No aparecen videos. Sólo enlaces que llevan a videos en páginas externas.
17 X
18 X No encuentro abreviaturas.
19 X No encuentro acrónimos
20 X No observo listas de definiciones.
21 X
Fig. 5.Resultados de la evaluación de accesibilidad por tema
AVILA et al.: CO-CREACIÓN Y EVALUACIÓN DE RECURSOS ABIERTOS INCLUSIVOS Y ACCESIBLES... 225
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Fig. 7.Co-creación y evaluación de REA-IA: mapeo hacia IMS Caliper.
Fig. 6.Resultados de la evaluación de calidad.
- La interoperabilidad de herramientas de aprendizaje.
- Los perfiles de las métricas de aprendizaje.
- Los servicios y soluciones en términos de analíticas.
En los siguientes apartados se describen cada uno de estos
componentes.
A. Interoperabilidad de las Herramientas de Aprendizaje
Se utilizó la plataforma ATutor como sistema de gestión
de aprendizaje. Esta plataforma soporta especificaciones de
IMS como Content packaging, Common cartridge y QTI.
Cuenta también con un módulo para la inclusión de
herramientas externas que soporta el estándar IMS LTI.
Además se consideraron diferentes roles de participación en
el contexto de co-creación y evaluación de REA-IA. El
profesor toma el rol de autor cuando crea un REA-IA.
Además, el mismo profesor toma el rol de evaluador cuando
hace la revisión del REA-IA de otro compañero para
evaluarlo en términos de accesibilidad y calidad.
B. Perfiles de métricas de aprendizaje
Las actividades y contenidos para la formación de
profesores se relacionan con la co-creación y evaluación de
REA-IA. La interacción entre profesores y demás actores
del proceso se da mediante la participación en foros de
discusión y las actividades de evaluación. Los resultados de
estas actividades actúan como sensores de aprendizaje que
facilitan la captura de datos en un contexto determinado.
Estos sensores se activan mediante los eventos de
aprendizaje, que son las interacciones que se dan en el
desarrollo de las actividades de aprendizaje [18].
C. Analíticas: Servicios y Soluciones
Los eventos de aprendizaje conducen al almacenamiento
de los datos capturados durante el desarrollo de las
actividades de aprendizaje que en este caso están
relacionadas con la co-creación y evaluación de REA-IA.
Estos datos son procesados y pueden ser consultados
mediante informes de evaluación o registros de actividad.
Considerando que uno de los componentes que plantea el
IMS Caliper son los servicios para la visualización de las
analíticas, se desarrolló un módulo para la plataforma
ATutor que se denomina “Tablero de accesibilidad” y en el
que el profesor (en su rol de autor) puede visualizar
información del REA-IA que él ha creado relativa a los
elementos relacionados con las categorías de accesibilidad
descritas en la fase de evaluación de accesibilidad: títulos,
imágenes, tablas, enlaces, listas, videos, listas de
definiciones y abreviaturas y acrónimos (ver figura 8). En
otra sección del “Tablero de accesibilidad” se presentan
analíticas sobre el resultado de la evaluación de
accesibilidad considerando la cantidad de revisiones
realizadas al REA-IA, los resultados obtenidos en cada
categoría y la comparación de cada categoría con respecto a
los demás REA-IA (ver figura 9). En esta sección del tablero
se maneja un color por cada tipo de respuesta (verde para
“Sí”, rojo para “No” y gris para “No aplica”) con el
propósito que el profesor pueda identificar aquellos
elementos web que no fueron evaluados positivamente y
requieren alguna mejora. Los resultados presentados en el
“Tablero de accesibilidad” corresponden con la información
del REA-IA presentado en la Tabla III. Las figuras 8 y 9
presentan capturas de pantalla de la interfaz de usuario del
tablero de accesibilidad.
El profesor también puede consultar el reporte de la
evaluación donde se encuentran los comentarios realizados
por los evaluadores del REA-IA.
226 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Fig. 9. Captura de pantalla del tablero de accesibilidad (Dashboard) – Resultados de la evaluación de accesibilidad
Fig. 8.Captura de pantalla del tablero de accesibilidad (Dashboard) –
Información del REA-IA
Para poder obtener las visualizaciones se hace un análisis
de los datos obtenidos en la evaluación de accesibilidad
considerando la cantidad de elementos, la cantidad de
revisiones que se han realizado al REA-IA y las respuestas
aportadas por los evaluadores mediante el instrumento web.
Para generar las gráficas se creó una función genérica que
recibe los resultados de evaluación de accesibilidad de cada
una de las categorías de elementos web. Esta función
además hace uso de la librería jqPlot [45] para dibujar la
gráfica.
Mediante el tablero de visualización de accesibilidad
desarrollado el profesor cuenta con una herramienta más de
soporte que le permite, desde una perspectiva gráfica y
descriptiva, tomar decisiones de mejora para el REA-IA en
términos de accesibilidad.
VII. CONCLUSIONES Y TRABAJO FUTURO
El modelo CO-CREARIA plantea un modelo
colaborativo de creación y evaluación de REA-IA haciendo
uso de la metodología ADDIE y considerando el Diseño
Universal para el Aprendizaje y las pautas de accesibilidad
para contenidos web como alternativas para hacer que los
REA-IA creados sean inclusivos y accesibles. Este es un
modelo flexible en el que el profesor es uno de los actores
principales en la co-creación y evaluación de REA-IA y por
ende los contenidos y actividades del proceso de formación
son diseñados de manera tal que se atienden las necesidades
y preferencias de todos sus estudiantes.
El seguimiento a la información que se deriva del proceso
de co-creación y en particular de la evaluación de REA-IA
se abordó desde la perspectiva del uso de analíticas de
aprendizaje. Esto permite identificar posibles oportunidades
para que el autor de REA-IA mejore su práctica durante el
proceso de co-creación.
Los resultados que se presentan en este artículo
corresponden con la validación del modelo CO-CREARIA
realizada por profesores en servicio quienes adquirieron la
competencia de creación y evaluación de REA-IA mediante
un proceso de formación que se impartió en un curso de
diseño inclusivo en la maestría en TIC de la Universidad
Pontifica Bolivariana. Durante este proceso los profesores
manifestaron continuamente la importancia de adquirir las
competencias para el desarrollo de REA-IA que puedan
atender las necesidades y preferencias de sus alumnos,
indicando que estas competencias no las adquirían en sus
procesos de formación como docentes. Una sugerencia que
se le da a las facultades de educación es incluir dentro de sus
programas de formación estructuras curriculares que
atiendan esta necesidad sentida de los docentes.
El tablero de accesibilidad desarrollado para la plataforma
ATutor, además de facilitar la visualización de los
resultados de la evaluación de accesibilidad realizada por un
experto u otro profesor, sirve como punto de partida para
continuar con la implementación de un módulo que integre
AVILA et al.: CO-CREACIÓN Y EVALUACIÓN DE RECURSOS ABIERTOS INCLUSIVOS Y ACCESIBLES... 227
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
nuevas funcionalidades para hacer un seguimiento más
detallado a las actividades que se derivan del modelo de co-
creación y evaluación de REA-IA.
AGRADECIMIENTOS
Los autores agradecen al Ministerio Español de Ciencia y
Educación por el soporte a través de la financiación del
proyecto Open Co-creation (TIN2014-53082-R). Cecilia
Avila agradece el soporte financiero mediante el programa
de becas BR2014 de la Universitat de Girona. Cecilia Avila,
Silvia Baldiris y Ramon Fabregat pertenecen al grupo
BCDS (ref. GRCT40) que forma parte del grupo de
investigación consolidado DURSI denominado
Comunicacions i Sistemes Intelligents (CSI) (ref. SGR-
1469). Sabine Graf agradece a “NSERC, iCORE, Xerox” y
al “research-related gift funding by Mr. A. Markin”.
Finalmente un agradecimiento especial a los profesores
participantes en este proceso de aprendizaje sobre la
creación de REA-IA.
REFERENCIAS
[1] J. Hilton III, D. Wiley, J. Stein, and A. Johnson, “The four „R‟s of
openness and ALMS analysis: frameworks for open educational
resources,” Open Learn. J. Open, Distance e-Learning, vol. 25, no. 1, pp. 37–44, Jan. 2010.
[2] D. Hernández-Leo, P. Moreno, J. Chacón, and J. Blat, “LdShake
support for team-based learning design,” Comput. Human Behav., vol. 37, pp. 402–412, Aug. 2014.
[3] “Amara.” [Online]. Available: http://www.universalsubtitles.org/.
[Accessed: 26-Jun-2015].
[4] “Compendium.” [Online]. Available: http://compendiuminstitute.net/.
[Accessed: 26-Jun-2015]. [5] “GLOMaker.” [Online]. Available: http://www.glomaker.org.
[Accessed: 26-Jun-2015].
[6] “GLUE!-PS.” [Online]. Available: http://www.gsic.uva.es/glueps/. [Accessed: 26-Jun-2015].
[7] “LabSpace.” [Online]. Available:
http://www.olnet.org/content/openlearn-labspace. [Accessed: 26-Jun-2015].
[8] “LdShake.” [Online]. Available: http://ldshake.upf.edu/. [Accessed:
26-Jun-2015]. [9] “OERPub.” [Online]. Available: http://oerpub.org/. [Accessed: 26-
Jun-2015].
[10] “OpenTapestry.” [Online]. Available: http://www.opentapestry.com/. [Accessed: 26-Jun-2015].
[11] Achieve Inc, “Commons core - OER rubrics.” [Online]. Available:
http://www.achieve.org/oer-rubrics. [12] Commonwealth of learning, Guidelines for open educational
resources (OER) in higher education. Vancouver, British Columbia:
Commonwealth of Learning, 2011. [13] Ç. Güler and A. Altun, “Teacher Trainees as Learning Object
Designers: Problems and Issues in Learning Object Development
Process,” TOJET Turkish Online J. Educ. Technol., vol. 9, no. 4, pp. 119–127, 2010.
[14] E. Kurilovas, V. Bireniene, and S. Serikoviene, “Methodology for
Evaluating Quality and Reusability of Learning Objects.,” Electron. J. e-Learning, vol. 9, no. 1, pp. 39–51, Nov. 2010.
[15] T. Cochrane, “Interactive QuickTime: Developing and evaluating
multimedia learning objects to enhance both face-to-face and distance e-learning environments,” J. E-Learning Learn. Objects, vol. 1, no. 1,
pp. 33–54, 2005.
[16] S. Baldiris, R. Fabregat, S. Graf, V. Tabares, N. Duque, and C. Avila, “Learning Object Recommendations Based on Quality and Item
Response Theory.” pp. 34–36, 2014.
[17] T. L. Leacock and J. C. Nesbit, “A Framework for Evaluating the Quality of Multimedia Learning Resources,” J. Educ. Technol. Soc.,
vol. 10, no. 2, pp. 44–59, 2007.
[18] IMS Global, Caliper Analytics Framework. 2013. [19] UNESCO, “What are Open Educational Resources (OERs)?”
[Online]. Available: http://www.unesco.org/new/en/communication-
and-information/access-to-knowledge/open-educational-resources/what-are-open-educational-resources-oers/.
[20] OECD, Giving Knowledge for Free: The Emergence of Open
Educational Resources. Organization for Economic Co-operation and
Development (OECD), 2007.
[21] D. E. Atkins, J. S. Brown, and A. L. Hammond, “A Review of the
Open Educational Resources (OER) Movement: Achievements,
Challenges, and New Opportunities,” California, 2007. [22] D. Prasad and T. Usagawa, “Towards development of OER derived
custom-built open textbooks: A baseline survey of university teachers
at the University of the South Pacific,” The International Review of Research in Open and Distance Learning, vol. 15, no. 4. 15-Aug-
2014.
[23] Cape Town, “The Cape Town Open Education Declaration,” English press release, 2008. [Online]. Available:
http://www.capetowndeclaration.org/read-the-declaration. [Accessed:
12-Dec-2014]. [24] , and T. Toikkanen, “Information
Architecture and Design Solutions Scaffolding Authoring of Open
Educational Resources,” IEEE Trans. Learn. Technol., vol. 3, no. 2, pp. 116–128, Apr. 2010.
[25] L. P. Prieto, J. I. Asensio-Pérez, J. A. Muñoz-Cristóbal, I. M. Jorrín-
Abellán, Y. Dimitriadis, and E. Gómez-Sánchez, “Supporting orchestration of CSCL scenarios in web-based Distributed Learning
Environments,” Comput. Educ., vol. 73, pp. 9–25, Apr. 2014.
[26] J. Muñoz Arteaga, H. C. Reyes, C. A. Collazos Ordoñez, and J. M. González-Calleros, “Modelo Productor-Consumidor de un Libro de
Texto para la Comunidad de Interacción Humano-Computadora en
Latinoamérica,” VAEP-RITA, vol. 3, no. 1, pp. 27–35, 2015. [27] V. Ramaswamy and F. Gouillart, The Power of co-creation. 2010.
[28] G. Siemens, D. Gasevic, C. Haythornthwaite, S. Dawson, S. B. Shum,
and R. Ferguson, “Open Learning Analytics: an integrated & modularized platform Proposal to design , implement and evaluate an
open platform to integrate heterogeneous learning analytics
techniques.” SOLAR, 2011. [29] R. Ferguson, “Learning analytics: drivers , developments and
challenges,” Int. J. Technol. Enhanc. Learn., vol. 4, no. 5/6, 2013.
[30] M. Van Harmelen and D. Workman, “Analytics Series Analytics for
Learning and Teaching,” CETIS Anal. Ser., vol. 1, no. 3, pp. 1–41,
2012.
[31] M. Vetter, “Shifting actor and shifting audiences: from academic analytics to learning analytics.” Nerdcomp, 2012.
[32] “Learning Tools Interoperability®.” [Online]. Available: http://www.imsglobal.org/toolsinteroperability2.cfm. [Accessed: 26-
Jun-2015].
[33] “Learning Information Services & OneRosterTM.” [Online]. Available: http://www.imsglobal.org/lis/. [Accessed: 26-Jun-2015].
[34] “IMS Question & Test InteroperabilityTM Specification.” [Online].
Available: http://www.imsglobal.org/question/. [Accessed: 26-Jun-2015].
[35] S. Baldiris, C. Avila, R. Fabregat, E. Potes, J. Cuesta, T. Muñoz, and
S. Cardona, “CO-CREARIA: Modelo de Co-Creación de REA Inclusivos y Accesibles,” in CAVA 2015 - VII Congreso Internacional
de Ambientes Virtuales de Aprendizaje Adaptativos y Accesibles,
2015.
[36] “Inclusive Learning Project.” [Online]. Available: http://inclusive-
learning.eu/. [Accessed: 26-Jun-2015].
[37] R. Branson, G. Rayner, J. Furman, L. Cox, F. J. King, and W. Hannum, “Executive summary and model,” in Inerservice procedures
for instructional systems development, Springfield: National
Technical Information Service, 1975. [38] S. P. Cueva Carrion, G. del R. Rodriguez Morales, and A. E. Pelaez
Romero, “OER‟s production cycle with social authorship and
semantic tools,” in IEEE EDUCON 2010 Conference, 2010, pp. 121–128.
[39] G. Rodriguez M., S. P. Cueva Carrion, and E. Tovar Caro, “Reusable
and interoperative specifications for OERs based on Standards,” in 2011 IEEE Global Engineering Education Conference (EDUCON),
2011, pp. 763–770.
[40] A. Meyer, D. H. Rose, and D. Gordon, CAST: Universal Design for Learning: Theory & Practice. CAST Professional Publishing, 2014.
[41] W3C, “WCAG 2.0 Guidelines - W3C Working Draft.” [Online].
Available: http://www.w3.org/TR/2006/WD-WCAG20-
20060427/guidelines.html. [Accessed: 26-Jun-2015]. [42] ATutor, “ATutor Learning Management System,” 2012. [Online].
Available: http://atutor.ca. [Accessed: 26-Jun-2015].
[43] C. Avila, S. Baldiris, R. Fabregat, and S. Graf, “Open Educational Resources Evaluation in a Learning Management System,” in
ICERI2014 Proceedings, 2014, pp. 1940–1950.
228 VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
[44] J. Sinclair, M. Joy, J. Y.-K. Yau, and S. Hagan, “A Practice-Oriented
Review of Learning Objects,” IEEE Trans. Learn. Technol., vol. 6,
no. 2, pp. 177–192, Apr. 2013.
[45] “jqPlot.” [Online]. Available: http://www.jqplot.com/. [Accessed: 26-
Jun-2015].
Cecilia Avila es tecnóloga en sistematización de datos e ingeniera en telemática de la Universidad Distrital Francisco José de Caldas (Bogotá,
Colombia), magister en informática industrial automática, computación y
sistemas (MIIACS) y estudiante del programa de doctorado en tecnología en la Universitat de Girona (Girona, España). Es investigadora del grupo
BCDS en la misma universidad. Desde 2007 ha participado en el desarrollo
de proyectos de investigación y publicaciones en temáticas como: aprendizaje en línea, simuladores educativos, aprendizaje colaborativo,
agentes inteligentes, web semántica, accesibilidad web, recursos educativos
abiertos y analíticas de aprendizaje.
Silvia Baldiris es ingeniera de sistemas e industrial de la Universidad
Industrial de Santander – UIS – Colombia, Magíster en Informática Industrial y Automática de la Universidad de Girona y Doctora en
Tecnología de la Universitat de Girona. Actualmente lleva a cabo sus
estudios de postdoctorado en la Universidad de Athabasca (Canadá). Ha estado interesada en los procesos de atención a las necesidades y
preferencias de todos los estudiantes desde sus inicios como investigadora
en la UIS en el año 2000. Ha coordinado técnicamente y participado en diferentes proyectos internacionales, entre ellos, Adaptation based on
machine learning, user modelling and planning for complex user-oriented
tasks (ADAPTAPlan), EIE-Surveyor, A2UN@, Inclusive Learning, ALTER-NATIVA, ARrELS, RAIM, Open CoCreation, entre otros.
Ramon Fabregat es PhD por la Universitat de Girona (España), profesor Titular del Departamento de Arquitectura y Tecnología de Computadores
en la misma universidad, codirector del grupo de Investigación de
“Comunicaciones y Sistemas Distribuidos” del Instituto de Informática y Aplicaciones e investigador principal del Grupo Consolidado
“Comunicacions i Sistemes Inteligentes” (SGR-1469) de la Generalitat de
Catalunya. Sus áreas de interés son: “technology enhanced inclusive learning”, sistemas hipermedia adaptativos y modelado de usuario. Ha
coordinado diferentes proyectos nacionales e internacionales como:
ADAPTPlan, A2UN@, ARrELS, Open CoCreation, ALTER-NATIVA e Inclusive Learning. Presidente de la Comité Externo de Expertos del
proyecto ES-VIAL.
Sabine Graf es profesora asociada en la Escuela de Computación y
Sistemas de Información de la Universidad de Athabasca en Canadá, donde
dirige un grupo de investigación en el área de Sistemas de Aprendizaje Inteligentes y Adaptativos formado por 16 doctores, investigadores y
estudiantes de todos los grados. Sus intereses de investigación están en los
campos de: sistemas adaptativos, modelado del usuario/estudiante, aprendizaje móvil y ubicuo, inteligencia artificial, y analíticas de
aprendizaje. Es miembro ejecutivo del Comité en Tecnologías de
Aprendizaje de la IEEE, Editora del Boletín del Comité Técnico en Tecnologías de Aprendizaje de la IEEE, y Editora Asociada de la Revista
Internacional de Diseño de Interacción y Arquitecturas.
AVILA et al.: CO-CREACIÓN Y EVALUACIÓN DE RECURSOS ABIERTOS INCLUSIVOS Y ACCESIBLES... 229
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
VAEP-RITA (http://webs.uvigo.es/cesei/VAEP-RITA)
Revisores
Adán Vega Sáenz, Universidad Tecnológica
de Panamá y LACCEI, Panamá Addison Salazar Afanador,
Universidad Politécnica de Valencia, España
Alberto Jorge Lebre Cardoso, Universidad de Coimbra, Portugal
Alfredo Ortiz Fernández,
Universidad de Cantabria, España Alfredo Rosado Muñoz,
Universidad de Valencia, España
Amaia Méndez Zorrilla, Universidad de Deusto, España
Ana Arruarte Lasa,
Universidad del País Vasco, España André Luís Alice Raabe,
Universidade do Vale do Itajaí, Brasil
Angel García Beltrán, Universidad Politécnica de Madrid, España
Angel Mora Bonilla,
Universidad de Málaga, España Angélica de Antonio Jiménez,
Universidad Politécnica de Madrid, España
Antonio Barrientos Cruz, Universidad Politécnica de Madrid, España
Antonio Navarro Martín,
Universidad Complutense de Madrid, España Antonio Sarasa Cabezuelo,
Universidad Complutense de Madrid, España
Basil M. Al-Hadithi, Universidad Alfonso X El Sabio, España
Basilio Pueo Ortega,
Universidad de Alicante, España
Begoña García Zapirain,
Universidad de Deusto, España
Carmen Fernández Chamizo, Universidad Complutense de Madrid, España
Cecilio Angulo Bahón, Universidad Politécnica de Catalunya, España
César Alberto Collazos Ordóñez,
Universidad del Cauca, Colombia Crescencio Bravo Santos,
Universidad de Castilla-La Mancha, España
Daniel Montesinos i Miracle, Universidad Politécnica de Catalunya, España
Daniel Mozos Muñoz,
Universidad Complutense de Madrid, España David Benito Pertusa,
Universidad Pública de Navarra, España
Dorindo Elam Cardenas Estrada, Universidad Tecnológica de Panamá y LACCEI, Panamá
Elio San Cristobal Ruiz,
UNED, España Eric Roberto Jeltsch Figueroa, Universidad
La Serena y LACCEI, Chile
Faraón Llorens Largo, Universidad de Alicante, España
Francisco Javier Faulin Fajardo,
Universidad Pública de Navarra, España Gabriel Díaz Orueta, UNED, España
Gerardo Aranguren Aramendía,
Universidad del País Vasco, España Gloria Zaballa Pérez,
Universidad de Deusto, España
Gracia Ester Martín Garzón, Universidad de Almeria, España
Ismar Frango Silveira,
Universidad de Cruzeiro do Sul, Brasil Javier Areitio Bertolin,
Universidad de Deusto, España
Javier E. Sanchez Galán, Universidad Tecnológica de Panamá y LACCEI, Panamá
Javier González Castaño,
Universidad de Vigo, España Jhon Edgar Amaya, Universidad Nacional
Experimental del Táchira y LACCEI,
Venezuela Joaquín Roca Dorda,
Universidad Politécnica de Cartagena, España
Jorge A. Tito Izquierdo, University of Houston-Downtown y LACCEI, USA
Jorge Alberto Fonseca e Trindade,
Escola Superior de Tecnología y Gestión, Portugal
Jorge Munilla Fajardo,
Universidad de Málaga, España José Alexandre Carvalho Gonçalves,
Instituto Politécnico de Bragança, Portugal
Jose Ángel Irastorza Teja, Universidad de Cantabria, España
José Angel Martí Arias,
Universidad de la Habana, Cuba José Ignacio García Quintanilla,
Universidad del País Vasco, España
José Javier López Monfort, Universidad Politécnica de Valencia, España
José Luis Guzmán Sánchez,
Universidad de Almeria, España
José Luis Sánchez Romero,
Universidad de Alicante, España
José Luis Villa Ramírez, Universidad Tecnológica de Bolivar y LACCEI, Colombia
José Ramón Fernández Bernárdez, Universidad de Vigo, España
Juan Carlos Soto Merino,
Universidad del Pais Vasco, España Juan I. Asensio Pérez, Universidad de
Valladolid, España
Juan Meléndez, Universidad Pública de Navarra, España
Juan Suardíaz Muro,
Universidad Politécnica de Cartagena, España Juan Vicente Capella Hernández,
Universidad Politécnica de Valencia, España
Laura Eugenia Romero Robles, Tecnológico de Monterrey y LACCEI, México
Lluís Vicent Safont,
Universidad Ramón Llul, España Luis Benigno Corrales Barrios,
Universidad de Camagüey, Cuba
Luis de la Fuente Valentín, Universidad Carlos III, España
Luis Fernando Mantilla Peñalba,
Universidad de Cantabria, España Luis Gomes,
Universidade Nova de Lisboa, Portugal
Luis Gómez Déniz, Universidad de Las Palmas de Gran Canaria,
España
Luis Zorzano Martínez,
Universidad de La Rioja, España Luisa Aleyda Garcia González,
Universidade de São Paulo, Brasil
Manuel Benito Gómez, Universidad del Pais Vasco, España
Manuel Domínguez Dorado,
Universidad de Extremadura, España Manuel Gromaz Campos,
Centro de Supercomputación de Galicia,
España Manuel Pérez Cota,
Universidad de Vigo, España
Margarita Cabrera Bean, Universidad Politécnica de Catalunya, España
Maria Antonia Martínez Carreras,
Universidad de Murcia, España Mario Muñoz Organero,
Universidad de Carlos III, España
Marta Costa Rosatelli, Universidad Católica de Santos, Brasil
Mercedes Caridad Sebastián,
Universidad Carlos III, España Miguel Angel Gómez Laso,
Universidad Pública de Navarra, España
Miguel Ángel Redondo Duque, Universidad de Castilla-La Mancha, España
Miguel Angel Salido,
Universidad Politécnica de Valencia, España Miguel Romá Romero,
Universidad de Alicante, España
Nourdine Aliane,
Universidad Europea de Madrid, España
Oriol Gomis Bellmunt,
Universidad Politécnica de Catalunya, España Rafael Pastor Vargas, UNED, España
Raúl Antonio Aguilar Vera, Universidad Autónoma de Yucatán, México
Robert Piqué López,
Universidad Politécnica de Catalunya, España Rocael Hernández,
Universidad Galileo, Guatemala
Sergio Martín Gutiérrez, UNED, España
Silvia Sanz Santamaría,
Universidad de Málaga, España Timothy Read,
UNED, España
Víctor González Barbone, Universidad de la República, Uruguay
Victor Hugo Medina García, Universidad
Distrital y LACCEI, Colombia Víctor Manuel Moreno Sáiz,
Universidad de Cantabria, España
Victoria Abreu Sernández, Universidad de Vigo, España
Xavier Antonio Ochoa Chehab, Escuela
Superior Politécnica del Litoral y LACCEI, Ecuador
Yaimí Trujillo Casañola, Universidad de las
Ciencias Informáticas y LACCEI, Cuba Yod Samuel Martín García,
Universidad Politécnica de Madrid, España
Equipo Técnico: Diego Estévez González,
Universidad de Vigo, España
VAEP-RITA es una publicación lanzada por el Capítulo Español de la Sociedad de Educación del IEEE (CESEI). Nuestro
agradecimiento a los apoyos recibidos desde el año 2006 por el Ministerio Español de Educación y Ciencia a través de la acción
complementaria TSI2005-24068-E y del Ministerio Español de Ciencia e Innovación a través de las TSI2007-30679-E y
TIN2009-07333-E/TSI. Gracias también a la Universidade de Vigo y a FEUGA por el apoyo en esta nueva etapa.
VA
EP
-RIT
A V
ol. 3
, Nu
m. 4
, 12/2
015
VAEP-RITA es una publicación de la Sociedad de Educación del IEEE, gestionada por su
Capítulo Español y apoyada por la Universidade de Vigo, España.
VAEP-RITA é uma publicação da Sociedade de Educação do IEEE, gerida pelo Capitulo
Espanhol e apoiada pela Universidade de Vigo, España.
VAEP-RITA is a publication of the IEEE Education Society, managed by its Spanish
Chapter, and supported by the Universidade de Vigo, Spain.
Recommended