160
octubre 2015 REVISTA.FIDELITAS.AC.CR ISSN 2215-2415 ANIVERSARIO revista Entrevista Álvaro Cedeño: Desafíos y Horizontes de SINAES PROFESOR INVITADO Isaac Cohen: Centroamérica y la Revolución Energética En esta Edición: Ciencia Egresando con Impacto Acción Social Estudiantil Estado de Arte Rincón de Historia Eventos

Revista Fidélitas #5

Embed Size (px)

DESCRIPTION

 

Citation preview

octubre 2015

REVISTA.FIDELITAS.AC.CRISSN 2215-2415

ANIVERSARIO

r e v i s t a

EntrevistaÁlvaro Cedeño: Desafíos y Horizontes de SINAES

PROFESOR INVITADOIsaac Cohen: Centroamérica y la Revolución Energética

En esta Edición:CienciaEgresando con ImpactoAcción Social EstudiantilEstado de ArteRincón de HistoriaEventos

Contenidos

Contents

La Revista Fidélitas es una publicación electrónica cientí�ca perteneciente a la Universidad Fidélitas y cuyo �n es la divulgación del pensamieto cientí�co generado en el entorno académico nacional e internacional. La Revista promueve la divulgación de investigaciones y comentarios cientí�cos sobre los más diversos tópicos del saber contemporáneo. Todos los trabajos publicados en la Revista pasan a ser propiedad intelectual de la Universidad y se prohíbe su reproducción total o parcial sin el consentimiento por escrito de las autoridades universitarias.

The Revista Fidélitas is an electronic and scienti�c publication of the Fidélitas University. Its purpose is to spread scienti�c knowledge generate by domestic and international authors. The Revista Fidélitas promotes publication of scienti�c and opinion research on diverse topics of the contemporary state-of-the-art. All papers published by The Revista are intellectual property of the University Fidélitas and is prohibited any reproduction without o�cial permission.

Diseño Grá�coLic. Christian Brenes Ramírez

r e v i s t a

2

octubre 2015

r e v i s t a

DirectorCarlos M. Rodríguez, Ph.D.

Consejo EditorialLic. Uriel Barrantes Cartín, MBA Lic. José Eduardo Araya Molina. MBA.Ing. Max Buck Rieger, MSc. Lic. Carlos M. Rodríguez, PhD.Ing. Jorge Acuña A., PhD.

Correctora LiterariaLic. Gabriela Carrión

Editorial 4

Álvaro Cedeño: Desafíos y horizontes de SINAES 5

Mejoramiento de la calidad académica aplicando Seis Sigma 10

Recuperación de Información Textual Mediante Ontologías: Estado de la Cuestión 44

Competencias de investigación en programas de Educación 61

Tecnología-Humanidad: el futuro profesor universitario 78

La evaluación del desempeño en las empresas y la resiliencia: Una revisión de literatura 86

Comercio Electrónico Sostenible: Modelo de Medición 100

Isaac Cohen: Centroamérica y la Revolución Energética 118

El resultado de un proceso de formación de competencias 140 profesionales en un ejercicio de impacto social

Una perspectiva sencilla e ilustrativa de su impacto en la sociedad 144

Ingeniería Industrial 148

El Primer Pupitre 153

35 Aniversario 156

índicer e v i s t a

3

Entrevista

Ciencia:

Profesor invitado

Estado del Arte:

Rincón de Historia:

Egresando con Impacto:

Eventos:

Acción Social Estudiantil:

Jorge Acuña Acuña, PhD.

Ing. Luis Naranjo Zeledón, MSc.

Carlos M. Rodríguez, PhD.

Juan A. Aguirre, Ph.D.

Ing. Jesús Morgan Asch, MSc.

Juan Diego Sánchez Sánchez, PhD.

La importancia del tiempo transcurrido es relativa. El monumento de Stonehenge y las Pirámides de Guiza poco cambiaron, en lo esencial, desde nuestra última edición. La Universidad Fidélitas cambió de manera signi�cativa.

El desarrollo de la visión educacional toma tiempo, no se gesta en meses. Las evidencias de este desarrollo pueden tomar años. Por primera vez, nuestra revista ve la luz en una institución con programas acreditados. Tres carreras vencieron el reto, esto representa siete salidas de grado con sello del Sistema Nacional de Acreditación de la Educación Superior, SINAES. Esta realidad encarna la sistematización de esfuerzos para elevar la calidad del claustro docente, el perfeccionamiento de planes y programas de estudio, así como el desarrollo de los medios y la infraestructura educativa. Las carreras laureadas no son menores. Ingeniería en Sistemas, Administración de Negocios y Contaduría representan un volumen signi�cativo de estudiantes dentro de sus respectivas facultades. Es difícil encontrar una casa de altos estudios que haya colocado un porcentaje tan importante de sus estudiantes bajo programas acreditados en tan poco tiempo.

Esta inclinación hacia delante de la Academia impulsa a todo el organismo, en una inercia de calidad deseada, inevitable y comprometedora. El equilibrio del todo ahora depende de un reacomodo de cada parte, que debe procurar ser mejor para sí misma y para toda la Universidad. La revista Fidélitas se renueva con un enfoque que respeta sus orígenes cientí�cos y profundiza en su relación académica. El número de colaboradores se incrementa; expande el radio del que se nutre, entendiendo que transforma no solo al que la lee, sino también y, especialmente, al que participa en su construcción. La revista pretende ser hoy más de todos en su proceso y mejor en el producto resultante. Es un reto ambicioso, pero no se puede menos.

Las necesidades que debe satisfacer la Educación Superior cambian con la evolución tecnológica, económica y cultural de la sociedad; esto es motor para la transformación. La principal fuerza evolutiva, no obstante, viene de adentro, cuando el organismo está vivo. Esa es una ventaja que tienen los sistemas sociales sobre las rocas.

Editorial

4

octubre 2015

r e v i s t a

Carlos M. Rodríguez, Ph.D.Editor

5

1. Hace poco más de un mes se cumplieron 16 años de la primera sesión del Consejo Nacional de Acreditación. ¿Cuáles son, a la fecha, y desde su punto de vista, los principales logros de SINAES?SINAES fue en un principio, una aspiración expresada en un convenio; un ideal que inició con el esfuerzo y

8256.Hoy es un sistema con un conjunto de actores, entre los cuales, los más activos son las carreras acreditadas. Darle vida a la ley fue uno de los logros. El otro es haber logrado posicionar el tema de la calidad de la educación superior, como lo está hoy en el país. Un tercer logro es haber acumulado un know how conjunto SINAES-carreras-colaboradores de fuera de las carreras.

2. Ciertamente detrás de cada logro hay mucho esfuerzo de un número importante de personas. A

un gran impacto. ¿Ocurrió esto con SINAES? ¿Existió algún hecho que pueda considerar clave para que hoy un número importante de universidades luchen por lograr o mantener la acreditación de una o más de sus carreras?Existió una relación simultánea entre SINAES y el momento histórico en el cual surgió. Esa relación se ha

realidad en la que opera, y que la realidad ha venido respondiendo a las acciones de SINAES. SINAES ha tenido la buena fortuna de contar con excelentes colaboradores, todos ellos comprometidos con la promoción de la calidad de la educación superior, en todas las instancias en las cuales los ha requerido, miembros del Consejo, técnicos y administradores a tiempo completo, expertos contratados para trabajos

internacionales reconocidas y de la pertenencia a redes internacionales que lo han valorado.

Desde la Universidad Fidélitas, creamos este espacio de entrevistas para abordar el tema de la calidad de la educación superior costarricense. Conversamos con el Sr. Álvaro Cedeño para conocer su visión sobre los nuevos horizontes y desafíos del SINAES, invitándolo, además, a abordar aquellos aspectos que considera de relevancia para la comunidad nacional universitaria.

Álvaro Cedeño:Desafíos y Horizontes de SINAES

Entrevista

6

octubre 2015

r e v i s t a

3. La interiorización de la importancia de las acreditaciones en muchas esferas del gobierno, y la sociedad en general, ha promovido que hoy SINAES cuente con recursos más altos que en tiempos pasados. Se puede decir que la institución cuenta con un presupuesto importante, y el reto hoy es colocarlo en manos de las instituciones interesadas. ¿Qué mecanismos podrían facilitar la

recomendaciones podría ofrecerle al efecto a los líderes de la gestión académica de nuestras universidades?

La fuente principal del impacto social que ha tenido el SINAES proviene del convencimiento de las universidades que han optado libremente por la calidad en su quehacer, asumiendo plenamente el rol que la sociedad les demanda en la formación de profesionales idóneos. Cuando una reforma educativa como ésta se genera desde la voluntad de los mismos actores, adquiere una autoridad y validación social impresionantes, lo que promovió la reacción favorable y el apoyo del Estado.Los recursos de los cuales dispone SINAES son para ampliar sus servicios, para aumentar su capacidad de

de mejoramiento permanente.

4. Conocida es la relevancia que tienen las alianzas con instituciones hermanas, en el resto del mundo. SINAES tiene relaciones formales con la Red Iberoamericana para la Acreditación de la Calidad de la Educación Superior (RIACES), sin embargo no está incorporada al Consejo Centroamericano de Acreditación de la Educación Superior (CCA).¿Cuál es el norte en este sentido? ¿Qué características debe tener una organización de acreditación para aliarse con SINAES?CCA se creó para acreditar agencias. SINAES fue la primera agencia acreditada por el CCA pero decidió no renovar esa acreditacion y sí seguir participando en el proceso de acreditación de la red mundial INQAAHE. En los países donde no existen agencias de acreditación, el CCA ha constituido redes de apoyo. En Costa

sobrando. Por eso no formamos parte de ella. En cuanto a relaciones con otros entes acreditadores, la Ley

norma académica nacional de calidad. Con esa normativa como criterio, se abre la posibilidad de reconocer otras iniciativas que se quieran desarrollar en el país.SINAES tiene la potestad legal de reconocer agencias de acreditación. Esta potestad hasta el momento no se ha utilizado porque no se ha creído necesario hacerlo. El encargo legal que tiene SINAES lo obliga a ser muy esmerado cuando se creyera necesario reconocer a una agencia de acreditación.

5. Recientemente se ha incorporado a la corriente legislativa un proyecto de Ley de Reforma del Consejo Nacional de Enseñanza Superior Universitaria Privada (CONESUP). En el Transitorio III se indica que dentro de los dos años siguientes a la publicación de la Ley referida, el SINAES emitirá el Manual de Acreditación de Instituciones de Educación Superior Universitaria, y reconocerá las agencias de acreditación que pueden dar este servicio. ¿Cuánto tiempo se deberá esperar para la acreditación institucional? ¿Qué recomendaciones se le pueden ofrecer a aquellas instituciones que quieren acreditarse?El proceso de acreditación se inicia con un acto de voluntad institucional de recorrer el camino del mejoramiento permanente. Las instituciones que un día quisieran optar por la acreditación, deben

7

tomar esa decisión de manera consciente, ilustrada, reposada, estratégica. Luego deberán hacer un ejercicio de auto-evaluación, lo cual es un ejercicio organizacional objetivo, complejo. La iniciativa de reforma legislativa cuenta con el aval del SINAES de tal manera que se espera darle cumplimiento en lo que corresponda dentro del plazo previsto en sus transitorios. En su momento SINAES producirá una guía de auto-evaluación, pero nada impide que las universidades vayan haciendo la suya propia, en torno a tres familias de preguntas: ¿Qué es una buena universidad? ¿Es esta una buena universidad? ¿Tenemos los recursos humanos, económicos, políticos para iniciar y sostener un proceso de mejoramiento permanente?

6. Sin duda SINAES ha sido clave para el desarrollo de la cultura de calidad en la Educación Superior en todo el país. Esto ha atraído a otras organizaciones a ofrecer sellos de acreditación, algunos internacionales, a Costa Rica. ¿Qué perspectiva tiene usted de este hecho? ¿Cómo se prepara la institución para operar en un entorno con varios entes acreditadores?

carácter de norma nacional. La comunidad costarricense sabrá distinguir entre estas características y las de otras entidades que realicen funciones de acreditación pero sin ellas. Creemos que la comunidad está

7. Usted ha sido un defensor del rol activo de los estudiantes en los procesos de desarrollo de calidad. Alguien podría decir que los estudiantes poco saben de la calidad de la educación superior. ¿Por qué considera que se debe incentivar aún más la participación estudiantil?

El estudiante es un receptor activo y sensible a lo que las carreras produzcan. Él es quien aporta al proceso la parte más valiosa: su tiempo irrepetible que dedica a recibir formación en esta universidad y no en aquella. Lo que logre en sus años de formación, le acompañará toda la vida. El estudiante no necesita ser un experto en calidad, para exigirle a su carrera que le muestre el juicio de un acreditador fehaciente, que le garantice que sí tiene esa calidad.

8. En Costa Rica las universidades en una importante proporción se enfocan principalmente en la docencia. Entendiendo esta realidad, ¿cómo se espera que se aborde el componente de investigación? ¿Cuál debería ser la meta realista de una universidad con recursos limitados para investigar? Abordemos el tema desde el concepto de mejoramiento permanente. Conozco la situación de la investigación que prevalece en las carreras en el país. Esta es la respuesta desde esa situación. Orientémonos hacia los objetivos. El objetivo principal de la investigación en una universidad de

¿Habrá otras formas de lograrlo que no sean hacer investigación? Se puede empezar por grados elementales de investigación. Por ejemplo, leer artículos sobre investigación experimental, comentarlos en clase, imaginar cómo rediseñar los experimentos, aprender los elementos del diseño de experimentos. Posiblemente –en algunas disciplinas más que en otras- habrá formas de hacer observaciones ordenadamente, de formular hipótesis, de

cada disciplina deberá ir recorriendo su propio camino.

8

octubre 2015

r e v i s t a

Los estudiantes de medicina deben estar expuestos a la investigación biomédica elemental. Los estudiantes de administración deben aprender a explorar el entorno en busca de oportunidades. Los estudiantes de ingeniería deberían estar actualizados en cuanto a nuevos materiales, diseños y siniestros. Todo esto no se logra con cursos de metodología de la investigación. Ni se puede lograr con docentes que no hayan tenido experiencia de primera mano en investigación. Esta es una de las razones por las cuales la carrera en sí, debe investigar: para que docentes con experiencia en investigación, preferiblemente con doctorados académicos, investiguen con docentes que carezcan de esa experiencia, en un ejercicio de formación y desarrollo del cuerpo docente.Según carreras y universidades vayan recorriendo etapas de mejoramiento en esta área, esta respuesta de hoy, deberá ir variando y los desafíos a acometer, serán superiores. Pero postergar estos primeros pasos deteriora el hacer de la educación superior.

de quien lo mire, y el momento en que lo hace ¿Puede adelantar nuevos temas que puedan ser importantes en el futuro de la educación superior? ¿Cuáles serán según su criterio los próximos desafíos?

La forma como se gestiona el conocimiento ha cambiado radicalmente, debido a la globalización y a las TICs. Las universidades no pueden ser indiferentes a ese cambio. Van a surgir innovaciones disruptivas –uso el término de Clayton Christensen- que podrían dejar a las universidades sin sus clientelas habituales. Imaginemos por ejemplo que empresas de alta tecnología, en vez de contratar ingenieros electrónicos, decidieran contratar personas que pudieran mostrar que han recibido un determinado número de cursos servidos por una entidad de capacitación que no es una universidad y que no son conducentes a grados. Imaginemos una excelente empresa no universitaria que formara ejecutivos en tiempos record, los cuales mostraran ventajas competitivas ausentes en los graduados universitarios. O que así como ahora existen entidades que capacitan a los bachilleres para ganar el examen de admisión, hubiera empresas que en seis meses capacitaran a los bachilleres universitarios para adquirir lo que los empleadores valoran y que las universidades no les están dando.El producto de las universidades es el resultado de una función de producción. Los distintos factores de producción se combinan de una determinada manera para producir los graduados. Es necesario que ante la globalización, ante las TICs, ante la nueva forma de gestionar conocimiento, se haga una revisión crítica de las funciones de producción que se han venido utilizando ¿Estamos satisfechos

9

con el profesor que da una clase magistral a estudiantes estáticos para luego examinar si memorizaron lo que él dijo en clase? ¿O querríamos estudiantes responsables que estudiaran

o un coach, o que haría una función más parecida a la que hace un guía de alpinistas?

10 ¿Qué pregunta importante debí hacerle, y no le hice? ¿Puede abordar ese tema?

Sí. Me parece que una pregunta que surge de lo anterior es la de ¿Qué deberían hacer las universidades? Y mi respuesta parte, desde una perspectiva nacional, del postulado de que es más importante la universidad, como espíritu, como élan, como vocación, que las universidades en particular. Las universidades en particular deberían establecer redes con otras universidades

Deberían producir una agenda de innovación y sumar esfuerzos para su ejecución. Eso

la universidad particular como una empresa que quiere construir barreras monopolísticas inexpugnables puede contaminar la responsabilidad con la cual debe contribuir primero al desarrollo, a la madurez, a la sostenibilidad, a la felicidad del país.

10

octubre 2015

r e v i s t a

Jorge Acuña Acuña, PhD.Universidad Fidélitas, Costa Rica Decano de Ingenieríasjacuna@u�delitas.ac.cr

Improving academic qualitythrough Six Sigma

Mejoramiento de la calidad académicaaplicando Seis Sigma

Ciencia

Recibido: Abril 2015 Aceptado: Junio 2015 Publicado: Octubre 2015

11

Resumen

La aplicación de la �losofía seis sigma a los procesos de gestión de calidad en la educación superior es un excelente medio para resolver problemas de calidad académica asociados a los procesos docentes y administrativos que dan soporte a la academia. El tener la posibilidad de solucionar problemas de manera ordenada y sistemática, buscando soluciones efectivas y comprobadas, es una gran ventaja para los procesos educativos, los cuales son esencialmente cualitativos.

La aplicación de la metodología DMAMC a la búsqueda de soluciones a problemas que se presentan en los procesos de gestión universitaria -y que provienen de los tres frentes esenciales de la universidad: docencia, extensión e investigación- permite el involucramiento de todos los actores y el aporte de sus ideas bajo una metodología de trabajo en equipo.

La búsqueda de soluciones a los problemas de calidad en la gestión universitaria basada en la metodología de seis sigma se realiza con base en cinco etapas: de�nición clara de los problemas que no permiten un adecuado nivel de calidad académica, medición de las variables esenciales que están asociadas a las causas de esos problemas, análisis de causas y efectos que provocan cada uno de los problemas, desarrollo de acciones de mejora basado en las soluciones dadas y, �nalmente, desarrollo de acciones de control para que los problemas no vuelvan a ocurrir.

Este artículo presenta la teoría de seis sigma aplicada al estudio de problemas académicos que limitan la formación de profesionales, con un claro requerimiento de excelencia.

Palabras clave: De�nir, medir, evaluar, controlar, analizar, mejorar, indicadores de gestión de calidad, calidad académica, atributos del usuario, problemas de calidad, grá�cos estadísticos, mapeo de procesos.

Abstract

The implementation of six sigma philosophy to the processes of quality management in higher education is an excellent means to solve problems of academic quality associated with the faculty and administrative processes that give support to the academy. Having the possibility to solve problems in an orderly manner and systematically looking for e�ective and proven solutions is a great advantage for educational processes which are essentially qualitative.

The application of DMAMC methodology to search for solutions to problems that are encountered in the processes of university management and that come from the three essential fronts of the university: teaching, research, and extension, allows the involvement of all the actors and the contribution of their ideas under a methodology of working as a team.

The search of solutions to the qualit problems in the university, based on six sigma methodology, is executed in �ve stages: clear de�nition of the problems that do not allow a suitable level of academic quality, measurement of the essential variables that are associated with the reasons of these problems, analysis of reasons and e�ects that each of the problems caused, development of actions of improvement based on the given solutions and �nally, development of control actions for the problems not to return to happen.

This article presents the theory of six sigma applied to the study of academic problems that limit the profesional education with a clear requirement of excellence.

Key words: De�ne, measure, evaluate, control, analyze, improve, quality mnagement indicators, user atribbutes, quality problem, statistical charts, process mapping.

12

octubre 2015

r e v i s t a

Introducción

La �losofía seis sigma, como base conceptual para la búsqueda de soluciones a los problemas de calidad en la educación superior, permite desarrollar indicadores de desempeño que describen la capacidad que tienen el proceso educativo y sus recursos para alcanzar las expectativas de los estudiantes y de los empleadores.

Se debe tener presente que no basta con que los académicos queden satisfechos con el trabajo de enseñanza que realizan, sino que esa satisfacción debe ser comprobada en el desempeño de los futuros profesionales una vez que en su campo de trabajo sean puestos a prueba en sus habilidades, competencias, conocimientos y en su capacidad para tomar decisiones. La universidad, por medio de sus autoridades administrativas y académicas, puede estar muy satisfecha por su trabajo, pero esto no basta si no se desarrollan instrumentos que evalúen la gestión de la universidad y su impacto en la sociedad, quienes son, al �n y al cabo, los que cali�can esa gestión.

Seis sigma, más que un número asociado a un concepto estadístico, es un procedimiento sistemático que �ja una ruta hacia la mejora continua mediante la comparación de logros de desempeño, disciplina, actitud y metas (Breyfogle, 2008). La Figura 1 muestra que esta �losofía se visualiza como un engranaje entre tres grandes elementos: indicadores claves de gestión basados en aquellos elementos medibles del sistema, los cuales se encargan de controlar los procesos; mejora continua que busca resolver los problemas que han sido detectados y analizados; y administración de procesos que garantiza que las soluciones van a funcionar adecuadamente mediante el establecimiento de controles y sistemas de monitoreo y retroalimentación.

La metodología usada por seis sigma en procesos de manufactura y de servicio se puede aplicar en los procesos educativos, pues -al igual que en aquellos procesos- se tienen insumos, procesos y productos que deben ser diseñados, ejecutados, auditados y controlados (Zhao, 2009). Seis sigma realiza la tarea de identi�cación de problemas, análisis, mejora de calidad y control de acciones a través de un ciclo de cinco etapas conocido como DMAMC, que tiene su signi�cado en las acciones de De�nir, Medir, Analizar, Mejorar y Controlar, etapas que serán ampliamente desarrolladas en este documento (ver Figura 2).

Indicadores claves de gestión

controlan

Mejora continua ayuda a

resolver el problema

Administración de procesos dice que no funciona adecuadamente

Figura 1. Engranaje de seis sigma (Pande et al., 2011).

5(C)

CONTROLAR

1(D)

DEFINIR

2(M)

MEDIR

3(A)

ANALIZAR

4(M)

MEJORAR

Figura 2. Ciclo DMAMC (Pande et al., 2011).

13

Etapa 1. De�nir (D)

En esta etapa se de�ne el propósito del proyecto de mejoramiento por medio de la identi�cación de sus fases clave y su alcance. El objetivo es dejar claro el porqué y el para qué es importante investigar una determinada situación adversa que di�culta el desarrollo del sistema de la manera deseada (Vanzant-Stern, 2011). Para nuestro caso, se detectan las debilidades del sistema educativo, que pueden provenir de fuentes internas, como planes de estudio, infraestructura, recursos didácticos y cuerpo docente, y/o externas, como las necesidades del sector empleador o de la sociedad. Es importante que en esta etapa se determinen los requerimientos de profesionales de los diversos sectores y se establezcan las metas de logro en los aspectos clave que se muestren como debilidades. Esta etapa está compuesta de las siguientes subetapas: identi�cación de la oportunidad o brecha de mejora, identi�cación de los atributos críticos de calidad, delimitación del alcance del proyecto, identi�cación del indicador o indicadores que necesitan mejora con la medición de sus valores actuales, planteamiento preliminar del problema y desarrollo del plan del proyecto.

La identi�cación de la oportunidad o brecha de mejora es el centro del proyecto y consiste en detectar qué aspectos del proceso de enseñanza-aprendizaje en sus actividades fundamentales (docencia, investigación, extensión) o de soporte no funcionan de la manera deseada por el estudiante, requerida por el sistema educativo o por la sociedad (Golden et al., 2009). Es importante que la oportunidad detectada esté relacionada con problemas de calidad claves del sistema educativo, esté ligada a un proceso educativo claramente de�nido, que se pueda identi�car a los usuarios directos e indirectos que utilizan o reciben el resultado del proceso educativo (en docencia, investigación o extensión) y que sea apta para demostrar el impacto �nanciero positivo debido a las mejoras a realizar. Por ejemplo, bajo desempeño docente, irrespeto

del docente a los estudiantes, desactualización de la malla curricular, pésima metodología de enseñanza, quejas por baja calidad de servicio en el registro, ine�ciente implementación de resultado de proyectos de investigación y poco aporte a la sociedad de los proyectos de proyección universitaria.

Los atributos críticos de calidad, comúnmente llamados CTQ´s, son aquellas características de calidad vistas por los estudiantes, que son deseables y algunas imprescindibles en su formación profesional. Los CTQ´s son los atributos críticos de la calidad académica de�nidos desde la perspectiva de quien recibe el servicio, es decir, son aquellos atributos que el estudiante y/o el empleador desean en la formación profesional de la carrera. Estos atributos deben caracterizar la formación académica del estudiante y deben ser transmitidos durante su formación. Por ejemplo, para que el futuro profesional sea un efectivo tomador de decisiones, es necesario que un grupo de atributos, asociados a los contenidos de los cursos de la carrera, le den los conocimientos y habilidades para ello. Para de�nirlos se debe identi�car lo que el estudiante o empleador determina como algo que le molesta (voz del usuario), luego se determinan los aspectos que motivan a resolver el problema (drivers) y, por último, se de�nen los CTQ´s.

La Figura 3 presenta un ejemplo donde la voz del cliente (VOC) determina que el docente debe mejorar su desempeño en el aula. Como impulsadores de esta mejora (drivers), se señalan las metodologías de enseñanza, la evaluación, los objetivos de enseñanza y el aprendizaje del estudiante. Finalmente, como CTQs, se señalan los tipos y efectividad de las metodologías usadas y su impacto en la enseñanza, la cali�cación obtenida en la evaluación docente, los niveles de aprobación en los cursos que imparte, los resultados de auditorías docentes y de calidad, así como los resultados obtenidos por los estudiantes en exámenes comprensivos.

14

octubre 2015

r e v i s t a

La delimitación del proyecto tiene que ver con la determinación clara del marco conceptual del proyecto, con el �n de saber dónde inicia y dónde termina, es decir, qué aspectos contempla y qué alcance tiene el proyecto. Esto es sumamente importante para que el proyecto no se alargue de manera inde�nida, se describan sus etapas y se puedan obtener resultados prontamente. Como parte de esta delimitación, se deben identi�car los procesos clave del negocio y los procesos que los soportan. Un proceso clave de negocio (Core Process) es un

proceso que especí�camente logra la misión de la universidad, sirve al estudiante y/o al empleador, se de�ne y construye para satisfacer sus

necesidades. Un proceso de soporte es aquel que es importante para llegar a los objetivos de los procesos clave, pero que no sirven directamente a los estudiantes, sino a las autoridades administrativas y académicas de la universidad, así como a los profesores para que puedan desempeñar de manera efectiva su labor.

Son procesos que proveen información, métodos, materiales y recursos para el buen funcionamiento del sistema. Algunos ejemplos de estos procesos en la enseñanza universitaria son: soporte informático, recursos humanos, proveeduría, mantenimiento de infraestructura y contabilidad. Para esquematizar las actividades de estos

procesos y mapear la información que los caracteriza, se utilizan diagramas de nivel y diagramas SIPOC (Supplier- Input- Process- Output- Customer), que identi�can los actores y los recursos a utilizar en la solución del problema (Acuña, 2005). La Figura 4 presenta un ejemplo de diagrama general de nivel para el desarrollo de una carrera nueva. En el primer nivel, se despliegan los subprocesos del proceso de desarrollo del programa, en el segundo nivel se despliegan los subprocesos asociados a ese desarrollo, y en el tercer nivel se desglosan los microprocesos del subproceso desarrollo de programas de curso.

El Cuadro 1 presenta un ejemplo parcial de diagrama SIPOC para un proyecto de mejora del desempeño docente. En él se identi�can proveedores de docentes (suppliers), tales como las empresas de reclutamiento externo, los colegios profesionales, los profesionales mismos y el mercado laboral en sí mismo. A su vez, se identi�can entradas (inputs), tales como técnicas de selección, planes de capacitación, de�nición de presupuesto, programas de auditoría, y entrevistas. Se observa, además, el proceso en sus etapas de de�nición del per�l del docente, reclutamiento y selección, contratación, plan de desarrollo, evaluación y auditoría.

Figura 3. Ejemplos de CTQ´s en procesos educativos

15

Además, se muestran salidas (outputs), tales como la satisfacción del estudiante ante el desempeño del docente en el aula y se identi�can los clientes o usuarios (customers), como estudiantes, profesores y directores. El despliegue de la información en estos diagramas permite ver las interrelaciones y el tipo de información que se requiere para el análisis del problema de calidad académica. Por otro lado, permite ver el problema de calidad de manera sistemática con todos los actores que intervienen en el proceso académico. La identi�cación del

indicador o indicadores que necesitan mejora y la medición de sus valores actuales son necesarias para determinar al inicio del proyecto las metas a lograr y, al �nal, si se alcanzan esas metas de mejoramiento. Los indicadores que se plantean son de tres tipos: indicadores clave de gestión, indicadores de salida e indicadores de proceso.Los indicadores claves de gestión miden el

desempeño de la universidad en el tiempo e incluyen indicadores �nancieros e indicadores de clientes en atributos de CTQs.

Figura 4. Diagrama parcial de nivel de procesos para el diseño de una nueva carrera

Cuadro 1. Ejemplo de diagrama SIPOC

16

octubre 2015

r e v i s t a

Los indicadores de salida miden los logros en las diferentes etapas del proceso de enseñanza- aprendizaje y se usan para determinar la calidad del servicio educativo proporcionado a los estudiantes. Los indicadores de proceso son medidas que se toman en puntos críticos del proceso académico a �n de controlar el comportamiento de la ejecución antes de que sea tarde para tomar acciones correctivas (George y Rowlands, 2012).

Entre los CTQ´s y los indicadores hay una relación directa a través de requisitos y especi�caciones, tal y como se puede ver en el ejemplo del Cuadro 2.

Cuadro 2. Ejemplo de relación CTQ-Indicador

En el planteamiento preliminar del problema, se de�ne el problema de manera momentánea, determinando sus variables y componentes más importantes. Se determina un breve, claro y descriptivo objetivo del problema, el cual debe estar relacionado de manera directa con el indicador de salida. Se deben responder preguntas del tipo quién, cuál, qué, cómo, cuándo, cuántos y dónde. Se debe decir qué está incorrecto, si es medible, si es especí�co, si es concreto, cuándo ocurre y cómo afecta a los actores del proceso de enseñanza y aprendizaje. No debe incluir soluciones o creencias sobre las causas (Al-Atiqi, 2009). El Cuadro 3 muestra ejemplos de buenas y malas de�niciones de problema.Una vez realizado el planteamiento del problema, se procede a desarrollar el plan del proyecto, el cual

contempla una declaración breve de por qué es necesario el proyecto. Se indica qué tan urgente es plantearlo ahora y qué le pasaría a la universidad o a la carrera en análisis si no se realiza este proyecto de inmediato. Se de�nen las metas, las cuales deben ser especí�cas, medibles y alcanzables.

Cuadro 3. Ejemplos de buenas y malas de�niciones de problema

17

Por regla general, se indica que para las metas de un proyecto seis sigma el requerimiento es de un 50% de reducción en alguna métrica inicial (George, 2012). También, en este plan se establece el alcance operativo del proyecto, identi�cando los límites operacionales u organizacionales dentro de los que se espera autorizar al equipo a operar. Es importante identi�car las áreas que no serán consideradas y de�nir el tiempo que el equipo requiere para atender el problema o proyecto, así como las responsabilidades y roles de cada miembro del equipo (Vanzant-Stern, 2011).

Es importante para el plan la identi�cación de los “stakeholders”, que son las personas que se verán involucradas en el proyecto o que pueden in�uenciar su desarrollo, pero que no están directamente involucrados en hacer el trabajo del proyecto (Bandyopadhah y Lichman, 2007). Por ejemplo, vicerrectores y decanos cuyos presupuestos, resultados, agendas o recursos se ven afectados por el proyecto, directores de escuela que trabajan con el proceso que se estudia, unidades de apoyo interno cuyo trabajo alimenta el proceso o de quienes su trabajo depende el proceso. Para identi�car a estas personas, se debe llenar un formulario como el que se muestra en el Cuadro 4.

Cuadro 4. Análisis de stakeholders (Go�nett, 2004).

Debe llevarse a cabo la identi�cación de los roles de comunicación con las diversas entidades que se van a ver afectadas directa o indirectamente con el estudio. El Cuadro 5 presenta un esquema para este análisis, en él se anotan los nombres de los protagonistas y su rol en cuanto a quién comunica, qué es los que se comunica, cuándo y cómo hacer la comunicación. Como todo proyecto, en el caso de un proyecto seis sigma es importante que todas las partes involucradas de manera directa o indirecta estén informadas de lo que acontece y deben saber si tienen un rol especial que cumplir y cómo deben cumplirlo (Tennant, 2007).

18

octubre 2015

r e v i s t a

Antes de pasar a la etapa de Medir es importante analizar el cumplimiento total de todos los aspectos que se enumeran en la lista de comprobación del Cuadro 6. En caso de que algo haga falta en esta etapa de De�nir, se debe proceder a completarlo para poder iniciar la etapa de Medir.

Cuadro 5. Roles en el proceso de comunicación del proyecto (Pande et al., 2011).

Cuadro 6. Lista de comprobación para DEFINIR (adaptado de Pande et al., 2011).

19

Etapa 1. De�nir (D)

En la etapa de Medir se evalúa el desempeño actual del proceso académico a mejorar y se limita el área del problema usando mediciones y formas de desplegar la información. Se validan las debilidades de los procesos académicos (enseñanza y aprendizaje, investigación, extensión) identi�cando las causas del problema por medio de una recolección de datos que ayude a la etapa de análisis. Esta etapa tiene las siguientes subetapas: creación de mapas de proceso, recolección de datos de errores y procesos, análisis de datos con grá�cos y medidas estadísticas, y planteamiento �nal del problema.

El mapeo de los procesos es un medio grá�co muy útil para entender las relaciones entre las diversas actividades que componen un proceso. De esta forma, se diagrama la información para su posterior análisis y para la búsqueda de mejoras; además, se puede tener claro dónde se debe medir. En este apartado se deben usar diagramas para contestar preguntas tales como: ¿cómo pensamos que es el proceso?, ¿cómo es en realidad y cómo podría ser mejor? Se pueden construir diagramas de �ujo que determinan el procedimiento de ejecución de actividades y �ujogramas que, además de mostrar esos procedimientos y secuencias, muestran a los responsables de ejecutar cada actividad (ver Figura 5) (Acuña, 2005).

20

octubre 2015

r e v i s t a

Figura 5. Ejemplo esquemático de diagrama de �ujo y �ujograma (Acuña, 2005)

En este momento, es de relevante importancia analizar todas las actividades en términos de si agregan o no agregan valor al producto o meta �nal. Las actividades que agregan valor son aquellas que son parte esencial de la formación académica del estudiante y que, si se ejecutan de mala manera, repercuten en la calidad profesional del futuro graduado. Las actividades que no agregan valor son aquellas que no son esenciales para la formación académica del estudiante y que muchas veces se convierten en grandes limitaciones para esos procesos o para lograr el nivel de calidad profesional del estudiante.

La meta de este análisis de valor agregado es incrementar el valor de las actividades esenciales de los procesos primarios, eliminando o minimizando acciones que no agregan valor, pero que son necesarias para lograr la excelencia en la formación académica del estudiante (George, 2012).Para el caso de las actividades universitarias, se pueden presentar ejemplos tanto en los procesos

académicos (docencia, investigación, extensión) como administrativos, en los cuales las posibilidades de mejora siempre son probables. El Cuadro 7 presenta algunos ejemplos de análisis de actividades con sus respectivas estimaciones de tiempo por valor agregado para la convalidación de cursos llevados en otras universidades.

21

Cuadro 7. Ejemplo de análisis de valor agregado para trámite de convalidación de cursos

En la recolección de datos sobre errores cometidos en los procesos, se adquiere todo tipo de datos que permitan cuanti�car el problema y caracterizar su solución. Los datos se deben ubicar con exactitud en el lugar de ocurrencia del problema, teniendo un claro entendimiento de cómo funciona el proceso actual. Se debe seleccionar de forma e�ciente lo que se quiere medir, desarrollar las de�niciones operativas, identi�car las fuentes de datos, preparar el plan de recolección de datos y de muestreo, así como perfeccionar las medidas que se hayan seleccionado.

No es conveniente que por una mala planeación se tengan que recolectar más datos posteriormente porque los obtenidos no fueron su�cientes o porque no se recolectaron los datos adecuados. Tampoco es bueno “quedar atrapado” por una gran cantidad de datos sin poder analizarlos de forma razonable o entenderlos debido a la inmensa cantidad de tiempo y a los métodos de análisis requeridos. El reto es decidir sobre la cantidad de datos de manera tal que sean su�cientes (representativos) sin excederse o quedarse corto; por ello, es necesario hacer una

planeación del proceso de recolección de datos que tome en cuenta todos esos aspectos con una base estadística.

Las consideraciones clave en la recolección de datos se asocian a preguntas tales como: ¿cuáles son los datos correctos?, ¿dónde se encuentran los datos que caracterizan el problema?, ¿describen los datos al problema?, ¿describen los datos las claves acerca de las causas del problema?, ¿pueden los datos ser analizados de tal forma que ayuden a responder las preguntas de e�ciencia académica? (Escalante, 20120).

Como parte importante de ese proceso de planeación de recolección de datos, se debe determinar si las variables de estudio a usar deben ser discretas o continuas y de qué forma se van a recolectar los datos. Hay que tomar en cuenta que algunos datos pueden cuanti�carse por medición en variables continuas o por conteo en variables discretas. La efectividad de la medición y lo que sea más adecuado para la toma de decisiones de�ne cuál usar o si se usan ambas (Pande, 2011). El Cuadro 8 muestra algunos ejemplos.

22

octubre 2015

r e v i s t a

Para un entendimiento claro del rol de una variable, se debe dar una de�nición operativa, la cual es una descripción precisa que nos dice cómo obtener un valor de las características que estamos tratando de medir. Se caracteriza porque incluye cómo es algo y cómo medirlo, remueve la ambigüedad de tal forma que la gente involucrada tiene el mismo entendimiento de la característica o rasgo en cuestión, describe la forma en que se mide esa característica, es especí�ca y concreta, medible o contable. Un ejemplo de de�nición operativa es la siguiente: cali�cación del docente es la cali�cación obtenida por un profesor en un curso a �nales del periodo lectivo, que usa una escala que va de 0 (de�ciente) a 10 (excelente).

En el plan de recolección de datos se describe la naturaleza de los datos (continuos o discretos), el procedimiento de recolección, las fuentes, el tamaño de muestra, el plan de recolección de muestras (¿cuándo, cómo, dónde, quién?) (Pande, 2011). Algunas de las preguntas a responder para tener un e�ciente plan de recolección de datos son:• ¿Se miden las variables de proceso con base en el

mismo procedimiento y bajo el mismo medio ambiente, equipos y personas?• ¿Se hizo la secuencia de medición de forma

aleatoria?• ¿Son los datos recogidos exactos y pertenecen a la

población de interés?

La aplicación de muestreo es una necesidad en este tipo de proyectos puesto que usar gran cantidad de datos es impráctico, costoso, innecesario y requeriría

de mucho tiempo para su recolección y análisis. El uso adecuado de métodos estadísticos conlleva a conclusiones sanas respecto al proceso, incluso tomando una muestra relativamente pequeña (esto se llama “inferencia estadística”) (Acuña, 2012). En la aplicación de este muestreo se deben tener muchos cuidados, entre ellos:

• Debe existir una identi�cación clara y concisa de las fuentes de datos y lugares de recolección.• Se debe usar un procedimiento escrito con claridad

cronológica.• Las muestras deben ser aleatorias y representativas

de la población (esto está asociado al tamaño y método de recolección) para tener conclusiones válidas.• Se deben usar formatos ordenados y claros en las

unidades usadas.• No deben existir diferencias sistemáticas entre los

datos que se recolectan y los que no. Cada dato debe tener la misma oportunidad de ser incluido.Se deben evitar los sesgos, por ejemplo, recolectar

información a conveniencia, recolectar datos únicamente cuando está ocurriendo un evento de interés, recolectar solo una parte en el lugar más fácil de acceder a la información, seleccionar sobre un patrón que encaja con la estructura de los datos, recolectar datos en picos o valles de e�ciencia del proceso, mezclar información proveniente de diferentes fuentes, contratar personas nuevas a la mitad de la recolección de datos, mezclar poblaciones (usar datos que provienen de dos sistemas diferentes).

Cuadro 8. Ejemplos de medición continua y discreta

23

Cuadro 9. Ejemplo de hoja de veri�cación

Para este análisis, se pueden usar hojas de veri�cación, las cuales permiten estandarizar la recolección de datos y proveen espacios especí�cos donde los recolectores de datos pueden guardar la información (Devore, 2011). Un ejemplo se muestra en el Cuadro 9.

Es importante analizar la necesidad de estrati�car los datos, ya sea segregándolos en grupos o estratos, basándose en características clave asociadas al problema que está siendo estudiado. Una característica clave es un aspecto de los datos que pueda explicar el cuándo, dónde, y el porqué de la existencia del problema académico (Pande, 2011). Se debe tener un especial cuidado de recolectar datos que son heterogéneos pensando que son homogéneos, pues esto llevaría a errores graves en la interpretación de la información. Por ejemplo, mezclar datos provenientes de dos cursos diferentes o de carreras diferentes cuando lo que se pretende es concluir sobre cada uno de ellos y no sobre su comparación.

El propósito de dividir los datos en grupos es detectar algún patrón o conducta que muestre el impacto del problema o para explicar el porqué de la frecuencia y/o variación del tiempo, localización o condición (Acuña, 2012). El Cuadro 10 muestra un ejemplo de las formas de estrati�car, cuando es necesario, usando factores asociados a las preguntas quién, qué, cuándo y dónde.

Cuadro 10. Medios de estrati�cación

24

octubre 2015

r e v i s t a

Las mediciones que se realizan deben ser precisas, repetibles (mediciones de una misma persona dan un mismo resultado), reproducibles (dos o más personas miden lo mismo y da el mismo resultado) y estables en el tiempo (datos obtenidos en diferentes tiempos y por diferentes personas no cambian) con el �n de garantizar la calidad.

El plan de recolección de datos es un excelente medio para que el proceso sea ordenado y no le falte nada (Holmes et al., 2005). El Cuadro 11 presenta un ejemplo.

Cuadro 11. Ejemplo de plan de recolección de datos

Luego de la recolección, los datos se analizan y se gra�can a �n de disponerlos para la etapa de análisis. Una mejor forma de visualizar patrones de interés es mediante el uso de formas grá�cas adicionales a tablas de datos. Se pueden usar grá�cos de tendencias o de línea para mostrar comportamientos con algún patrón del conjunto de datos (ver Figura 6); grá�cos de control para determinar cuándo una determinada característica se encuentra dentro de los límites deseados o permitidos (Acuña, 2012) (ver Figura 7); grá�co circular o de pastel para representar y comparar la frecuencia de series de datos pertenecientes a características comparables (ver Figura 8); grá�co de barras para comparar patrones entre datos relacionados (ver Figura 9); grá�cos de puntos, de tallo y hoja e histogramas para desplegar el comportamiento de los datos (Devore, 2011) (ver Figura 10).

META

Figura 6. Ejemplo de grá�co de tendencia (Acuña, 2012)

25

Figura 7. Ejemplo de grá�co de control (Acuña, 2012)

Los límites de control se calculan en base a los datos, y se agregan a la gráfica

La línea central por lo general es el promedio (media) en lugar de la mediana

A11%

B28%

C 9%

D20%

E11%

F8% G

13%

PORCENTAJE DE ESTUDIANTES POR CAMPUS

Figura 8. Ejemplo de grá�co circular o de pastel

26

octubre 2015

r e v i s t a

Figura 9. Ejemplo de grá�cos de barras

Figura 10. Ejemplo de grá�cos de puntos, tallo y hoja e histogramas (Devore, 2011).

27

Si se usan grá�cos de puntos, es importante observar el centro de los datos, el rango de estos, la forma de la distribución, las comparaciones del real con el estándar y las irregularidades (ver Figura 11) (Devore, 2011).

Figura 11. Características de los datos (Devore, 2011).

También es importante observar simetría y condiciones bimodales (Ver Figura 12), uniformidad y valores extremos (Ver Figura 13), y frecuencia, corridas y valores irregulares (ver Figura 14) (Devore, 2011).

Figura 12. Simetría y modas (Devore, 2011).

28

octubre 2015

r e v i s t a

Figura 13. Uniformidad y valores extremos (Devore, 2011).

Figura 14. Frecuencia, corridas y valores irregulares (Devore, 2011).

29

Figura 15. Ejemplo de Pareto para el problema de deserción

Con base en la información general de causas y de efectos visualizados en los datos, se da el planteamiento �nal del problema, para lo que se debe revisar de nuevo el enfoque del problema para estar seguros de que se ha identi�cado clara y completamente. El Cuadro 12 presenta un ejemplo de casos con problemas de enfoque.

Para categorizar los hallazgos es necesario realizar un análisis de Pareto (regla 80/20) que indica que en muchas situaciones el 80% de los problemas son causados por el 20% de las causas. El principio de Pareto dice que frecuentemente podemos resolver los problemas identi�cando y atacando las fuentes que son las “pocas vitales” (Acuña, 2012). La Figura 15 presenta un ejemplo de un grá�co de Pareto.

Cuadro 12. Ejemplo de casos con problemas de enfoque

30

octubre 2015

r e v i s t a

Cuadro 13. Lista de comprobación para MEDIR (adaptado de Pande et al., 2011).

Antes de pasar a la etapa Analizar, es importante analizar el cumplimiento de la lista de comprobación del Cuadro 13.

31

Figura 16. Rama principal y subramas del diagrama causa y efecto (Acuña, 2012)

Etapa 3. Analizar (A)

En la etapa de Analizar, se identi�can las causas raíz potenciales y se con�rma la calidad de los datos. Se plantean hipótesis sobre el problema, se analizan las causas raíz que son las que limitan la calidad académica deseada y luego se validan las hipótesis. Esta etapa tiene las siguientes subetapas: identi�cación de causas raíz potenciales, organización de las causas raíz potenciales identi�cadas, recolección de datos para veri�car causas y con�rmación de causas raíz potenciales.La identi�cación de causas raíz potenciales se

lleva a cabo con base en los datos analizados y en los diagramas realizados. Mediante una tormenta de ideas se pueden determinar estas causas, generando muchas ideas rápidamente y estimulando la creatividad de todos los miembros del equipo. Se usa esta técnica para crear entusiasmo y energía en el equipo, generando muchas causas raíz potenciales y enfocando el planteamiento del problema de�nido en el paso 3 de Medir.Para este análisis, se puede usar la técnica de los “5

porqués” que consiste en hacer cinco veces la pregunta clave, “¿Por qué sucede?”. En algunas ocasiones, puede ser que la pregunta se haga más de cinco veces, pues en realidad se para cuando ya no haya respuesta a la pregunta, lo que signi�ca que se ha llegado a la causa raíz. Por ejemplo, para el siguiente problema: “Los estudiantes no tienen un laboratorio de cómputo con la totalidad de las máquinas que funcione adecuadamente”.Pregunta 1. ¿Por qué pasa este problema? Porque

no hay una rutina efectiva de mantenimiento y reparación.

Pregunta 2. ¿Por qué no hay una rutina efectiva de mantenimiento y reparación? Porque no hay su�ciente personal. Pregunta 3. ¿Por qué no hay su�ciente personal?

Porque no hay plazas disponibles.Pregunta 4. ¿Por qué no hay plazas disponibles?

Porque no hay presupuesto disponible.Pregunta 5. ¿Por qué no hay presupuesto

disponible? Porque se ha redireccionado a otros rubros que se han considerado más importantes.La organización de las causas raíz potenciales se

realiza con el �n de tener un mejor análisis y una mejor disposición de la información para buscar mejoras. Esto se hace mediante la organización y categorización de las causas usando un diagrama de causa y efecto como el de la Figura 16. En este diagrama hay una rama principal y tantas subramas como se necesiten para llegar a la causa raíz. Se puede usar de igual manera la técnica de los cinco porqués. Este diagrama es también llamado diagrama de Ishikawa o diagrama de espina de pescado y es una representación grá�ca de líneas y palabras donde se colocan las relaciones cercanas entre las causas y el efecto. Es un medio de estructurar causas potenciales de forma que se puedan identi�car las causas raíz y se puedan realizar las acciones correctivas y preventivas. Se debe tener presente que una causa raíz resalta la causa del problema y no el síntoma. Se puede usar un diagrama de relaciones para categorizar las causas (Acuña, 2005). En este diagrama se hacen agrupaciones por a�nidad para simpli�car el análisis.

32

octubre 2015

r e v i s t a

Figura 17. Esquema de un diagrama de causa y efecto (Acuña, 2012)

La construcción del diagrama conlleva a determinar, primero, todas las causas primarias (ramas), luego, las secundarias y así sucesivamente hasta estar seguros de que ninguna causa ha quedado por fuera. Una vez concluido el diagrama de causa y efecto, este queda de la forma que lo presenta el esquema de

la Figura 17, en donde pueden también ser especi�cados los efectos asociados a cada una de las causas. La Figura 18 presenta un ejemplo de diagrama parcial para el problema de baja retención de estudiantes, en donde se determinan cinco grandes ramas: desempeño docente, planes de estudio, asuntos �nancieros, infraestructura y parqueo. Luego, para cada una de esas ramas se desglosan las secundarias y terciarias.

Figura 18. Ejemplo de diagrama de causa y efecto para el problema de retención

33

La recolección de datos para validar las causas se hace con el �n de dejar en claro que estas son las que originan el problema. Esto es importante para que en la siguiente etapa no se vayan a proponer soluciones a situaciones que no son reales.

Un diagrama de causa y efecto solo sirve para identi�car las causas potenciales, por lo que se necesita recolectar datos para con�rmar cuáles causas potenciales contribuyen al problema (Acuña, 2012). Para esto, se necesita establecer prioridades para recolectar datos, pero solo en las causas que sean más factibles. Se debe recordar que una causa potencial en realidad es una teoría que tiene dos factores: una causa y uno o más efectos que deben estar relacionados.

Para medir esa relación entre causas y efectos se necesitan datos y para ello se usan los recolectados en la etapa de Medir, los cuales pueden ser analizados en diversas formas para contestar la relación entre la causa y el efecto. No obstante, se deben recolectar nuevos datos si los existentes no contestan a las preguntas o si no se confía en su veracidad. El análisis que se realiza es un análisis de correlación donde los resultados pueden arrojar situaciones como las que se presentan en la Figura 19.

Figura 19. Posibles resultados del análisis de correlación (Acuña, 2012)

Correlación positiva: indica que el cambio en una causa provoca un cambio en la misma dirección

en el efecto y esta puede ser fuerte o sencilla.

Correlación negativa: indica que el cambio en una causa provoca un cambio en la dirección contraria

en el efecto y esta puede ser fuerte o sencilla.

Sin correlación: indica que no hay ninguna relación entre la causa y el efecto.

Otras tendencias: indica que el cambio en una causa provoca un cambio en la una elación no lineal en el efecto.

En la con�rmación de causas raíz, se concluye sobre las verdaderas causas del problema. Una vez que se han veri�cado las causas raíz potenciales y cuanti�cado la relación causa-efecto con métodos estadísticos o grá�cos, se deben con�rmar las causas raíz, por medio de conversaciones con expertos en la materia si las relaciones son veraces y mediante una revisión de procedimientos y aseguramiento si alguna vez han aparecido.

34

octubre 2015

r e v i s t a

Cuadro 14. Lista de comprobación para ANALIZAR (adaptado de Pande et al., 2011).

Antes de pasar a la etapa Mejorar, es importante analizar el cumplimiento de la lista de comprobación del Cuadro 14.

35

Etapa 4. Mejorar (M)

En la etapa de Mejorar, se generan ideas para atacar las causas raíz, se prueban las soluciones, se establecen las acciones correctivas y preventivas, y se miden los resultados. Lo que se busca es mejorar el proceso y probar soluciones que ataquen las causas raíz. Esta etapa tiene las siguientes subetapas: identi�cación de posibles soluciones a partir de las causas detectadas y categorizadas, selección de soluciones, realización del análisis de costo bene�cio y FMEA, desarrollo de planes de acción y entrenamiento de equipo de implementación y, �nalmente, realización de la prueba piloto y evaluación de resultados.

La identi�cación de posibles soluciones parte de las causas detectadas y categorizadas. Es importante involucrar al personal del proyecto y determinar el nivel de involucramiento que tendrán los stakeholders en la búsqueda de soluciones. Antes de todo, se debe revisar el análisis de stakeholders para determinar el nivel y compromiso de cada uno de ellos. Luego, se revisa el proceso y la causa raíz veri�cada, apoyándose en el diagrama de causa y efecto.

Cada una de las ideas se asocia con soluciones concretas y se involucra a la gente que tiene que implementar o monitorear soluciones. De esta forma, se tendrá un mayor compromiso por parte de ellos para que la solución se lleve a cabo. El equipo se puede conformar con personas que no necesariamente han estado involucradas desde el principio en el proyecto. El Cuadro 15 ayuda a seleccionar mejor el equipo de acuerdo con las tareas a realizar y los roles que cada uno de ellos puede desempeñar.

Cuadro 15. Rubros para la selección del equipo

Una vez determinadas las posibles soluciones, se procede a seleccionar aquella que garantice la eliminación de las causas y, por ende, el problema. Para esto, se puede apoyar en una matriz de selección de soluciones que muestre la relación entre el planteamiento del problema, las causas raíz y las soluciones propuestas. En esta matriz, se evalúan las soluciones que se implementarán cali�cando la efectividad de la solución y la facilidad de implementar (factibilidad) las tareas seleccionadas (ver Figura 20).

36

octubre 2015

r e v i s t a

Figura 20. Ejemplo de matriz de soluciones

En el Cuadro 16, se muestra la descripción de cada uno de los componentes de la Figura 20.

Mediante un análisis de costo bene�cio y de FMEA, se analizan las alternativas en términos de costos y de bene�cios con el �n de convencer a quienes corresponda de la implementación. Se puede obtener más información acerca de posibles soluciones por medio de la modelación y simulación de las soluciones, haciendo pruebas en pequeña escala u observando procesos en otra organización que está haciendo algo similar (Acuña, 2005).

Un análisis formal de costo bene�cio y de riesgo debe realizarse para cada solución seleccionada. Se debe con�rmar que cada solución tendrá un bene�cio adecuado y ha sido aprobado por el área de �nanzas. Se deben identi�car los riesgos asociados con la implementación y asegurar que la implementación de cada solución tiene un riesgo aceptable (Acuña, 2005). El Cuadro 17 muestra una matriz donde se comparan las soluciones en términos de costos, bene�cios tangibles e intangibles y riesgos potenciales.

37

Mediante un análisis de modo, falla y efecto (AMFE) es posible identi�car fallas especí�cas en el proceso de enseñanza y sus procesos de soporte, de este modo, se pueden desarrollar acciones preventivas sobre las fallas especí�cas que mejorarán el desempeño, calidad, con�abilidad y seguridad de los procesos (Acuña, 2005). Para ello, se debe calcular el número de prioridad de riesgo (NPR), basado en la severidad (S) (intensidad e impacto de la falla sobre el estudiante), en la ocurrencia (O) (frecuencia de presentación de la falla) y en la detección (D) (capacidad de detectar la falla). El valor de NPS es igual a la multiplicatoria del valor de severidad, el valor de la ocurrencia y el valor de la detección.Entre más pequeño, más favorable es el valor de NPR. Es por esto que cualquier mejora que se haga debe

reducir los valores de severidad, ocurrencia y detección. Los valores de severidad, ocurrencia y detección se obtienen de los Cuadros 18, 19 y 20 de acuerdo con la magnitud de la falla potencial. El Cuadro 21 presenta un ejemplo de Cuadro AMFE.

Cuadro 17. Matriz de comparación de costos, bene�cios y riesgos

Cuadro 18. Criterios para severidad (impacto probable del error) (Acuña, 2005)

38

octubre 2015

r e v i s t a

Cuadro 19. Criterios para ocurrencia (probabilidad de que la causa ocurra) (Acuña, 2005)

Cuadro 20. Criterios para detección (capacidad de que los controles actuales detecten el error) (Acuña, 2005)

Cuadro 21. Ejemplo de Cuadro AMFE

En el desarrollo de planes de acción y entrenamiento del equipo de implementación, se utilizan plantillas que determinan las actividades a realizar, los responsables, las fechas de inicio y terminación, y los recursos requeridos. Para mostrar el tiempo relativo y duración, se usa un diagrama de Gantt, el cual permite ver las relaciones entre las diferentes tareas, la secuencia y la duración. Se pueden volver complejos cuando hay tareas que se empalman (Pande, 2011). La Figura 21 muestra un ejemplo de diagrama de Gantt.

39

Mediante una prueba piloto se obtienen resultados que posteriormente son evaluados. Las acciones planeadas y comprobadas se comparan con datos del antes y del después de la prueba que muestren cómo la brecha inicial se cerró.

Un piloto es una prueba de todo un sistema, pero a menor escala, que se realiza para recolectar datos de los resultados, para evaluar la solución y para hacer una implementación a gran escala más efectiva (Pande, 2011). Las claves para obtener pilotos exitosos están en la claridad del propósito, en lo que se quiere aprender del piloto, en el tipo de datos que se quieren recolectar, en el soporte del equipo de liderazgo, en el lugar donde se decide ejecutar el piloto y en los participantes seleccionados. Se deben tener planes documentados en detalle para implementar y recolectar datos durante el piloto (plan de acción y/o un diagrama de Gantt).

Antes de pasar a la etapa de Controlar, es importante analizar el cumplimiento de la lista de comprobación del Cuadro 22.

Figura 21. Ejemplo de diagrama de Gantt

Cuadro 22. Lista de comprobación para MEJORAR (adaptado de Pande et al., 2011).

40

octubre 2015

r e v i s t a

Etapa 5. Controlar (C)

En la etapa de Controlar, se desarrollan métodos y procedimientos que sean capaces de controlar el proceso con el �n de evitar la nueva ocurrencia del problema y tener una implementación total. Se de�nen estándares para medir el avance de mejoramiento, se monitorea la aplicación de soluciones y se retroalimentan los procesos para evitar una posible nueva ocurrencia. Esta etapa tiene las siguientes subetapas: desarrollo y documentación de estándares, construcción del sistema de administración de procesos, entrenamiento del personal e implementación de soluciones, cierre del proyecto, control y replicación.Una vez comprobada la efectividad de las

soluciones, se desarrollan estándares y se documentan para seguirlos en el futuro. La estandarización es lo que permite que existan altos niveles de calidad de forma con�able y sustentable, por lo que se debe asegurar que los elementos importantes de un proceso se realicen consistentemente de la mejor forma. Se hacen cambios únicamente cuando los datos muestran que una nueva alternativa es mejor.La estandarización ayuda a competir en el

mercado al incrementar la con�abilidad, reducir costos, mejorar el desempeño de los empleados e incrementar la seguridad. Los procesos se mantienen en control y entran en una etapa de mejora continua con la implementación de prácticas �exibles que permiten respuestas rápidas a las necesidades de los interesados (Escalante, 2010).

41

Según Golden et al. (2009), una práctica estandarizada es un método de trabajo en el que todas las variables del método han sido especi�cadas a detalle. Es, además, un acuerdo escrito entre el servidor y la universidad con respecto a cómo debe ser hecho el trabajo y un documento controlado que puede tener diferentes nombres dependiendo del negocio. Incluye procedimientos, instrucciones de trabajo y prácticas de operación estándar.El uso de prácticas estandarizadas permite reducir

variación entre actividades realizadas por individuos o grupos (de tal forma que la salida del proceso puede ser predecible), proporcionar “conocimiento-¿por qué?” para los actores del proceso de enseñanza, crear las bases para entrenar docentes nuevos, proveer una muestra de cómo encontrar problemas, reforzar el sentido de capturar y retener el conocimiento, y dar dirección en el caso de condiciones inusuales.Una práctica estandarizada permite actualizar los

mapas de procesos con las acciones de mejora, determinar cuáles pasos del proceso, si es que hay, requerirán de un instructivo de trabajo adicional para asegurar la estandarización y de�nir el nivel de detalle al que se debe describir el trabajo. Se debe usar el formato aprobado para documentar la práctica estandarizada (Pande et al., 2011).

Los formatos típicos incluyen, entre otras cosas, el nombre y número de documento, el nombre del proceso, el alcance y propósito, los responsables, la descripción del paso del proceso, la fecha y el número de revisión, y persona que aprobó.

Un sistema de administración de procesos se desarrolla con el �n de garantizar que el problema va a ser monitoreado y así de�nir qué datos provenientes de su funcionamiento van a ser analizados en el futuro.

Este sistema tiene los siguientes bene�cios:• Provee un enfoque a los equipos de trabajo,

apoya al entrenamiento y aplica lo que se aprende en un proceso similar.• Provee un sistema de procesos e indicadores

que ayuda administrar en forma objetiva las mejoras establecidas.

• Incrementa la comunicación en el lugar de trabajo haciendo que los empleados entiendan lo que hacen y por qué lo hacen.• Mantiene las ganancias resultantes de los

esfuerzos de mejora.• Establece una base para administrar procesos

y enfocarse en futuras mejoras.

Para construir un e�ciente sistema de administración de procesos (PMCS), se deben identi�car, seleccionar y documentar procesos de alta prioridad. Además, se deben identi�car requerimientos de los actores de los procesos de enseñanza y de los medios requeridos para llevarlo a cabo, también se deben desarrollar indicadores de control (Golden et al., 2009).

Según Vanzant-Stern (2011), para documentar el PMCS, se debe contar con la información requerida para el cálculo de tres tipos de indicadores: indicadores clave de gestión, indicadores de salidas e indicadores del proceso inicial. Los indicadores clave de gestión son aquellos que miden el desempeño de la universidad en el tiempo, mientras que los indicadores de salidas son aquellos que miden todo el proceso y que se usan para determinar la calidad del producto �nal entregado al estudiante (conocimiento). Los indicadores del proceso iniciales son medidas que se toman en puntos críticos del proceso para entender la ejecución antes de que sea tarde para tomar acciones correctivas. Para estos últimos, se usan “banderas” que recogen información diariamente para determinar ocurrencias especiales en el proceso. Estas señales ayudan a controlar y mejorar los subprocesos iniciales que impactan en los indicadores de salida de todo el proceso. Un ejemplo de estas banderas son sistemas de evaluación que se usan en los cursos, los cuales son instrumentos importantes para evaluar el desempeño del estudiante y del profesor

Los datos recolectados pueden ser sometidos a análisis estadístico descriptivo, mediante el cual -usando un conjunto de fórmulas- se obtienen los valores de comportamiento de los procesos y se comparan con los estándares �jados de antemano.

42

octubre 2015

r e v i s t a

Esta es la forma de veri�car si los procesos cumplen con las exigencias de calidad requeridas para formar profesionales exitosos. Pueden usarse grá�cos de control para determinar el estado de control de variables clave de proceso (Acuña, 2012).Una vez que hay garantía de que la solución funciona, se entrena al personal en los nuevos métodos y se

implementan las soluciones. Antes de esta implementación total, es necesario estandarizar procedimientos usando documentación. Cuando se tiene la documentación completa (de una práctica estándar o equivalente), se tiene que asegurar de que todos los que usan un mismo proceso están entrenados en el nuevo método. Inclusive empleados con experiencia deben ser entrenados en los nuevos métodos (Golden et al., 2009).Para tener éxito en el entrenamiento, no se debe desarrollar una sola sesión de entrenamiento sino varias

en las que se enseñe a todos lo que deben saber del trabajo, enfocándose en los aspectos críticos.Al hacer cambios a un proceso, se deben explicar las razones detrás de esos cambios para reducir la

resistencia de la gente. No se debe esperar que todos aprendan a la primera y la mayor parte del entrenamiento debe ser durante el trabajo.La subetapa �nal es el cierre del proyecto, su control y replicación. Aquí se documenta el nuevo método

y se da un seguimiento a su funcionamiento y éxito. Se debe reconocer al equipo de trabajo que hubo esfuerzo y tiempo dedicado a esto en forma considerable.Es importante capturar los aprendizajes del proyecto desde el planteamiento del problema hasta la

implementación de las mejoras realizadas. Hay que dejar en claro que las mejoras deben ser continuas, pero, también, que las iniciativas individuales y los equipos de proyectos tienen un término y que cualquier progreso, más adelante, necesitará un nuevo esfuerzo. Es importante considerar oportunidades de replicar lo aprendido en el proyecto y así poder implementar las mejoras de los procesos en otros sitios con el mismo proceso o con procesos similares (Golden et al., 2009).

Cuadro 23. Lista de comprobación para CONTROLAR (adaptado de Pande et al., 2011).

43

Conclusiones:

La aplicación de la �losofía seis sigma a través de la metodología DMAMC es un excelente medio para resolver problemas de calidad en el ambiente universitario. El análisis sistemático de los problemas de calidad académica que se generan en todo el proceso de enseñanza y aprendizaje permite obtener soluciones más concretas y efectivas. Las herramientas presentadas en este documento, si son usadas de la manera recomendada, son el elemento más importante para que, de manera ordenada, un equipo de trabajo pueda de�nir claramente un problema, identi�car y recolectar datos que lo evidencien y disponerlos para el análisis, desarrollar acciones de mejora y establecer los controles necesarios para que las situaciones adversas no vuelvan a ocurrir. No obstante, si el problema ocurre de nuevo, se tienen los planes de acción inmediatos para resolverlo.

El éxito de la aplicación de esta �losofía a la solución de problemas de calidad en el ambiente universitario académico (docencia, investigación, extensión) depende del grado de envolvimiento de las autoridades universitarias, de la conformación de equipos de trabajo comprometidos y del seguimiento e�caz de la metodología DMAMC.

Referencias bibliográ�cas:

Acuña, J. (2005). Mejoramiento de la Calidad: un enfoque a los Servicios. Cartago: Editorial Tecnológica de Costa Rica.

Acuña, J. (2012). Control de Calidad (4ta ed.). Cartago: Editorial Tecnológica de Costa Rica.

Al-Atiqi, I. (march-april, 2009). Transforming US Higher Education with Six Sigma. International Network of Quality Assessment Agencies in Higher Education (INQAAHE), Biannual Conference, Abu Dhabi.

Bandyopadhyah, J., & Lichman, R. (2007). Six sigma approach to quality and productivity improvement in institution for higher education in the United States. International Journal of Management, 24(4), 85-90.

Bester�eld, D. (2009). Control de Calidad (8va ed.). Pearson-Prentice Hall, México.

Breyfogle, F. W. (1999). Implementing Six Sigma: Smarter Solutions Using Statistical Methods. New York: John Wiley and Sons.

Campatelli, G., Citti, P., & Meneghin, A. (2011). Development of a Simpli�ed Approach based on the EFQM Model and Six Sigma for the Implementation of TQM Principles in a University Administration. Total Quality Management, 22(7), 691-704.

Devore, J. (2011). Probabilidad y estadística para Ingeniería y Ciencias (6ta ed.). México: Editorial Thomson.

Escalante, E. (2010). Seis Sigma: Metodología y Técnicas. México: ASQ, Limusa Noriega Editores.

George, M., Rowlands, D., Price, M., & Maxey, J. (2012). Lean Six Sigma: An Introduction and Toolkit. New York: McGraw Hill.

Go�nett, S. (2004). Understanding Six Sigma: Implications for Industry and Education. Journal of Industrial Technology, 20(4), 2-10.

Golden, M., Alexander, C., Taneja, S., Tirumalasetyy, S., & Chadalavada, D. (2009). The application of Six Sigma Methodologies to University Processes: The Use of Student Teams. Journal of Case Studies in Accreditation and Assesssment, 12(2), 1-14.

Holmes, M., Kumar, A., & Jenicke, L. (2005). Improving the E�ectiveness of the Academic Delivery Processs Utilizing Six Sigma. Issues in Information Systems, 6(1), 353-359.

Pande, P., Neuman, R., y Cavanagh, C. (2011). Las Claves de Seis Sigma: La Implantación con éxito de una Cultura que Revoluciona al Mundo Empresarial. Madrid: McGraw Hill.

Sumer, S. (2011). Implementing Six Sigma techniques in Management Institutes. Advances in Management (4(2), 25-27.

Tennant, G. (2007). Six Sigma: Control Estadístico del Proceso y Administración Total de la Calidad en Manufactura y Servicios. México: Panorama Editorial.

Vanzant-Stern, T. (2011). Lean Six Sigma: Practical Bodies of Knowledge. New York: Fultus Publishing.

Zhao, L. (2009). On Six-Sigma Management Principles in China’s Higher Education Quality Management. China. School of Economy & Management Zhongyuan University of Technology, Recuperado de: http://www.seiofbluemountain.com/upload/product.

44

octubre 2015

r e v i s t a

RESUMEN

El campo de investigación de Recuperación de Información textual es muy amplio. El uso de ontologías para mejorar la e�cacia y e�ciencia dentro de esta área es tratado con regularidad en la literatura sobre el tema, por lo que se considera oportuno presentar un estado de la cuestión diseñado con las mejores prácticas para este �n. Es por ello que se ha recurrido a recomendaciones muy sensatas en el área de revisiones sistemáticas en Ingeniería de Software. A la luz de estas recomendaciones, se ha elaborado este artículo que brinda al lector interesado un buen punto de partida para involucrarse en el tema. Los resultados obtenidos mediante este método de revisión sistemática son presentados y su contenido, aporte e implicaciones se discuten. Se concluye con claridad la necesidad de uni�car criterios de evaluación para las nuevas propuestas, así como la posibilidad de incursionar en nuevas perspectivas transdisciplinarias.

Palabras clave: Recuperación de Información, textual, ontologías, estado de la cuestión.

ABSTRACT

The research �eld of text information retrieval is very broad. The use of ontologies to improve the e�ectiveness and e�ciency within this area is treated regularly in the literature on the subject, so it is considered appropriate to present a state of the art, designed with the best practices for this purpose. That is why we have resorted to very sensible recommendations in the area of systematic reviews in Software Engineering. This article has been prepared in light of these recommendations, providing the reader with a good starting point to get involved in the issue. The results obtained by this method of systematic review are presented and their content, contribution and implications are discussed. It is concluded that there's a need to unify evaluation criteria for new proposals as well as the possibility of entering into new transdisciplinary perspectives.

Keywords: information retrieval, text, ontologies, state of the art.

Recibido: Abril 2015 Aceptado: Junio 2015 Publicado: Octubre 2015

Recuperación de información textual mediante ontologías: Estado de la cuestión Information Retrieval Using Ontologies: State of the Art

Ing. Luis Naranjo Zeledón, MSc.Universidad de Alicante, España

Doctorando del Instituto Universitario de Investigación en Informática [email protected]

Lic. Antonio Ferrández Rodríguez, PhD.Universidad de Alicante, España

Profesor del Departamento de Lenguajes y Sistemas Informá[email protected]

45

1. INTRODUCCIÓN

1.1 Antecedentes

El concepto de Recuperación de Información se suele atribuir al cientí�co de la Computación Calvin Mooers, quien lo utilizó para referirse por primera vez al proceso de almacenar información en medios digitales y a su posterior búsqueda mediante consultas (Mooers, 1950).

La disciplina suscitó un gran interés desde un principio en la comunidad académica. Con el advenimiento de la World Wide Web (WWW), el estudio de la Recuperación de Información se ha enriquecido enormemente con la participación de la industria y el aporte de diversas disciplinas que estudian el fenómeno desde distintas perspectivas. Así, por ejemplo, los cientí�cos de la Computación muestran particular inclinación por los temas de almacenamiento y recuperación e�caz y e�ciente, en tanto que especialistas en Ciencias Cognoscitivas han hecho aportes en cuanto a facilidad de uso y posible intención de los usuarios al efectuar las consultas.

En la actualidad, los motores de búsqueda más populares (Google, Yahoo, Bing y otros) permiten a una comunidad enorme de usuarios acceder a un repositorio de información que de otra manera sería inaccesible debido a sus dimensiones. También, resulta cada vez más importante que los documentos en formato digital dentro de una organización se encuentren acertadamente categorizados, indexados, con privilegios de acceso debidamente identi�cados y con un método para encontrar lo que se necesita rápidamente y con un alto nivel de exactitud.

Se han empleado muchos enfoques para abordar el problema, pues no se trata de una cuestión trivial, particularmente si se toma en cuenta la enorme cantidad de información disponible en repositorios como la Web. Por convención, a cada página web se la denomina “documento”. Para recuperar o hacer llegar estos documentos al usuario interesado, se ha diseñado una serie de estrategias usando las más

variadas técnicas de que disponen las Ciencias de la Computación. Naranjo, Kau�mann y Ferrández (2013) indican una manera de categorizar los modelos de Recuperación de Información en una taxonomía basada en el nivel de incertidumbre de los modelos (probabilísticos, posibilísticos y factuales).

Para probar la efectividad de un nuevo enfoque o modi�caciones a enfoques ya existentes, se suelen usar colecciones estándar de documentos de prueba. Tal es el caso de las colecciones de TREC (Text Retrieval Conference), CLEF (Conference and Labs of the Evaluation Forum, antes conocida como Cross Language Evaluation Forum), MuchMore y otras.

La mayoría de los enfoques ha hecho uso de las palabras que el usuario digita en su consulta para contrastarlas con las palabras que contiene cada documento y así sugerir un ranking por relevancia. A pesar de que se han presentado propuestas muy elaboradas, estas técnicas con frecuencia fallan en capturar el verdadero sentido de las consultas y del contenido de los documentos, al no intentar esclarecer las relaciones semánticas entre las palabras. Es debido a esto que las propuestas que usan ontologías han cobrado relevancia, precisamente porque tratan de comparar unidades semánticas en lugar de comparar únicamente palabras.

En Ciencias de la Computación, se entiende por ontología el medio para modelar formalmente la estructura de un sistema (Guarino, Oberle & Staab, 2009). Un ejemplo de sistema puede ser una empresa con sus empleados y sus relaciones. Las entidades relevantes se pueden organizar en conceptos y relaciones, partiendo de que la columna vertebral de una ontología consiste en generalizaciones y especializaciones de conceptos. Así, por ejemplo, un gerente y un desarrollador pueden ser conceptos relevantes de una ontología, donde el primero es un superconcepto. También se puede de�nir una relación llamada “coopera con” entre ambas entidades para dar un sentido más caracterizado a la relación. En todo caso, las relaciones más comunes en ontologías suelen ser hiperonimias / hiponimias, donde se va de conceptos generales a conceptos especí�cos

46

octubre 2015

r e v i s t a

(ej. mineral / cobre), así como holonimias / meronimias, donde se consideran el todo y sus partes (ej. pez / aletas).El modo en que un sistema de Recuperación de

Información logre administrar adecuadamente estas relaciones puede in�uir notablemente en la e�cacia de la solución que se brinda a la comunidad de usuarios.

2. Método

2.1 Mapeos sistemáticos y revisiones sistemáticas

El método empleado consiste en una revisión sistemática para producir el estado de la cuestión. Las revisiones sistemáticas de literatura son comunes en áreas del conocimiento, tales como las Ciencias Médicas, pero de introducción más reciente en Ingeniería de Software. La ventaja que tienen es que dejan constancia de un proceso minucioso de revisión para evitar un posible efecto antojadizo a la hora de cali�car un hallazgo como parte del estado de la cuestión.

El trabajo pionero de Kitchenham (2004) en revisiones sistemáticas en Ingeniería de Software deja claro que es posible emplear métodos bien de�nidos para estructurar una estrategia de búsqueda que produzca los resultados esperados. Se trata de un medio por el cual se evalúan e interpretan las investigaciones disponibles sobre un tema, pregunta o fenómeno de interés. De esta forma, se llega a tener un mayor entendimiento sobre los aportes más recientes en investigación alrededor de un tema.

Se debe aclarar que el método empleado no es un mapeo sistemático, el cual consiste en categorizar las investigaciones y agruparlas mediante una cuanti�cación (Petersen, 2008). Esto es útil para decidir sobre oportunidades de investigación cuando no se tiene claro la cobertura que un tema en particular ha tenido por parte de la comunidad académica.

Cuando se tiene claridad en el tema que se va a investigar (o se ha venido investigando), es posible hacer uso de las ventajas de los procesos de revisión sistemática (Kitchenham, 2007):

• La metodología bien de�nida hace menos probable que los resultados de la literatura sufran de prejuicios.

• Pueden proveer información sobre un fenómeno en distintos escenarios y bajo el uso de distintos métodos empíricos. Si los estudios arrojan resultados consistentes, las revisiones sistemáticas proveen evidencia de que el fenómeno es robusto. Si los resultados son inconsistentes, se hace evidente la posibilidad de estudiar las razones de variación.

• Para los estudios con enfoques cuantitativos, se pueden usar técnicas meta-analíticas para combinar los datos, aumentando la probabilidad de detección de efectos reales. En estudios individuales más pequeños, es mucho más difícil detectar estos efectos.

2.2 Protocolo de revisión sistemática usado

Biolchini, Gomes, Cruz y Horta (2005) proponen un protocolo sumamente completo para realizar revisiones sistemáticas, basado en las ideas fundamentales que se exponen en Kitchenham (2004) y Kitchenham (2007). La propuesta contempla varios apartados adaptables a las necesidades de cada estudio particular y divide el proceso de revisión en tres grandes fases: Plani�cación de la Revisión Sistemática, Ejecución de la Revisión y Análisis de Resultados. En la Tabla 1, se ilustra la estructura del protocolo dividida en sus fases principales, tal como la proponen Biolchini et al. (2005).

47

Tabla 1. Protocolo de revisión utilizado

Nota. Algunos apartados se pueden obviar, dependiendo del estudio que se trate. Por ejemplo, es posible que el apartado 4.4 no sea necesario por tratarse de unainvestigación individual o que se prescinda del apartado 5.1 porque las dimensionesde la investigación no requieren tal nivel de so�sticación.

3. Resultados

Se han identi�cado ocho artículos clave en el tema de Recuperación de Información mediante ontologías. En la Tabla 2, se muestra el nombre de los artículos (ver la sección de Referencias para mayores detalles), los principales hallazgos y propuestas que los autores exponen en cada uno de ellos. Luego, se procederá a explicar con más detalle las particularidades de cada artículo. Se considera apropiado usar mnemónicos asociados a cada artículo estudiado para facilitar la redacción de este documento

48

octubre 2015

r e v i s t a

Tabla 2. Artículos clave, principales hallazgos y propuestas

49

Nota. Elaboración propia.

50

octubre 2015

r e v i s t a

Los artículos seleccionados se consideran de gran relevancia en un estado de la cuestión que trate sobre Recuperación de Información, principalmente debido a que abordan el problema desde diferentes perspectivas y realizan experimentos exhaustivos para demostrar la validez de sus a�rmaciones.

Es importante resaltar el hecho de que este tipo de artículos suele presentar resultados de investigaciones que miden o cuanti�can hechos. Es poco el margen que queda para realizar interpretaciones, por lo cual se considera básico que presenten información fácil de comparar por medio de números, tal como es el caso de las investigaciones seleccionadas para redactar este artículo.

4. Discusión4.1 Ontologías empresariales

La investigación de Huiying y Jinghua (2010) propone cuatro módulos de procesamiento: administración de ontologías, procesamiento de consultas de usuarios, anotación semántica y pareo semántico. En la Figura 1, se puede apreciar el diseño de componentes e interacción de este esquema.

Figura 1. Modelo de Recuperación de Contenidos Empresariales basado en ontologías. Tomado de Huiying & Jinghua (2010).

51

El módulo de administración de ontologías es el encargado de la creación y mantenimiento de la ontología y es la base de los demás módulos. La administración de toda la información textual y el etiquetamiento necesario se llevan a cabo en este módulo. Esta labor se lleva a cabo con la ayuda de expertos, mediante opciones manuales, automáticas o semi-automáticas.

El módulo de procesamiento de consultas de usuarios se encarga de segmentar, analizar la consulta ingresada por el usuario y extender las palabras que haya logrado extraer. Se puede hacer un mapeo de las palabras de las consultas a conceptos, atributos o instancias de la ontología. Se puede usar el concepto o atributo para modi�car la consulta original, para brindar una semántica más completa.

La anotación semántica consiste en etiquetar el contenido estructurado y no estructurado de la empresa. El contenido se representa por un vector semántico, el cual se usará para parear el vector de la consulta del usuario.

Por último, el pareo semántico consiste en lograr una biyección entre la consulta del usuario y el contenido anotado. Luego de calcular la similitud entre el vector de la consulta y el vector semántico, se retornan los resultados en orden.

4.2 Ontologías livianas

La propuesta de Dragoni, da Costa y Tettamanzi (2012) divide el trabajo en dos tareas fundamentales para dar sentido a todo el esquema:

• Escoger un método que permita representar todos los términos de los documentos usando el mismo conjunto de conceptos.

• Implementar un enfoque que permita la indexación y evaluación de conceptos en documentos y consultas con un peso que se juzgue apropiado.

Se busca explotar relaciones jerárquicas (hiperónimos e hipónimos). Se extraen los términos que no tengan hipónimos de WordNet, una gran base de datos léxica de uso muy difundido en la comunidad académica (WordNet, 2015). Con estos términos se construye un vector base. Cada término es representado usando el vector base de la ontología de WordNet.

El enfoque propuesto ha sido adaptado para ontologías de propósito general, tomando en cuenta todos los conceptos independientes contenidos en la ontología. Al aplicar enfoques como el de da Costa y Tettamanzi (2006) al tipo de relación “es un” de WordNet, solo se pueden representar sustantivos. Los verbos, adverbios, adjetivos y nombres propios no se toman en cuenta, lo cual representa una mejora muy signi�cativa en esta nueva propuesta.

Hay que tomar en cuenta que aunque los índices resulten ser más grandes, entre más grande sea el tamaño de la colección, más apropiada es la representación propuesta. Al aplicar esta representación a colecciones muy grandes de documentos, el tiempo de procesamiento que se necesita para efectuar la comparación de documentos y los vectores de consultas se reduce de manera muy signi�cativa.

En la Tabla 3, se muestran algunos ejemplos de “formas relacionadas por derivación”, lo cual constituye un elemento clave que proponen los autores para hacer frente al problema de no poder representar las relaciones del tipo “x es una clase de y”, las cuales consideran vitales para poder obtener resultados óptimos en un esquema de esta naturaleza.

52

octubre 2015

r e v i s t a

4.3 RI Mejorada semánticamente

Fernández, Cantador y López (2011) asumen en su estudio que la información disponible en la Web (los documentos) está indexada usando el conocimiento semántico propio de dicho paradigma.

Se propone el uso de dos tipos distintos de etiquetado: por medio de procesamiento del lenguaje natural y por medio de información semántica contextual. En el primer caso, el módulo de etiquetado analiza los documentos, remueve palabras super�uas (“stop words”) y extrae términos relevantes categorizados de acuerdo a su categoría gramatical (“part of speech” o “POS”): adjetivos, sustantivos, verbos, adverbios, preposiciones, pronombres, etc. Los términos se comparan a nivel morfológico con los nombres de las entidades semánticas propias del dominio. En el etiquetado por información semántica contextual, las entidades semánticas son las que se analizan y se buscan en el índice de documentos, el cual es generado de previo. El invertir la dirección del etiquetado brinda importantes ventajas: la información semántica de las ontologías y bases de conocimiento se pueden usar como conocimiento base para mejorar la exactitud del etiquetado. Por otra parte, el costo computacional disminuye debido al pre-proceso de indexación de los documentos textuales.

El módulo de consultas técnicas sintácticas para identi�car los recursos que puedan ser relevantes para la consulta puede generar muchos candidatos con interpretaciones alternativas. Para resolver este problema, se usan técnicas de desambiguación de uso común (Word Sense Disambiguation). Se usa el contexto de la consulta y el conocimiento de base que provee WordNet para determinar la interpretación más probable.Los resultados de los experimentos no son concluyentes. Por un lado, el promedio en una medida

estándar de e�cacia (Mean Average Precision o MAP) para el mejor referente de TREC es mayor que para la búsqueda semántica, esta consigue mejores resultados en el 50% de las consultas.

Nota. Tomado de Dragoni, da Costa & Tettamanzi (2012).

53

4.4 Estimar pesos de términos

Kang y Lee (2005) aportan al estado de la cuestión el uso de clústeres o agrupamientos de conceptos.

Estos clústeres constituyen un modelo de espacio vectorial de conceptos. En la Figura 2, se muestra la

concepción del sistema propuesto, el cual consiste de tres componentes fundamentales:

• Agrupamiento basado en cadenas léxicas.

• Estimación de peso basada en relaciones entre palabras.

• Re-estimación de peso basada en un espacio vectorial de conceptos.

Figura 2. Sistema propuesto, con el �ujo de procesamiento semántico.Tomado de Kang & Lee (2005).

54

octubre 2015

r e v i s t a

El método propuesto primero agrupa semánticamente los términos relacionados que pueden representar el contenido semántico del texto. Luego, asigna puntuaciones a los clústeres extraídos y a los componentes léxicos en los clústeres, basándose en relaciones entre los términos. La importancia de los términos dentro de un documento se calcula de acuerdo a los vectores textual y vector conceptual que incluyen los términos. Por último, se extraen índices semánticos de los índices y sus pesos.

El método propuesto y el método estándar TF/IDF (Term Frequency/Inverse Document Frequency) se aplicaron a la colección TREC-2 de documentos del Wall Street Journal de 1990 constituida por 21,705 documentos. En la Figura 3, se aprecia la comparación de estos métodos usando otra medida estándar (precisión vs. cobertura).

Figura 3. Precisión vs. cobertura en documentos “Top N” para 40 consultas.Nótese la ventaja generalizada de la propuesta semántica, en particular paralos documentos con ranking más alto.

El tamaño de los índices en este esquema también se reduce notablemente. La dimensión de términos en el índice es el número de términos que se usa para representar un documento. En un esquema tradicional de TF (Term Frequency), todos los términos en el documento son usados como entradas en el índice, por lo que la dimensión de términos en el índice es el número de palabras en el documento.

55

Cuando se indexa un documento en el esquema propuesto, primero se deben extraer conceptos representativos del documento y, luego, extraer términos de esos conceptos. De ahí que la dimensión de términos en el índice sea menor que la obtenida usando el enfoque tradicional de TF. Los experimentos demuestran que en los documentos del Wall Street Journal de 1990, la citada dimensión fue 89.55 usando el método de TF, en tanto que fue de tan solo 17.8 usando el método propuesto. Esto tiene implicaciones muy prácticas en cuanto a tiempos de respuesta en sistemas reales.

4.5 Semántica habilitada

Chen, Chu y Chen (2009) presentan un mecanismo con una arquitectura un poco más compleja que las estudiadas hasta el momento, como se puede apreciar en la Figura 4.

Figura 4. Arquitectura de Recuperacióncon Semántica Habilitada.Tomado de Chen, Chu & Chen (2009).

56

octubre 2015

r e v i s t a

Los tres componentes fundamentales de esta arquitectura son:

1. Determinación y extracción semántica.

2. Extensión semántica.

3. Agrupamiento y pareo de patrones semánticos.

La determinación y extracción semántica se re�ere a la representación estructurada de las características que resumen el contenido textual. Esto se logra por medio de tecnologías que analizan la naturaleza de las palabras, estructura y asociaciones, para facilitar el procesamiento futuro de pareo, mejorando el problema de ambigüedad en mecanismos de Recuperación de Información tradicionales.

Para enfrentar el problema de información insu�ciente en las consultas, se utiliza análisis de semántica latente relacionado con la consulta, comparando su contenido con el repositorio de contenido. Esto crea más características semánticas para el pareo. Este componente resuelve el problema de fallos en la consulta debido a falta de palabras clave en la frase de la consulta.

En este estudio, se utilizó el concepto de Support Vector Machine (SVM) para identi�car y clasi�car patrones semánticos de los contenidos. El clúster de contenidos que resulta aproximado a la consulta es creado para lograr un pareo rápido.

En la Figura 5, se pueden apreciar los resultados de los experimentos para 24 consultas y en promedio.

Figura 5. Comparativo de pareo de consultas.Tomado de Chen, Chu & Chen (2009).

57

4.6 Mapeo de ontologías mediante Recuperación de Información

El aporte de Su y Atle (2006) va dirigido a crear mapeos heurísticos que faciliten el proceso de mapeo semi-automático de ontologías para mejorar la interoperabilidad en sistemas heterogéneos.La enorme aceptación de la WWW como medio para distribuir información pone de relieve la necesidad

de lograr interoperabilidad en los sistemas. La gran mayoría de documentos en la Web está en un formato legible únicamente por humanos. Para permitir que agentes de software comprendan y procesen la información de la Web de manera más inteligente, se ha creado la visión de la Web semántica, en la cual los datos tienen estructura y las ontologías describen la semántica de estos datos. Si gran variedad de agentes de software se pudieran comunicar de manera óptima, la interoperabilidad de los sistemas mejoraría en gran manera.

Los principales aportes de este estudio al estado de la cuestión son los siguientes:• El sistema es capaz de descubrir la mayoría de los mapeos y producir un ranking de una manera útil.• El número de documentos, así como la naturaleza de los términos usados en los documentos y el traslape de ontologías, producen diferencias en la exactitud del mapeo.• El uso de WordNet produce un efecto en la exactitud del mapeo que varía en términos del dominio y las características de los documentos.• Los resultados esperados del mapeo in�uencian de manera signi�cativa los resultados �nales.• El uso de información estructural ayuda a mejorar la exactitud de los mapeos.

4.7 Mapeo ágil

La investigación de Ahmed y Tacheva (2012) pone de mani�esto que es posible diseñar una arquitectura que facilite la administración de datos de productos (PDM o Product Data Management). Se diseña un concepto denominado I-SOAS (Intelligent Semantic Oriented Agent Based Search, por sus siglas en inglés). En la Figura 6, se puede apreciar de manera grá�ca la arquitectura propuesta.

Figura 6. Arquitecturade I-SOAS.Tomado de Ahmed &Tacheva (2012).

58

octubre 2015

r e v i s t a

El proceso de construcción de la ontología comienza con el análisis del texto desde el punto de vista de lenguaje natural. Los sustantivos en la ontología se llaman clases y los verbos son las propiedades, con distintos valores para distintos tipos de relaciones. Lo primero que se hace es un grafo dirigido con todas las clases y todas las propiedades con sus relaciones semánticas. Luego, la ontología se puede construir con lenguajes formales que soportan ontologías, tales como XML (eXtensible Mark-up Language), RDF (Resource Description Framework) y OWL (Web Ontology Language).

El aporte de este artículo es a nivel teórico, pues no presenta experimentos relacionados con Recuperación de Información. No obstante, el aporte desde el punto de vista arquitectural se considera de relevancia.

4.8 Ontologías para Ciencias de la Vida

Un estudio efectuado por Ranwez, Ranwez, Sy, Montmain, y Crampes (2012) aporta la generación de despliegues grá�cos o pictogramas que pueden servir de guía al usuario avanzado. En la Figura 7, se muestra el resultado de la implementación de dicha propuesta.

Figura 7. A la izquierda, los parámetros de la consulta y a la derecha el despliegue de los documentosseleccionados.Tomado de Ranwez, Ranwez, Sy, Montmain, & Crampes (2012).

59

Al igual que el artículo examinado en 4.7, se considera que el aporte de este artículo es básicamente a nivel teórico y como una posibilidad clara de línea de investigación a futuro en cuanto a interacción con usuarios.

5. Conclusiones

Se han presentado los artículos más representativos y sus aportes al estado de la cuestión en recuperación de información mediante ontologías. Es evidente que se trata de un campo sumamente fértil para la investigación, con muchos retos por delante y oportunidades de desarrollos teóricos y trabajos empíricos.

Los estudios presentados, en los términos más generales, aportan evidencia de mejoras al compararse con esquemas bien conocidos y usando corpus de documentos de amplia difusión. Sin embargo, se carece aún de un marco estándar para realizar comparaciones más uniformes y que aporten un nivel de validez externa mayor a estos esfuerzos investigativos. Cabe también la duda, tras realizar este estudio, de si las medidas estándar de e�cacia deberán ser las mismas si los corpus se diseñan para obligar a los sistemas propuestos a recuperar más documentos con relaciones semánticas fuertes, sacri�cando la exactitud de las palabras usadas (esquema tradicional de “bolsa de palabras”).

El futuro de la Recuperación de Información como disciplina académica y como oportunidad de negocio no ha alcanzado un nivel de estancamiento y uno de los referentes más contundentes en este sentido es el campo de las ontologías. Se trata de un área de conocimiento que ofrece niveles de participación transdisciplinaria pocas veces visto en Ciencias de la Computación. Esta situación no es de extrañar, pues la Recuperación de Información está en el corazón mismo de la teoría de la información, es decir, en el corazón mismo de la Computación. Y esta ciencia siempre se ha caracterizado por rendir sus mejores frutos cuando se pone en contacto con otras disciplinas a�nes.

60

octubre 2015

r e v i s t a

6. Referencias

Ahmed, Z., & Tacheva, I. (2012). Integration of Agile Ontology Mapping towards NLP Search in I-SOAS. 6th I*PROMS Virtual International Conference on Innovative Production Machines and Systems.

Biolchini, J.,Gomes, P., Cruz, A.C., y Horta, G. (2005). Systematic Review in Software Engineering. Technical Report (RT-ES 679/05) Río de Janeiro, Brasil: Systems Engineering and Computer Department COPPE/UFRJ.

Chen, M-Y., Chu, H-C., & Chen, Y-M. (2009). Developing a Semantic-Enable Information Retrieval Mechanism. Expert Systems with Applications, 37 (1), 322-340. doi:10.1016/j.eswa.2009.05.055

Da Costa, C., & Tettamanzi, A. (2006). An ontology-based method for user model acquisition Web. In Zongmin Ma (Ed.), Soft Computing in Ontologies and Semantic (211–227). Volume 204 of Studies in Fuzziness and Soft Computing. Berlín: Springer.

Dragoni, M., da Costa, C., & Tettamanzi, A. (2012). A Conceptual Representation of Documents and Queries for Information Retrieval Systems by Using Light Ontologies. Expert Systems with Applications, 39 (12), 10376–10388. doi:10.1016/j.eswa.2012.01.188

Fernández, M., Cantador, I., & López, V. (2011). Semantically Enhanced Information Retrieval: an Ontology-Based Approach. Journal of Web Semantics, 9 (4), 434-452. doi:10.1016/j.websem.2010.11.003

Guarino, N., Oberle, D., & Staab, S. (2009). What is an ontology? Handbook on Ontologies. Berlin: Springer-Verlag. Recuperado de http://userpages.uni-koblenz.de/~staab/Research/Publications/2009/handbookEdition2/what-is-an-ontology.pdf

Huiying, G. & Jinghua, Z. (2010). Ontology-based Enterprise Content Retrieval. Journal of Computers, 5 (2), 314-321. doi:10.4304/jcp.5.2.314-321

Kang, B-Y., & Lee, S-J. (2005). Document Indexing: a Concept-Based Approach to Term Weight Estimation. Information Processing and Management, 41, 1065–1080. doi:10.1016/j.ipm.2004.08.005

Kitchenham, B. (2004). Procedures for Performing Systematic Reviews. Joint Technical Report Software Engineering Group. Department of Computer Science, Kelee University, Reino Unido & Empirical Software Engineering, National ICT, Australia Ltd., Australia.

Kitchenham, B. (2007). Guidelines for Performing Systematic Reviews in Software Engineering. MBSE Technical Report, Software Engineering Group, School of Computer Science and Mathematics, Kelee University, Reino Unido & Empirical Software Engineering, Department of Computer Science, University of Durham, Reino Unido.

Mooers, C. (1950). The Theory of Digital Handling of Non-Numerical Information and its Implications to Machine Economics. Association for Computing Machinery Conference, Rutger University.

Naranjo, L., Kau�mann, E., & Ferrández, A. (septiembre, 2013). A Taxonomy for Information Retrieval Models Based on the Uncertainty Level. 5th Latin American Conference on Networked and Electronic Media, LACNEM-2013, Universidad Nacional de Colombia, Sede Manizales.

Petersen, K., Feldt, R., Mujtaba, S., & Mattsson, M. (2008). Systematic Mapping Studies in Software Engineering. Technical Report. Suecia: School of Engineering, Blekinge Institute of Technology

Ranwez, S., Ranwez, V., Sy, M.F., Montmain, J., & Crampes, M. (2012). User Centered and Ontology Based Information Retrieval System for Life Sciences. BMC Bioinformatics, 13 (1). doi:10.1186/1471-2105-13-S1-S4

Su, X., & Atle, J. (2006). An information retrieval approach to ontology mapping. Data & Knowledge Engineering, 58, 47–69. doi:10.1016/j.datak.2005.05.012

WordNet, (2015). The Trustees of Princeton University. Recuperado de https://wordnet.princeton.edu/

61

RESUMEN: Este artículo analiza, a partir de evidencia

empírica, la percepción de la investigación entre estudiantes universitarios en niveles de bachillerato, licenciatura, maestría y doctorado, en Ciencias de la Educación. Se realizaron análisis descriptivos e inferenciales sobre la autopercepción de las competencias de investigación por medio de cuestionarios. Así mismo, se determinó la visión de los estudiantes sobre la investigación, utilizando el análisis semántico sobre el resultado de grupos focales. Se logró determinar que la competencia Análisis crítico es clave en la explicación del comportamiento de los estudiantes, y que existe una ruptura signi�cativa en las visiones de investigación entre grados. Estos resultados permiten tomar decisiones en los diseños curriculares con el �n de perfeccionar las competencias de investigación de los graduados universitarios.Palabras clave: Competencias, investigación,

educación, educación superior

ABSTRACT:

This article analyzes, from empirical evidence, the perception of research among college students in levels Bachelors, Licencetiate, Masters and Doctorate in Education Science. Inferential analysis of the self-perception of their research competencies were performed using a questionnaire. Also the view of student about the research was determined using semantic analysis on the results of focus groups. It was determined that competency Critical Analysis is key in explaining the behavior of students, and that there is a signi�cant break in visions between the levels studied. These results allow making decisions in curriculum design in order to re�ne the research skills of college graduates.Key Words: Research, competencies, education,

and higher education.

El autor agradece la colaboración del Dr. Juan Aguirre y la asistencia del becario Mauricio Miranda Bao en la investigación.

1

COMPETENCIAS DE INVESTIGACIÓNEN PROGRAMAS

DE EDUCACIÓNResearch competencies

in teacher education programs

Carlos M. Rodríguez, PhD. Universidad Fidélitas, Costa Rica

Director del Doctorado en Ciencias Empresariales

[email protected]

1

Recibido: Abril 2015 Aceptado: Junio 2015 Publicado: Octubre 2015

62

octubre 2015

r e v i s t a

INTRODUCCIÓN:

La investigación base de este artículo persiguió dos objetivos relevantes en estudiantes de las carreras de Educación. Por un lado, determinar la autopercepción de competencias de investigación entre estos estudiantes. Por otro lado, se pretendió encontrar la perspectiva de la investigación de los estudiantes de la carrera de Educación.

Para el primer objetivo, se aplicó un cuestionario a estudiantes de bachillerato, licenciatura, maestría y doctorado. En el instrumento se evaluó la percepción de los estudiantes sobre un conjunto de indicadores de competencias de investigación. Además, se consultó sobre la percepción, en general, de la preparación que se tenía en investigación. En este caso especí�co, se encontraron diferencias signi�cativas en la autoevaluación de las competencias. Además, se encontraron indicadores clave que explican la autoevaluación de los estudiantes en cuanto a investigación.

Para el segundo objetivo, se utilizaron técnicas que buscan profundizar en la percepción del fenómeno. A partir de entrevistas a profundidad con expertos y funcionarios, se diseñó un instrumento para el desarrollo de grupos focales. Se ejecutó un grupo focal por nivel de enseñanza mencionado, esto es, estudiantes de bachillerato, licenciatura, maestría y doctorado. En este objetivo se privilegia el análisis fenomenológico.

El artículo describe, en primer lugar, los fundamentos teóricos y el marco metodológico, para posteriormente analizar los resultados y el impacto que estos pueden tener en la gestión de la educación universitaria.

TEORÍA

Podemos a�rmar con seguridad que la mano de obra cientí�ca cali�cada de un país tiene un efecto positivo y signi�cativo sobre el crecimiento económico sustancial (Schofer, Ramirez, & Meyer, 2000). Es fácil encontrar hoy inversionistas en I+D, pero no siempre fue así. En la década de los cincuenta del siglo pasado, Zvi Griliches se preocupaba por la rentabilidad de las inversiones en investigación en los cultivos de maíz híbrido. Él podía saber cuánto se gastaba en investigación, pero, ¿valía la pena? Los resultados �nalmente le dieron de manera temprana la razón a aquellos que apostaban por la ciencia (Griliches, 1958)

La revolución tecnológica de las últimas décadas y una de sus consecuencias, la globalización y mundialización, ha cambiado el panorama de la Investigación Cientí�ca y Tecnológica en la Educación Superior (Vessuri, 2007). En Iberoamérica, las universidades tienen cerca de la mitad de los recursos humanos en investigación, alrededor de un tercio de su presupuesto, y generan alrededor de dos tercios de las publicaciones cientí�cas. Para los países en vías de desarrollo “las universidades que realizan investigación son los puntos en que una nación concentra la capacidad de crear conocimiento” (CINDA, 2010, p. 35).

Centroamérica y el Caribe tienen una data de casi 450 años de investigaciones (UPNFM, 2009). Las instituciones de Educación Superior, por su lado, abordan la investigación en dos direcciones: como parte de su proceso formativo y para el desarrollo de nuevos conocimientos. En Costa Rica, la población de más de 25 años con formación universitaria se aumentó en 14,3 veces entre 1973 y 2011, una evidencia sólida del incremento del tamaño de la Educación Superior. Aun cuando la información sobre la investigación en las universidades es muy limitada, se puede asegurar que los mayores volúmenes de investigación se centran en muy pocas universidades (Estado de la Educación, 2013).

63

Las capacidades en investigación y su estudio no despiertan, por ser genéricas, tantos intereses como otras competencias. Un inspirador clave en el estudio de las competencias de forma general fue David McClelland (1973), quien puso atención en la relación entre Competencias Profesionales e Inteligencia, analizando trabajos fundamentalmente de �nales de los sesenta. Se necesitaron algunas décadas para que el tema de las competencias profesionales penetrara en la Educación Superior. Para el siglo XXI, muchas carreras universitarias y técnicas tienen delimitadas las competencias que pretenden formar en sus discentes y administran sus currículos basados en competencias profesionales. Aquellas competencias que eran comunes a varias unidades de conocimiento (Rey, 1996) o cursos, las denominaron Competencias Transversales o Genéricas (Kentish, E., Sharkey, Gravina, & Shallcross, 2006), sustituyendo así las categorías Ejes Transversales o Programas Transversales populares en las décadas de los setenta y ochenta. Los listados de Competencias Genéricas son literatura común; en algunos casos aparece la investigación como una de ellas. Aun cuando en artículos especí�cos (Higuita-López, Molano-Velandia, & Rodríguez-Merchán, 2011) las competencias de investigación pueden parecer un largo compendio de intenciones, existen trabajos sistemáticos orientados a generar un instrumento válido para medir competencias de investigación (Mohd Meerah, y otros, 2012)

Podemos entender las competencias de investigación como el sistema de conocimientos, habilidades y valores que conforman la capacidad de un profesional para resolver problemas no estructurados de manera cientí�ca en su área de actuación profesional. Para un abogado, investigar tiene una connotación muy diferente a la de un biólogo y ambas pueden ser válidas. El ejercicio de per�lar las competencias de investigación de un profesional especí�co, que ya de por sí es un logro poco común, tendría mayor potencialidad de éxito si se tiene un menú general de donde escoger.

En un ejercicio de reducción, podríamos considerar que tenemos tres etapas fundamentales de trabajo en el ejercicio de investigación (Meerah & Halim, 2012). La primera está relacionada con la búsqueda y selección de la información, la segunda, con su análisis, y, �nalmente, la tercera sería la redacción de la memoria cientí�ca, en cualquiera de sus modalidades. Meerah y Halim (2012) indican que “una de las técnicas de investigación más importantes, sobre todo en las ciencias sociales y la investigación de la educación, es la habilidad de buscar información de investigación” (p.92).

Harker (2013) en un estudio que busca sensibilizar sobre la necesidad de desarrollar habilidades en la búsqueda de información, destaca las peculiaridades de cada caso judicial y la imposibilidad según su visión de poder implementar procedimientos estandarizados en el ejercicio de la abogacía. Basado en evidencias anteriores, él considera que el 45% del tiempo de trabajo de un abogado debe dedicarlo a la investigación legal. No pocos recomiendan una cuidadosa formación en investigación documental en carreras de ciencias sociales.

Cabría preguntarse si nuestros estudiantes saben buscar información y analizarla, algo básico. Parecería que no. Los estudiantes pre�eren buscar en Google que asistirse de una base de datos especializada y con�able (Wu & Lee, 2012). Poco comprenden de la calidad de la verdad, la �abilidad de una fuente bibliográ�ca o la veracidad de un testimonio. Puede suceder que aun antes de analizar la información, el éxito esté comprometido. Estos mismos hallazgos pueden ser veri�cados en más de un estudio. En sus análisis sobre el comportamiento de sus estudiantes en sus búsquedas por internet, Huamani-Navarro, López-Sánchez, Tarqui-Mamani, & Ormeño-Caisafana (2011) han podido encontrar lo siguiente:

64

octubre 2015

r e v i s t a

En el contexto de la Educación Superior, el “cómo” buscamos la información es más relevante que el “qué” encontramos (Amekudzi, Li, & Meyer, 2010). Para carreras como Medicina, Veterinaria y Cirugía Dental, donde se considera muy estructurado, sistemático y cotidiano el levantamiento de evidencias, la habilidad más importante en los profesionales según algunos autores es precisamente el análisis crítico de la evidencia encontrada. Estos análisis presuponen un conjunto de competencias que combinan el uso de métodos cualitativos y cuantitativos. (Laidlaw, Aiton, Struthers, & Guild, 2012)

Algunos profesores consideran que no se necesita dedicarle un esfuerzo adicional al desarrollo del análisis crítico. Paul y Elder (s.f.) destacan, en esta misma línea, que el pensamiento crítico “presupone o demanda conocer las estructuras más básicas del pensamiento (los elementos de pensar) además de los estándares intelectuales más básicos para el pensamiento (estándares intelectuales universales)”

(p. 7). A estos elementos “básicos” del pensamiento, en no pocas ocasiones, nuestros profesores los consideran “sentido común”, concluyendo �nalmente que este es el menos común de los sentidos y clave en el desempeño de nuestros estudiantes (Payne & Israel, 2010). No podemos entonces retirarle nuestra atención.

Las falencias de los graduados en áreas en matemáticas y estadísticas, por otro lado, han ido modi�cando el comportamiento de las retribuciones a los empleados, desarrollándose una suerte de polarización por competencias que contribuye a la desigualdad social (Hilton, 2008). La necesidad de habilidades en métodos cuantitativos duplica las necesidades de los métodos cualitativos ante los empleadores (Wiles, Durrant, & De Broe, 2009). Este mismo estudio encuentra que los investigadores en formación necesitan mayormente habilidades para realizar entrevistas, lo que nos deja el sabor de que pueden ser muy diversas las carencias.

A pesar de que la universidad realiza esfuerzos por adquirir licencias y convenios que permitan el acceso a bases de datos cientí�cas, se observa que los estudiantes pre�ere buscar información haciendo uso de Google (42,0%) y no utilizan bases de datos especializadas como Scielo (22,1%), Lilacs (66,4%), Pubmed (55,7%), Cochrane (63,1%) y Hinari (84%), o alguna página de tránsito como la Biblioteca Virtual de Salud (66,6%), pese a que estas bases son de acceso libre y de reconocido prestigio por la comunidad cientí�ca, lo que muestra una subutilización de estos recursos. (p. 238)

65

Hay indicios interesantes que indican que los docentes se sienten más capaces de generar nuevos conocimientos que de redactar un artículo para exponerlo a la comunidad (Rodríguez, 2013). Esto no es nuevo; Harrison, Hernández, Cianelli, Rivera, & Urrutia (2005) señalan que desde 1995, hay evidencias de este fenómeno en Enfermería. Las investigaciones publicadas en esta área de las Ciencias de la Salud, según estos autores, siguen siendo escasas. Esto, al parecer, por una falta de con�anza por parte de las autoras de las investigaciones para publicar sus resultados.

Varias pueden ser las barreras para el desarrollo de estas competencias en investigación, en un currículo demandante de más horas para contenidos nuevos, recursos limitados y pobre valoración por parte de docentes y estudiantes de las habilidades de investigación (Laidlaw, Aiton, Struthers, & Guild, 2012). Para colmo de males, a los más capacitados, a los investigadores en ejercicio, no siempre les satisface el ejercicio docente. Lástima; está demostrado que compartir avances tecnológicos puede ser importante desde el punto de vista motivacional para el alumnado (Xu, Dinwoodie, & Chang, 2012) y esto puede ser cardinal para disminuir la deserción y mejorar el rendimiento académico. Este panorama no es alentador para aquellos que quieren ver a sus graduados más competentes en áreas de investigación.

Podrían identi�carse cuatro grandes competencias en investigación presentes en los procesos de enseñanza y aprendizaje, con diferencias en su desarrollo según el nivel profesional al que se esté aspirando. La primera es la Competencia de Gestión de la Información, que permite determinar lo que se necesita saber; se orienta a buscar efectivamente la información que se requiere, valorar si esa información es pertinente para responder a sus necesidades y convertirla en conocimiento útil para solucionar problemas. La segunda es la Competencia de Pensamiento Crítico, entendida

como el proceso de analizar y valorar el conocimiento con el propósito de mejorarlo. La tercera sería la Competencia de la Comunicación, determinada como la capacidad para relacionarse e�cazmente con otras personas a través de la expresión oral y especialmente la escrita. La Competencia para el Desarrollo del Conocimiento referida a la capacidad para desarrollar y / o aplicar modelos de explicación de la realidad con el objetivo primario de incrementar el conocimiento, bajo un trasfondo metodológico claramente descrito y rigurosamente desarrollado, suele asociarse a niveles superiores de estudio. La Competencia en Investigación podría describirse entonces como una función que incluye estas metavariables.

Función de Competencias de Investigación (FC) incluye:

FC=GI,PC,CM,DC

Competencia de Gestión de la Información (GI): Incluye la Calidad de la Fuente, la E�ciencia de Búsqueda, el Proceso Creativo y manejo Ético de las fuentes (CG1,…,CG8).

Competencia de Pensamiento Crítico (PC): Se valorará a través de las perspectivas de los estudiantes en cuanto al juicio del Origen de la Información, la Calidad de Información, la Perspectiva propia y la Empatía hacia los que la generaron. (PC1,…,PC8).

Competencia de la Comunicación (CM): Analiza la autovaloración para realizar Exposiciones, su Experiencia en la redacción de memorias cientí�cas, la Calidad de las comunicaciones que logra y su capacidad para relacionarse Socialmente mediante estas comunicaciones. (CG1,…,CG8).

Competencia para el Desarrollo del Conocimiento (DC): Esta variable se valora a través de la capacidad de los estudiantes en el manejo de técnicas cuantitativas y cualitativas de investigación para el Procesamiento de Información orientados a Explicar la Realidad. (DC1,…,DC8).

66

octubre 2015

r e v i s t a

MÉTODOS

El universo de estudio son los estudiantes de las carreras de grado, bachillerato y licenciatura, y posgrado, maestría y doctorado, de Educación de la Universidad Latina de Costa Rica. Para diciembre de 2013, esta población totalizaba una cantidad de 310 estudiantes distribuida de la siguiente manera: Bachillerato Sede Heredia: 171 estudiantes; Licenciatura Sede Heredia: 43 estudiantes; Maestría Sede San Pedro: 83 estudiantes; y Doctorado Sede San Pedro: 11 estudiantes; todos de la Universidad Latina de Costa Rica.

Se aplicaron dos instrumentos fundamentales: el Cuestionario de Competencias de Investigación, y el Grupo Focal de Percepción de Investigación. Ambos instrumentos fueron evaluados por consulta expertos, cuatro en total, y se realizaron los respectivos estudios piloto para su ajuste.

67

Análisis de los resultados del cuestionario

En la aplicación del cuestionario, se realizó un muestreo aleatorio estrati�cado, con Nivel de Con�anza: 95%, Margen de Error: 5% y Nivel de Heterogeneidad: 50%, distribuido de la forma siguientes. Bachillerato: 119, Licenciatura: 39 Maestría: 69 y Doctorado: 11. El escalar utilizado en el cuestionario fue de 7 niveles.La metodología para el análisis que se siguió

estuvo formada por los siguientes pasos.

• Desarrollo de un índice sumativo de competencias de investigación siguiendo la metodología de Spector (Spector, 1991).

• Desarrollo del análisis de Cronbach para valorar la con�abilidad del instrumento.

• Desarrollo de estadísticas descriptivas para brindar una visión de conjunto de las variables.

Análisis factorial exploratorio con el �n de veri�car la existencia de los cuatro subconstructos.

• Análisis de Regresión Estandarizado para determinar las variables que explican la variación en el índice y su rango de importancia. (Pample, 2000) (Kachigan, 1991) (C & RD., 1984)Un elemento importante es el hecho de que a

pesar de que el análisis factorial utilizado fue del tipo exploratorio, la hipótesis planteada lleva a que el número de factores explicitados fue cuatro. El proceso de estimación usado partió de esa premisa. Los valores Eigen se restringieron a 0,5 aunque tradicionalmente lo que se utiliza, es 0,3. La restricción se elevó, ya que era necesario saber más allá de una duda razonable si efectivamente era válida la hipótesis planteada.

Prueba de hipótesis

H1. Las competencias de investigación se pueden explicar por cuatro constructos: Gestión de la Información, Desarrollo del Conocimiento, Pensamiento Crítico y Comunicación de Hallazgos.El procesamiento de los datos se realizó mediante

el software Minitab V-16.2.4

Análisis de los resultados de los grupos focales

Los grupos focales se desarrollaron por separado en cada nivel -bachillerato, licenciatura, maestría y doctorado, y en cada caso estuvo constituido entre siete y diez estudiantes, cumpliéndose en todos los casos las condiciones y los tiempos previstos en las respuestas.

El análisis de los resultados del cuestionario se realizó mediante la codi�cación de las respuestas generadas en cada grupo de estudiantes de bachillerato, licenciatura, maestría y doctorado. Las preguntas estaban orientadas a que estos grupos, por separado, describieran su apreciación sobre lo que era la actividad cientí�ca y el ejercicio de la investigación. Se conformaron las redes semánticas respectivas en función de las competencias estudiadas y se caracterizaron aquellas impresiones que prevalecieron por grupo, por competencia.

Idea a defender

Las percepciones sobre el ejercicio de la investigación tienen particularidades diferentes entre los grados bachillerato, licenciatura, maestría y doctorado.El procesamiento de los datos se realizó mediante

el software Atlas Ti V-7.8.1

En esta investigación existió un interés en encontrar relaciones causales entre variables, bajo un enfoque positivista. Así mismo, logró descubrir las percepciones de los grupos sociales investigados desde sus propias perspectivas, bajo un enfoque fenomenológico. Ante este hecho, podemos clasi�car esta investigación como mixta (Teddlie & Tashakkori, 2008), (Richard M. & A. Unrau, 2005), (Hernández, Fernández, & Baptista, 2010), es decir, que busca complementar los bene�cios de los dos paradigmas de investigación fundamentales.

68

octubre 2015

r e v i s t a

RESULTADOS

La Autopercepción de las Competencias de InvestigaciónLa medición de la Percepción de las cuatro competencias de investigación, Gestión de la Información,

Pensamiento Crítico, Desarrollo de Nuevos Conocimientos y Comunicación de Hallazgos se realizó mediante 32 preguntas. Estas preguntas evalúan cuatro variables dentro de cada competencia, con preguntas especí�cas que valoran conocimientos, habilidades y valores. Los puntajes generales autoasignados pueden verse en la Tabla No. 1

Los puntajes son progresivamente mejores en casi todos los casos desde los grados inferiores a los superiores, como es de esperar, observándose un salto importante entre licenciatura y maestría. La competencia Desarrollo de Nuevos Conocimientos se encuentra como la menos favorecida; solo los estudiantes de doctorado se consideran de forma general apenas aprobados en ella. En cuanto a Pensamiento Crítico, los estudiantes de licenciatura se castigan aún más que el grado que le precede, y la diferencia ganada por los doctorandos en su grado con respecto al anterior es marginal.

69

Las variables asociadas al Desarrollo de Nuevos Conocimientos se analizan de manera particular en la

Tabla No. 2 por ser la competencia menos puntuada. Esto es entendible por cuanto es una competencia

superior. La licenciatura se muestra con puntajes bajos, la variable Capacidad para Procesar Información es

la que consideran los estudiantes su principal debilidad.

El cuestionario solicitó, además, que cada participante de la investigación se asignara una nota global en

cuanto a sus competencias de investigación. Los resultados pueden observarse en la Tabla No. 3. De forma

general desde licenciatura a doctorado, el puntaje de la Autopercepción Global es muy similar. Es

signi�cativo el Gap, o la distancia entre la Autopercepción de Competencias y la Autopercepción Global en

cuanto a investigación.

Pese a que las preguntas de habilidades especí�cas ubican a los licenciados con un puntaje de 64,71%,

ante la pregunta general de cuánto se asignaría en cuanto a sus competencias de investigación, en

promedio se asignan 81,62; esto es, casi 17 puntos por encima. Esto pudiera indicar especialmente que

este grupo no sabe lo que no sabe, lo que parece una realidad en todos, excluyendo los estudiantes de

doctorado.

70

octubre 2015

r e v i s t a

Tabla 5Factores Rotados y RestringidosEstimados con VariablesEstandarizadas

Fuente: Elaboración propia con base en los cuestionarios

71

Los resultados del análisis de consistencia interna del instrumento sobre la base del alpha de Cronbach, por cada uno de los bloques de competencias fueron: Gestión de la Información, 0,8609, Desarrollo del Conocimiento, 0,8865, Pensamiento Crítico, 0,8339, Comunicación de Hallazgos, 0,7813 y para el total de ítems, 09329. El análisis factorial exploratorio con�rmó la existencia de cuatro grandes factores. El primero de los cuales se identi�có con la Gestión de la Información, el segundo con el Desarrollo del Conocimiento, el tercero con el Pensamiento Crítico y el cuarto con la Comunicación de Hallazgos. Hay que señalar que los ítems se agruparon en grupos casi homogéneos, lo que hace pensar que los factores están relativamente identi�cados en esta primera etapa. La hipótesis de existencia de los cuatro subconstructos fue la que guió la selección de los ítems cuyas alphas están debidamente documentadas. El orden de importancia es lo interesante, ya que lo más importante es la Gestión de la Información y el cuarto, la Comunicación de los Hallazgos.

Los cuatros factores explican 17,26 de la varianza, lo que representa el 53,9% del total. Cabe señalar que de los resultados de los dos primeros factores, Gestión de la Información y Desarrollo de Conocimientos, el primero explica el 16,1% y el segundo el 15,7% de la varianza total. Esto muestra que tienen importancias semejantes. El tercero, Pensamiento Crítico, explica el 13,9% y el cuarto, Comunicación de Hallazgos, el 8,2%.

Como complemento del análisis factorial exploratorio, se correlacionaron los cuatros factores y los resultados se presentan en la Tabla No. 5

72

octubre 2015

r e v i s t a

Los resultados muestran que existe correlación entre F1 y F2. Esto deja más claro el hecho de que ambas competencias explican un porcentaje cercano de varianza, alrededor de 16%. F1 no tiene correlación con otra competencia. Con respecto a F2, este tiene correlación con F1 y F3. En el caso de F3, solo se correlaciona con F2, pero no con F1 y F3. Por su lado F4 no se relaciona con ninguno. Si bien es cierto que la correlación entre F1 y F4 es 34,8% no cali�ca al 95%, al ser p de 0,051 es ciertamente “casi” signi�cativa al nivel explicitado a priori. Esto no deja de ser un dato importante.

Análisis de los resultados de los grupos focales

La evidencia cuantitativa muestra diferencias importantes entre la percepción particular de las competencias como investigador y el puntaje global asignado a la hora de cali�carse para actividades de investigación. Este gap, o distancia de resultados, puede tener que ver en buena medida con el propio concepto de investigación. El objetivo del desarrollo de los grupos focales, en los que se realizaron preguntas asociadas con los investigadores y la actividad investigativa, era precisamente hacer emerger estas percepciones de qué se considera investigación.

Figura 1: Representatividad de las Competencia en la apreciación de la investigación por nivel educacional. Fuente: Elaboración propia con base en los grupos focales

En la Figura No. 1 puede verse la representatividad de cada una de las competencias en la visión de los estudiantes. Se puede encontrar que los per�les de respuesta asignan pesos diferentes por cada nivel educativo. Si entramos a analizar con más detalle las respuestas por cada una de las competencias podríamos encontrar otras diferencias.

73

Figura 2: Preponderancias relevantes de términos por competencia en los grupos focales. Fuente: Elaboración propia con base en los grupos focales

Aun cuando los grupos estudiados podrían asignarle en su discurso más valor a términos que se relacionan con una u otra competencia, los mismos términos empleados pueden variar signi�cativamente. En la Figura No. 2, se pueden observar las diferencias más signi�cativas encontradas en cuanto a cada una de las competencias, entre niveles de enseñanza.

DISCUSIÓN

La competencia Gestión de la Información plantea la valoración de los materiales que se consultan, la reorientación de las búsquedas, la capacidad de procesar esta información y el manejo ético de las fuentes. La exigencia en esta competencia especí�ca es muy importante. En no pocas ocasiones, los estudiantes presentan proyectos de investigación con muy poca literatura revisada,

buena parte de ella se re�ere a libros y otra no despreciable a fuentes poco �ables, con el argumento de que el problema cientí�co es muy novedoso. La capacidad de discernir sobre lo útil y necesario puede tomar buen tiempo, pero es imprescindible.

El Desarrollo del Conocimiento se sustenta en la capacidad para procesar información que permita explicar los fenómenos. La función principal de la ciencia es mejorar la vida del hombre en armonía con su entorno. Para poder lograr esto, necesitamos modelos predictivos robustos, que se logran con la correcta capacidad para manejar datos y extraer de ellos conclusiones. Para ello, el investigador debe tener la capacidad de evaluar la calidad de la verdad. El o�cio de aplicar metodologías cientí�cas estructuradas es importante y también lo es la capacidad para analizar críticamente los resultados de este proceso.

74

octubre 2015

r e v i s t a

La competencia de Pensamiento Crítico apoya el desarrollo de nuevos conocimientos. Esta permite encontrar con�ictos, sesgos, posibles relaciones, curiosidades y desafíos. El Pensamiento Crítico promueve la empatía y la severidad, genera la capacidad de extraer lo útil de lo trivial. El ejercicio de la investigación es clave en su desarrollo, por lo que es causa y es efecto.

El logro de una relación cientí�ca de intercambio con otros pares que están desarrollando acciones de investigación similares es clave en el desarrollo de la ciencia. Esta relación permite compartir con colegas y compañeros, información, intereses y datos. Tener la capacidad de tomar ideas nuevas y compartirlas con otros, así como tener la capacidad de valorar lo que se logró con este intercambio, ha sido clave en el desarrollo cientí�co de las últimas décadas. Por ello, la competencia de Comunicación de Hallazgos es tan importante. La capacidad de estar interconectado en redes sociales en la ciencia reviste exigencias diferentes, demanda saber escribir y exponer hallazgos.

La hipótesis fue con�rmada bajo las condiciones más restrictivas posibles. La secuencia problema-información-conocimiento-análisis crítico-compartir hallazgos tiene puntos clave. Los resultados hacen pensar que una sana mezcla de gestión crítica de la información y la aplicación del método cientí�co parece ser lo más conveniente.

Un resultado que no deja de sorprender es la competencia sobre Comunicación de Hallazgos, o la transmisión de conocimientos, que es el cuarto vector y que no parece estar relacionado con los demás. Hay que entender que hacemos poco o nada con material de investigación no divulgado. La experiencia de escribir se obtiene haciéndolo. El mensaje que transmite el cuarto vector es que se debe tener en cuenta la ética del proceso y de los resultados, la forma veraz y objetiva de presentarlos y someter estos a la revisión de pares.

La correlación entre factores muestra claramente que esta existe entre la Gestión de la Información y el Desarrollo del Conocimiento. No existe, sin embargo, entre la Gestión de la Información, Pensamiento Crítico y Comunicación de Hallazgos.

La existencia de los factores (competencias) se acepta y la correlación entre ellos ilustra el posible orden en que podría ser útil que ocurriera. Esto sin duda crea mejores bases para pensar mejor los procesos de entrenamiento de jóvenes profesionales.

Desde la perspectiva fenomenológica pudimos observar que para un bachiller la investigación está asociada a la Gestión de la Información y, en segundo lugar, al Pensamiento Crítico. Los pesos relativos de estas dos cambian signi�cativamente en la medida que el grado avanza produciéndose en maestría un alto protagonismo de esta segunda. El Desarrollo del Conocimiento crece casi en todo en la medida en que el grado aumenta, a expensas de la Comunicación de Hallazgos que apenas tiene un repunte a nivel doctoral.

En el caso de los temas relacionados con la Gestión de la Información, se pudieron vislumbrar diferencias interesantes entre estudiantes de bachillerato y licenciatura. Mientras que en el primer caso, las alusiones giraban en torno a “Buscar” información, los aspirantes a licenciados orientaron su discurso más a “Encontrar” información o datos. Esta diferencia, muy marcada en la recurrencia de sus discursos, revela un contraste de madurez importante, y la tendencia de los más jóvenes a descargar información con menor Análisis Crítico. Los estudiantes de posgrado, progresivamente, generaron alusiones a que las verdades se pueden enmarcar como una visión teórica, que puede cambiar con el tiempo. La “Teoría” aparece tímidamente en maestría y con mucha mayor presencia de doctorados.

75

El análisis de la competencia de Pensamiento Crítico no pudo constatar diferencias importantes entre estudiantes de grado, esto es, bachillerato y licenciatura. Podrían catalogarse de escépticos, más que analíticos, ante aparentes conclusiones, pero no mostraron fuerte orientación a valorar la calidad de la verdad por alguna vía. A diferencia de ellos, los estudiantes de maestría le asignan un peso importante al “Expertisse” del emisor de la conclusión, revelándose como estudiantes muy sensibles a la Autoridad de Experto. Los estudiantes de doctorado relacionaron este tema de la calidad de la verdad relacionado con la “Evidencia” que soporta la conclusión, y “Validez” del proceso, orientándose más a la metodología que al individuo.

En cuanto a Desarrollo de Conocimientos, una competencia mostrada como débil en la propia percepción de los estudiantes de Educación, se divide nuevamente de manera importante grado y posgrado. Aunque existe una percepción general por parte de los estudiantes de que conocen sobre metodología de investigación, a los más jóvenes les parece que esto es un tema relacionado con paradigmas de investigación, del cual poco pueden decir, además de que pre�eren el cualitativo. En el caso de posgrado, hay una mayor orientación a mencionar metodologías especí�cas y de manera particular en caso de doctorados, aparecen más elementos técnicos, aunque no necesariamente sistematizados.

La respuesta al gap, o la diferencia entre el puntaje que se asignan en cada una de las competencias de investigación y la valoración total de los estudiantes como investigadores, se puede encontrar relacionando los resultados del componente cualitativo del cuantitativo. En el caso de bachillerato, la cali�cación más alta autoasignada está relacionada con Gestión de la Información. En los grupos focales, se pudo encontrar que investigación, para este nivel, era

preponderantemente “buscar” información. Si se consideran que están bien capacitados en lo que creen es investigación, como consecuencia se van cali�car bien como investigadores.

Si existe una competencia que explica este gap, es la de Desarrollo de Nuevos Conocimientos. En la medida que un grado minimice su importancia, en esa misma medida aumenta el gap. El peso relativo más bajo de esta competencia se obtuvo, a través de los grupos focales, en licenciatura. Aquí el gap fue el más alto, casi un 17%. El gap más bajo ocurrió en doctorado, -4%, y son estos estudiantes los que más peso le dan a la gestión de nuevos conocimientos.

Estos hallazgos solo pueden obtenerse por tener presentes enfoques cuantitativos y fenomenológicos, y aportan una evidencia crucial para el desarrollo de la formación de competencias de investigación.

CONCLUSIONES Las competencias de un investigador son

múltiples, se pueden adquirir de muchas formas y es posible intentar procurar todo simultáneamente. Sin embargo, tal esfuerzo podría no ser posible por los recursos necesarios para lograrlo.

En el caso del grado, bachillerato y licenciatura, existe una gran brecha entre el nivel esperado y el autopercibido en Análisis Crítico. En grado, no se espera formar investigadores profesionales, pero sí se busca que los graduados puedan discernir en cuanto a la calidad de la información. Esta competencia es clave, evidentemente, para la toma de decisiones profesionales y es base para el desarrollo de grados posteriores.

Así mismo, se considera que existen múltiples retos en cuanto a formación de habilidades en

76

octubre 2015

r e v i s t a

Estadística, una debilidad ya supuesta en Ciencias Sociales. Aun cuando no se pretende formar a un cientí�co completamente en grado, hay que señalar que el mercado laboral espera más en cuanto a sus competencias cuantitativas.

En el caso de maestrías, se deberá superar la tendencia a asignarle valores muy altos de credibilidad a conclusiones en función de la experiencia de su autor. Esto es probablemente la causa por la cual sus puntajes en Pensamiento Crítico pueden ser menores que los de grados inferiores.

Los estudiantes de doctorado se muestran con un mayor conocimiento de sus propios retos y estos están localizados en desarrollar capacidades para explicar los fenómenos que son sus objetos de estudio. No obstante, ellos no parecen conocer la naturaleza de los procesos metodológicos especí�cos para poder lograr explicar los fenómenos y aún no han percibido esta falencia como un verdadero problema.

En todos los casos, es importante destacar la importancia que tiene explicar la realidad como función sustantiva de la ciencia. Esto permitirá generar una autovaloración de las competencias de investigación más exigente, y con esto promover comportamientos que impulsen el desarrollo de competencias clave para la ciencia.

Establecer una radiografía de lo que sucede durante la formación profesional en cuanto a competencias especí�cas, y durante todos los ciclos de formación profesional, es clave para reforzar los planes de estudio de nuestras universidades. Se pueden generar acciones concretas que puedan generar un alto impacto en el desarrollo profesional del estudiante. Si estas competencias están referidas a la investigación, la relevancia será cada día mayor, pues sabemos, sin lugar a dudas, que la mano de obra cientí�ca cali�cada de un país tiene un efecto positivo y

signi�cativo sobre la calidad de vida de su ciudadano.

BIBLIOGRAFÍAAmekudzi, A., Li, L., & Meyer, M. (2010). Cultivating

research and information skills in civil engineering undergraduate students. Journal of Professional Issues in Engineering Education and Practice, 136(1), 24-29.

C, W., & RD., M. (august, 1984). Regression Models with Ordinal Variables. American Sociological Review(49), 512-525.

CINDA, C. I. (2010). Educación Superior en Iberoamérica. Santiago de Chile: Bernabé Santelices |.

Escobar, J., & Bonilla-Jimenez, F. I. (2009). Grupos Focales: una guía conceptual y metodológica. Cuadernos Hispanoamericanos de Psicología, IX(1), 51-67.

Estado de la Educación. (2013). Estado de la Educación. San José: Estado de la Nación.

Griliches, Z. (octubre, 1958). Research Costs and Social Returns: Hybrid Corn and Related Innovations. Journal of Political Economy, 66(5), 419-431.

Harker, Y. S. (diciembre, 2013). "Information is cheap, but meaning is expensive": Building analytical skill into legal research instruction. Law Library Journal, 105(1), 79-98.

Harrison, L., Hernández, A. R., Cianelli, R., Rivera, M. S., & Urrutia, M. (junio, 2005). Competencias en investigación para diferentes niveles de formación de enfermeras: una perspectiva latinoamericana. Ciencia y Enfermería, XI(1), 59-71.

Hernández, R., Fernández, C., & Baptista, P. (2010). Metodología de la investigación (5ta Ed.). México, D. F.: Mc Graw Hill.

Higuita-López, D., Molano-Velandia, J., & Rodríguez-Merchán, M. (2011). Competencias necesarias en los grupos de investigación de la Universidad Nacional de Colombia que generan desarrollos de base tecnológica. Innovar, 21(41), 209-224.

77

Hilton, M. (noviembre, 2008). Skills for work in the 21 st century: What does the research tel, us? Academy of Management Perspectives, 22(4), 63-78.

Huamani-Navarro, M. ,.-D., López-Sánchez, M., Tarqui-Mamani, C., & Ormeño-Caisafana, L. (diciembre, 2011). Conocimientos, practicas y habilidades sobre la búsqueda bibliográ�ca y percepción estudiantil sobre la capacitación universitaria en investigación, en estudiantes de obstetrician. Educación Médica, 14(4), 235-240.

Kachigan, S. K. (1991). Multivariate Statistical Analysis: A Conceptual Introduction. New York: Radius Press.

Kentish, E., S., Sharkey, A. G., Gravina, J. L., & Shallcross, D. C. (2006). The developmen of apropiate generic skills in research intensive higer degree students. Education for Chemical Engineers, 60–65.

Laidlaw, A., Aiton, J., Struthers, J., & Guild, S. (2012). Developing research skills in medical students: AMEE Guide No. 69. Medical Teacher(34), 754-771.

McClelland, D. C. (enero, 1973). Testing for competence rather than for "intelligence". American Psychologist, 28(1), 1-14.

Meerah, T., & Halim, L. (2012). Graduate information research skills. International Journal of Learning, 18(10), 91-100.

Mohd Meerah, T. S., Osman, K., Zakaria, E., Haji Ikhsan, Z., Krish, P., Choo Lian, D. K., y otros. (2012). Measuring Graduate Students Research Skills. Procedia - Social and Behavioral Sciences(60), 626– 629.

Pample, F. C. (2000). Logistic Regression: A Primer (Quantitative Applications in the Social Sciences). Thousand Oaks: SAGE University Paper.

Paul, R. P., & Elder, L. (s.f.). Estándares de competencia para Pensamiento Crítico. (F. p., Ed.) Recuperado el 07 de julio de 2013, de Critical Thinking Community: http://www.criticalthinking.org/resources/PDF/SP-Comp_Standards.pdf

Payne, J., & Israel, N. (2010). Beyond teaching practice: Exploring individual determinants of student

performance on a research skills module. Learning and Individual Di�erences, 20, 260–264.

Rey, B. (1996). Les compétences transversales en question. Paris: ESF Éditeur.

Richard M., J. G., & A. Unrau, Y. (2005). Social Work Research & Evaluation: Quantitative and Qualitative Approaches. New York: Oxford University Press.

Rodríguez, C. M. (24 de julio de 2013). Competencias en Investigación y Gestión de la Ciencia. Conferencias Internacionales Interinstitucionales Costa Rica México. San José, San José, Costa Rica: Universidad Latina de Costa Rica.

Schofer, E., Ramirez, F. O., & Meyer, J. W. (december, 2000). The E�ects of Science on National Economic Development, 1970 to 1990. American Sociological Review, 65(6), 866-887.

Spector, P. E. (1991). Summated Rating Scale Construction: An Introduction (Quantitative Applications in the Social Sciences) . Thousand Oaks, CA: SAGE Publications, Inc .

Teddlie, C., & Tashakkori, A. (2008). Foundations of Mixed Methods Research: Integrating Quantitative and Qualitative Approaches in the Social and Behavioral Sciences. Thousand Oaks: Sage Publications.

UPNFM. (2009). Políticas y Prioridades Regionales de Investigación. Tegucigalpa: UPNFM, U. P.

Vessuri, H. (julio, 2007). Las Universidades Latinoamericanas como centros de investigación y creación del conocimiento. Educación Superior y Sociedad, 1(12), 63-82.

Wiles, R., Durrant, G., & De Broe, S. P. (julio, 2009). Methodological approaches at PhD and skills sought for research posts in academia: A mismatch? International Journal of Social Research, 12(3), 257-269.

Wu, M., & Lee, L. (2012). An empirical study on the research and critical evaluation skills of law students. Georgetown Law Faculty Publications, Public Law Research Paper No. 12-067.

78

octubre 2015

r e v i s t a

Resumen:

El estudio identi�ca y clasi�ca los aspectos que los estudiantes valoran en un profesor y veri�ca los resultados mediante un análisis estructurado cuantitativo-cualitativo. Los aspectos identi�cados fueron: manejar Power Point, estar dispuesto a ayudar en el curso, saber cómo evaluar, gestionar el aula virtual, ser respetuoso y aplicar la teoría a la práctica. La importancia de la tecnología no se cuestiona. Hay una clara necesidad de evaluar periódicamente las competencias valoradas por los estudiantes como una forma de conocer la opinión de estos y poder considerarlas en las decisiones de gestión académica. Las implicaciones para la gestión de los recursos humanos son discutidas.

Palabras clave: Costa Rica, estudiantes, opiniones, características de profesores, modelos, análisis cuantitativo y cualitativo.

Abstract:

The research identi�es and classi�es aspects that students value in a teacher, and the results through a structured quantitative and qualitative analysis. The issues identi�ed were: handle Power Point, willing to help in the course, evaluation, virtual classroom management, be respectful, and apply theory to practice. The relevance of technology is not questioned. There is a clear need to periodically assess the skills valued by students, getting feedback, and consider them in academic management decisions. The implications for human resource management are also discussed.

Keywords: Costa Rica, students, opinions, professor’s characteristics, models, quantitative and qualitative analysis.

Tecnología-Humanidad:el futuro profesor universitario

Technology and attitude in the university teaching practice

Juan A. Aguirre, Ph.D. Universidad Latina de Costa Rica

Coordinador de Investigació[email protected]

Recibido: Abril 2015 Aceptado: Mayo 2015 Publicado: Octubre 2015

79

Introducción

En 1948, Costa Rica cambió las balas por los libros. Este fue el primer gran cambio educativo del país. El segundo está en marcha hace veinte años y tiene que ver con el cambio tecnológico. Costa Rica, otrora un país rural, en el 2015 se presenta como una economía de servicios, con 52 universidades privadas y 5 públicas, el país cuenta con 151 conexiones móviles por cada 100 habitantes. El 92% de la población rural y el 94% de los hogares urbanos tienen celulares; el 40% de la población rural y el 61% de la población urbana tenían conexiones a Internet para el 2014 (La Nación, 2014, Instituto Nacional de Estadística y Censos, 2014). Las tecnologías de la información están cambiando, así como las expectativas educativas en las universidades, de acuerdo a cómo la educación es imaginada y percibida por los estudiantes universitarios. El papel del profesor está cambiando rápidamente dado el impacto que Internet está teniendo en relación con lo que se les proporciona en clase, en muchos casos mientras están en clase. La presencia en todas partes de la tecnología es una realidad que necesita ser atendida y gestionada.

Pregunta de investigación

La pregunta de investigación, dados los cambios tecnológicos que se están produciendo en el país, es: ¿Cuáles son las características que los estudiantes aprecian en un profesor, que surgen de los cambios tecnológicos que se están produciendo en el país?

Objetivo del estudio

Establecer la importancia de las variables tecnológicas entre las que los estudiantes valoran en los profesores, como contribución a la gestión del personal.

Hipótesis

H1. Las variables tecnológicas serán altamente valoradas por los estudiantes en sus profesores.

Marco para el análisisGestión, cultura académica y tecnología

La nueva realidad tecnológica hace posible que la información acerca de los estudiantes sea utilizada para desarrollarles "servicios a la medida”, por lo que parece lógico esperar que la educación universitaria como la conocemos cambiará, y que los profesores que tendrán éxito en este nuevo entorno serán los que estén dispuestos a ser "aprendices permanentes" (Johnson, Becker, Cummins, Estrada, Freeman y Ludgate, 2013). La gestión académica moderna tendrá que armonizar las tres áreas principales de responsabilidad de un académico: docencia, investigación y servicios, en un entorno tecnológico en el que el desempeño sea observable, medible y pueda ser modi�cado a través de la educación y la formación, sobre la base de las habilidades naturales del docente (Parry, 1996; Camp, 1993; Klemp, 1980; McClelland, 1973; White, 1959; Spector, 1992; Carmine y Zeller, 1989), donde las opiniones de los estudiantes tendrán un peso importante en términos del desempeño docente.

El manejo de la tecnología de la información: Una variable latente adicional

Murillo Sancho (2009), en Costa Rica, identi�ca tres variables latentes en los profesores y ellas son: habilidades técnicas, habilidades docentes y las actitudes personales.La variable latente adicional es la competencia tecnológica/virtual añadida, básica para la gestión de tecnología de la información en el aula.

80

octubre 2015

r e v i s t a

Esta se limitó a la gestión de dos elementos claves que han sido identi�cados como de primera línea en el salón de clases en la universidad donde se realizó el estudio: la gestión del aula virtual -o la capacidad del maestro para utilizar el aula virtual para gestionar la relación estudiante-curso-enseñanza-, y las capacidades operativas del profesor de dos sub-programas bien conocidos del paquete de O�ce: Excel y Power Point. Este último como un elemento casi ineludible al presentar el contenido de las clases en la actualidad.

Competencias que los estudianteshan identi�cado como valoradas

en los docentes

La literatura indica que los estudiantes tienen preferencias por: buen manejo de la clase, los estilos de enseñanza, humor, la accesibilidad, los materiales educativos disponibles, el comportamiento socialmente adecuado, ser respetuoso, dedicado al deber profesional, buen conocimiento de su disciplina y la empatía. Cuando las diferencias entre lo que valoran y lo que reciben son excedidas, esto tiende a mejorar el rendimiento estudiantil. El cumplimiento con las expectativas no garantiza el éxito, pero sin duda ayuda a lograrlo (Beishline y Holmes, 1997; Santhanam y Hicks, 2002; Adamson, O'Kane, y Shevlin, 2005; Gurung y Vespia, 2007; Zhivkova, 1992; Greenwald y Gillmore, 1997; Keeley y Buskits, 2006; McAlpine y Weston, 2000; Epting, Zinn, Buskist y Buskist, 2004). Al respecto, Feldman añade otras cualidades como: estimular el interés, la claridad, conocimiento de la materia, la preparación y organización del curso, el entusiasmo por el tema y por la enseñanza, la bondad, la preocupación y el respeto por los estudiantes, disponibilidad, apertura a las opiniones de los demás, preguntas alentadoras y de generación de discusión (Feldman, 1976). A

estas se añade el uso de herramientas electrónicas, donde la disponibilidad total de conferencias, presentaciones y otros materiales se convierten en cruciales, ya que se espera que estos se utilicen para el aprendizaje independiente (Ritter y Lemke, 2000). Sin embargo, existe la posibilidad de que los estudiantes tiendan a recordar mejor las habilidades de los maestros más amables (Bjork y Whitten, 1974; Murdock, 1962, McAlpine y Weston, 2000). Otra consideración importante es la posibilidad de generalizar habilidades a distintas disciplinas; algunos creen que es posible, y otros cuestionan tal posibilidad (Epting, Zinn, Buskits y Buskits, 2004; Zhivkova, 1992; Blakemore, 2003)

La globalización, la competenciay los intereses múltiples.

En el contexto de la creciente competencia por estudiantes, las instituciones de educación superior reconocen que para promocionarse necesitan tomar las necesidades de los estudiantes en cuenta (Hemsley-Brown y Oplatka, 2006). Así mismo, se busca armonizar las necesidades de los empleadores potenciales y el desarrollo de negocios sin reducir la equidad y la pertinencia (Stockley, 2011; Rojas Mix, 2011; Schwarsman, 2010).

El problema radica en la multiplicidad de roles y clientes. Cuando las opiniones de los estudiantes, profesores, empresas, posibles empleadores, sociedad y gobierno se intentan armonizar, esto crea con�ictos de intereses e interpretaciones en los esfuerzos para mejorar la calidad y la satisfacción de las funciones académicas, administrativas y de apoyo (Carvalho y Da Silva, 2003; Chua, 2004; Quinn, Lemay, Larsen y Johnson, 2009; Petruzzellis, Uggento y Romanazzi, 2006).

81

Nadie tiene la solución a la participación activa de los estudiantes, sin embargo, la Universidad de Exeter desarrolló un modelo que trata de entender la condición multifacética del estudiante compuesto de cuatro maneras de involucrarlos en la universidad. Estas son: asesor, participante, socio, cocreador, experto y, tal vez, incluso mejor como un agente de cambio con necesidades cambiantes. Todo esto dentro de un contexto que es quizás demasiado variable en el tiempo y el espacio (Kay, Dunne y Hutchinson, 2010). Al �nal, la pregunta es cómo equilibrar equidad, pertinencia, �nanciación, buenos maestros, procesos de soporte y la infraestructura de la educación para satisfacer las necesidades del contexto en una economía global cada vez más interconectada, y tener una universidad de éxito.

Metodología

El trabajo se realizó en una universidad con una población de grado de 10000 estudiantes, durante el primer trimestre de 2014. La muestra se calculó con un 95% de con�anza, el 5% de error y el 50% de distribución de respuesta en 370 sujetos, cantidad que se duplicó para garantizar la sustitución automática de boletas incompletas, para un total de 554 encuestas útiles.

El instrumento incluye artículos para 4 variables latentes (técnicos, docentes, actitudes personales y competencias tecnológicas) para un total de 26 preguntas. La lista se ha elaborado sobre la base de una revisión de la literatura siguiendo criterios tales como: a) expresar una sola idea, b) evitar la negatividad, c) evitar el coloquialismo, y d) considerar el nivel de educación (Spector, 1992; Bradburn, Seymour y Wansink, 2004). La escala tipo Likert fue de 10 niveles. Las encuestas incompletas fueron descartadas. En la prueba del instrumento, el alfa de Cronbach se estimó en 0,94; el alfa mínimo para un resultado que puede considerarse �able es de 0,7 (Nunnally, 1978), por lo que se supone que el instrumento posee la validez interna deseada.

El Índice Sumativo de Valoración del Profesor o

IVP se de�nió de la siguiente manera:

• Y=IVP = ((( CT, CD, AT ,CTEC) /260)*100) donde• CT competencias técnicas, CT1+ ... +CT4,• CD competencias docentes, CFD1+... +CFD9,• AT actitudes personales AT1+...+AT9,• CTEC competencias tecnológicas CTEC1+... +CTEC4

Las ecuaciones �nales se obtuvieron por dos procedimientos de ajuste: MCO, mínimos cuadrados ordinarios y regresión logística ordinal, OLR. El ajuste de los modelos se llevó a cabo por eliminación hacia adelante, controlada hasta que todas las variables en el modelo fueron signi�cativas al 95% de con�abilidad (Kachigan, 1999, Pample, 2000). El análisis se desarrolló en Minitab16.

El análisis cuantitativo descrito fue veri�cado mediante el análisis de contenido de los comentarios en las encuestas, tomando como categorías de análisis los temas identi�cados en el modelo y utilizando un grupo de 10 estudiantes, dos por "disciplina", para obtener su interpretación por escrito del análisis de contenido de las variables �nales incluidas en el modelo.

Resultados Per�l del estudiante

El per�l de los estudiantes en cuanto a las características socio-demográ�cas fue: 60% mujeres y 40% hombres. En cuanto a su condición laboral, se indica que solo estudia el 65%, el 35% trabaja y el 10% era además cabeza de familia. El promedio de edad fue estimada en 20 años, su distribución tiende a concentrarse en los grupos de 17 a 20 años y el 6% es mayor de 26 años. El 44% proviene de escuelas secundarias públicas y el 48%, de privadas. Socio-demográ�camente, estamos frente a un grupo donde las mujeres son igual de importantes que los hombres. Esta realidad retará la desigualdad laboral que sigue siendo práctica común y lo que esto podría signi�car en términos de prestación de servicios académicos y no académicos.

82

octubre 2015

r e v i s t a

H1. Las variables tecnológicas serán altamente valoradas por los estudiantes en sus profesores

La Tabla 1 indica las variables incluidas en el modelo. La importancia relativa de cada coe�ciente en ambas técnicas, OLS estandarizados (mínimos cuadrados ordinarios) y el modelo semi-normalizado OLR (regresión logística ordinal), fue idéntica.

Los aspectos tecnológicos están representados por “Manejar Power Point” y “Gestionar el Aula Virtual”. Lo aspectos técnicos están representados por "La aplicación de la teoría a la práctica”. Los aspectos docentes, por "saber cómo evaluar" y las actitudes personales, por “Ayudar al estudiante con el curso” y “Respeto”. La evidencia apoya las nuevas competencias alrededor de la tecnología, que hace una década quizá hubiera sido impensable. Esto indica que los cambios generados por Internet ya llegaron al aula. En la Costa Rica del 2014, con el móvil, tableta y cobertura nacional de Internet en los hogares urbanos y rurales, los estudiantes esperan que los que son responsables de la transmisión de conocimientos, al menos, tengan las competencias mínimas que muchos de ellos

tienen. Las universidades y profesores tienen que reconocer esta realidad y apoyar a los profesores que tienen limitaciones tecnológicas a superarlas, así como asistirlos en aplicar la tecnología en la enseñanza.

El análisis cualitativo indicó que de las 554 encuestas útiles, 316 incluyeron comentarios en relación con las competencias valoradas identi�cadas por el modelo. Los comentarios asociados a las seis variables identi�cadas se distribuyeron de la siguiente manera: ayuda con el curso 26%, manejar Power Point 15%, saber cómo evaluar el 21%, respetuoso del 11%, manejar aula virtual 13% y aplicar la teoría a la práctica 14% .

83

Discusión

Implicaciones para el diseño de políticas de Recursos Humanos

Una breve interpretación cualitativa de lo que las variables en el modelo derivado signi�caron sobre la base de la observación y los comentarios se presenta a continuación:

1. Ayuda con el curso: Necesitan más tutoría, pero pre�eren al profesor del curso, dados posibles desacuerdos entre el profesor del curso y el eventual tutor.

2. Manejo de Power Point: Si el profesor no proporciona las clases en diapositivas, la evidencia indica que se considera difícil tomar apuntes en clase y asociarlos con una asignación o conferencia dada.

3. Saber evaluar: El argumento estuvo centrado en la idea de que es necesario que haya "congruencia" entre la forma en que el curso se ha enseñado y la forma en que se evalúa. Muchos profesores, excelentes profesionales en su especialidad, necesitan preparación sobre cómo llevar a cabo evaluaciones.

4. Respetuoso: Esto parece ser una combinación de puntualidad, llamar con antelación si no vienen, amable, pero exigente, y tratar a todo el mundo por igual.

5. Manejar aula virtual: El manejo del aula virtual, junto con el manejo del Power Point, completa el conocimiento tecnológico mínimo que se espera que esté presente y que complementa las nuevas formas de estudiar y tomar nota. Si los estudiantes pueden manejar las tecnologías de información, se espera que el profesor las maneje.

6. Aplicar la teoría a la práctica: Las clases "libro de texto" con poca mención en cuanto a lo que puede hacerse con el "conocimiento" que se transmite fue una observación crítica común.

Lo que piden es razonable y está relacionado con la selección, plani�cación y formación de recursos humanos, no requiere una gran inversión �nanciera y puede arrojar algo de luz sobre lo que pueden esperar en otros países de la región centroamericana.

Conclusiones

La encuesta utilizada tiene una �abilidad sólida basada en el alfa estimada.

La jerarquía de las variables identi�cadas y valoradas fue: manejar Power Point, ayudar con el curso, saber cómo evaluar, gestionar el aula virtual, ser respetuoso y aplicar la teoría a la práctica.

La importancia de la tecnología no se cuestiona y un uso mínimo de ella está implícito dada la participación de manejar presentaciones y gestionar el aula virtual.

El respeto y la ayuda con el curso como actitudes son centrales y enmarcan cómo los estudiantes esperan que los profesores interactúen con ellos.

La mezcla exitosa de la tecnología, el trato e interés humano parece ser el segundo cambio que está experimentando el país en su proceso educativo universitario y quizás a otros niveles. Limitaciones y sugerencias para investigaciones

Futuras.

El estudio se realizó en una sola universidad, en un solo contexto geográ�co. Sería útil realizar estudios similares en otros países, universidades y niveles educativos.

84

octubre 2015

r e v i s t a

BibliografíaAdamson, G., O’Kane, D., & Shevlin, M. (2005).

Stu¬dents’ ratings of teaching e�ectiveness: A laughing matter? Psychological Reports, 96, 225-226.

Beishline, M. J., & Holmes, C. B. (1997). Student pref¬erences for various teaching styles. Journal of In¬structional Psychology, 24, 95-99.

Bjork, R. A., & Whitten, W. B. (1974). Recency-sensit¬ve retrieval processes in long-term free recall. Cog¬nitive Psychology, 6, 173-189.

Blakemore, J. E. O. (2003). Children’s beliefs about violating gender norms: Boys shouldn’t look like girls, and girls shouldn’t act like boys. Sex Roles, 48, 411-419.

Bradburn, N., Sudman, S., y Wansink, B. (2004) Asking Questions: the de�nitive guide to questionnaire design- for market research, political polls, and social and health questionnaires. Revised Edition. San Francisco: Jossey -Bass. A Wiley Imprint.

Camp, R.C. (1993). Benchmarking. La búsqueda de las mejores prácticas de la industria que conducen a un desempeño excelente. México: Panorama.

Carmines, E.G. & Zeller, R.A. (1979). Reliability and Validity Assessment. Sage University Paper Series on Quantitative Applications in the Social Sciences, 07-017. Thousand Oaks, CA: Sage.

Carvalho Pereira, M. A., & Terra Da Silva, M. (2003). A Key Question for Higher Education: Who are the customers? Paper presented at 31st Annual Conference of the Production and Operations Management Society, POM 2003, Atlanta, GE.

Chua, C. (2004). Perception of Quality in Higher Education. AUQA Occasional Publication. Proceedings of the Australian Universities Quality Forum, Sidney.

Epting, L. K., Zinn, T. E., Buskist, C., & Buskist, W. (2004). Student perspectives on the distinction be¬tween ideal and typical teachers. Teaching of Psy¬chology, 31, 181-183.

Feldman, K. A. (1976). The Superior College Teacher from the Student's View. Research in Higher Education 5(3), 243-288.

Greenwald, A. G., & Gillmore, G. M. (1997). Grading leniency is a removable contaminant of student rat¬ings. American Psychologist, 52, 1209-1217.

Gurung, R. A. R., & Vespia, K. M. (2007). Looking good, teaching well? Linking liking, looks, and learning. Teaching of Psychology, 34, 5-10.

Hemsley-Brown, J., & Izhar Oplatka (2006).Universities in a competitive global marketplace: A systematic review of the literature on higher education marketing. International Journal of Public Sector Management, 9 (4), 316-33.

Instituto Nacional de Estadísticas y Censo (2014). Encuesta Nacional de Hogares: Resultados. San José. Costa Rica.

Johnson, L., Adams Becker, S., Cummins, M., Estrada, V., Freeman, A., & Ludgate, H. (2013). NMC Horizon Report: 2013 Higher Education Edition. Austin, Texas: The New Media Consortium.

Kay, J., Dunne. E., & Hutchinson, J. (2010). Rethinking the values of higher education- students as change agents? Quality Assurance Agency for Higher Education. London, UK. Recuperado de: www.qaa.ac.uk/students/studentengagement/undergraduate.pdf.

Kachigan, S. K. (1991). Multivariate Statiscal Analysis. A Conceptual Introduction. New York: Radius Press.

85

Keeley, J., Furr, R. M., & Buskist, W. (2010). Di�eren¬tiating psychology students’ perceptions of teachers using the Teacher Behavior Checklist. Teaching of Psychology, 37, 16-20.

Klemp, G. O. (1980). The Assessment of Occupational Competence. Report to the National Institute of Education. Washington, DC.

Lara, J.F. (31 de julio de 2014). Líneas celulares se disparan a 151 por cada 100 habitantes. La Nación. Recuperado de: http://www.nacion.com/nacional/telecomunicaciones/Lineas-celulares-disparan-habitantes_0_1430057043.html

McAlpine L., & Weston, C. (2000) Re�ection: Issues related to improving professors’ teaching and students’ learning. Instructional Science 28(5–6), 363-385.

McClelland, D.C. (1973). Testing for competence rather than for intelligence. American Psychologist, 28, 1-14.

Murdock, Jr., B. B. (1962). The serial position e�ect of free recall. Journal of Experimental Psychology, 64, 482-488.

Murillo Sancho, G. (2009). Evaluación Del Desempeño Docente Desde Competencias Genéricas en La Universidad. Actualidades Investigativas en Educación, 9 (1), 1-25.

Nunnally, J.C. (1978). Psychometric Theory (2nd ed.). New York: McGraw Hill.

Pample Fred C. (2000). Logistic Regression: A primer. Sage University Paper Series on Quantitative Applications in the Social Sciences, 07-132. Thousands Oaks, CA: Sage.

Parry, S. R. (july, 1996). The Quest for Competence. Training Magazine, 48-56.

Petruzzellis, L., D’Uggento, A.M., & Romanazzi, S. (2006). Student satisfaction and quality of service in

Italian universities. Managing Service Quality, 16 (4) 349-364.

Quinn, A., Lemay, G., Larsen, P., & Johnson, D.M. (february, 2009). Service quality in higher education. Total Quality Management, 20 (2), 139–152

Ritter, M., & Lemke, K. (2000) Addressing the ‘Seven Principles for Good Practice in Undergraduate Education’ with Internet-enhanced Education. Journal of Geography in Higher Education 24(1), 100-109.

Rojas Mix, M. (diciembre de 2011). ¿Estudiantes o clientes? El neoliberalismo y la Educación Superior. Le Monde Diplomatique. Recuperado de: http://www.lemondediplomatique.cl/article1931,1931.html.

Santhanam, E., & Hicks, O. (2002). Disciplinary, gen¬der and course year in�uences on student percep¬tions of teaching: Explorations and implications. Teaching in Higher Education, 7, 17-31.

Schwartzman, R. (2010). Are Students Costumers? The Metaphoric Mismatch between Management and Education. The Journal of Education, 116 (2), 218-223

Spector, P.E. (1992) Summated Rating Scale Construction. An introduction. Sage University Paper Series on Quantitative Applications in the Social Sciences, 07- 082: Newbury Park, CA: Sage.

Stockley, D. (2011). Global Trends In Higher Education. Recuperado de: www.emeuropeasia.org/.../Conf_David_Stockley_Global_Trends.

White, R. W. (1959). Motivation reconsidered: The concept of competence. Psychological Review, 66 (5), 297-333.

Zhivkova, H. (1992). Evaluation of the lecturer: The ideal and reality. Annals of Community- Oriented Education, 5, 215-222.

86

octubre 2015

r e v i s t a

La evaluación del desempeño en las empresasy la resiliencia: Una revisión de literatura

Performance review in companiesand resilience: A literature review

Ing. Jesús Morgan Asch, MScUniversidad Fidélitas, Costa Rica

Profesor de Administración de [email protected]

Resumen:

Este artículo ofrece un panorama general del estado del arte sobre la evaluación del desempeño en las empresas y cómo se puede relacionar con el concepto de resiliencia. La revisión aborda los principales conceptos y la evolución de la evaluación del desempeño desde el punto de vista de diferentes autores e instituciones. También, se de�ne la resiliencia y se muestran investigaciones sobre este tema. Se muestra el debate actual sobre la utilidad o no de esta competencia devenida en herramienta, mostrando las diferentes posiciones y sus justi�caciones. La revisión aporta elementos de análisis que pueden servir para el desarrollo de futuros estudios sobre un tema actual y que merece un espacio dentro de las agendas de la investigación en las ciencias empresariales. El artículo �naliza con una propuesta de medición del desempeño donde se incluyen los principales aspectos encontrados.

Palabras clave: Desempeño, evaluación, resiliencia.

Abstract:

This article provides an overview of the state of the art of performance review in companies and how they can relate to the concept of resilience. This review addresses the main concepts and evolution of performance evaluation from the point of view of di�erent authors and institutions. Resilience is also de�ned, and researches about this subject are described. The current debate on the utility of resilience is described, showing the di�erent positions and their justi�cations. The review provides elements of analysis that can be used to develop future studies on a current topic and deserves a place on the agendas of research in the sciences business. The article concludes with a proposal for performance measurement, which include the main aspects found.

Keywords: Performance, review, resilience.

Recibido: Abril 2015 Aceptado: Junio 2015 Publicado: Octubre 2015

87

1. Introducción

Este artículo intenta re�ejar el estado de la literatura de la evaluación del desempeño de los colaboradores de las empresas. La revisión aborda los principales desafíos que, desde diferentes publicaciones, reportes de investigación y la literatura en general, afronta la evaluación del desempeño en lo concerniente a concepciones, propósitos, enfoques e instrumentos. La revisión brinda una aproximación del estado del arte en evaluación del desempeño, aportando elementos de análisis que pueden servir para el desarrollo de futuros estudios sobre un tema actual y que merece un espacio dentro de las agendas de la investigación empresarial.

Dado el papel preponderante que tiene el rendimiento laboral de los colaboradores en los resultados de la empresa, se hace indispensable profundizar en el concepto de cómo medirlo. Se desea ir más allá de lo que se podría percibir como un buen o un mal rendimiento y abordar el tema de una forma sistemática e integral.

En ese sentido, la información que aquí se presenta corresponde al resultado de un amplio ejercicio de análisis sobre lo que signi�ca la evaluación del desempeño en general, en el marco de la evaluación del desempeño. Sin embargo, dada la complejidad del tema en términos de las múltiples dimensiones que abarca, la multiplicidad de criterios existentes a su alrededor y la falta de acuerdo respecto a lo que el alto desempeño signi�ca, se ha concretado este acercamiento en aquellas características que de forma común, vistas desde la literatura, podrían atribuirse al desempeño en relación con la calidad con la que desarrolla su tarea y los resultados que alcanza.

Se aborda, además, el tema de la resiliencia y sus componentes teóricos. Asimismo, se muestran investigaciones sobre cómo este concepto se puede relacionar con las ciencias empresariales.

A continuación, se encontrará en primer lugar una aclaración sobre la postura que adoptan algunos autores respecto al desempeño laboral. Lo anterior con el propósito de ubicar desde esta postura la forma en la que desde este trabajo se entenderá y abordará la evaluación del desempeño. Luego, se abordarán los principales instrumentos existentes para medir el rendimiento laboral. Seguidamente, se analizarán los pros y los contras de la evaluación del desempeño, �nalizando con las últimas propuestas en este tema. Se abordará conceptualmente el tema de la resiliencia y las investigaciones realizadas. Una vez que esto se ha presentado, se pasará a detallar una propuesta de evaluación del desempeño del colaborador.

2. El camino para el análisis

Para efectos de la revisión del progreso académico con respecto a los conceptos abordados en este artículo, se realizó una revisión de literatura y análisis de datos.

La búsqueda abordó artículos publicados en revistas especializadas, libros de autores clásicos e investigaciones empíricas. Para el efecto, se desarrolló una estrategia coherente con el �n de limitar la revisión al objetivo declarado en ella y así incluir y excluir adecuadamente los textos durante el proceso. Dentro de esta estrategia, se consideró pertinente incluir textos, descriptores o palabras clave de búsqueda tanto en inglés como en español. Además, se de�nió un corpus documental que incluyó artículos publicados en revistas cientí�cas indexadas en la principales bases de datos académicas: Scopus, ISI Web of Knowledge, SciELO, EBSCO -host, ScienceDirect y DOAJ. Google Scholar se utilizó para identi�car textos relevantes extraídos de publicaciones en blogs y otras fuentes secundarias relacionadas con reconocidos académicos y expertos en la materia. Este enfoque produjo un corpus de documentos compuesto por 40 referencias bibliográ�cas que cubren un período de diez años (2005 a 2015).

88

octubre 2015

r e v i s t a

Los primeros resultados emergieron de la revisión de literatura y fueron usados en un análisis posterior a partir del cual se produjeron distintas percepciones en cuanto a la evaluación del desempeño y la resiliencia. Los resultados de la revisión de literatura se han dividido en dos perspectivas diferentes: una en la que caracteriza la evaluación del desempeño y la otra en cómo se complementa con la resiliencia.

3. Antecedentes y tendencias

3.1 Desempeño laboralEn tiempos recientes y a través de la historia de la gestión del talento humano, ha existido un debate continuo sobre cómo medir los recursos humanos de una manera precisa y con�able para optimizarlo y que la empresa se vea bene�ciada. Como respuesta a esta necesidad, se han implementado numerosas iniciativas. Una de ellas es la medición del desempeño. Esta técnica ha sido sometida a debate numerosas veces por su complejidad y por sus cuestionamientos en cuanto al verdadero bene�cio que le genera a una empresa versus el costo y desgaste que conlleva.

Según Idalberto Chiavenato (2009), el desempeño laboral es una herramienta que mide el concepto que tienen, tanto los proveedores como los clientes internos, de un colaborador. Esta herramienta brinda información sobre su desempeño y sus competencias individuales con el �n de identi�car áreas de mejora continua que incrementen su colaboración al logro de los objetivos de la empresa.

Otra de�nición más completa del mismo autor indica que la evaluación del desempeño de un colaborador es una forma sistemática de valoración de las actividades que ejecuta y si este logra alcanzar las metas propuestas, dar los resultados deseados y mostrar potencial de desarrollo a futuro, pero sobre todo, cuánto valor agrega a la organización.

Un desempeño constante y sobre todo sostenible a través del tiempo es crítico para el éxito de la empresa (Wade, 2014). Sin embargo, las empresas deben propiciar las condiciones para que esto se dé y así verse bene�ciadas. Según dicho autor, por un lado, el burnout (síndrome de quemado) de los

Fuente: Elaboración propia

89

colaboradores y, por otro, la demanda de atención constante y concentrada que requiere la empresa de parte de aquellos, hace que se tengan que tomar medidas para equilibrar esa situación. Esto no es fácil debido a que se tiene una noción de que los aspectos blandos de la vida son responsabilidad personal del ejecutivo y deben ser logrados y buscados fuera de horas laborales. Una de esas medidas es el balance de vida y trabajo, donde según estudios del IMD de Suiza (Wade, 2014), los ejecutivos en buen estado mental, físico y emocional tienen un desempeño superior, toman mejores decisiones y saben transmitir ideas a sus equipos.

3.2 Evaluación del desempeñoDentro de este tema, la evaluación de desempeño encierra un sinnúmero de complejidades. Coexphal

(2012) de�ne la evaluación del desempeño como un proceso sistemático y periódico que sirve para estimar cuantitativa y cualitativamente el grado de e�cacia y e�ciencia de las personas. Su principal objetivo es determinar si los empleados están haciendo correctamente su labor. Esta puede aportar información sobre la necesidad de mejorar del colaborador a nivel de conocimientos y habilidades.

Indica, además, que la evaluación del desempeño debe basarse en cuatro aspectos:

• Cantidad y calidad de los servicios producidos por el colaborador.• Comportamiento en su puesto de trabajo.• Medios que utiliza el colaborador.• Integración con los valores, cultura y objetivos de la organización.

Los principales criterios para evaluar el desempeño se dividen en tres aspectos: habilidades o capacidades, comportamiento y logro de resultados (Chiavenato, 2009). En la Tabla 1, se presentan los aspectos que generalmente componen cada rubro.

90

octubre 2015

r e v i s t a

Alles (2010) indica que los métodos de evaluación del desempeño se clasi�can de acuerdo a lo que buscan medir, a saber: características, comportamientos y resultados.

Aquellos basados en las características son los más utilizados, aunque no los más objetivos. Miden en qué grado un colaborador presenta características importantes para la organización, tales como: liderazgo, creatividad, iniciativa, con�abilidad y otros. Si las características no tienen relación con el puesto, se puede caer en un error de evaluación. Indica Alles que las técnicas más utilizadas para medir características son:

• Escalas grá�cas de cali�cación: Grá�camente se señala en qué grado el colaborador posee dicha característica.• Escalas mixtas: En lugar de evaluar una escala, se indican tres descripciones especí�cas de la

característica a evaluar: superior, promedio o inferior.

Existen las técnicas de distribución forzada y de formas narrativas, pero estas se encuentran en desuso.

Los basados en el comportamiento consisten en retroalimentar al empleado en qué comportamientos deben exhibirse en el puesto y en qué grado se aleja de esos comportamientos. Las técnicas más utilizadas son:

• Método de incidente crítico: Se centra la atención en sucesos que demuestren aspectos favorables o no favorables durante todo el período evaluado.• Escala fundamentada para la medición del comportamiento: Se requiere una por puesto y

consiste en trazar una escala vertical para evaluar cada dimensión importante del comportamiento.• Escala de observación del comportamiento: A través de la observación se mide la frecuencia de

un comportamiento dado. Presume una mayor facilidad y objetividad para informar al evaluado sobre sus resultados.

Alles señala que los métodos basados en resultados evalúan los logros de los colaboradores. Estos métodos suponen una subjetividad menor por parte del evaluador, ya que están sujetos a cifras y datos.

• Administración por objetivos: Filosofía administrativa propuesta por Peter Drucker en 1954, según la cual se cali�ca el desempeño con base en las metas alcanzadas, según acuerdo previo entre la empresa y el colaborador.

91

En la misma línea orientada a la ejecución, la organización Franklin Covey (2010) propone medir el desempeño a través del coe�ciente de ejecución (XQ), que consiste en medir los aspectos, agrupados según líneas de ejecución, que pueden verse en la Tabla 2.

El instrumento mostrado en la Tabla 2 integra los factores relevantes, que según el Instituto Frankley Covey, impactan más en el desempeño y ejecución de un colaborador en una organización. En lo que se re�ere al aspecto claridad, se desea medir si el individuo entiende sus metas, si estas son medibles y si tienen fechas límite. En lo que respecta a compromiso, se mide si el individuo está comprometido con la dirección organizacional y si ese compromiso se ve re�ejado en acciones. Esto determinando si el trabajador está enfocado en las metas organizacionales, si da seguimiento hasta el �nal a sus actividades, si programa de forma sistémica sus prioridades y cuánto tiempo dedica a ejecutar sus metas principales. Este aspecto se ve facilitado por el siguiente factor en el instrumento, que es posibilitar el desempeño del equipo. Aquí es donde se evalúan los recursos que dispone el individuo y su libertad para realizar su trabajo, y si apoya de forma activa las metas del equipo de trabajo aplicando un enfoque sistemático para mejorar. Todo esto dentro de un ambiente de sinergia, donde hay comunicación y con�anza dentro del equipo de trabajo, y este rinde y se desempeña según lo esperado. Esta situación se valora en el último aspecto: rendición de cuentas.

92

octubre 2015

r e v i s t a

Por otra parte, una de las metodologías de evaluación del desempeño reconocidas como más justas, novedosas y bene�ciosas para todos los actores relacionados con el trabajador, es la evaluación de 360 grados (Lara Carballo, Moras Sánchez, Morales Mendoza, & Galán García, 2010). Según Martha Alles (2010), este método consiste en que un grupo de personas valore a otra por medio de competencias prede�nidas, con base en comportamientos observables del trabajador en el desarrollo diario de su práctica profesional. El propio personal se autoevalúa y es evaluado por todo su entorno (jefes, pares, externos, clientes, subordinados, etc.), recibiendo así, de manera objetiva, la percepción de todas aquellas personas que observan y conocen su labor. De esta manera, el trabajador identi�ca sus fortalezas y debilidades, además de analizar y valorar las evaluaciones recibidas. Esto permite comparar los resultados obtenidos para mejorar su desarrollo personal y profesional.

3.3 Ventajas y desventajas de la evaluación del desempeño

Como bene�cios que obtiene la empresa de este ejercicio, Coexphal (2012) señala el involucramiento de las personas al reconocer su esfuerzo, lo que aumenta la probabilidad de que repita ese comportamiento. Esto establece un canal formal de comunicación y señala claramente lo que la empresa espera de sus colaboradores. En caso de detectar un bajo rendimiento, se busca identi�car las áreas de mejora de forma consensuada entre el trabajador y su supervisor, y de forma conjunta lograr establecer acciones correctivas con el �n de fortalecerlas. Para el colaborador, los bene�cios que le genera

este proceso son: saber con certeza con base en qué criterios y prioridades se evalúa su labor, obtener retroalimentación sobre cuáles son sus

puntos fuertes y débiles según esos criterios y obtener ayuda para los procesos de mejora de su responsable inmediato, mejorando la comunicación con él y sintiendo que su labor es reconocida.

No es que las �rmas quieran deshacerse del todo de los comentarios negativos. Las vistas negativas a veces motivan a la gente más efectivamente que las alabanzas, indican los expertos de gestión Jack Zenger y Joseph Folkman, de la consultora de liderazgo Zenger Folkman. Ellos han descubierto que los empleados anhelan las críticas más que las felicitaciones (Feintzeig, 2015).

A través de las evaluaciones del desempeño, se pueden detectar situaciones; de otra forma, si no se midiera el desempeño, sería difícil identi�car una determinada situación que esté afectando al talento humano. Por ejemplo, en un artículo publicado en el Wall Street Journal (2015), el autor, a través de una investigación realizada por académicos en la Universidad de Florida y en la Universidad de Administración de Singapore, llega a la conclusión de que cuando los gerentes de fondos de cobertura se divorcian o contraen nupcias, su desempeño se ve impactado de forma negativa. Indica dicha investigación que el divorcio tiene el mayor impacto en el rendimiento de estos funcionarios, ya que durante seis meses (tres meses antes y tres después de un divorcio), el

rendimiento baja en 4.3 puntos porcentuales. Durante los dos años siguientes al divorcio, el rendimiento aún seguirá siendo afectado negativamente en 2.3 puntos porcentuales. En el caso del matrimonio, el efecto es menor pero sigue siendo negativo. Según la investigación, el rendimiento de los gerentes disminuye en un 3.1% durante los seis meses previos a la boda y durante los tres meses posteriores. Durante los 24 meses posteriores a la boda, el impacto negativo en el rendimiento es de 3.2%.

93

La metodología utilizada fue recolectar registros de los retornos de diversos fondos de cobertura desde 1994 hasta el 2012 de múltiples fuentes como: TASS, Mornignstar, HFR y BarclayHedge. Dichos registros (Feintzeig, 2015) se cruzaron con una muestra de 98 matrimonios y 76 divorcios de 13 diferentes lugares en Estados Unidos (Arizona, California, Colorado, Connecticut, Florida, Georgia, Kentucky, Nevada, North Carolina, Ohio, Pennsylvania, Texas y Virginia) Se puede concluir que la evaluación del desempeño en este caso se hizo por resultados únicamente.

Sin embargo, las evaluaciones del desempeño han sido ampliamente cuestionadas en cuanto a su utilidad y en cuanto al valor agregado que le generan a la empresa, inclusive se llega a decir que la mejor evaluación del desempeño es precisamente la que no se hace (Suddath, 2013). Incluso, en un estudio llevado a cabo por la �rma Deloitte se determina que aproximadamente un 47% de empleadores está revisando o planea someter a examen sus sistemas de evaluación (Montero, 2015).

Años antes, en otro artículo publicado en el journal citado, se indica como una evaluación del rendimiento puede destruir la moral, el trabajo en equipo y afectar las utilidades (Culbert, 2008). Dicho autor incluso va más allá y señala que pocas veces la retribución está ligada al desempeño. Ella está más bien ligada a las fuerzas del mercado o al presupuesto de la empresa. Entonces, lo que se dice en este proceso, aunque sea una realimentación positiva, va orientado más a ganarse la gratitud del colaborador que a proporcionar una descripción exacta con franqueza de su desempeño. Esto a pesar de que, a sabiendas de que el jefe es el que evalúa, el colaborador no lo buscará para explorar cómo mejorar y cómo desarrollarse, ya que eso le puede costar puntuación en su desempeño.

3.4 Tendencias de la evaluación del desempeño

Existen muchas opciones disponibles hoy en día para las organizaciones en este tema abordado. Es útil explorar su potencial y valor relativo, especialmente buscando ideas nuevas e innovadoras que les permitan tomar decisiones con mejor información sobre cuál sistema de medición del desempeño adoptar, que satisfaga mejor sus necesidades (Broeclking, 2010).

Culbert (2008) indica que una alternativa efectiva a la evaluación del desempeño es la evaluación previa del rendimiento en forma conjunta, en lugar de una evaluación posterior solo del colaborador. Destaca que la responsabilidad del encargado es liderar, entrenar y lograr que sus colaboradores logren el mejor desempeño, pero cuando viene la evaluación del desempeño, al único que se responsabiliza es al colaborador. El encargado debe preguntarse "Siendo quien soy y lo que he aprendido de esta otra persona, ¿cuál es la mejor manera de complementarnos el uno al otro para lograr ejecutar el trabajo con excelencia? Esta forma, propone el autor, elimina una única evaluación anual y la transforma en una realimentación constante y frecuente para conseguir los objetivos.

En esta misma línea de pensamiento, Deloitte indica que la tendencia es eliminar estos sistemas y su asociación con la remuneración, sustituyéndolos con un sistema de coaching continuo y de feedback inmediato (Montero, 2015)

Los empleadores y empleados necesitan algo más ágil, en tiempo real y más personalizado que los instrumentos tradicionales de evaluación del desempeño. Requieren algo que se centre más en impulsar el rendimiento en el futuro en lugar de evaluarlo en el pasado (Buckingham & Goodall, 2015).

94

octubre 2015

r e v i s t a

Indican dichos autores que la �rma Deloitte rediseñó el sistema de evaluación del desempeño, reduciéndolo a solo cuatro preguntas consideradas claves para evaluar al colaborador:

1. Dado lo que conozco del rendimiento de esta persona y si fuera mi dinero, ¿premiaría a esta persona con el incremento más alto en la compensación? Esto mide, según los autores, el rendimiento global y el valor agregado a la organización en una escala de uno a cinco, desde “totalmente de acuerdo” hasta “totalmente en desacuerdo”

2. Dado lo que conozco del rendimiento de esta persona, ¿siempre lo querría en mi equipo? Esto mide la capacidad de trabajar bien con otros en la misma escala de uno a cinco.

3. ¿Esta persona presenta un riesgo de tener bajo rendimiento? Identi�ca problemas que podrían impactar negativamente en el cliente o al equipo en una base de sí o no.

4. ¿Esta persona se encuentra lista para promoverla hoy mismo? Mide el potencial en una base de sí o no (Buckingham & Goodall, 2015)

Este sistema de evaluación del desempeño le pregunta al evaluador qué haría con sus colaboradores en lugar de preguntarle qué piensa de ellos. Según los autores, con este sistema se desea reducir el tiempo invertido en evaluar, hacer la evaluación más transparente y efectiva, tomar fotos en el tiempo del rendimiento y no esperar hasta el �nal de un período para evaluar, logrando así realimentar con mayor frecuencia tanto a colaboradores como a empleadores, en cuanto al rendimiento de los primeros. No se pone en entredicho la necesidad de medir el desempeño, se cuestiona, y de ahí el rediseño del sistema de evaluación llevado a cabo en Deloitte, la forma de hacerlo.

Por otra parte, indica Feintzeig (2015) que en Boston Consulting Group se ha cambiado la forma en que los gerentes evalúan el desempeño de los empleados, ya

que antiguamente se enfocaban en señalar sus debilidades. Se comprobó que esa práctica hacía más daño que bien a los empleados y, por lo tanto, a la empresa. Ahora, se espera que los gerentes destaquen las fortalezas de los trabajadores durante evaluaciones, explicando cómo la persona puede utilizar sus talentos para afrontar aspectos del trabajo que le resultan naturalmente más difíciles. A los jefes se les recomienda que no mencionen más de una o dos áreas que necesitan progreso.

Este enfoque positivo se ve reforzado, indica dicha autora, ante la creciente popularidad de herramientas como StrengthsFinder de Gallup, que está diseñada para medir los talentos de una persona en 34 áreas. Alrededor de 600.000 personas emplearon la herramienta cada año desde 2001 hasta 2012.

3.5 Resiliencia y desempeño

El término resiliencia se re�ere originalmente en ingeniería a la capacidad de un material para adquirir su forma inicial después de someterse a una presión que lo deforme. Al hablar de resiliencia humana se a�rma que es la capacidad de un individuo o de un sistema social de vivir bien y desarrollarse positivamente, a pesar de las difíciles condiciones de vida y, más aún, de salir fortalecidos y ser transformados por ellas. Sin embargo, últimamente ha emergido este término en el contexto organizacional. En este sentido, varias de�niciones han surgido de�niendo a la resiliencia como la capacidad organizacional para anticipar los eventos clave relacionados con tendencias emergentes, adaptarse constantemente al cambio y recuperarse de manera rápida después de desastres y crisis.

Otra de�nición es la capacidad de una organización de absorber choques e impactos profundos sin perder la capacidad de cumplir su misión. Sin embargo, el asunto puede ser visto en una perspectiva extendida, que va más allá del solo hecho de resistir y mantenerse, sino también hacia producir respuestas creativas que fortalezcan y sostengan a la organización en esta era de la innovación (Sampedro H., 2009)

95

Se han llevado a cabo diversas investigaciones en el ámbito organizacional que han aportado conclusiones interesantes sobre el tema. Tal es el caso de una investigación realizada en la Hyundai Motor Company. Se encontró que la resiliencia organizacional, a pesar de ser poco común, es un componente sumamente importante para el éxito en el aprendizaje organizacional en una empresa (Wright, Suh, & Leggett, 2009).

A pesar de que la resiliencia en una organización se percibe como algo intangible, se han establecido seis factores para medirla, los cuales se presentan a continuación junto con los resultados de la investigación realizada por el autor en departamentos públicos municipales en Estados Unidos y sus características según su nivel de resiliencia:

Fuente: Recuperado de Somers, S. (Marzo de 2009). Measuring Resilience Potential: An Adaptive Strategy for Organizational Crisis Planning. Journal of Contingencies and Crisis Management, 17(1), 12-23.

96

octubre 2015

r e v i s t a

Los resultados mostrados en la tabla 3 se obtuvieron al procesar una entrevista a gerentes de área. Se basó en la percepción propia de cada uno de ellos para estimar la cali�cación obtenida en cada área. Así se le pidió a cada uno que pusiera una nota del uno al siete, si ejecutaba prácticas que refuerzan la resiliencia. Se utilizó el Análisis de regresión múltiple para examinar el impacto colectivo de seis variables independientes que actúan en la variable dependiente de la resiliencia organizacional potencial. También fue utilizado para determinar la relación de las variables independientes entre sí. El valor de R2= 0,20 indica que el 20% de la varianza de la ORP se explica por estos seis factores predictivos y que este valor es estadísticamente signi�cativo (F=3,56, p<.01). Por lo tanto, se puede concluir que el modelo desarrollado aquí es un "buen ajuste a los datos”. Por supuesto, hay una parte importante de la varianza de la izquierda no explicada por este modelo. Sin embargo, la principal preocupación aquí fue por las variables que estaban bajo el control de los gerentes. Por lo tanto, las variables que se espera que expliquen una gran cantidad de varianza, pero incontrolables por la administración, quedaron fuera de la ecuación, como el presupuesto, la población servida, la forma de gobierno local y otras. Sin embargo, es claro que ciertas variables organizacionales in�uenciables por la gerencia tienen un impacto positivo en la resiliencia organizacional latente de la empresa (Somers, 2009).

En otra investigación, se determinó que existe una correlación positiva entre la resiliencia y el engagement (que puede considerarse como características individuales que refuerzan la capacidad para afrontar activamente los estresores laborales), y una correlación negativa entre la resiliencia y el burnout (síndrome de quemado), lo que mitiga la vulnerabilidad de los

sujetos frente a estos riesgos. (Menezes de Lucena, Fernández Calvo, Hernández Martín, Ramos Campos, & Contador Castillo, 2006). Se destaca la resistencia individual frente a factores dañinos, la capacidad para mantener la integridad frente a circunstancias difíciles y la tolerancia a los cambios que afectan la cotidianeidad. Las herramientas psíquicas a las que hay que recurrir son: revalorar la capacidad de pensar, darle otro valor a la vida que se corresponda con la vida actual, revisar la autoestima y dar un nuevo signi�cado a la angustia como señal de alarma en pos de reencontrar el equilibrio perdido (Cesio, 2009). Las personas resilientes, aquellas que ante la adversidad se doblan pero no se rompen, son capaces de experimentar emociones positivas en situaciones estresantes (Vecina, 2006).

La resiliencia supone un salto cualitativo en la acción social, focalizándose la mi¬rada en los aspectos sanos y en las fortalezas de las personas que es preciso identi�car para potenciar su calidad de vida y desarrollo humano (Barranco, 2009)

Se hace necesario realizar investigaciones con diseños metodológicos pertinentes para profundizar en la comprensión del fenómeno resiliente, de tal manera que se pueda obtener un consenso más amplio e integrativo sobre el concepto. A partir de ahí, entonces, podremos avanzar en el diseño de instrumentos capaces de medir de manera más integral los aspectos involucrados en la resiliencia. (Ospina, 2007).

La resiliencia podría ser uno de los conceptos que se trataran en los programas de prevención del burnout (García-Izquierdo, Ramos Villagrasa, & García Izquierdo, 2009).

97

La gestión de los con�ictos emocionales y la formación de personas resilientes son elementos claves de las políticas y prácticas en materia de recursos humanos (Barrio & Barrio, 2009). La resiliencia es un concepto con un enorme potencial para todos aquellos profesionales que laboran en un determinado campo (Muñoz & De Pedro, 2005).

Es necesario orientar para que las personas asuman con sentido expansivo sus propias alternativas de relacionalidad, acepten re�exivamente su conciencia de existencia individual en conexión con otros y se dispongan al crecimiento con la existencia de factores protectores y de resiliencia (Vilera, 2008). Uno de los factores protectores que contribuyen a desarrollar la resiliencia es el tener expectativas realistas de lo que cada uno puede lograr de acuerdo a sus talentos, capacidades y recursos propios. Esto motiva y da oportunidades a los empleados para involucrarse en actividades que incrementen sus recursos y destrezas, que les permitan superar las situaciones difíciles, salir enriquecidos y fortalecidos frente a ellas (Fiorentino, 2008).

Sin embargo, se debe dejar claro que ningún factor por sí solo promueve la resiliencia a menos que esté involucrado con otros. Esta es la razón por la cual es indispensable que cualquier programa de intervención fortalezca simultáneamente aquellos recursos afectivos, cognitivos, emocionales y lingüísticos, entre otros, que hayan demostrado ser relevantes para mejorar la condición de bienestar de las personas (Oros, 2009). Es indispensable capacitar a los colaboradores en lo que se conoce como "habilidades para la vida": cooperación, resolución de con�ictos, destrezas comunicativas, habilidad para resolver

problemas y tomar decisiones y otros (Melillo, 2006). Debe insistirse en no obviar las necesidades de carácter espiritual. El hombre es un ser espiritual. La espiritualidad humana, religiosa o no, es una antigua y poderosa fuente de energía si es canalizada adecuadamente (Naranjo, 2010).

4. Una síntesis necesaria

A partir de la revisión de literatura, se denota que la evaluación del desempeño se ha visto sometida a un proceso constante de evolución. Se trata de acercarse más a instrumentos que sean más efectivos, más precisos y que involucren más, tanto al evaluado como al evaluador, para lograr mejor rendimiento en conjunto.

Se muestra el gran debate que se da en la actualidad sobre la utilidad o no de la evaluación del desempeño. Existen posiciones a favor, otras en contra. Se cuestiona su metodología o incluso hasta su temporalidad y los bene�cios reales para la empresa

Se mostró cómo se han llevado a cabo investigaciones en el caso de la resiliencia y cómo esta afecta positivamente diferentes aspectos del rendimiento de un colaborador.

El desempeño de un colaborador en una empresa es algo sumamente complejo de medir. Se quiere cuanti�car una variable que en la mayoría de los casos no es tangible y que se resume en cuánto valor genera una persona a mi empresa.

98

octubre 2015

r e v i s t a

Siendo este uno de los insumos más importantes para una empresa, es importante continuar con el esfuerzo, porque es una necesidad. No se puede abandonar el modelo y simplemente erradicarlo de las empresas. Desde el punto de vista de las ciencias empresariales, existe una máxima: lo que no se mide, no se controla. Lo que no se controla, no mejora y lo que no mejora, empeora. Abandonar la idea de medir el desempeño sería igual a no medir la calidad, el servicio al cliente, la productividad y muchos factores más, que si bien es cierto, son más fáciles de medir, no son mucho más importantes que el desempeño del ser humano en una organización que está formada por personas. Si se ha fallado en el pasado o si se está fallando en el presente, no es por lo que se está

midiendo, sino por cómo se está midiendo.Estas mediciones han permitido también hallar

relaciones interesantes entre diversos factores y su impacto en el desempeño que de otra forma hubiese sido imposible lograr al no tener una base de medición, como es el caso de la resiliencia y su relación con factores del desempeño.

Resumen de autor

Licenciado en Ingeniería Industrial. Máster en Administración de Negocios. Ingeniero de Sistemas en Computación y Candidato a Doctor en Ciencias Empresariales en la Universidad Fidélitas. Es Auditor Interno de Calidad y ha sido directivo en organizaciones públicas y privadas.

99

Alles, M. A. (2010). Desempeño por competencias: evaluación de 360° (2da ed.). Argentina: Ediciones Granica.

Barranco, C. (2009). Trabajo Social, Calidad de Vida y Estrategias resilientes. Portularia, 9(2), 133-145.

Barrio, L., & Barrio, S. (2009). El factor emocional en auditoría (II). La gestión emocional en la evaluación del entorno de control. Auditoría Pública(49), 75-85.

Broeclking, J. (2010). Performance Measurement: Theory and Practice. College of Professional Studies Professional Projects.

Buckingham, M., & Goodall, A. (abril de 2015). Reinventing Performance Management. Recuperado el 19 de abril de 2015, de Harvard Business Review: https://hbr.org/2015/04/reinventing-performance-management

Cesio, S. (2009). EL "BURN OUT": EL SÍNDROME DE ESTAR QUEMADO EN EL TRABAJO. Revista Internacional de Psicología, 4(1).

Chiavenato, I. (2009). Gestión del Talento Humano (Tercer ed.). México D.F.: McGraw Hill.

Coexphal. (24 de setiembre de 2012). Evaluaciión del desempeño. Euroempleo. Andalucía: Fondo Social Europeo. Recuperado el 29 de abril de 2015, de http://www.coexphal.es/pdf/euroempleo/Anexo%20VI%20Evaluaci%C3%B3n%20del%20Desempe%C3%B1o.pdf

Constable, S. (6 de abril de 2015). Why You Should Worry About Your Fund Manager’s Love Life. The Wall Street Journal.

Culbert, S. A. (20 de octubre de 2008). Get Rid of the Performance Review! The Wall Street Journal. Recuperado el 20 de abril de 2015, de The Wall Street Journal: http://www.wsj.com/articles/SB122426318874844933

Feintzeig, R. (1 de marzo de 2015). Ya no está bien visto decirles a los empleados que están haciendo un mal trabajo. The Wall Street Journal. Obtenido de The Wall Street Journal: http://lat.wsj.com/articles/SB12216161314018194071804580472234007504338?tesla=y

Fiorentino, M. T. (2008). La construcción de la resiliencia en el mejoramiento de la calidad de vida y salud. Suma Psicológica, 15(1), 95-114.

FranklinCovey. (2010). Informe XQ. Recuperado el 2 de Mayo de 2015, de franklin Covey Organization Services: http://www.franklincovey.com.co/docs/demo_xq.pdf

García-Izquierdo, A., Ramos Villagrasa, P., & García Izquierdo, M. (2009). Los Big Five y el Efecto Moderador de la Resistencia en el agotamiento emocional. Revista de Psicología del Trabajo y de las Organizaciones, 25(2), 135-147.

Lara Carballo, L., Moras Sánchez, C. G., Morales Mendoza, L. F., & Galán García, J. J. (2010). Aplicación de la evaluación 360° para conocer el desempeño de los trabajadores de una empresa metal–mecánica . (AcademiaJournals.com , Ed.)

Revista de la Ingeniería Industrial, 4.Melillo, A. (2006). Resiliencia. Psicoanálisis: ayer y hoy, 1-2.Menezes de Lucena, V. A., Fernández Calvo, B., Hernández

Martín, L., Ramos Campos, F., & Contador Castillo, I. (2006). Resiliencia y el modelo Burnout-Engagement en cuidadores formales de ancianos. Psicothema, 18(4), 791-796.

Montero, J.I. (12 de abril de 2015). Desarrollar compromiso es la principal preocupación de los gerentes hoy en día. El Financiero. Recuperado de: .. http://www.el�nancierocr.com/gerencia/gerencia-recursos_humanos-tendencias-deloitte-2015_0_716928319.html

Muñoz, V., & De Pedro, F. (2005). Educar para la resiliencia. Un cambio de mirada en la prevención de situaciones de riesgo social. Revista Complutense de Educación, 16(1), 107-124.

Naranjo, R. (2010). Neurología de la resiliencia y desastres. Revista Cubana de Salud Pública, 36(3), 270-274.

Oros, L. (2009). El Valor Adaptativo de las Emociones Positivas. Una Mirada al Funcionamiento Psicológico de los Niños Pobres. Interamerican Journal of Psychology, 43(2), 288-296.

Ospina, D. E. (2007). La medición de la resiliencia. Investigación y Educación en Enfermería, 25(1), 58-65.

Sampedro H., J. A. (febrero de 2009). INGENIO ESTRATEGICO Resiliencia e impulso creativo en tiempos de crisis. Recuperado el 20 de julio de 2012, de Global Leadership Consulting: . http://www.glcconsulting.com.ve/articulos/Articulo_Ingenio%20Estrategico_Jesus%20Sampedro.pdf

Somers, S. (marzo de 2009). Measuring Resilience Potential: An Adaptive Strategy for Organizational Crisis Planning. Journal of Contingencies and Crisis Management, 17(1), 12-23.

Suddath, C. (2013). Performance Reviews: Why Bother? Businessweek, 14.

Vecina, M. L. (2006). Emociones Positivas. Papeles del Psicólogo, 27(1), 9-17.

Vilera, A. (2008). Desarrollo humano y sentido de existencia: Abordajes desde un enfoque de orientación transformadora. Revista de Teoría y Didáctica de las Ciencias Sociales(13), 29-52.

Wade, M. (abril de 2014). Are you a complete executive? Recuperado el 3 de mayo de 2015, de IMD Real World, Real Learning: . http://www.imd.org/research/challenges/TC030-14-are-you-a-complete-executive-michael-wade.cfm

Wright, C., Suh, C.-S., & Leggett, C. (2009). If at �rst you don't succeed: globalized production and organizational learning at the Hyundai Motor Company. Asia Paci�c Business Review, 1(2), 163-180.

Bibliografía

100

octubre 2015

r e v i s t a

Resumen:

El artículo plantea y explica, en primera instancia, las teorías del comercio electrónico y el desarrollo sostenible, abordando a estas desde una perspectiva empresarial y de desarrollo de proyectos. Una vez explicados los temas en cuestión, se exponen algunos indicadores cuantitativos de relevancia que permiten la correcta medición de ambas teorías. Al llevar a estos a la práctica empresarial, se tornan en herramientas que facilitan la toma de decisiones en el sector privado y público. Entre ellos se resalta el índice de Impacto Social, aplicado al desarrollo sostenible, elemento que cuanti�ca la sostenibilidad rentable de los proyectos. Cubiertas ambas teorías y explicados sus indicadores, se detalla la convergencia entre ambas corrientes, presentando los puntos de una mayor correlación y la nueva teoría del comercio electrónico sostenible.

Palabras clave: comercio electrónico, comportamiento virtual, desarrollo sostenible, modelado.

Abstract:

The article presents and explains the theories of E-Commerce and Sustainable Development, addressing them in �rst instance from a business and project development perspective. Once explained the issues in question, some quantitative indicators of relevance are presented, regarding the correct measurement of both theories, leading into a business practice and becoming tools that facilitate decision-making in the private and public sector. Content in these indicators it highlights the Sustainable Development index of Social impact, which quanti�es the project´s pro�table sustainability. Covered both theories and explained its indicators, the convergence between the two currents are explained, presenting the points of a greater correlation and exposing the new theory of Sustainable Electronic Commerce.

Keywords: e-commerce, virtual behavior, sustainable development, modeling.

Comercio electrónico sostenible:Modelo de medición

Sustainable e-commerce:Measurement model

Juan Diego Sánchez Sánchez, Ph.D. Universidad Fidélitas, Costa Rica

Profesor de Administración de Negocios

[email protected]

Recibido: Julio 2015 Aceptado: Agosto 2015 Publicado: Octubre 2015

101

Generalidades del comercio electrónico

Tal como lo de�ne Kiennan (2002), el comercio electrónico consiste, en su más simple de�nición, en llevar a cabo transacciones de intercambio comercial por medios electrónicos, ya sea la Internet o alguna otra herramienta que conlleve el elemento de la virtualidad, como las redes llamadas Intranets o Extranets, o, inclusive, por elementos de redes de comunicación y sus tecnologías (Steinfeld, 2003), siendo la base fundamental del comercio en línea.

El comercio electrónico se constituye en una herramienta que ha cambiado el entorno de los negocios, facilitando las transacciones entre empresas y clientes, así como entre personas mediante el uso de elementos de contacto virtual, tema expuesto por Kienan (2000), quien sostiene que “es básicamente, hacer negocios en línea. En su forma más obvia, supone vender productos en línea a los consumidores, pero, en realidad, cualquier tipo de negocio dirigido de forma electrónica” (p. 4).

Logra observarse que el comercio electrónico o el E Commerce (Inglada y Coto, 2007) permite el acortamiento de distancias y de procesos en las transacciones comerciales y no comerciales generadas entre entidades públicas como privadas, elevando los indicadores de productividad, de efectividad comercial y de gestión. El tema se re�eja en lo expuesto por Seoane (2005): “El cliente paga el producto a través de un medio de pago electrónico. Le con�rmamos el pago y el posible plazo de entrega. Enviamos el producto por algún tipo de empresa de mensajería. El cliente recibe el producto en su casa” (p. 2), idea que sustenta el punto de que el comercio electrónico es una herramienta que repercute en un aumento de la efectividad en las empresas.

El tema del E Commerce puede dividirse en varias categorías, resaltando el B2C y B2B. La primera hace mención a las transacciones de venta y comercio llevadas a cabo por una empresa a un cliente (Gómez, 2003), mientras que el B2B consiste en las operaciones llevadas a cabo por medios de contacto electrónico entre empresas en la Web.

Destaca la diferencia conceptual y práctica de las aplicaciones electrónicas y virtuales, entendiendo para la primera aquellas herramientas que representen un elemento de contacto individualizado de persona a persona mediante el uso de un medio electrónico, ya sea en tiempo real o retrasado, tal y como lo expresan Laso e Iglesias (2002). Mientras que la segunda implica el contacto de una persona a un sistema, servidor o aplicación cibernética (Gaitán y Pruvost, 2001), es decir, no se presenta el contacto entre personas.

Aunque por de�nición teórica el tema implica la delimitación de ambas aplicaciones, para efectos prácticos, según Gómez (2003), el E Commerce contiene ambos tipos de aplicaciones.

Indicadores de medición del comercio electrónico

Si bien el E Commerce es una herramienta generadora de valor en términos lucrativos y de bene�cios comerciales (Steinfeld, 2003), también es un elemento que conlleva resultados cuanti�cables en la gestión comercial de las organizaciones, lo que representa facilidad para la de�nición de los resultados en la gestión electrónica.

102

octubre 2015

r e v i s t a

Estas ideas encuentran cabida en lo expresado por Alonso (2004):

La recopilación y análisis de indicadores de trá�co web pueden tener números �nes y aplicaciones. Por una parte, permiten a las empresas que operan en Internet conocer las preferencias de los usuarios (páginas más demandadas, tiempos de visita, etc.). Esta información puede resultar muy útil para optimizar el diseño del sitio web y así mejorar su productividad. Por otra parte, las empresas cuya actividad se centra en la publicidad en Internet también utilizan estos indicadores de trá�co web a la hora de facturar sus servicios, ya que cuanto mayor es el índice de audiencia del sitio web más elevadas son las tarifas publicitarias que se cobran a los anunciantes. (p. 85).

El enunciado expresa la necesidad y bene�cio de la medición, así como la categorización del comercio en línea. La categorización del comercio electrónico permite su administración, especialmente en temas tales como la asignación de recursos, su costeo y medición (Steinfeld, 2003).

Para efectos de la medición, resalta el indicador de la efectividad electrónica derivada del cálculo de la productividad, dada por la división de los resultados entre los insumos (Productividad = Resultados/Insumos) (Robbins y Coutler, 2005), punto que para el comercio electrónico sugiere obtenerse mediante la división de la respuesta del consumidor electrónico entre la inversión en elementos comerciales electrónicos.

Planteando que:EE = RE/IE

Donde:EE = Efectividad electrónica RE = Respuestas electrónicas IE = Insumos electrónicos

El indicador expresa una medida de los resultados obtenidos de la aplicación de una determinada herramienta a una situación determinada (Hernández, 2006). Para efectos del E Commerce, detalla el indicador porcentual de efectividad que se genera en una operación de ventas o comunicación en línea, es decir, el resultado �nal de la herramienta de apalancamiento comercial (Mondino y Pendás, 2005)

103

La importancia de la medición de los resultados en el comercio electrónico puede observarse en las ideas expuestas por Gaitán y Pruvost (2001), quienes plantean que:

(…) excede ampliamente el marco de herramienta de venta, ya que permite alcanzar otros importantes objetivos como la administración del conocimiento interorganizacional, el desarrollo y mantenimiento de relaciones con los clientes, la reducción de costos operativos, la motivación y formación de recursos humanos (p. 18).

Las mediciones de las operaciones comerciales en línea no solamente constituyen una forma de control a las herramientas utilizadas, tal y como sostiene Brown (2006), sino, además, son una manera de gestionar las decisiones a futuro y enfocar los recursos de la comunicación y la venta.

Para la gestión de venta en línea, se sugiere el indicador de la Proyección de Ventas Electrónica.

Para estos efectos se detalla la siguiente fórmula:

PVE = { (HVtas/n) * [ 1 + (TInf/n) + [(n2-n1)/n1]/n ] } *nmk

Las variables toman los siguientes valores:

PVE = Proyección electrónica de ventas Hvtas = Histórico de ventasTInf = Tasa de in�ación n2 = Periodo de ventas reciente n1 = Periodo de ventas anterior n = Meses de cada variable nmk = Periodo de mercado

El primer elemento consiste en las ventas en unidades históricas, debe utilizarse como base el mismo periodo inmediatamente anterior al que desee calcularse, es decir, si la proyección se hace para el segundo semestre del 2014, su histórico de ventas a utilizar es precisamente el segundo

semestre del año anterior. Este punto encuentra sustento en lo expresado por Gitman (2003), quien expone la importancia de estandarizar las unidades históricas vendidas con las proyectadas, dando a su vez una mayor validez al dato �nal.

Se plantea también el uso de in�ación, dato porcentual que debe ser utilizado de forma mensual, de ahí que se divida entre su n especí�co o entre su periodo, por ejemplo, si se tiene la tasa de forma semestral, se divide entre seis. La justi�cación del uso de la tasa de in�ación se da, según Mondino y Pendás (2005), porque toda empresa que desee tener un crecimiento de mercado saludable para una operación comercial debe crecer por encima de esa tasa. Para efectos de la obtención de la in�ación, se recurre a la entidad del caso, en Costa Rica, al Banco Central.

Seguidamente, se plantea el uso de la ecuación (n2 –n1)/n1, en la cual ambos factores representan los periodos de ventas inmediatamente anteriores al periodo de la proyección de ventas, siendo los datos históricos internos de ventas generadas a través de Internet (Brown, 2006), donde el n2 representa el periodo más reciente y el n1 el pasado. Por ejemplo, el segundo semestre del 2013 y el segundo semestre del 2012, en caso que la proyección sea para el segundo semestre del 2014.

104

octubre 2015

r e v i s t a

Guardar un estricto control de las existencias es una excelente solución al problema de agotamiento de existencias. Sin embargo, esto exige un pronóstico preciso de la demanda que tienen los productos. Los sitios web dedicados al comercio electrónico deben estar en posibilidades de pronosticar la cantidad que se necesitará de determinado en cualquier momento, la cual se logrará solo si se conocen las necesidades y expectativas de los clientes (p. 101).

El dato que se obtiene corresponde a la tasa de crecimiento esperada (Gitman, 2003) y, al igual que la tasa de in�ación, debe ser dividida entre su periodo especí�co.

La fórmula conlleva el uso del 1, el cual cumple la función de sumar al histórico de ventas los datos porcentuales de las tasas de�nidas

Por último, la proyección contempla la multiplicación �nal por el nmk, para efectos del comercio electrónico, el tiempo de mercado o el periodo especí�co en meses al cual desea proyectarse.

La importancia del uso de la proyección de ventas en la gestión del E Commerce se ve re�ejada en lo expuesto por Boen (2004):

Es importante mencionar que uno de los primeros indicadores que debe contemplarse en la aplicación del desarrollo sostenible al comercio electrónico es precisamente el crecimiento de mercado o su aumento en ventas (Johnston y Marshall, 2003). Este, para efectos de la aplicación de la sostenibilidad a la gestión de venta electrónica, debe estar conforme a las capacidades reales de producción y comercialización de la empresa, así como a la capacidad de consumo del mercado. El tema está re�ejado en lo expresado por Jiménez e Higón (2003):

(…) la expansión del mercado y del comercio evolucionando hacia un mercado global, la consiguiente -y diríamos que connatural- transnacionalización de las empresas, posible gracias a que la producción se deslocaliza desectorializa globalizando los mercados de trabajo y de consumo. Y muy singularmente, el predominio cada vez mayor de la economía �nanciera, de lo especulativo a lo productivo (p. 97).

105

Comportamiento virtual

Un elemento relevante en el comercio electrónico consiste en la de�nición del per�l del comprador virtual y su patrón de conducta (López y Sandulli, 2002). Los autores además plantean la importancia de utilizar únicamente aquellas variables que cuenten con un grado de certeza alto para esto.

El tema es expuesto por Campos (2004), quien a�rma que las variables a utilizar y analizar en este punto deben ser aquellas que verdaderamente de�nan el patrón de conducta en el comprador electrónico.

Una muestra precisa del comportamiento de compra del consumidor virtual se da en lo expresado por Bigné, Ruiz, y Andreu (2003), quienes aseguran que: “(…) éste se ve afectado por variables sociodemográ�cas, por variables internas relativas al conocimiento y la utilidad proporcionada por Internet como canal de distribución y comunicación, así como por la necesidad de experiencia previa anterior a la compra” (p. 9).

Si bien es cierto, tal y como exponen Bigné et al. (2003), los elementos personales y sociales, así como del entorno, son factores de gran importancia para la de�nición de la conducta de compra en el consumidor tradicional. No obstante, puede de�nirse que dichos puntos pasan a tomar una relevancia inferior en la conducta electrónica de compra, debido a que, y basado en lo expuesto por Campos (2004), se parte del supuesto de que la persona nunca tiene contacto real con la empresa, sino únicamente con el shopping web (Deitel y Deitel, 2005). De forma que los únicos elementos que pueden evaluarse con total certeza son los indicadores propios de la compra, tales como el producto comprado, la frecuencia de compra, el monto promedio pagado, el medio de pago, la promoción de in�uencia e, inclusive, si logra efectuarse un tracking de la dirección IP del cliente, un posible per�l de páginas visitadas, tema que encuentra sustento en lo expresado por Brondmo (2002):

(…) los consumidores en línea basan sus decisiones de hacer negocios con una empresa en los activos intangibles, tanto o más que en las características de producto y precio. Los clientes desean comunicarse con una empresa sólo cuando ellos quieran, y sólo a través de los canales que ellos hayan elegido y también esperan tener un acceso casi ilimitado a todo tipo de información. Desean que la empresa les proporcione acceso directo a la base de datos sobre existencia del producto vía la World Wide Web (p. 29).

106

octubre 2015

r e v i s t a

En la actualidad, el mercado nos compromete con un mundo virtual donde podemos ser y hacer todo aquello que proviene de la realidad. Por esta razón, es importante indagar sobre un modelo de comportamiento del consumidor electrónico, con el objetivo de conocer cuáles son sus percepciones, cómo actúa y bajo qué lógica se mueve, con un simple click. (p.1).

Puede plantearse la importancia de la de�nición del patrón de compra electrónica, debido a que gracias a su precisión se logra obtener de forma óptima los índices de uso e impacto de la gestión electrónica, punto que es congruente con lo expuesto por Rojas (2001):

Se de�ne que teniendo un per�l claro y una correcta medición del patrón conductual de compra electrónica, la empresa puede plantear su estrategia comercial electrónica en función de dicho patrón. Esto permite no caer en una sobreproducción o un excesivo gasto en los recursos, logrando un crecimiento de mercado bajo el concepto de la sostenibilidad, brindando al mercado lo que desea y no más de lo que puede consumir, planteando una especie de cuota de ventas por exactitud (Johnston y Marshall, 2003).

Desarrollo sostenible Por otra parte, el desarrollo sostenible se de�ne como:

El desarrollo sostenible es un proceso sociopersonal que intenta conservar y respetar el Planeta Tierra, al tiempo que pretende mejorar a la persona y a la sociedad en armonía con la naturaleza y aspira a construir y consolidar un mundo justo, ético, solidario, equitativo, participativo, libre y convivencial (Wulf, y Newton, 2006, p. 24).

107

Se resalta que el elemento de un crecimiento en las empresas es posible y sumamente relevante, pero dicho aumento en las ganancias y en las operaciones debe ser ligado a una gestión social y ecológicamente responsable. Estas ideas, a su vez, son respaldadas por Fernández (2011), quien plantea además que un desarrollo sostenible y el desarrollo personal bien aplicados representan rentabilidades reales.

Por otra parte, Jímenez e Higón (2003) aseguran que el concepto de desarrollo sostenible no solamente conlleva temas relacionados con el medio ambiente y la sociedad, sino que a su vez pueden ser aplicados a los procesos de negocios, donde la utilización e implementación de un programa de comercio sostenible no implica una disminución en las ganancias de la empresa, sino mas bien la creación de un nuevo paradigma de negocio, brindando bene�cios para la empresa, el mercado, y la sociedad.

El tema encuentra cabida en las ideas de Sepúlveda (2002): “El proceso de desarrollo sostenible es por naturaleza de largo plazo, la mayor parte de las transformaciones que se puedan proponer en la dimensión social (…), ambiental (…), político institucional (…), y económica” (p. 56). En ellas se evidencia que el tema es amplio y totalmente aplicable a un contexto comercial y empresarial.

Aunque el tema del desarrollo sostenible tiende a ligarse a un enfoque ambiental básicamente, esto no implica que no pueda ser aplicado al campo de los negocios, así como a las transacciones comerciales de las empresas (Fernández, 2011),

especialmente en los temas de ahorro de recursos y bene�cio a la sociedad. Es gracias a dichos enunciados que se de�nen tres ejes en el desarrollo sostenible:

1) El medio ambiente,

2) El bienestar social, y 3) El ahorro en el uso de los recursos.

Aplica aquí el concepto de la responsabilidad social empresarial (RSE) de�nido por Fernández (2009) como: “(…) un enfoque de negocios que incorpora respeto por la éticas, las personas, las comunidades y el medio ambiente.” (p. 87). De forma que, aunque el desarrollo sostenible representa una herramienta que trae bene�cios a las empresas, no es visto como una meta prioritaria en las organizaciones, sino más bien como un elemento adyacente a los programas de RSE, sin la relevancia del caso. Esto es así porque el concepto de sostenibilidad en los negocios tiende a ser subvaluado y visto desde una perspectiva de ambientalismo y bien social, temas que, aunque son relevantes en un contexto social, no implican o al menos no son tan llamativos en términos de la generación de lucro, factor primordial en los negocios.

La aplicación del desarrollo sostenible a los negocios se observa en lo expuesto por Fernández (2011): “La realidad es que una empresa con un buen cartel social es más competitiva, vende más, debido a su buena imagen y a la cobertura de los medios de comunicación, �deliza clientes y fortalece e incrementa sus ventas” (p. 209).

108

octubre 2015

r e v i s t a

(…) una visión en la que se integren junto con los tradicionales elementos económicos, consideraciones también de carácter social y ecológico. Todo ello, con vistas a conseguir un objetivo que se ha convertido -sin lugar a dudas- en un referente social, el desarrollo sostenible (p. 9).

Es con base en los puntos anteriores, así como en el auge prácticamente exponencial de las transacciones electrónicas (Gómez, 2003), que se plantea la idea de que la modalidad del comercio efectuado por medios electrónicos sea vista como una actividad con un enfoque de sostenibilidad, concepto que Jímenez e Higón (2003) de�nen como:

Aunque el tema de�nido generalmente tiende a aplicarse a situaciones como la construcción, obra pública, la infraestructura, los proyectos ambientales, entre otros, se presenta la oportunidad y opción de analizar las transacciones y los sistemas en el E Commerce bajo un enfoque de sostenibilidad, logrando crear una nueva propuesta de desarrollo sostenible aplicado al comercio electrónico.

Para los efectos anteriores, debe considerarse uno de los puntos fundamentales del desarrollo sostenible, entiéndase, el ahorro de recursos y su maximización de uso (Fernández, 2011), es decir, el aprovechamiento de los elementos utilizados para la gestión comercial y la disminución de la cantidad de recursos consumibles. Se plantea, entonces, que el concepto de ahorro consiste en el ahorro de tiempo y dinero, destacando la idea de un gasto e�caz y la disminución del desperdicio en las organizaciones (Sepúlveda, 2002).

Analizando los conceptos anteriores, puede determinarse claramente la importancia de conocer a fondo la sostenibilidad en los negocios,

pero no como un concepto solamente académico, sino como un tema que genere valor agregado a las instituciones, representando un pilar en sus estrategias y operaciones comerciales, además de otras actividades de índole empresarial, tales como la administración de recursos, la inversión en inventarios, la construcción de instalaciones, y otras, que deben analizarse siempre en función de un proceso generador de valor en el largo plazo (Sepúlveda, 2002).

Por último, es necesario plantear la de�nición del concepto del desperdicio, el cual es descrito por Guajardo (2003) como: “(...) cualquier elemento que consume tiempo y recursos, pero que no agrega valor al servicio” (p. 84). Cabe destacar que un desperdicio alto en las instituciones ocasiona un incremento en sus costos operativos y, por ende, una disminución en las ganancias. Demuestra, además, una falta de interés en los negocios sostenibles, factor que repercute en una mala imagen comercial (Johnston y Marshall, 2003) que puede eventualmente ocasionar problemas de índole comercial.

109

Índice de impacto social

Las empresas, para efecto de la rentabilidad en sus operaciones, utilizan diversas clases de mediciones e indicadores para cuanti�car sus operaciones, ya sea en términos de ganancias, ahorro, impacto de mercado, e�ciencia �nanciera, entre otros (Gitman, 2003). No obstante, suele dejarse de lado la aplicación de programas ligados al desarrollo sostenible, por lo que se torna necesaria la aplicación de indicadores cuantitativos que permitan a las organizaciones medir de forma clara el impacto y la ganancia �nal que este tipo de aplicaciones genera. De forma que se propone el siguiente indicador correspondiente a la medición aplicada a los proyectos con enfoque de sostenibilidad en los negocios.

El indicador propuesto se basa en una fórmula que combina elementos de naturaleza cuantitativa y cualitativa, presenta un enfoque mixto en cuanto a términos investigativos se re�ere, tema que es congruente con las ideas expuestas por Hernández, Fernández y Baptista (2010).

Se propone entonces: IIS = (BE*Cant* Rep*BS) / InvS

Donde:

IIS = Índice de Impacto Social BE = Bene�cio EconómicoCant = Cant (Personas o Unidades) Rep = Repetitividad BS = Bene�cio Social InvS = Inversión Social

El indicador puede ser utilizado para efectos de mediciones en proyectos relacionados con venta de productos, comercialización de servicios, proyectos de inversión social con algún bene�cio para sus participantes, infraestructura, y demás situaciones con enfoque de sostenibilidad, siempre y cuando se cuente con la información que permita cuanti�car sus gastos e insumos, así como sus posibles ingresos y demás bene�cios. Es importante de�nir que el indicador es aplicable siempre que se presente la convergencia de elementos comerciales lucrativos y de desarrollo sostenible.

Se entiende que el BE consiste en la ganancia, ingreso, o valor económico esperado del producto, unidad o servicio (Hernández, 2006) dado para el proyecto en especí�co. Este dato debe ser dado de forma unitaria, por persona o por unidad, de forma que pueda ser aplicado posteriormente a todas las unidades participantes.

Seguidamente, se tiene el dato denominado Cant, que hace referencia a la cantidad de personas que se ven bene�ciadas por el proyecto, o bien, a la cantidad de unidades comercializadas bajo el concepto de sostenibilidad (Fernández, 2011). El ítem en cuestión tiene la función de multiplicar al BE, resultado que, individualmente, representa el ingreso total de un primer ciclo en el proyecto.

110

octubre 2015

r e v i s t a

El dato siguiente, Rep, consiste en la repetición de la compra o de participación en el proyecto (Hernández, 2006), factor que, al multiplicar al ingreso total de un ciclo, denota el ingreso total esperado del proyecto, esto en términos monetarios.

Para efectos de obtener el ingreso total esperado del proyecto, se multiplican todos los datos anteriores por el BS, punto que hace mención al bene�cio monetario no ligado a la unidad de venta o servicio, sino más bien al ahorro o ventaja que se le da a la sociedad, entiéndase, en reciclaje, ahorro de recurso u otros similares (Fernández, 2009). El factor en cuestión debe ser planteado de forma unitaria.

Una vez obtenido el dato �nal del numerador, procede a dividirse por el denominador, número que es de�nido por el total de la InvS y que hace referencia a los insumos necesarios para el proyecto (Robbins y Coutler, 2005), el cual debe ser dado en unidades monetarias. Es decir, todos los recursos deben cuanti�carse con el objeto de estandarizar su valor y lograr plantear el dato en dinero.

El resultado obtenido consiste en un indicador porcentual del desempeño que muestra el resultado �nal del proyecto, enfocado no solamente a un tema de rentabilidad, sino además en consideración con los factores de inversión social.

Un resultado mayor a 1 implica una ganancia social y económica, igual a 1, una inversión donde se obtiene un punto de equilibrio social y de lucro, y un resultado menor a 1, una inversión sin retorno, es decir, el concepto del lucro no se da y más bien puede hablarse de una pérdida, aunque al ser un tema de naturaleza social, el concepto se considera una inversión (Fernández, 2011).

Convergencia del comercio electrónico y desarrollo sostenible

Aunque en principio parece no existir una relación tan directa entre los temas del comercio electrónico y el enfoque de desarrollo sostenible, pueden plantearse algunos puntos de relevancia donde convergen ambas teorías, siendo las bases fundamentales para la comprensión del E Commerce como teoría sostenible.

Tyler (2002) de�ne que el primer elemento de importancia en el comercio electrónico sostenible es el ahorro de recursos físicos, no solamente en términos de una gestión documental electrónica en la que la reducción de papel es considerable, sino a la vez en todos los costos operativos (Pérez, 2004) que el almacenamiento de dicha documentación implica.

Cabe destacar que las aplicaciones desarrolladas bajo la modalidad electrónica permiten reducir los costos de las empresas sustancialmente, logrando disminuir el uso de recursos monetarios y materiales (Seoane, 2005). Aquí puede observarse claramente una primera área de convergencia en el tema: se logra plantear que por de�nición el E Commerce por sí mismo presenta elementos de sostenibilidad en los negocios, logrando minimizar el uso de materiales consumibles administrativos.

111

(…) una manera de referirse a todas las actividades operativas que una organización debe hacer, como consecuencia de su proyecto de comercio electrónico, para ello, debe mantener inventarios, empacar, transportar, entregar, recaudar el pago, atender reclamos y devoluciones, preocuparse por las solicitudes de información, soporte garantía y servicio y responder comunicaciones de los clientes entre otros (p. 210).

Las ideas expuestas con anterioridad se observan en lo expuesto por Laso e Iglesias (2002): “El mayor potencial de los mercados EaE va más allá de la simple reducción de los costes de aprovisionamiento. El mayor bene�cio reside en la nuevas y complejas posibilidades de colaboración entre empresas que los eMercados permiten” (p. 144), demostrando un claro enfoque sostenible en el ahorro de recursos y el comercio electrónico.

Aunque el ahorro en costos no es lo principal en el desarrollo sostenible (Wulf, y Newton, 2006), sí representa una reducción de los procesos en

consumo de materiales y recursos, como el espacio de almacenamiento, la electricidad y otros, factores fundamentales en el enfoque de los negocios sostenibles.

Este punto re�eja una pequeña contradicción en cuanto a la convergencia de ambas teorías, resaltando que, aunque el desarrollo sostenible busca la reducción de los elementos mencionados, el Comercio en Línea, a pesar de ser un sistema de comercio de contacto virtual (Campos, 2004), requiere de un manejo físico del producto, tal y como lo expresa Torres (2007):

No obstante, el simple hecho de llevar a cabo las ventas en línea, y no físicamente, representa por sí mismo un ahorro en costos y recursos derivados de la exposición física del producto, tales como rubros asociados al display del producto, la planimetría del lugar, gasto de electricidad, y demás elementos (Kiennan, 2002).

Un último punto del ahorro de recursos del enfoque sostenible a los negocios en línea se presenta en el factor humano involucrado en la administración, el que según Brown (2006) se ve reducido en las aplicaciones electrónicas de venta. Si bien es cierto que limita el desarrollo del ser humano en el ejercicio profesional, puesto que reduce la participación del colaborador en las

aplicaciones de venta en línea, representa -a su vez- una disminución en los costos operativos de la empresa y en los recursos materiales necesarios para la gestión del individuo, es decir, se presenta nuevamente una reducción en materiales y demás recursos.

El tema anterior plantea una dicotomía �losó�ca, puesto que mientras se reduce el gasto, a la vez se limita el crecimiento personal, factor relevante para el desarrollo sostenible, tal y como asegura Xercavins (2005). No obstante, se da a su vez la oportunidad del desarrollo de aplicaciones tecnológicas que permitan el desarrollo profesional del administrador, repercutiendo en el desarrollo humano.

112

octubre 2015

r e v i s t a

Un segundo punto de referencia en el enfoque de un comercio electrónico sostenible es el impacto social que los proyectos relacionados con las tecnologías de información traen a una comunidad, factor que puede observarse cuando se asegura que: “También se desarrolla la importancia de las tecnologías de la información y de la comunicación, ya que estas tecnologías son las nuevas opciones de la sostenibilidad del desarrollo frente a las infraestructuras duras de la comunicaciones” (Xercavins, 2005, p. 22).

Cabe plasmar en este punto la importancia de la tecnología de la información en el comercio electrónico:

Las tecnologías de información son pieza imprescindible de la nueva era en la gestión de negocios; es por esto que hoy en día coexisten una variedad de alternativas, como los sistemas de plani�cación, organización, comunicación e integración de procesos y los datos internos de una Compañía, (Enterprise Resource Planning); igualmente se hallan los sistemas que facilitan la administración de la cadena de suministros (Supply Chain Managment) y los sistemas que apoyan en la gestión y administración de las relaciones con los usuarios o clientes interactivos (Customer Relationship Management) (Torres, 2007, p. 217).

El tema constituye un punto fundamental de la unión de ambas corrientes porque permite el crecimiento de una comunidad y su integración al mundo por medio de proyectos de conectividad, así como el ahorro de recursos físicos mencionados anteriormente (Tyler, 2002). De�ne que el comercio electrónico, como herramienta del desarrollo sostenible, se enfoca en dos áreas, el ahorro en el consumo de recursos y el impacto social.

Resalta lo expresado por la Fundación Ideas (2010), al plantear la importancia de los proyectos relacionados con las tecnologías de la información enfocadas en el desarrollo sostenible: “Las tecnologías de la información y comunicación (TIC) constituyen un factor económico que engloba una gran variedad de actividades de fabricación” (p. 217).

Más adelante, se liga el tema directamente al concepto de desarrollo sostenible, asegurando

que: “(…) este es uno de los sectores por los que hay que apostar con mayor determinación para salir de la crisis y para encaminar el modelo productivo hacia una vía más sostenible” (p. 217). Logra exponerse claramente que un enfoque tecnológico en el desarrollo de proyectos implica un aumento en el desarrollo del ser humano, bene�ciado de forma directa por proyectos relacionados con las tecnologías de la información, que tengan como objetivo el impacto en la comunidad.

El tema referente a las tecnologías de información aplica directamente a los sistemas del E Commerce, ya que si bien es cierto que no todos los proyectos que involucren tecnología de información son sujetos al comercio electrónico, todos los sistemas de esta última teoría sí están supeditados a una plataforma tecnológica (Gómez, 2003) que constituye la base del correcto funcionamiento de estas transacciones.

113

Es precisamente acá donde se presenta el mayor grado de convergencia entre ambas corrientes, dado por las operaciones de naturaleza electrónica que cuenten con esta plataforma que fundamente su sistema comercial de ventas o información, resaltando la importancia de que dicha tecnología utilizada sea enfocada bajo un concepto de sostenibilidad tal y como asegura Xercavins (2005).

Puede plantearse que una correcta plataforma tecnológica que sustente los sistemas de información, comercialización y venta en el comercio electrónico es totalmente necesaria y puede ser desarrollada tomando en cuenta el desarrollo sostenible, es decir, considerando el ambiente y el crecimiento del ser humano como elemento fundamental.

Por último, se presentan dos áreas adicionales de relevancia para el comercio electrónico sostenible. La primera enfocada en el desarrollo de proyectos referidos a la infraestructura de las telecomunicaciones (Xercavins, 2005), la cual, si es administrada bajo el concepto de sostenibilidad, repercute no solamente en un bene�cio económico, sino además social.

Este tema converge adicionalmente con lo mencionado antes, todo sistema de comercio electrónico debe estar sustentado en una plataforma tecnológica, y sobra decir que, de igual manera, debe basarse en una adecuada infraestructura de telecomunicaciones, tema sostenido por Gómez (2003). El autor estipula a su vez que parte del éxito de un sistema de E Commerce se basa en el uso de una adecuada red de conectividad en telecomunicaciones.

Los proyectos relacionados con la infraestructura de telecomunicaciones conllevan un despliegue técnico y de construcción, es decir, generan un impacto en el entorno donde se implementan. Por esto, es importante que sean desarrollados bajo un enfoque de sostenibilidad y en armonía con el medio ambiente, de acuerdo con Pérez (2004):

El desarrollo sustentable exige un sistema social con una estrategia clara que integre un marco de convivencia democrático cuya esencia sea la participación, la distribución equitativa del ingreso, igualdad de oportunidades y el mejoramiento de la calidad de vida dentro de una estructura jurídica que garantice la protección del hábitat en que radica ese grupo humano (p.1).

114

octubre 2015

r e v i s t a

Queda plasmado de forma clara que el impacto social y ambiental de estos proyectos, enfocados al desarrollo sostenible, son sumamente bene�ciosos para el entorno, lo cual indudablemente repercute también en un bene�cio real para las empresas.

La otra área consiste en la educación ambiental, tema que encuentra cabida en lo expuesto por Frers (2007), quien asegura que:

(…) la principal solución a los problemas ambientales, es la educación ambiental en todos los niveles y sectores de la sociedad. Puesto que esta educación está precisamente orientada a enseñar cómo los ambientes naturales funcionan y, en particular, como los seres humanos pueden controlar los ecosistemas para vivir de modo sostenible (p. 5).

Esta educación, según Jímenez e Higón (2003), es parte fundamental del desarrollo sostenible porque repercute en la concientización y educación del recurso humano participante en los procesos y proyectos del área, entiéndase, negocios y actividades dirigidas hacia un enfoque de bien social, ambiental o similares.

Por otra parte, Frers (2007), haciendo referencia siempre a la educación ambiental, a�rma que:

En de�nitiva, la educación ambiental es un proceso integral, sistemático y permanente de información, formación y capacitación formal, no formal e informal, basado en el respeto a todas las formas de vida, por el que las personas, individual y colectivamente, toman conciencia y se responsabilizan del ambiente y sus recursos, mediante la adquisición de conocimientos, aptitudes, actitudes, valores y motivaciones que le facilitan comprender las complejas interrelaciones de los aspectos ecológicos, económicos, sociales, políticos, culturales éticos y estéticos que intervienen en el medio ambiente (p.1).

115

Esto demuestra nuevamente que el tema es una base fundamental para entender los pilares del desarrollo sostenible. Debe recordarse que, aunque se busque el bene�cio ambiental y social, esto no implica que no pueda presentarse un crecimiento macroeconómico de las entidades y personas (Fernández, 2011).

La principal convergencia se da en la transmisión electrónica del conocimiento, es decir, en el uso de medios electrónicos para educar ambientalmente, principalmente, al utilizar una plataforma electrónica para efectos de su aplicación.

De esta forma, se permite al usuario conocer a fondo, y de forma interactiva, las diversas ramas y temas que el concepto de la sostenibilidad presenta. Se observa que el ahorro de recursos se vuelve parte fundamental del proceso, puesto que la utilización de medios de transmisión del conocimiento, información y comunicación de naturaleza electrónica, automáticamente incurre en un ahorro de recursos monetarios y tangibles. Recuerda lo expuesto por Fernández (2011), quien sostiene que el uso de estos elementos repercute precisamente en el ahorro, representando un último punto de convergencia entre ambas teorías evaluadas.

Con el análisis de los puntos anteriores, puede determinarse claramente que el hecho de que no exista una base teórica estructurada en la que se relacionen el desarrollo sostenible y el comercio electrónico, no implica de forma vinculante que no se presente una relación práctica entre ambas, tanto académicamente, como en proyectos de naturaleza laboral y prácticos.

Ejempli�cación del modelo propuesto

Para efectos de la Efectividad Electrónica (EE), se tiene una respuesta de venta por persona de $30, es decir, el dato de ingreso generado individual, también de�nido como el precio electrónico. El costo electrónico de esta venta es de $22, dato que conlleva el costo del producto y el de la gestión del comercio electrónico.

Aplicando la fórmula:

EE = 30/22EE = 1.3637EE = 136.37%

Se observa que se obtiene una efectividad electrónica de 136.37%. Dato que detalla un retorno real de 36.37% e indica una ganancia monetaria y en efectividad para la empresa.

116

octubre 2015

r e v i s t a

Por otra parte, para efecto del pronóstico de ventas, se detallan los supuestos de un histórico de unidades comercializadas de forma electrónica de 12,000 por cada tres meses, mientras la tasa de in�ación esperada de manera anual es de 6.75% y el crecimiento esperado en las ventas de la empresa es de un 4.5% cuatrimestral, y desea obtenerse el pronóstico a seis meses, con un precio de venta electrónico dado para el cálculo de la EE

Se tiene:

PV = {(12,000/3) * [1 + (0.0675/12) + (0.045/4)]} * 6PV = 24,405 unidadesPV$ = 24.405 * 30PV$ =732,150

Se interpreta que la empresa espera vender de manera electrónica para los seis meses siguientes un total de 24,405 unidades, lo que equivale a un ingreso total $732,150.Por último, para la aplicación numérica del ISS, se asume un Bene�cio Económico (BE) dado por el

precio anterior de $30, una cantidad de individuos en función de las unidades obtenidas del pronóstico, siendo 24,405. En el Bene�cio Social (BS), se asume un bene�cio real para la empresa de $5 por cada producto vendido, así como una inversión social (InvS) dada por los $22 de la gestión, más $2.5 de una donación o inversión en materia de sostenibilidad, ambos datos unitarios. Para efectos de usar la Repetitividad, se asume una recompra de dos veces por persona.

Aplicando la fórmula:

IIS = (30 * 24,405 * 2 * 5) / [(22 + 2.5) * 24,405)]IIS = 5.4545IIS = 545.45%

Se obtiene entonces que un proyecto con los datos supuestos anteriormente implica un impacto social de cinco veces punto cuarenta y cinco, es decir, por cada dólar invertido se obtiene un bene�cio de $5.45 en materia de inversión social, dato que demuestra una viabilidad e impacto sumamente positivos para la empresa u organización.

117

BibliografíaAlonso, A. (2004). Comercio electrónico: antecedentes

fundamentos y estado actual. Madrid: Dykinson S.R.L.

Bigné, E., Ruiz, C., y Andreu, L. (2003). Conceptualización del comportamiento del consumidor en los entornos virtuales, un análisis cualitativo. España: Dpto. de Comercialización e Investigación de Mercados Universitat de Valencia.

Boen, D. (2003). Comercio Electrónico. México: International Thomson Editores.

Brondmo, H. (2002). Las reglas del marketing directo en Internet. Como usar el e-mail para interesar y dialogar con el cliente. (2da ed.) España: Deusto.

Brown, C. (2006). How to use the Internet to advertise, promote, and market your business or web site with little or no money. United States: Atlantic Publishing.

Campos, A. (2004). Comercio electrónico. España: Vértice S.L. Deitel, H., y Deitel, P. (2005). C++ How to program. New Jersey:

Pearson.

Fernández, R. (2011). La dimensión económica del Desarrollo Sostenible. España: Editorial Club Universitario.

Fernández, R. (2009). Responsabilidad Social Corporativa. España: Editorial Club Universitario.

Frers, C. (2007). El desarrollo de una educación ambiental. Recuperado el 15 de junio de 2010, de: http://www.costaricareciclaje.com/esp/articulos_reciclaje/ educacion_ambiental.php.

Fundación Ideas. (2010). Ideas para una nueva economía. Hacia una España más sostenible en 2025. Madrid: Fundación IDEAS.

Gaitán, J., y Pruvost, A. (2001). El comercio electrónico al alcance de su empresa. Santa Fe, Argentina: Universidad Nacional del Litoral.

Gitman, L. (2003). Principios de Administración �nanciera (10ma ed.). México: Pearson Educación.

Gómez, A. (2003). Las claves de la economía digital. México: Alfaomega Ra-Ma.

Guajardo. E. (2003). Administración de la calidad total. México: Editorial Pax.

Hernández, J. (2008). Análisis de series temporales económicas. (2da ed.) España: Esic Editorial.

Hernández, R., Fernández, C., y Baptista, P. (2010). Metodología de la investigación (5ta ed.). México, D.F.: Editorial McGraw-Hill.

Inglada, V., y Coto, P. (2007). Impacto de la nueva economía sobre el transporte en España. España: Fundación BBVA.

Jiménez, L. e Higón, F. (2003). Ecología y economía para un desarrollo sostenible. España, Valencia: La Nau Solidaria.

Johnston, M., y Marshall, G. (2005). Administración de Ventas (7ma ed.).México: Editorial Mc Graw Hill.

Kiennan, B. (2002). Soluciones Microsoft de comercio electrónico. España: McGraw Hill.

Laso, I., e Iglesias, M. (2002). Internet, comercio colaborativo y mComercio: nuevos modelos de negocio. Madrid: Mundi Prensa.

López, J., y Sandulli, F. (2002). Evolución de los modelos de negocios en Internet.

Situación actual de España en la economía digital. Madrid: Universidad Complutense.

Mondino, D., y Pendás, E. (2005). Finanzas para empresas competitivas. Argentina Granica-Adelphi.

Pérez, G. (2004). El desarrollo sustentable. Centro de Conocimiento. San José, Universidad Complutense Madrid. Recuperado el 2 de julio del 2010, de: http://www.centrodeconocimiento.com/escritos/desarrollosustentable.htm.

Robbins, S., y Coutler, M. (2005). Administración. (8va ed.). México: Prentice Hall.

Rojas, C. inpsicon.com. (2009). En búsqueda del consumidor electrónico. Recuperado el 26 de julio del 2010, de: http://inpsicon.com/index.php?option=com_content &view=article&id=212%3Aen-busqueda-del-consumidor-electronico&catid =43%3Aarticulos & Itemid=54&lang=es.

Seoane, E. (2005). La nueva era del comercio: el comercio electrónico. Las TIC al servicio de la gestión empresarial. España: Ideaspropias Editorial.

Sepúlveda, S. (2002). Desarrollo sostenible: métodos para la plani�cación local. Costa Rica, San José: Universidad Nacional.

Steinfeld, Ch. (2003). New directions in research on e-commerce. Estados Unidos: Perdue University.

Torres, E. (2007). Implicaciones de la logística en el comercio electrónico, sobre la satisfacción del cliente �nal interactivo. Venezuela: Universidad Rafael Belloso Chancín.

Tyler, G. (2002). Ciencia Ambiental preservemos la Tierra. México: Thomson.

Xercavins J., (2005). Desarrollo sostenible. España, Catalunya: Ediciones UPC. 22.

Wulf, C. y Newton, B. (2006). Desarrollo sostenible. Alemania: Waxman Verlag Gmb H.

118

octubre 2015

r e v i s t a

Centroamérica y la Revolución EnergéticaCentral America and the Energy Revolution

Por: Isaac CohenProfesor invitado,

Universidad Fidélitas

profesor invitado

119

Resumen: Este ensayo describe la revolución energética que está ocurriendo en Norteamérica e identi�ca algunas de las consecuencias y oportunidades que esta revolución puede tener para las economías del Istmo Centroamericano. Consta de dos partes. La primera identi�ca algunos de los factores que explican por qué la revolución energética ocurrió en Estados Unidos, mediante la utilización de nuevas tecnologías de exploración y explotación de fuentes no renovables, como el gas natural y el petróleo de esquistos. La primera parte concluye describiendo cómo esta transformación ha cambiado el mapa energético mundial. La segunda parte identi�ca algunas de las oportunidades que esta revolución le abre a las economías centroamericanas. Una de ellas consiste en proponer que se aproveche el abaratamiento de los precios del gas natural en Estados Unidos para importar ese combustible a Centroamérica, con el �n de remplazar la utilización de petróleo principalmente en la generación de electricidad. De esa manera se conseguiría sustituir una fuente más cara y más contaminante, como el petróleo, por una más barata y más limpia, como el gas natural, con el �n de abaratar el costo de la energía eléctrica en el Istmo Centroamericano.

Palabras clave: Centroamérica, energía, gas, tecnología.

Abstract: This essay describes the energy revolution

which is taking place in North America and identi�es some of the consequences and opportunities that this revolution may have for the economies of Central America. The essay is divided in two parts. The �rst part identi�es some of the factors which explain why the energy revolution happened in the United States, through the utilization of new technologies to explore and extract non renewable sources, such as shale oil and natural gas. The �rst part concludes describing how this transformation has changed the world’s energy map. The second part identi�es some of the opportunities that this revolution may allow for the economies of Central America. One of them consists in a proposal to bene�t from the drop in natural gas prices in the United States and import it to Central America, to replace the utilization of oil mainly in electricity generation. In this way, a more expensive and polluting source, such as oil, would be replaced by a cleaner and less expensive source, such as natural gas, therefore contributing to lowering the price of electricity in the Central American Isthmus.

Keywords: Central America, energy, gas, technology.

Revolución Energética

120

octubre 2015

r e v i s t a

Primera parte: Revolución energética

I. Introducción

En política una revolución ocurre cuando una clase social derroca a otra. Lo mismo en las ciencias duras, se habla de revoluciones cientí�cas cuando un paradigma remplaza a otro. El término también se puede utilizar respecto al abastecimiento energético cuando una fuente de energía desplaza a otra, como cuando el vapor y el motor de combustión interna desplazaron a los vehículos de tracción animal. En la actualidad, desde hace cinco años, está

ocurriendo ante nuestros ojos una revolución energética, por la cual ciertas fuentes de energía están desplazando o amenazando con impedir el desarrollo de otras.

Una peculiaridad de la actual revolución energética es que no son las fuentes nuevas de energía las que están retando a las fuentes tradicionales. Lo contrario está ocurriendo, casi hasta podría decirse que se trata de una contrarrevolución, porque las fuentes tradicionales de energía no renovable, como el gas y el petróleo, han retornado con vigor a desplazar otras fuentes tradicionales, como el carbón, así como a retrasar, o quizás hasta impedir, haciendo menos viable el desarrollo de fuentes alternativas renovables, como el viento y el sol. Se trata de un cambio impresionante, sobre todo

por su celeridad. Hace apenas cinco años, por diversas razones, el tema que dominaba la agenda energética era la búsqueda y utilización de fuentes alternativas porque se temía que las tradicionales podían agotarse, así como por sus efectos contaminantes, como en el caso del carbón, o bien porque se habían encarecido, viabilizando la búsqueda de fuentes alternativas más costosas, pero más limpias.

Otra peculiaridad de la actual revolución energética es que comienza en Estados Unidos y se concentra en América del Norte a causa de una conjunción muy particular de factores. Entre ellos �gura el hallazgo de nuevas tecnologías a la par de un sector empresarial dispuesto a asumir el riesgo de comercializarlas, estimulados por la persistencia de precios elevados de las fuentes tradicionales y, �nalmente, contando con el apoyo �rme y constante del sector público federal y estatal.

II. Conjunción de factores La explicación de cómo se ha recuperado la

exploración y explotación de gas y petróleo en Estados Unidos puede ser abordada desde distintos ángulos. Por ejemplo, uno de los más fascinantes consiste en la descripción de los fracasos y el auge de los empresarios privados, quienes asumieron el riesgo de utilizar nuevas tecnologías y consiguieron derivar grandes fortunas o incurrieron en grandes pérdidas. Se trata de un relato de profundas caídas y de espectaculares ganancias, de optimismo casi obsesivo, de ingeniosidad y tozudez (Zuckerman, 2013).

Este ensayo consta de dos partes. La primera describe las causas que condujeron a la revolución energética que está ocurriendo en América del Norte, para derivar de ese relato algunas de las consecuencias que está teniendo sobre todo en cuanto al surgimiento de un nuevo mapa energético mundial. La segunda parte identi�ca algunas de las consecuencias que la revolución energética ya está teniendo para Centroamérica.

121

Este enfoque personalista es similar al que se ha utilizado algunas veces para describir el desarrollo de las empresas de alta tecnología (dotcoms), enfocándose sobre la biografía de personajes como Steve Jobs (Apple) o de Bill Gates (Microsoft). Estas narrativas han llegado hasta ser taquilleras películas de Hollywood.

Los relatos personalistas sobre las “dotcoms” le restan protagonismo, por ejemplo, al efecto de la conjunción de la revolución en las telecomunicaciones con las nuevas tecnologías de información o al decisivo papel desempeñado por el Pentágono en la creación de la Internet. Es decir, en el afán de resaltar el protagonismo de los empresarios, se le otorga menos importancia o se destacan menos otros factores decisivos.

Es sabido que la descripción más certera de cualquier fenómeno social es pluricausal por acercarse más a la realidad reconociendo la in�uencia de distintos factores en el resultado. En el surgimiento y progresión de la actual

revolución energética destacan, por lo menos, cuatro factores, enumerados en orden que no prejuzga sobre su importancia relativa. Primero, el desarrollo de nuevas tecnologías de exploración y explotación, conocidas como fracturación hidráulica (fracking) y perforación horizontal o direccional. Segundo, los empresarios pioneros que asumieron el riesgo de utilizar esas tecnologías, constituyéndose en eslabón clave para comercializarlas. Tercero, el alza de los precios de las fuentes tradicionales no renovables, el cual viabilizó incurrir en los elevados costos de utilizar los nuevos métodos de exploración y explotación. Finalmente, el apoyo constante y decisivo proporcionado por el sector público, efectuando investigaciones que condujeron a decisivos hallazgos tecnológicos, o bien, subsidiando la utilización de dichos hallazgos.

La conjunción de esos cuatro factores contribuyó a la espectacular transformación del mapa energético mundial que estamos presenciando. A continuación, se describe brevemente cada uno de ellos.

A) La tecnología

La extracción de gas de esquistos en Estados Unidos data de principios del siglo XIX. En 1821, se logró extraer gas de esquistos en Fredonia, Nueva York, cuya explotación alimentó las lámparas de gas que iluminaban las ciudades del estado de Nueva York (Environmental Engineering and Contracting (EEC), 2010).

No obstante, hasta 1947 se utilizó por primera vez la técnica de fracturación hidráulica, la cual consiste en perforar verticalmente, sin mucha profundidad, inyectando agua en el pozo con alta presión, mezclada con arena y sustancias químicas. El propósito es fracturar las distintas capas del subsuelo para que por las grietas se fuguen los hidrocarburos atrapados entre ellas.

Esta primera aplicación vertical de la fracturación hidráulica consiguió resultados positivos perforando y fracturando franjas del subsuelo, sobre todo de piedra caliza y de piedra arenisca, las cuales son más susceptibles de fragmentación por ser más permeables.

Sin embargo, la perforación hidráulica vertical tuvo menos éxito en la fragmentación de capas del subsuelo más profundas y más sólidas, como las de esquistos. Estas franjas del subsuelo son mucho más resistentes por contener cuarzo, el cuarto mineral más duro. Además, la formación geológica de los esquistos es muy diferente porque son de estructura laminar y de alta porosidad, pero de poca permeabilidad. Por ende, es relativamente menos fructífera la fracturación hidráulica de esquistos con taladros rotatorios introducidos verticalmente.

122

octubre 2015

r e v i s t a

Además, entre los ingredientes que se usaron originalmente en la fracturación hidráulica se encontraban sustancias gelatinosas para hacer más poderosas las ráfagas de agua. Sin embargo, estas resultaban contraproducentes cuando se utilizaban en la fragmentación de esquistos. En efecto, las sustancias gelatinosas bloqueaban las grietas que abrían en el subsuelo las ráfagas hidráulicas. Solo con la eliminación de esas gelatinas, por error, se lograron mejorar moderadamente los resultados.

Otro hallazgo tecnológico decisivo y complementario condujo a inclinar los taladros hasta llegar a perforar horizontalmente, lo cual permitió identi�car y separar yacimientos en distancias enormes, de hasta 3 kilómetros. Además, por su estructura laminar, los esquistos resultaron más susceptibles de ser fragmentados horizontalmente.

En 1976, los ingenieros W.K. Overby y J. Passini del Centro de Investigación Energética de Morgantown, actualmente el Laboratorio Nacional de Tecnología Energética del Departamento de Energía, registraron la patente de una técnica de perforación direccional. Esta permitió la exploración y explotación horizontal de amplios yacimientos de esquistos ( Shellenberger et al., 2012).

Faltaba nada más lidiar con otro detalle esencial. En una longitud de tres kilómetros perforada horizontalmente, cómo hacer para saber dónde se encuentran los yacimientos más abundantes. Mientras no se resolviera ese enigma, la perforación horizontal estaba ocurriendo a ciegas y al azar.

El enigma se resolvió aplicando imágenes microsísmicas tridimensionales a los yacimientos de esquistos. Originalmente, esta tecnología fue desarrollada en el Laboratorio Nacional de Sandía ubicado en Nuevo México, del Departamento de Energía, para identi�car vetas en minas de carbón. Su aplicación permitió identi�car la ubicación de los yacimientos más abundantes y perforar donde era más prometedor. (Shellenberger, 2012).

Además, fueron incorporados gradualmente otros hallazgos tecnológicos complementarios efectuados en otras actividades. Por ejemplo, la utilización de algunos hallazgos en perforación de energía geotérmica, apoyados por un programa del Departamento de Energía, condujeron al diseño de taladros forrados de diamante, más adecuados para perforar roca sólida (Departamento de Energía 2010, pp. 13-15).

De esta breve descripción se deduce la conclusión de que el proceso de elaboración y aplicación exitosa de la tecnología fue lento y tortuoso. Contado a partir de la primera patente de perforación horizontal, en 1976, transcurrieron treinta años, hasta 2006, cuando las tecnologías comenzaron a generar resultados importantes.

En rigor, tres décadas no es mucho tiempo si se comparan con el siglo que tuvo que transcurrir para separar el teléfono de la pared y convertirlo en unidad móvil de uso generalizado. Pero el tiempo no es lo más relevante para que una nueva tecnología desemboque en una transformación productiva. Hacen falta otros eslabones esenciales.

123

B) Los empresarios

Otro factor esencial son los empresarios, quienes asumen el riesgo de ensayar la utilización costosa de nuevas tecnologías con tenacidad, hasta conseguir resultados positivos.

En Estados Unidos, una peculiaridad del régimen de propiedad de la tierra constituye el trasfondo que permite el surgimiento de una clase de empresarios que no es común en otras latitudes, precisamente porque el régimen de propiedad no lo permite.

En contraste con lo que ocurre en casi cualquier otra sociedad, en Estados Unidos la propiedad del subsuelo le pertenece al propietario de la super�cie. Eso hace que los contratos de exploración y de explotación de los recursos del subsuelo resulten de acuerdos entre entidades privadas, lo cual es muy distinto a los contratos de exploración y explotación que se celebran en aquellos países donde el subsuelo le pertenece al Estado.

Este régimen de propiedad estimula el surgimiento de empresarios independientes, dedicados a la celebración de contratos privados con los propietarios de la super�cie de terrenos en donde se sospecha que pueden existir yacimientos de hidrocarburos. En el vernáculo de la industria petrolera, a estos empresarios se les conoce como “wildcatters,” lo cual traducido literalmente quiere decir “cazadores de gatos salvajes.” Sin embargo, a principios del siglo XIX el término “wildcat” ya se utilizaba en el argot de los negocios para describir transacciones muy riesgosas (Zuckerman 2013, p. 164).

El término se comenzó a utilizar en la industria petrolera en la región de Titusville, Pennsylvania,

donde en 1849 se perforó el primer pozo petrolero de Estados Unidos. De hecho, cerca de Titusville, en lo que después se conoció como las “Regiones Petroleras” (Oil Regions), existieron pozos activos en un lugar llamado Wildcat Hollow (Yergin, 2008, p. 13; Zuckerman, 2013, p. 164).

A partir de entonces, a los empresarios independientes dedicados a prospectar petróleo y gas se les conoce como “wildcatters.” Se trata de personajes dispuestos a asumir riesgos, vendedores de sueños, muchos de ellos geólogos. Es conocida la división de tareas que existe en la industria petrolera entre los geólogos soñadores, calculadores de reservas y los ingenieros realistas, encargados de ejecutar las obras materiales de prospección y explotación (Zuckerman, 2013, pp. 88-89).

Usualmente, en la industria de gas y petróleo, un empresario independiente comienza por ser un intermediario. Actúa como corredor de bienes raíces (landman), sin mucho capital inicial, colocándose en medio de los propietarios de la tierra y los interesados en prospectar el subsuelo. En esta etapa inicial, el “landman” gana comisiones y su actividad principal es llegar de primero a convencer al propietario del terreno de que le ceda los derechos de perforación del subsuelo. Para lograrlo, le asegura al propietario de la tierra que puede venderla a un mejor precio a los explotadores de los yacimientos de hidrocarburos que supuestamente existen en el subsuelo.

A medida que estos empresarios independientes acumulan ganancias derivadas de tales comisiones, el siguiente paso consiste en adquirir ellos mismos los terrenos con el propósito de venderlos cuando puedan conseguir un mejor precio. Convertirse en propietarios signi�ca también que se vuelven sujetos de crédito aceptables para los bancos.

124

octubre 2015

r e v i s t a

El propósito �nal no es acumular terrenos, lo cual es instrumental. La meta es ser ellos mismos quienes lleven a cabo la prospección de gas o petróleo en terrenos de su propiedad, convirtiéndose así en “wildcatters.” La cúspide del éxito para estos “wildcatters” consiste en convertirse en magnates, propietarios de empresas que llegan a ser hasta cotizadas en la bolsa de valores.

Estas distintas etapas son las que conforman el camino al éxito, pero en ese camino también se quedan varados muchos porque las probabilidades de fracasar son mucho más elevadas que las de triunfar.

De allí que la historia puede contarse destacando el éxito de un puñado de empresarios ganadores, imaginativos y aventureros, por�ados y tenaces. Por ejemplo, la empresa Mitchell Energy, explotadora de gas natural en la formación Barnett de Texas, fundada por George Mitchell, bautizado por The Economist como “el padre del fracking” (Schumpeter, 2013). O bien, la empresa Chesapeake Energy, fundada por Aubrey McClendon y Tom Ward, dos “wildcatters” nativos de Oklahoma, dedicados a adquirir terrenos y pozos de gas en casi cualquier parte del territorio de Estados Unidos. También la empresa Continental Resources fundada por Harold Hamm, la cual prospectó petróleo con éxito en la formación Bakken, la cual abarca los dos estados de Dakota Norte y Sur, así como Montana, incluyendo las provincias canadienses de Manitoba y Saskatchewan.

Estas son algunas de las empresas que tuvieron éxito en la utilización de las nuevas tecnologías. Quizás, algún día las historias de Mitchell, Hamm,

McClendon y Ward se convertirán en tramas de películas de Hollywood. Como sea, en la búsqueda de hidrocarburos no bastan las ambiciones, hace falta otro eslabón sobre el cual ni los tenaces empresarios ni nadie ejerce control alguno.

C) Los precios

La característica principal de los precios de los hidrocarburos en la época contemporánea ha sido la volatilidad, desde alzas de $147 dólares por barril de petróleo en julio de 2008 hasta colapsos de hasta $10 dólares por barril en noviembre de 1985 (Yergin, 2010).

Esta volatilidad ha sido el factor determinante en el �orecimiento o la decadencia de numerosos productores individuales e independientes. Optimistas en el alza, se endeudan para aumentar la producción. Luego, en la bajada, ven caer las acciones de sus empresas, convirtiéndose en presa fácil de los más grandes, quienes a menudo adquieren las empresas independientes a precios de quemazón. En el caso extremo, los empresarios independientes terminan declarándose en bancarrota. Ante estos rigores del mercado, que se mani�estan en las alzas y bajas de los precios, estas empresas parecen existir en un entorno casi darwiniano en donde prevalecen los más fuertes.

Durante largo tiempo, los precios del gas natural, especialmente los del licuado, se �jaban en relación a los precios del petróleo crudo. Podía decirse que el gas natural era como un pariente pobre del petróleo. De hecho, aún no existe un mercado mundial al contado (spot) de gas natural, o sea, un mercado global como el que existe para otras materias primas. Los precios del gas natural se �jan regionalmente en Europa o Asia, o nacionalmente en Estados Unidos.

125

Hasta hace poco, el precio del gas natural se calculaba en relación al precio del petróleo. Por ejemplo, durante algún tiempo la relación de precios entre el gas natural y el petróleo era de 1:7, el precio del barril de petróleo era 7 veces mayor que el precio equivalente del gas natural. Sin embargo, con el aumento espectacular de la producción de gas natural de esquistos en Estados Unidos y la consecuente caída del precio, esa relación se ha ampliado considerablemente a 1:20.

Antes del aumento en Estados Unidos de la producción de gas de esquistos, en 2008, los precios del gas natural estaban aumentando, llegaron a $13.50 por mil pies cúbicos (mpc), lo cual generaba un poderoso estímulo para aumentar la producción. Un año después, en 2009, como resultado de aumentos signi�cativos en la producción, el precio del gas natural en Estados Unidos descendió a entre $3 y 4 dólares por mpc y se ha mantenido a ese nivel hasta ahora (Hefner, 2014).

En contraste, el precio del petróleo se ha mantenido elevado, a pesar de aumentos igualmente espectaculares en la producción de lo que se llama “crudo compacto” (tight oil), debido a la aplicación de los mismos métodos de prospección y explotación originados en el gas de esquistos (Yergin, 2012, pp. 263-265). Desde 2011 hasta 2014, el precio del petróleo se mantuvo en alrededor de $100 por barril.

La aplicación de nuevas tecnologías de exploración y explotación han bajado los precios del gas natural a niveles que hacen menos rentables dichas actividades. Hasta hace poco, en opinión de un experto (Morse, 2014), para que las inversiones en gas natural de esquistos sean rentables, los precios del gas natural en

Estados Unidos deben superar $4 por mpc. La expectativa es que el consecuente aumento de la demanda, estimulado por la caída del precio, empujará de nuevo los precios hacia arriba.

En teoría, estos prolongados períodos de disminución de los precios hubieran desestimulado las actividades productivas haciéndolas menos rentables, de no haber sido por el apoyo del Gobierno, el último eslabón en la cadena productiva del gas no convencional.

D) El sector público

A lo largo de esta prolongada trayectoria de la generación y aplicación de nuevas tecnologías, el Gobierno de Estados Unidos ha participado en ellas apoyando decisivamente los esfuerzos privados (Shellenberger, Nordhaus, Trembath y Jenkins, 2010).

El primer embargo petrolero de 1973 motivó la búsqueda de fuentes alternativas de energía, estimulada porque entonces la producción de gas y petróleo en Estados Unidos estaba disminuyendo. En 1976, uno de los esfuerzos en esta búsqueda de alternativas condujo a la creación del Proyecto de Gas de Esquistos del Este por iniciativa del Centro de Investigación Energética de Morgantown, predecesor del actual Laboratorio Nacional de Tecnología Energética, del Departamento de Energía.

Este proyecto impulsó la colaboración público-privada del Departamento de Energía con empresas y universidades. El proyecto se formalizó, en 1979, mediante la aprobación del Plan de Comercialización para la Recuperación de Gas Natural Derivado de Fuentes No Convencionales. Uno de los propósitos del plan era llevar al mercado el gas de esquistos.

126

octubre 2015

r e v i s t a

El proyecto consistió en efectuar demostraciones en universidades y empresas localizadas en los estados de Pennsylvania y Virginia Occidental. Como lo describió el vicepresidente de la empresa Mitchell Energy, Dan Steward, el proyecto demostró que había “una cantidad enorme (a hell of a lot) de gas en los esquistos.” (Shellenberger et al. 2012, p.6).

En ese mismo año, como se mencionó, dos ingenieros del Centro de Investigación de Morgantown patentaron una técnica de perforación direccional de esquistos. Este hallazgo sirvió de base para el desarrollo posterior de la perforación horizontal.

Además, como también se mencionó, los hallazgos sobre diseño y fabricación de taladros forrados de diamante, efectuados en el Laboratorio Nacional de Sandia, fueron originalmente destinados a la exploración de carbón. Posteriormente, fueron utilizados con éxito en la prospección de gas y petróleo en roca sólida.

En 1980, el Congreso de Estados Unidos aprobó un apoyo más directo a la producción de gas natural no convencional. La Sección 29 de la Ley del Impuesto Sobre Ganancias Extraordinarias creó un subsidio de $0.50 por cada mpc de gas natural producido de fuentes no convencionales. Este subsidio estuvo vigente durante 22 años hasta que en 2002 la empresa Mitchell Energy comenzó a comercializar el gas producido en los yacimientos de esquistos de la Formación Barnett en Texas. La producción de gas no convencional se cuadruplicó durante esos 22 años de vigencia del subsidio.

El Departamento de Energía también apoyó directamente los esfuerzos de la empresa Mitchell Energy mediante un convenio suscrito, en 1991, conjuntamente con el Instituto de Investigación sobre Gas, entidad �nanciada con un impuesto sobre los

embarques de gas transportados a través de gasoductos interestatales.

Asimismo, las tecnologías para captar imágenes microsísmicas en el subsuelo fueron desarrolladas por el mismo Instituto de Investigación sobre Gas. Estas fueron otro aporte esencial otorgado por el sector público a la empresa Mitchell Energy para perfeccionar sus actividades de fracturación hidráulica.

Finalmente, algunas restricciones ambientales fueron eliminadas por ley, exceptuando a la fracturación hidráulica de cumplir con los requerimientos de la Ley de Agua Potable Segura. Con base en un estudio llevado a cabo por la Agencia de Protección Ambiental, en 2004, se incluyó dicha excepción en la Ley de Política Energética puesta en vigor por el Presidente G.W. Bush en agosto de 2005.

A esta medida se le conoce como la “exención Halliburton” (Halliburton Loophole) porque fue impulsada por el entonces vicepresidente Dick Cheney, quien antes fue ejecutivo máximo de la empresa Halliburton (Prud´homme, 2014, pp. 65-66). Esta excepción le ha permitido a las empresas no revelar, por considerarlo secreto comercial, las sustancias químicas que le mezclan al agua que usan para fracturar hidráulicamente el subsuelo.

En resumen, los esfuerzos del gobierno fueron constantes y decisivos, abarcando desde la investigación y los subsidios hasta el apoyo directo a los esfuerzos del sector privado, exceptuándolo de cumplir con requerimientos de protección del medio ambiente. Como lo describió Fred Julander, ejecutivo de la empresa Julander Energy, “el Departamento de Energía estaba allí con fondos para investigación cuando nadie estaba interesado y hoy todos estamos cosechando los bene�cios” (Shellenberger et al., 2010, p. 8).

127

Aún no se han hecho evaluaciones para ponderar la in�uencia relativa de cada uno de los factores en el resultado. Por ende, baste consignar aquí que la descripción hecha de dichos factores no prejuzga sobre su in�uencia relativa. Ante la ausencia de estudios que cuanti�quen dicha in�uencia, aquí solo se puede describir cada uno de ellos con el propósito de resaltar que la conjunción de todos es la que permite una mejor apreciación del resultado.

III. Nuevo mapa energético

Uno de los efectos que ha tenido la recuperación de la capacidad productiva de hidrocarburos en Estados Unidos ha consistido en modi�car sustancialmente el mapa energético mundial.

Según la Agencia de Información Energética (AIE), del Departamento de Energía, en 2010, Estados Unidos con un poco menos de 5 por ciento de la población mundial consumió casi 19 por ciento del total de la energía producida en el planeta. En ese mismo año, China rebasó a Estados Unidos como el principal consumidor de energía. Con 20 por ciento de la población mundial, en 2010, China consumió un poco más de 20 por ciento del total de la producción mundial de energía (AIE 2013b).

Ambas sociedades juntas representan 40 por ciento del consumo energético mundial, por lo cual los cambios en la oferta o la demanda en cualquiera de ellas tienen un impacto signi�cativo en el mapa energético mundial. Hasta ahora, los principales cambios recientes en la producción de hidrocarburos se han concentrado principalmente en Estados Unidos y en el hemisferio occidental. A continuación, se describen algunos de esos cambios.

A) La transformación A principios de este siglo, surgió la

preocupación por la llegada a la cúspide de la producción mundial de petróleo que haría que, en adelante, dicha producción solo pudiera declinar. El término utilizado en inglés para describir este malestar era “peak oil” (Yergin, 2008, p.771). Como consecuencia, lo que se vislumbraba era que el mundo iba a entrar en una época de escasez permanente de petróleo.

El aumento de la demanda de energía en China, espoleada por las espectaculares tasas de crecimiento de dos dígitos de esa economía, era uno de los factores que se invocaban para fundamentar esa preocupación por la supuesta escasez.

En el fondo, ese fantasma del agotamiento del petróleo se basaba en una proyección de la experiencia de Estados Unidos, en donde la producción doméstica, en 1970, alcanzó el punto máximo de 9.6 millones de barriles por día (bpd). A partir de entonces, esta cifra comenzó a declinar sostenidamente, con el consecuente aumento de las importaciones, además del comienzo de preparativos para importar gas natural licuado, los cuales nunca llegaron a concretarse.

En la actualidad, el panorama ha cambiado profundamente. La Agencia de Información Energética del Departamento de Energía de Estados Unidos (AIE, 2013) proyecta que, a �nes de 2014, la producción doméstica de petróleo rebasará 8 millones de barriles diarios (bpd), cifra que no se veía desde 1988. De esa manera, la producción doméstica ha superado la importación neta de petróleo, la cual se proyecta que en 2014 será de menos de 7 millones de bpd, cifra que no se veía desde 1995.

128

octubre 2015

r e v i s t a

Según la misma Agencia, este aumento se debe a los elevados niveles de producción alcanzados en la extracción de petróleo de esquistos y de otras rocas compactas primordialmente en los estados de Dakota del Norte y Texas.

La transformación también se puede apreciar en lo que está sucediendo en el comercio exterior de hidrocarburos (Morse, 2014). En 2008, Estados Unidos era un importador neto de productos derivados del petróleo con un balance comercial negativo en 2 millones de bpd. A �nes de 2013, ese rubro generó un excedente de 2 millones de bpd, convirtiendo a Estados Unidos en un exportador neto de combustibles y otros productos derivados del petróleo. De continuar esta tendencia, a �nes de 2014, Estados Unidos rebasó a Rusia como el primer exportador mundial de combustibles líquidos.

Hacia �nes de 2020, la proyección es que el balance comercial negativo en petróleo de $354,000 millones de 2011 se convertirá en $5,000 millones de saldo positivo. Lo mismo se proyecta que sucederá en 2020 con el gas natural, cuando Estados Unidos se convertirá en exportador neto a niveles comparables a los de los grandes exportadores como Qatar y Rusia. El balance comercial negativo en gas natural de 2013, equivalente a $8,000 millones, se convertirá en $14,000 millones de saldo positivo en 2020.

Para apreciar mejor la magnitud y profundidad de esta transformación, conviene describir lo que ha tenido que hacerse para alcanzarla.

Por ejemplo, en Estados Unidos hasta ahora se ha perforado un promedio de 100 pozos diariamente. Hasta 2014, se perforaron 4 millones de pozos de gas y petróleo en comparación con 1,5 millones perforados en el resto del mundo. Como lo ha descrito el fundador de GHK Companies, Robert A. Hefner III, una empresa independiente de prospección de hidrocarburos, desde que comenzó el auge del gas de esquistos en Estados Unidos hasta 2014, se perforaron horizontalmente 150,000 pozos a un costo estimado en $1 billón (millón de millones). Dichos pozos horizontales tienen una

extensión promedio de entre 1,6 y 3,2 kilómetros, habiéndose efectuado en cada uno de ellos un promedio de 10 inyecciones de fracturación. Eso signi�ca que a lo largo de los 240,000 kilómetros de yacimientos de esquistos explorados horizontalmente se han efectuado alrededor de 2 millones de fracturaciones (Hefner, 2014).

Como lo plantea el director de la Administración de Información Energética, Adam Sieminski (2014), estas cifras representan solo el comienzo de lo que puede signi�car mundialmente la aplicación generalizada de estas tecnologías en otros países, donde existen mayores yacimientos de gas y de petróleo de esquistos.

2014: 10 países con las mayores reservas recuperables de hidrocarburos de esquistos

129

A la par de la evidencia cuantitativa de este cambio en el mapa energético mundial, han aumentado las interpretaciones y especulaciones sobre sus consecuencias geopolíticas, sobre todo en algunos círculos diplomáticos.

Entre dichas interpretaciones destaca, por ejemplo, la que sostiene que Estados Unidos está a punto de alcanzar una situación utópica caracterizada como de “independencia energética.” Luego están aquellos que sostienen que Estados Unidos dejará de depender del Medio Oriente, lo cual disminuirá las tensiones en esa parte del mundo, que por coincidencia o deliberación resulta ser la principal productora de petróleo, pero también es la región de mayor tensión del planeta. Otros pronostican que el Medio Oriente se

convertirá en el principal abastecedor de hidrocarburos de China, donde la demanda está creciendo. Se especula que China tendrá que responsabilizarse estratégicamente de los con�ictos y de las vías marítimas de acceso al Medio Oriente.

Finalmente, a raíz de la situación en Ucrania, quizás la primera tensión geopolítica en donde �gura protagónicamente el gas natural, hay quienes dicen que Estados Unidos, cuanto antes, debe exportar gas natural licuado a Europa. El objetivo es contribuir a que los europeos reduzcan la dependencia que tienen de las importaciones de Rusia, la cual abastece alrededor de un tercio de la demanda europea de gas natural (Krauss, 2014).

Sin embargo, estas son meras especulaciones que padecen del llamado “síndrome del gallo,” el cual cree que cantando antes amanecerá más temprano. Casi ninguna resalta que los proyectos energéticos son de larga maduración y que demandan cuantiosas inversiones. Tampoco enfatizan que hay en curso un intenso debate en Estados Unidos, entre gigantescos productores y

consumidores, sobre las bondades y perjuicios de las exportaciones de gas y de petróleo, las cuales se encuentran estrictamente reguladas por el Gobierno. Por último, se desprecia el hecho de que la fracturación hidráulica y la perforación horizontal han generado reacciones defensivas y oposición entre organizaciones protectoras del medio ambiente, las cuales están comenzando a tener efectos dilatorios en la utilización de las nuevas tecnologías.

Lo cierto es que tendrá que transcurrir algún tiempo antes de que se aclaren las consecuencias económicas y geopolíticas que tendrá el hecho de que Estados Unidos se convierta en exportador neto de hidrocarburos. En todo caso, queda tiempo para ponderar dichas consecuencias. B) La oposición

Como es sabido, cualquier generación de energía tiene consecuencias ambientales. Desde la utilización de la madera como combustible, por su contribución a la desforestación y la contaminación del aire causante de enfermedades respiratorias, especialmente entre familias que habitan casas de una sola habitación. Las organizaciones de la sociedad civil defensoras

del medio ambiente tardaron en responder a la intensi�cación del uso de las nuevas tecnologías. Sin embargo, lentamente ha ido creciendo la oposición, la cual a su vez ha motivado al sector público a incrementar la regulación de dichas actividades (Bloomberg y Krupp, 2014).

Dos preocupaciones ambientales básicas han surgido a medida que se intensi�ca y extiende la utilización de las nuevas tecnologías. La primera tiene que ver con el agua que se utiliza y la segunda con las fugas de metano que ocurren en los equipos de exploración, extracción y re�nación, además del gas que se quema cuando es sucedáneo de la extracción de petróleo.

130

octubre 2015

r e v i s t a

i) Agua

La demanda de agua que se utiliza en grandes cantidades en la fracturación hidráulica compite con usos alternativos como el potable o la agricultura. Esto es altamente controvertido, especialmente en aquellas regiones en donde hay sequía o escasez de agua, como en el estado de California.

El agua es inyectada a alta presión en los pozos de extracción de gas y petróleo, lo cual plantea el riesgo de que se desvíe hacia acuíferos y que los contamine. Este riesgo se deriva básicamente de la enorme presión con la cual se inyecta el agua en el pozo. Por ejemplo, en un caso observado en la Formación Bakken, en Dakota del Norte, la presión ejercida sobre la roca alcanzó entre 7,000 y 8,000 libras por pulgada cuadrada, la cual es mayor que la presión ejercida por 12,000 pies de agua sobre el piso del océano (Gold, 2014b).

Hay también una preocupación sobre cómo disponer del agua utilizada en la fracturación. En algunos casos, por ejemplo, el agua utilizada se inyecta en pozos de mayor profundidad destinados a almacenar el agua desechada. El riesgo consiste en que estos pozos más profundos pueden estar cerca de fallas geológicas cuya desestabilización puede producir sismos.

En abril pasado, por ejemplo, el Departamento de Recursos Naturales del estado de Ohio suspendió las operaciones de fracturación en un área de la Formación Utica de esquistos, en un radio de cinco kilómetros en torno al epicentro de un conjunto de temblores que se sintieron en el noroeste del estado. Otras autoridades estatales, tales como las de Arkansas, Colorado, Illinois, Kansas, Oklahoma y Texas, en donde se han intensi�cado los sismos, están considerando regular las actividades de fracturación (Gilbert y Sider, 2014).

En vista de que alrededor de la mitad del agua usada en una fracturación regresa a la super�cie, también se ha propuesto que esa agua sea sometida a tratamiento para poderla utilizar en nuevas perforaciones. El agua que se inyecta en los pozos está mezclada con arena y sustancias químicas que las empresas de fracturación hasta ahora no han aceptado divulgar. Algunas empresas argumentan que las fórmulas de componentes químicos que utilizan son secretos comerciales que no pueden darse a conocer.

No obstante, parece que esta postura está principiando a cambiar, por ejemplo, gracias a la presión de algunos accionistas de empresas como la Exxon Mobil, la cual en 2010 se convirtió en el mayor productor de gas de Estados Unidos mediante la adquisición de la empresa XTO productora de gas. Desde entonces, en cada asamblea de accionistas, alrededor de un tercio de ellos han presionado a la administración de Exxon Mobil para que divulgue la composición de las sustancias que utiliza en la fracturación hidráulica. Finalmente, en abril de este año, como resultado de negociaciones con accionistas y grupos ambientalistas, la administración de Exxon Mobil accedió a dar a conocer mayores detalles sobre sus actividades de fracturación hidráulica de gas y de petróleo (Gilbert, 2014).

También en abril, la Agencia federal para la Protección del Ambiente reveló que estaba solicitando comentarios entre distintos interesados sobre la posibilidad de establecer un sistema voluntario de divulgación del contenido químico de los �uidos utilizados en la fracturación hidráulica (Volcovici, 2014). Cabe señalar que las actividades de fracturación no están sometidas a regulación federal, son las autoridades estatales las que regulan dichas actividades

131

ii) Metano

Una de las justi�caciones utilizadas para promover el consumo de gas natural es que se trata de un combustible menos contaminante, por ejemplo, que el carbón. Lo cual es verdad si se comparan las emisiones de dióxido de carbono emanadas de la utilización del carbón con las menores que genera quemar gas natural, pero, si se considera que el gas natural es fundamentalmente metano, las fugas de este último contribuyen también a la formación de gases de invernadero. Además, el metano que no es quemado es mucho más contaminante que el dióxido de carbono, además de ser una fuente de contaminación del aire en algunas concentraciones urbanas, como por ejemplo en Denver, Colorado (Krupp, 2014).

Una de las principales fuentes de fugas de metano se da en las instalaciones de explotación y en los gasoductos. Como ha dicho un experto, cerrar las fugas de metano en las instalaciones es un asunto de plomería, no de termodinámica. Lo que se necesita es encontrar las fugas y sellarlas (Gold, 2014a).

También, cuando la explotación de gas natural está asociada al petróleo, usualmente la solución más fácil es quemar las emisiones de gas en los pozos y re�nerías. Por ejemplo, en la Formación Bakken de Dakota del Norte, donde se ha desarrollado la extracción de petróleo de esquistos, los pozos generalmente tienen penachos de llamaradas de gas, indicativos de que se está desperdiciando ese recurso. Este fenómeno tiene que ver con el hecho de que no se han desarrollado aún los gasoductos necesarios para transportar el gas hacia centros de consumo.

Eso sucede, por ejemplo, en la Formación Marcellus de esquistos, que va desde el estado de Nueva York, pasa por Pennsylvania y el este de Ohio

y termina en Virginia Occidental, la cual contiene el yacimiento más grande de gas natural de Estados Unidos, estimado en 141 billones de pies cúbicos de gas recuperable. Los estados del noreste y del medio oeste que bordean la Formación Marcellus se encuentran en la región que tiene el invierno más severo, pero no han podido bene�ciarse de la abundancia de gas por la falta de gasoductos. Por ende, en esos estados, los precios del combustible al público todavía son muy elevados (Sider, 2014b).

Estos problemas ambientales derivados de la utilización de las nuevas tecnologías han contribuido a aumentar su rechazo entre el público. Dos encuestas efectuadas en marzo y septiembre de 2013 revelaron que ha aumentado el rechazo del público a la fracturación hidráulica (Sider, 2014a).

Este aumento de la oposición a las nuevas tecnologías se mani�esta también en la forma como han reaccionado algunas autoridades estatales, como entidades reguladoras, ante la ausencia de normas federales.

Por ejemplo, en 2010, el estado de Nueva York, donde comienzan los enormes yacimientos de gas natural de la Formación Marcellus, declaró una moratoria en la utilización de nuevas tecnologías. El estado de California ha aprobado reglas interinas sobre fracturación destinadas a garantizar la calidad de los pozos, especialmente del revestimiento de cemento que necesitan. También el estado de Colorado ha adoptado las primeras regulaciones en Estados Unidos sobre las emisiones de metano (Bloomberg y Krupp, 2014).

132

octubre 2015

r e v i s t a

Finalmente, ante la intensi�cación del debate sobre el impacto ambiental de las nuevas tecnologías, se está tratando de construir un consenso entre los distintos intereses involucrados. En 2013, por ejemplo, se creó el Centro para el Desarrollo Sostenible de Esquistos con sede en Pittsburgh (Gold, 2014a; Krupp, 2014).

Este Centro es una entidad privada que agrupa a empresas de gas y de petróleo, organizaciones ambientales y fundaciones. Su propósito consiste en lograr que la explotación de esquistos sea segura y sostenible. La tarea principal del Centro es la elaboración de estándares certi�cables sobre el desempeño de las empresas (CDSE, 2013). Entre los miembros fundadores del Centro se encuentran, entre otros, las empresas Chevron y Shell, el Fondo para la Defensa Ambiental, así como algunas fundaciones.

C. El desenlace

La caída desde hace un año de los altos precios de los hidrocarburos ha comprobado la in�uencia de los precios como uno de los factores determinantes de la búsqueda y explotación de nuevas fuentes. El aumento de la producción de petróleo en Estados Unidos, sumado a la desaceleración de la economía de China, ha contribuido a la caída de los precios del crudo a niveles que no se veían desde la Gran Recesión de 2008 (Yergin, 2015). Como se mencionó, juntas las economías de China y Estados Unidos consumen 40 por ciento de la energía producida en el planeta, por lo que cualquier acontecimiento del lado de la oferta o de la demanda en cualquiera de ellas, más aún en ambas, tiene consecuencias inmediatas en la economía global.

133

i) Petróleo

En abril de 2015, la producción de petróleo en Estados Unidos alcanzó una cúspide de 9.6 millones de barriles por día (bpd), el punto máximo que había alcanzado en 1970 antes de empezar a declinar hasta llegar a 5 millones de bpd en 2008. Según estimaciones de la Agencia de Información Energética (AIE) del Departamento de Energía, a partir de abril de 2015, la producción de petróleo en Estados Unidos comenzó a declinar. Por ejemplo, en septiembre de 2015, la producción de crudo disminuyó 120,000 bpd en comparación con agosto. La proyección es que dicha tasa declinante se mantendrá hasta 2016 con 9.2 millones de bpd producidos en 2015 y 8.9 millones de bpd en 2016 (AIE, 2015).

Esta caída de la producción se debe a una reducción drástica del número de plataformas activas de extracción de petróleo, las cuales han disminuido 60 por ciento desde la cúspide de 1,609 alcanzada en octubre de 2014. O sea, en un año han dejado de funcionar casi un millar de dichas plataformas, las cuales pueden ser reactivadas cuando los precios del crudo hagan otra vez rentable su funcionamiento (Friedman, 2015b).

A pesar de esta reducción de la producción estadounidense, siguen cayendo los precios de petróleo debido a la in�uencia de otros factores. Los otros grandes productores, como Arabia Saudita dentro de la Organización de Países Exportadores de Petróleo (OPEP), así como Rusia fuera de ella, han mantenido niveles de producción que siguen presionando los precios del crudo hacia abajo. Por ejemplo, la OPEP produjo 31.6 millones de bpd en agosto, por encima de la meta �jada de 30 millones de bpd. Por su parte, Arabia Saudita, el miembro más in�uyente de la OPEP, mantiene la producción en 10.35 millones de bpd. Mientras que en Rusia, el Gobierno anunció que la producción de crudo en septiembre de 2015 aumentó a 10.74 millones de bpd, nivel de producción que no se veía desde los días de la desaparecida Unión Soviética (Kantchev y Said, 2015).

Tanto Arabia Saudita y la OPEP, así como Rusia, han decidido mantener esos elevados niveles de producción que empujan los precios del crudo hacia abajo para preservar sus respectivas porciones del mercado y eliminar a los productores con costos de producción más elevados, tales como la producción derivada de esquistos que se ha desarrollado en Estados Unidos.

A estos factores que están deprimiendo los precios de los hidrocarburos hay que agregar la expectativa de que Irán, a raíz del reciente acuerdo sobre generación de energía nuclear, retorne vigorosamente al mercado de petróleo. En este caso la estimación es que la producción petrolera de Irán puede rápidamente recuperar el nivel de 3.7 millones de bpd alcanzado en 2011, año en que le fueron impuestas sanciones comerciales, las cuales deprimieron la producción a 2.7 millones de bpd en 2013 (Yep, 2015).

En todo caso, la estimación de la Agencia Internacional de Energía (AIE) es que en el otoño de 2015 existían 2 millones de bpd de exceso de oferta que estaba presionando hacia abajo los precios del crudo. Las proyecciones son que los bajos precios del petróleo persistirán a los niveles actuales por lo menos hasta el �nal de 2016. El banco Goldman Sachs proyecta que los precios del crudo deben bajar por lo menos a $20 por barril para que desaparezca el exceso de oferta que prevalece en el mercado (Friedman y Faucon, 2015).

Los abultados inventarios que existen sustentan estas proyecciones pesimistas sobre los precios. Por ejemplo, en Estados Unidos, en abril de este año, los inventarios de crudo llegaron a 490 millones de bpd, el nivel más elevado de los últimos 80 años. Durante el verano, esos inventarios descendieron a 450 millones de barriles, pero la proyección es que hacia �n de 2015 alcanzarán el nivel sin precedentes de 500 millones de barriles (Friedman, 2015a).

134

octubre 2015

r e v i s t a

ii) Gas natural

La otra fuente no renovable cuyos precios han experimentado una caída espectacular, debido a la aplicación de nuevas tecnologías de exploración y explotación especialmente en Estados Unidos, es el gas natural. Cuando principiaron a sentirse los efectos de la aplicación de las nuevas tecnologías en 2009, los precios del gas natural en Estados Unidos entre 2007 y 2008 habían llegado a $13 por millón de unidades térmicas británicas (British Thermal Units, BTUs en inglés). En 2009, los precios del gas natural en Estados Unidos descendieron a $4 por millón de BTUs y en la primavera de 2015 han oscilado entre $2.50 y $3.00 por millón de BTUs (Gold, 2015).

Esta caída espectacular de los precios ha tenido consecuencias positivas para los consumidores individuales, por tratarse del combustible más utilizado para calentar los hogares durante el invierno. Pero de mayor trascendencia ha sido el hecho de que a tales precios el gas natural se está utilizando en la generación de energía eléctrica, sustituyendo al carbón, una fuente comparativamente más costosa y menos limpia.

Durante la década pasada, el consumo de gas natural en Estados Unidos ha aumentado a una tasa anual de 2.4 por ciento, mientras que la demanda de carbón ha disminuido 2.7 por ciento. Al punto que actualmente en Estados Unidos, cerca de 30 por ciento de la generación eléctrica y la mitad de la calefacción de los hogares utilizan gas natural. En 2007, casi la mitad de la generación eléctrica utilizaba carbón, en 2014 esa proporción descendió a 39 por ciento. Entretanto, en 2007, 21 por ciento de la electricidad era producida con gas natural, proporción que en 2014 aumentó a 26 por ciento (Harder, 2015).

Las proyecciones de la oferta, la demanda y los precios del gas natural en Estados Unidos se basaban en la disponibilidad del yacimiento más grande ubicado en la Formación Marcellus del noreste del país. De hecho, la magnitud de este yacimiento

condujo a proyectar que los precios del gas natural persistirían bajos por un período prolongado.

Ahora, a estas proyecciones ha venido a sumarse el hecho de que la utilización de las tecnologías de fracturación hidráulica ha activado un nuevo sector conocido como la Formación Haynesville, localizada en la frontera de los estados de Luisiana y Texas, con una extensión de casi 200 kilómetros. En 2007, en esa región resultaba rentable la utilización de nuevas tecnologías cuando los precios del gas estaban a $13 por millón de BTUs. Ahora, el perfeccionamiento y mayor e�ciencia de las nuevas tecnologías hacen rentable la explotación de los yacimientos de gas en la Formación Haynesville a partir de los precios actuales de $2.50 por millón de BTUs. Este yacimiento tiene además ventajas geográ�cas por estar localizado cerca de la región del Golfo de México, donde se localiza una red amplia de gasoductos, así como capacidad instalada de re�nación y exportación, junto a grandes consumidores industriales (Gold, 2015).

Con base en la disponibilidad de estos enormes yacimientos ubicados en esas y en otras formaciones, la proyección es que en Estados Unidos los precios del gas natural se mantendrán bajos por lo menos durante los próximos veinte años. Esta abundancia de petróleo y gas natural de

esquistos ha generado un debate en Estados Unidos sobre la conveniencia de levantar la prohibición de exportar hidrocarburos sin re�nar, impuesta durante el primer embargo petrolero de 1973. En este debate están involucrados por una parte los grandes consumidores, sobre todo los industriales y las plantas generadoras de electricidad, quienes se oponen a que se autoricen las exportaciones porque temen que eso aumentará los precios en el mercado doméstico. Por otra parte, en favor de levantar la prohibición de exportar hidrocarburos sin re�nar se encuentran los productores quienes, ante la caída del precio doméstico, tienen interés en buscar mercados alternativos donde les paguen mejores precios por el producto (Harder y Berthelsen, 2015).

135

Sin embargo, indistintamente de la forma como se resuelva este debate, existe una excepción a la prohibición de exportar hidrocarburos sin re�nar, prevista en la legislación doméstica estadounidense, para aquellos gobiernos que tengan vigentes tratados de libre comercio con Estados Unidos. Así está previsto en la Sección 3 de la Ley de Gas Natural de 1938, enmendada por la Sección 201 de la Ley 102-486 sobre Política Energética de 1992.

Como es sabido, entre Estados Unidos y cinco Gobiernos centroamericanos y el de República Dominicana está en vigencia el tratado de libre comercio conocido en inglés como DR-CAFTA. Además, el Gobierno de Panamá tiene vigente un tratado bilateral de libre comercio con Estados Unidos. Por ende, todos los países del Istmo Centroamericano y República Dominicana están autorizados para importar hidrocarburos provenientes de ese socio comercial.

Segunda parte: Consecuencias para Centroamérica I. Introducción

Ponderar en toda su magnitud las consecuencias que la revolución energética tendrá sobre el desempeño de las economías del Istmo Centroamericano es un ejercicio de largo aliento. No obstante, conviene comenzar a identi�car las oportunidades que se están abriendo para tratar de emprender actividades tendientes a aprovecharlas.

De hecho, una consecuencia positiva de la revolución energética para las economías centroamericanas ya se ha sentido en la disminución de los precios del petróleo. Todas las economías centroamericanas son importadoras netas de petróleo. La guatemalteca es la única que produce domésticamente un tercio de lo que consume de petróleo, en donde además se han

descubierto yacimientos signi�cativos de gas natural.

II. Matriz energética regional

La matriz energética de Centroamérica se caracteriza por el predominio de fuentes renovables, debido al desarrollo de plantas hidroeléctricas impulsado en décadas pasadas mediante cuantiosos préstamos otorgados por las instituciones �nancieras internacionales como el Banco Interamericano de Desarrollo y el Banco Mundial. Por ejemplo, la mitad de la generación eléctrica en la región se abastece con fuentes hídricas, pero dicho promedio oculta signi�cativas diferencias nacionales (Shortell, Baragwanath y Sucre, 2014).

En Costa Rica, la generación eléctrica de fuentes hídricas es de 70 por ciento, mientras que en Nicaragua este promedio es de apenas 13 por ciento. De hecho, 97.1 por ciento de la generación eléctrica en Costa Rica es con fuentes renovables, como la hidráulica, geotermia, eólica, biomasa y solar. Sin embargo, debido al predominio de la hidroelectricidad, es necesario complementarla con generación basada en combustibles fósiles, como el diésel y el combustóleo, porque todo depende de la intensidad de la estación lluviosa. Por ejemplo, en Costa Rica en 2014, 10.3 por ciento de la generación eléctrica utilizó combustibles fósiles, mientras que se proyecta que la mejor estación lluviosa de 2015 permitirá el descenso de la proporción utilizada de dichos combustibles a 2.9 por ciento (ICE, 2015).

En otros términos, la utilización de fuentes hídricas es inversamente proporcional a la utilización de petróleo importado para generar electricidad, desde menos de 10 por ciento estacionalmente en Costa Rica a más de 60 por ciento en Nicaragua. En promedio, el uso del petróleo en la generación eléctrica en Centroamérica ha aumentado de 30 por ciento en 1990 a más de 50 por ciento en 2014.

136

octubre 2015

r e v i s t a

Por ende, en mayor o menor medida, en Centroamérica se está utilizando petróleo para generar electricidad, lo cual tiene conocidas consecuencias perniciosas causadas por el uso de este combustible, tales como mayor contaminación y volatilidad en los precios.

En conclusión, la matriz energética centroamericana está bien encaminada para alcanzar, a mediano plazo, el predominio de las fuentes renovables de energía. No obstante, en el corto plazo, también conviene comenzar a remplazar aquellas fuentes no renovables que sean más costosas y más contaminantes. Sobre todo porque en Centroamérica se proyecta un aumento anual de la demanda de energía de entre 5 y 6 por ciento, superior al de entre 4 y 5 por ciento que prevaleció durante la década pasada. En total, hacia 2030, se estima que será necesario aumentar la capacidad de generación entre 6,500 y 10,000 megawatts, lo cual es equivalente a duplicar la capacidad instalada (Viscidi, Sucre y Karst, 2015)

III. Diversi�cación y remplazo

Tanto a corto como a mediano plazo, el objetivo primordial que debe perseguir la política energética consiste en utilizar fuentes que sean menos contaminantes y más baratas, además de que contribuyan a diversi�car las fuentes de abastecimiento.

En la coyuntura actual, debido a la revolución energética que está ocurriendo en Estados Unidos, existe la posibilidad a corto plazo de diversi�car la matriz energética centroamericana mediante el remplazo de una fuente no renovable más cara y más contaminante, como el petróleo, por otra fuente renovable menos costosa y menos perniciosa, como el gas natural.

La coyuntura actual es favorable para proceder a ese remplazo por la abundancia de gas natural que existe en Estados Unidos, la cual ha hecho descender los precios a niveles que resultan mucho más favorables

que los precios del petróleo. Es sabido que quemar gas es menos contaminante que quemar petróleo. Además, como se mencionó, la proyección es que en Estados Unidos los precios del gas natural se mantendrán muy por debajo de los precios del petróleo, por lo menos durante las próximas dos décadas. Adicionalmente, por estar en vigencia el tratado de libre comercio entre Centroamérica y Estados Unidos, son permitidas las exportaciones de gas hacia los países del Istmo.En Centroamérica no existe experiencia de utilización

de gas natural en la generación de electricidad, por lo cual esta fuente alternativa del petróleo contribuiría a diversi�car la matriz energética regional.

IV. Un proyecto

En vista de que no existen yacimientos comprobados de gas natural en el Istmo, con excepción del hallazgo reciente de un yacimiento en el norte de Guatemala, el abastecimiento de gas natural deberá ser importado. Hay dos maneras de importar este combustible, en forma líquida en buques tanques o a través de un gasoducto. Hace casi dos décadas, en 1998, la O�cina de México

de la Comisión Económica de las Naciones Unidas para América Latina y el Caribe (CEPAL) evaluó la posibilidad de efectuar exportaciones de gas natural desde México hacia Centroamérica. Con ese propósito la Subsede de la CEPAL en México llevó a cabo un estudio de prefactibilidad sobre la construcción de un gasoducto desde Ciudad Pémex, en el estado de Tabasco del sur de México, hasta Panamá. Con una longitud de 2,240 kilómetros, el costo estimado de la construcción del gasoducto ascendería $1,500 millones en dólares de 2014 (CEPAL, 1998).El objetivo original del proyecto, en 1998, era

permitir la exportación de gas natural desde el sur de México, porque resulta muy oneroso el transporte del gas natural hacia el norte, donde se origina la mayor demanda de energía, debido a la concentración en el norte de la capacidad industrial de la economía mexicana.

137

Este proyecto de gasoducto ha adquirido nueva vigencia porque, en marzo de 2015, el presidente de México, Enrique Peña Nieto, y el ex-presidente de Guatemala, Otto Pérez Molina, suscribieron un acuerdo para llevar a cabo un estudio sobre la construcción de un gasoducto desde el puerto mexicano de Salina Cruz, en el estado de Oaxaca, hasta el departamento de Escuintla en Guatemala. Con una extensión de 600 kilómetros, el costo estimado de construcción de ese gasoducto ascendería a $1,000 millones (El Periódico, 2015).

La otra alternativa para importar gas es licuarlo para transportarlo en buques tanques hasta una planta regasi�cadora, la cual demanda una inversión de tal magnitud que solo se justi�ca de poderse concebir el proyecto a escala regional. Esta posibilidad ha sido analizada por el Banco Interamericano de Desarrollo, el cual en 2008 estimó el costo del proyecto en $1,500 millones. La conclusión es que este proyecto de importar gas licuado a Centroamérica es mucho más rentable si se puede establecer una sola planta regasi�cadora a la par de una central eléctrica para abastecer a la región a través de la línea de interconexión existente (Shortell et al., 2014).

Indistintamente de la que resulte ser la alternativa más viable para importar gas natural, la existencia de la línea de interconexión eléctrica, de casi 1800 kilómetros entre Guatemala y Panamá, constituye una experiencia que puede servir de precedente para la ejecución de otros proyectos regionales de abastecimiento energético de fuentes alternativas, para diversi�car y hacer más e�ciente, más limpia y más barata la energía en el Istmo Centroamericano.

138

octubre 2015

r e v i s t a

Referencias:

Agencia de Información Energética (AIE) (2013a). U.S. crude oil production on track to surpass imports for �rst time since 1995. Short Term Energy Outlook (STEO), marzo.

AIE (2013b). World Primary Total Energy Consumption by Regions. International Energy Outlook 2013, 25 de julio. Informe # DOE/EIA 0484.

AIE (2015). Short-Term Energy and Winter Fuels Outlook. STEO, 6 de octubre.

Bloomberg, M. y Krupp, F. (30 de abril de 2014). The Right Way To Develop Shale Gas. New York Times.Centro para el Desarrollo Sostenible de Esquistos

(CDSE) (2013). Fact Sheet on Producer Performance Standards, marzo. Disponible en: http://037186e.netsolhost.com/site/wp-content/uploads/2013/03/Performance-Standards-Fact-Sheet-FINAL-3-20-13-GPX.pdf

Departamento de energía (2010). A History of Geothermal Energy Research and Development in the United States. Drilling 1976-2006. Energy E�ciency & Renewable Energy, Geothermal Technologies Program.

El Periódico (Guatemala) (3 de marzo, 2015). México acuerda con Guatemala la distribución de gas.

Environmental Engineering and Contracting Inc. (2010). A Brief History of Hydraulic Fracturing. Los Angeles: EEC Inc.

Friedman, N. (2 de septiembre de 2015a). Oil Drops as Whipsaw Trading Continues. Wall Street Journal.

Friedman, N. (26-27 de septiembre de 2015b.) Drop in Drilling Lifts Oil Prices. Wall Street Journal.

Friedman, N. y Faucon, B. (12-13 de septiembre de 2015). A New Worst Case for Oil. Wall Street Journal.

Gilbert, D. ( 4 de abril de 2014). Exxon to Detail Fracking Risks. Wall Street Journal.

Gilbert D. y Sider A. (12-13 de abril de 2014). Ohio Limits Fracking After Series of Quakes. Wall Street Journal.

Gold, R. (5-6 de abril de 2014a). The Smart Way to Do Frackiing. Wall Street Journal.

Gold, R. (8 de abril de 2014b). A Look Inside America’s Frack-Fueled Energy Boom. Wall Street Journal. (Extracto del libro del autor The Boom, Simon & Schuster, 2014.)

Gold, R. ( 2 de septiembre de 2015). Modern Gas Drilling Is Likely to Ensure Low Prices for Years. Wall Street Journal.

Harder, A. (24 de abril de 2015). Gas and Coal Trade Hot Words in U.S. Wall Street Journal.

Harder, A. y Berthelsen, C. ( 2 de septiembre de 2015). Study Finds Bene�ts in Allowing Oil Exports. Wall Street Journal.

Hefner, R. (mayo/junio de 2014). The United States of Gas. Foreign A�airs, pp. 9-14.

Instituto Costarricense de Electricidad (ICE) (17 de abril de 2015). En 2015: 97% de la matriz eléctrica será de fuentes limpias. San José: Comunicado de Prensa.

Kantchev, G. y Said, S. (3-4 de octubre de 2015). Russia, Saudis Pump It Up. Wall Street Journal.

Krauss, C. (8 de abril de 2014). U.S. Gas Tantalizes Europe, but It’s Not a Quick Fix. New York Times.

Krupp, F. (mayo/junio, 2014). Don’t Just Drill Baby-Drill Carefully. Foreign A�airs, pp. 15-20.

Morse, E. (mayo/junio de 2014). Welcome to the Revolution. Foreign A�airs, pp. 3-7.

139

Naciones Unidas, Comisión Económica para América Latina y el Caribe (CEPAL) (1998). Gasoducto Regional México-Istmo Centroamericano: Resumen del estudio de prefactibilidad (LC/MEX/R.642) 29 de enero. Prud´homme, A. (2014). Hydrofracking. New York:

Oxford University Press.Schumpeter, J. (3 de agosto de 2013). The father of

fracking. The Economist.Shellenberger, M.; Nordhaus, T.; Trembath, A. y

Jenkins, J. (2012). Where the Shale Gas Revolution Came From. Breakthrough Institute Energy & Climate Program, mayo.Shortell, S.; Baragwanath, K. y Sucre, C. (2014). Natural

Gas in Central America. Washington DC: Inter-American Dialogue, Energy Policy Group Working Paper, marzo. Sider, A. (19 de mayo de 2014a). Firms Seek to

Address Facking Concerns. Wall Street Journal. Sider, A. ( 28 de abril de 2014b). Gas Supplies Fail to

Reach Customers. Wall Street Journal.Sieminski, A. (2014). Outlook for U.S. shale oil and gas.

Agencia de Información Energética y Fondo Monetario Internacional, 27 de marzo. Power Point, disponible en: http://037186e.netsolhost.com/site/wp-content/uploads/2013/03/Performance-Standards-Fact-Sheet-FINAL-3-20-13-GPX.pdf Viscidi, L.; Sucre, C. y Karst, S. (2015). Natural Gas

Market Outlook: How Latin America and the Caribbean Can Bene�t from the US Shale Boom. Washington DC: Inter-American Dialogue, Energy Working Paper, septiembre. Volcovici, V. (10 de mayo de 2014). U.S. may increase

fracking regulations. Washington Post.Yep, E. (18-19 de julio de 2015). Iran’s Oil Return to Be

Tough. Wall Street Journal.Yergin, D. (2008). The Prize. New York: Free Press.Yergin, D. (9 de marzo de 2010). The New Prize in

World Oil. Wall Street Journal.Yergin, D. (2012). The Quest. New York, Penguin. Yergin, D. (11-12 de julio de 2015). What’s Giving the

World Oil Market the Jitters. Wall Street Journal. Zuckerman, G. (2013). The Frackers. New York:

Portfolio-Penguin.

Glosario:

Esquistos: roca de color negro azulado de estructura laminar y alta porosidad, pero de poca permeabilidad por contener cuarzo, el cuarto mineral más duro.

Esquistos bituminosos: rocas que se asemejan al betún y que contienen sustancias compuestas de carbono e hidrógeno.

Fracturación hidráulica (fracking): perforación vertical del subsuelo con taladros rotatorios dotados de cabezas de diamante, utilizados inicialmente en la exploración geotérmica junto con inyecciones de alta presión de agua mezclada con arena y sustancias químicas.

Fuentes renovables de energía: entre ellas se encuentra el sol, el viento, la hidráulica, la biomasa y la geotermia.

Fuentes no renovables de energía: incluye el carbón, el petróleo y el gas natural, a los cuales también se les denomina combustibles fósiles.

Imágenes microsísmicas tridimensionales: utilizadas inicialmente para identi�car vetas en minas de carbón, permiten también identi�car la ubicación en el subsuelo de los yacimientos más abundantes de esquistos.

Perforación horizontal o direccional: penetración del subsuelo con taladros rotatorios dotados de cabezas de diamante, sesgando el taladro horizontalmente para romper la roca de estructura laminar, denominada esquisto, en espacios de entre 1.6 y 3 kilómetros.

Revolución energética: abaratamiento de fuentes no renovables de energía, como el gas natural y el petróleo, mediante el uso de nuevas tecnologías de exploración y extracción, como la fracturación hidráulica y la perforación horizontal.

Wildcatters: literalmente “cazadores de gatos salvajes,” en la jerga de los negocios se utiliza para describir personas que se dedican a transacciones de alto riesgo, tales como los empresarios independientes dedicados a prospectar petróleo y gas natural.

Los Trabajos Finales de Graduación (TFG), en su modalidad de Tesis, representan más que un requisito de graduación presente en una gran parte de nuestras carreras universitarias

Por un lado, es un ejercicio que exige de conociminento profesional, por el hecho de que aborda algunas de las disciplinas de la carrera que el estudiante ha venido estudiando por años. A esto se le debe sumar la capacidad de analizar una di�cultad profundamente y proponer una solución técnicamente pertinente. Es precisamente esto último el resultado del trabajo sistemático en la solución de problemas en cada asignatura del Plan de Estudios.

Por otro lado, las Tesis se desarrollan en la gran mayoría de los casos sobre una situación concreta, real y que afecta a un grupo social especí�co. Entonces, este trabajo tiene un resultado de acción social tangible, un bene�cio que impacta en el bienestar económico, tecnológico, social o cultural de un grupo poblacional.

Una parte de las carreras de la Universidad Fidélitas terminan con Tesis. Durante el 2014, cerca de 400 de este tipo de TFG se desarrollaron en la Sede de San Pedro. El 2015 se proyecta con un número similar de producciones de este tipo. Hay carreras que aportan más que otras en este rubro.

El resultado de un proceso de formación de competencias profesionalesen un ejercicio de impacto social.

140

octubre 2015

r e v i s t a

Egresando con Impacto

Ejemplos de Trabajos Finales de Graduación, Modalidad Tesis.

Carrera: Administración de NegociosAutores: Porras Porras, Karla Alejandra Título: Análisis técnico �nanciero integral de modelos de proyección de quiebra.Tutor: Lic. Javier Ortiz González

Resumen:Actualmente, existe gran diversidad empresarial en cuanto a tamaño. La mayoría, constituidas en micro y pequeñas

empresas, activa la economía en varios sectores de un país. Resulta fundamental dar las herramientas necesarias para mantener en operaciones a estas empresas, como un método de proyección de quiebra. Esto dado que, generalmente, las empresas tienen riesgo de insolvencia en su primer año de funcionamiento. La medición del riesgo �nanciero ha tomado gran importancia los últimos años. Con esto surge un gran número de métodos de predicción, los cuales tratan de predecir la quiebra con la mayor anticipación posible para que se tomen las medidas al respecto y salir de la zona de peligro. Con la �nalidad de aplicar un método de predicción diferente al que predomina en el mercado, donde únicamente toman en cuenta la información �nanciera combinada como modelos estadísticos que en su mayoría son de gran complejidad, surge la idea del modelo de predicción CR. Este, además de tomar razones �nancieras de peso para su análisis, incluye variables cualitativas importantes para la operatividad de la empresa. Con el desarrollo del modelo como tal, se realizó un análisis de cuatro métodos a parte del modelo CR, se analizaron los métodos Z Score, Z1, Z2 y el modelo Kanitz, estos aplicados a varias empresas costarricenses de diversos mercados con diferentes características. Se concluye que las empresas deben aplicar algún método de predicción de quiebra de forma periódica para conocer su salud �nanciera. Se sugiere, dado el desconocimiento en el tema, incorporarlo al plan de estudio de los futuros profesionales en �nanzas para que puedan ser aplicados en sus futuros lugares de trabajo o empresas.

Carrera: ContaduríaAutores: Sabater Ramírez, Marta; Cascante Arce, MauricioTítulo: Análisis de la aplicación de la normativa y ajustes de precios de transferencia por parte de la

administración tributaria en un Shared Service, dedicado a servicios administrativos en el II semestre del 2014.Tutor: Lic. José Eduardo García Loaiza, MBA

Resumen:Este proyecto se realiza en una de las empresas que presta servicios administrativos y �nancieros (conocidas como shared

service) a empresas vinculadas en diferentes partes del mundo. El sector de las empresas multinacionales que se encuentran ubicadas en nuestro país desde el 2008 ha sido �scalizado por parte de la Administración Tributaria debido al mal uso de los precios de transferencias. El trabajo tiene como propuesta analizar la normativa vigente en el país para el tratamiento que se le puede dar a los precios de transferencia y así poder mejorar la recaudación de impuestos por medio de métodos adecuados para las diferentes industrias que operan en nuestro país. Se concluye que no ha existido �scalización a la industria de shared services; la �scalización se centra principalmente en empresas que entran en el rubro de grandes contribuyentes. No existen datos sobre recaudación y evasión por parte de la industria de shared services, lo cual es importante, ya que a pesar de ser empresas exoneradas por ubicarse en zonas francas, siempre poseen relación con empresas vinculadas. Además, después de su periodo de gracia exento, pueden ser un buen punto de revisión por parte de la Administración Tributaria, ya que son contribuyentes muy grandes. También, según lo investigado, la mayoría de las empresas aún no cuenta con su�ciente conocimiento sobre el uso de estos métodos de cálculo de precios de transferencia y buscan grandes �rmas de auditoría, por ejemplo, Deloitte o Price Water House, para que los capaciten en el tema, pues la �scalización por parte de la Administración Tributaria se ha vuelto más rigurosa con el paso de los años. Por ello, se les recomienda a los shared services tener un poco más de control sobre esas transacciones y, principalmente, sobre los cálculos, para que en futuras �scalizaciones se pueda defender de la mejor forma el método utilizado en la empresa para el cálculo de precios de transferencia. A su vez, eso permitirá demostrarle al �sco que no se está presentando información errónea y que, mucho menos, se está tratando de evadir en tema de pago de impuestos.

141

Carrera: Ingeniería CivilAutores: Solís Valverde, Viviana de los ÁngelesTítulo: Método constructivo de Losas Cortas en Pavimentos de Concreto Hidráulicopara Vías Nacionales y comparación de Costos entre Losa Convencional vs. Losa CortaTutor: Ing. Mauricio Batalla Otárola, MAP.

Resumen: El presente documento se obtiene como resultado de una investigación que se realizó con el �n de proporcionar

un aporte a la rama de ingeniería vial. Se efectuaron giras de campo al proyecto realizado en el Alto de Ochomogo, Cartago; asimismo, se ejecutó un control de calidad con los resultados de las diferentes pruebas realizadas en el proyecto. El trabajo consta de cinco capítulos que ofrecen una explicación bastante clara acerca de la metodología de construcción de pavimentos rígidos, algunas ventajas de su utilización, muestran las fallas que podría presentar la estructura a lo largo de su vida útil y las pruebas que se le deben realizar a los agregados, así como los manuales que se deben seguir y respetar durante la construcción de la estructura. En los anexos, se presentan algunas fotografías que muestran el proceso de reconstrucción de las losas cortas en el Alto de Ochomogo Cartago y su estado actual, además, se presentan las tablas de donde fueron tomados los datos para la realización de los grá�cos que ayudarán al entendimiento de los resultados obtenidos de los ensayos realizados. La comparación económica de una losa convencional y una losa corta será un factor que le ayudará al interesado en la construcción de un pavimento rígido a elegir cuál de estas utilizar. Por todo lo mencionado anteriormente, se procura presentar la construcción de pavimentos hidráulicos como una nueva y buena alternativa con la que se pueda contar durante un proceso de construcción vial en nuestro país.

Carrera: Ingeniería IndustrialAutor: Campos Benavides, Sergio Título: Propuesta de mejora en el proceso de trituración de sólidos para obtener la mezcla requerida para

cumplir con los indicadores de calidad en humedad, densidad y poder calórico en la elaboración del combustible alternativo usado en la producción de cemento en Holcim Costa Rica

Tutor: Ing. William Delgado Aguilar, MER

Resumen:El presente proyecto se desarrolló en la empresa Servicios Ambientales Geocycle ubicada en Agua Caliente de

Cartago, empresa que se dedica al pre-proceso de residuos sólidos, para la generación de energía para la producción de cemento en Holcim Costa Rica. La investigación tuvo como propósito el diseño del sistema de la calidad que mejore el proceso productivo para el mezclado de residuos sólidos, para con ello cumplir con los indicadores de calidad del proceso en humedad, densidad y poder calórico. Mediante el despliegue de la función de calidad en la elaboración del diagnóstico, se determina que las principales causas que ocasionan el problema en el proceso de mezclado, así como la calidad de la mezcla, son el material desordenado, la falta de un método para la escogencia de residuos y pobre selección de residuos por parte del área operativa. Es claro el perjuicio que representa, para la empresa y sus sistemas de producción, tener que dejar de percibir $20 000 por mes debido al no cumplimiento de los indicadores de calidad. Es por ello que como estrategia se plantea atacar el problema en orden de importancia. Primero, una propuesta con base en las familias de residuos para obtener las cantidades idóneas para el proceso, seguido de una distribución de la zona de almacenamiento actual y, por último, una implementación de un programa de 6´s que mejore todas las áreas afectadas del proceso. Con la reducción del 80% de las no conformidades en el proceso de mezclado, el proyecto ofrece un VAN de $69 688 en cinco años, lo cual signi�ca que la evaluación económica es XIX positiva, por lo que el proyecto es, desde el punto de vista económico, rentable. De igual forma, la tasa interna de retorno tiene un valor del 113%, lo que refuerza lo anterior. Este proyecto representa un primer esfuerzo que la empresa puede aprovechar en el camino que debe seguir en la búsqueda de la mejora continua en todos sus procesos productivos.

142

octubre 2015

r e v i s t a

Carrera: Ingeniería ElectromecánicaAutor: Delgado Cairol, BrayanTítulo: Diseño del Sistema para el Tratamiento de Aguas Residuales en el Hospital de las Mujeres Dr. Adolfo Carit Eva.Tutor: Ing. Danilo Monge G., MSc.

Resumen:Basada en el decreto MINAE-S 33601 Vertido y Reuso de Aguas Residuales, surge la necesidad de llevar a

cabo los estudios pertinentes, tales como la estimación del caudal, la ruta actual de los vertidos del hospital y el análisis de las aguas residuales que el centro hospitalario genera, para -si es preciso- diseñar el Sistema para el Tratamiento de las Aguas Residuales (STAR) del Hospital de las Mujeres y así respetar los estatutos nacionales. El Tratamiento de Lodos Activados mediante Aireación Extendida (Sistema aerobio con e�ciencia mayor al 85%) es el que mejor se adecua a las características investigadas en el centro médico. Aunado a esto, realizar una serie de reestructuraciones en infraestructura mecánica para el desempeño óptimo del sistema propuesto. Se pudo concluir que los niveles desplegados por los análisis sobrepasan lo permitido por la normativa y debe aplicársele un tratamiento previo a su vertido. Se deberá invertir en un STAR de Lodos Activados mediante Aireación Extendida, siendo este el adecuado para el nosocomio. Existe similitud en los análisis de aguas residuales de los centros médicos nacionales e internacionales, así como parámetros de autores como Metcalf & Eddie. Se recomienda la escogencia de un STAR aerobio debido a su alta e�ciencia (95%) respecto al anaerobio (50%).

Carrera: Ingeniería de Sistemas de InformaciónAutor: Ballestero Soto, Rainier J. Título: Diseño del Sistema para el Tratamiento de Aguas Residualesen el Hospital de las Mujeres Dr. Adolfo Carit Eva.Tutor: Ing. Marvin Solano Campos, MSI

Resumen:Las organizaciones privadas y públicas han experimentado un crecimiento en sus departamentos

tecnológicos. Al administrar el tratamiento de las gestiones, se encuentra la necesidad de controlar los riesgos implícitos de estos nuevos cambios. Por ende, la Auditoría tecnológica de información debe estar dotada del conocimiento actualizado, de los nuevos modelos de marcos de trabajo y nuevas tendencias de programación, siempre tomando en cuenta el marco jurídico de nuestro país. El estudio consistió en elaborar una propuesta de guía de auditoría para evaluar un proceso genérico de pruebas del software. La �nalidad del trabajo es proveer a la Auditoría Interna una herramienta con conceptos técnicos que le permita evaluar un proceso genérico de pruebas de las tecnologías de información en una organización privada o pública. La guía de auditoría contempla el marco de referencia Cobit 4.1, para los procesos P08 Administrar la calidad y AI7 Instalar y acreditar soluciones y cambios, las normas ISO/IEC 12207:2008, ISO/IEC 9000, ISO/IEC 29119, Ley 8292 Control Interno, Ley Orgánica de la Contraloría General de la República N° 7428. Con esta base de investigación, se establece los criterios fundamentales de control que deben revisarse de forma continua en el ejercicio de la auditoría de tecnologías de información. La elaboración de esta guía viene a darle una herramienta a la auditoría para poder evaluar de forma técnica el proceso de pruebas de calidad. Con esto se mantiene un control más optimizado para poder controlar los riesgos de mayor impacto dentro del proceso de pruebas de software.

143

El Trabajo Comunal Universitario (TCU) persigue, por un lado, contribuir al estudio y a la solución de los problemas nacionales y, por otro, desarrollar valores de responsabilidad social entre los estudiantes, desarrollar habilidades en entornos de servicio social y desarrollar sus conocimientos sobre la realidad costarricense. Es, además, un requisito de graduación.

En la Universidad Fidélitas, año con año, un grupo de estudiantes sale a dar su aporte a municipalidades, escuelas, hospitales, instituciones de ayuda al adulto mayor, entre muchos otros. El número de horas ha estado incrementándose de manera importante y con esto, el impacto de la Universidad en su entorno. El objetivo de este escrito es mostrar algunos datos de esta labor que permitan generar una perspectiva de quiénes están aportando, cuáles instituciones se bene�cian y cuál podría ser el estimado económico de valor de este esfuerzo estudiantil.

En la Facultad de Ciencias Sociales, todas las carreras vieron crecer su número de horas. Administración de Negocios ejecutó 13.650 horas solo en el 2014, con un aumento superior al 54% con respecto al año anterior. Otras carreras triplicaron su esfuerzo social, como la de Diseño Publicitario. La Facultad aumentó sus horas del 2013 al 2014 en un 54,3%.

La carrera de Administracón de Negocios, que utilizaremos como ejemplo, dedicó una cuarta parte de todas sus horas a instituciones educativas. Muy cerca de este porcentaje, con 23%, están las organizaciones que atienden a la niñez, donde destacan instituciones que asisten a niños en riesgo social. No es poco el esfuerzo que se realiza en hogares del adulto mayor, que se lleva un 14% del total de 13,650 horas desarrolladas de TCU en esta carrera, solo en el 2014.

Una perspectiva sencilla e ilustrativa de su impacto en la sociedad.

144

octubre 2015

r e v i s t a

Acción Social Estudiantil

La Facultad de Ingeniería también presenta un repunte en todas sus carreras, destacándose lngeniería Electromecánica, que triplicó su impacto en horas. Ingeniería en Sistemas sigue aportando el mayor volúmen, contabilizando 9.900 horas solo en el 2014. La Facultad creció en promedio un 98,9%.

En toda la Universidad, el incremento fue de un 72% de un año a otro, en cuanto a proyectos de trabajo comunal concluidos con éxito. Estos resultados son un indicador importante para todos y, de manera especial, para las autoridades universitarias. Ellos, conscientes del crecimiento progresivo de la Universidad, deben ajustar los procesos de manera que cada estudiante reciba la atención que necesita para tener éxito en el cumplimiento de requisitos.

En total, la Universidad pasó de 32.850 horas de Trabajos Comunales en el 2013 a 56.700 en el 2014, un aumento del 72,6% del número de horas. En horas, sin embargo, podría no entenderse el impacto que esto tiene en la sociedad. Considerando que los servicios de estos estudiantes pueden ser valorados como los de un trabajador no cali�cado -muchos de ellos están cerca de terminar su carrera universitaria y establecen el valor de su hora como el salario mínimo-, podríamos decir que entre los dos años se superó en más de cien millones el valor de la acción social solo por el ejercicio del Trabajo Comunal Universitario.

Son cifras nada despreciables.

145

Ejemplos de Trabajos Comunales Universitarios por Carrera

Carrera: Administración de NegociosTítulo del Proyecto: Encuesta sobre la percepción de los usuariosde los servicios brindados por la municipalidad.Entidad social bene�ciada: Municipalidad de la Unión de Tres Ríos.

Carrera: ContaduríaTítulo del Proyecto: Actualización del Proceso Contable del Club Rotario de Puntarenas.Entidad social bene�ciada: Club Rotario de Puntarenas.

Carrera: DerechoTítulo del Proyecto: Sistematización de Sentencias de la Sala Constitucional.Entidad social bene�ciada: Sala Constitucional de Costa Rica

Carrera: Diseño PublicitarioTítulo del Proyecto: Diseño de la imagen para la Cinemateca Nacional. Desarrollo de Propuestas de comunicación para el ICEREntidad social bene�ciada: Instituto Costarricense de Enseñanza Radiofónica.

Carrera: Ingeniería CivilTítulo del Proyecto: Inspección de avances de obras para la Municipalidadde San José.Entidad social bene�ciada: Municipalidad de San José.

146

octubre 2015

r e v i s t a

Carrera: Ingeniería EléctricaTítulo del Proyecto: Confección del plano eléctrico y de iluminacióndel auditorio del Liceo de ParaísoEntidad social bene�ciada: Liceo de Paraíso

Carrera: Ingeniería ElectromecánicaTítulo del Proyecto: Mejora del sistema eléctrico del plantelmunicipal de San RamónEntidad social bene�ciada: Municipalidad de San Ramón

Carrera: Ingeniería IndustrialTítulo del Proyecto: Diseño de una herramienta para la evolución,plani�cación del estado y mantenimiento para los equipos de saludocupacional institucionalEntidad social bene�ciada: Instituto Costarricense de Electricidad, ICE.

Carrera: Ingeniería en SistemasTítulo del Proyecto: Elaboración de un software para el control deactivos de la bibliotecaEntidad social bene�ciada: Escuela Inglaterra, San Rafael Montes de Oca.

Carrera: PsicologíaTítulo del Proyecto: Identi�cación y mejoramiento de los aspectospsicológicos que afectan a los bomberos en su trabajo.Entidad social bene�ciada: Cuerpo de Bomberos de Costa Rica, Estación de Tibás.

147

La ingeniería industrial es una profesión que se encarga de la gestión del mejoramiento de la productividad de las organizaciones a través de la implementación de modelos de sistemas de producción que garanticen el menor costo, la mayor calidad y los mejores resultados en el corto plazo. Esto se logra a través del diseño de sistemas integrados que involucra los aspectos más relevantes de una organización de manufactura o de servicio y que considera recursos, tales como el recurso humano, las materias primas y materiales, la información, los diseños, la energía y los equipos, incluyendo las nuevas tecnologías. El ingeniero industrial utiliza conceptos matemáticos, físicos, de las ciencias sociales y de las ciencias de la ingeniería para evaluar y predecir el comportamiento de los sistemas. En resumen, la competencia esencial de este ingeniero es el análisis, interpretación, diseño, programación y control de sistemas productivos y logísticos de manufactura y

procesos, para la creación de bienes y/o prestación de servicios que deben reunir los requerimientos de

evolución. A pesar de que las prácticas de la ingeniería industrial se pueden visualizar desde la prehistoria con muchas aplicaciones principalmente a la agricultura y a la caza, es con la Revolución Industrial (siglos XVIII y

Charles Babbage (1792-1891) desarrolló los sistemas analíticos para mejorar las operaciones de producción. A principios del siglo XX, Frank y Lillian Gilbreth proponen los therbligs, que son dieciocho movimientos en los que se puede subdividir cualquier tarea laboral, para estudiar la productividad y para medir el tiempo por

ingeniería de métodos, la cual sirve de base para que, en 1945, J. Crick diseñe el sistema de métodos predeterminados.

Durante la Segunda Guerra Mundial, se comenzó a gestar el potencial de la ingeniería industrial con la fabricación de armamento y el desarrollo de estrategias militares. Fue en este período cuando se presentaron complejos problemas de logística cuya solución se desarrolló con base en las matemáticas, la psicología, la economía y con los modelos matemáticos de investigación de operaciones.

1 Este documento ha sido elaborado por Jorge Acuña Acuña sobre la base de trabajos de investigación del estado de arte de la ingeniería industrial realizados por Alvaro Sánchez Boschini, Brenda Gómez Madriz, Fernando Montealegre Vargas y Jorge Márquez Colocho, todos profesores de la carrera de Ingeniería Industrial de la Universidad Fidélitas.

Ingeniería Industrial 1

148

octubre 2015

r e v i s t a

Estado del arte

En los años 50, se dan los grandes aportes de E. Deming y J. Juran al desarrollo industrial japonés, con la implementación de sus teorías de calidad y de aplicaciones estadísticas a la solución de problemas.

A principios de los años 60, se analizan los problemas que afrontaban todos los sistemas productivos, haciendo énfasis en la importancia de considerar las operaciones de producción como un sistema, utilizando y reconociendo la utilidad de las aplicaciones, como la teoría de líneas de espera, la simulación y la programación lineal.

Con el llegar de las décadas del setenta y del ochenta, la introducción de nuevas tecnologías impulsó al ingeniero industrial a tener una visión más amplia de las relaciones que existen dentro de la organización para la toma de decisiones. Algunas

fueron las aplicaciones computacionales con la llegada de la microcomputadora, los sistemas japoneses de justo a tiempo (JIT), el control total de la calidad (TQC) y los inicios de la automatización de procesos.

En los años 90, la creación de nuevas tecnologías, el auge de la automatización industrial, el rol de los sistemas de información y la computación, así como el crecimiento de estructuras complejas del mercado obligaron a la ingeniería industrial a desarrollarse con nuevas técnicas y herramientas para ser más efectivos en la toma de decisiones de su rango de acción.

Por todo eso, es evidente que la ingeniería industrial tiende a evolucionar en el tiempo sobre la base del desarrollo de nuevas prácticas y técnicas de manufactura de bienes o servicios que, al ser los principales elementos del mercado, hacen que las

perder competitividad. Se requiere que el ingeniero industrial se prepare con conocimientos y habilidades que se adapten al nuevo orden económico y tecnológico mundial. Para ello, debe participar en la planeación estratégica de las operaciones de las empresas y en los procesos de internacionalización de las organizaciones.

El ingeniero industrial debe estar en constante actualización profesional, adquiriendo conocimientos sobre nuevas técnicas y modelos de mejoramiento de la productividad y la calidad, así como sobre aplicaciones de las tecnologías de información y comunicación al planeamiento y control de los sistemas productivos. En la actualidad, la amplitud del papel del ingeniero industrial incluye el análisis de sistemas, el uso de estadísticas avanzadas y el desarrollo y uso de modelos de simulación, aspectos que han sido incluidos cada vez más en los planes de estudio de la carrera de ingeniería industrial. La búsqueda de productividad ha evolucionado en los últimos años con una serie de lineamientos que han reforzado los procesos productivos y que, junto con el logro de la metas de calidad, ha permitido que los procesos alcancen grados de optimización rigurosos y, sobre todo, proyectados hacia una excelencia productiva.

Actualmente, los gerentes de producción u operaciones deben sustituir el modelo empírico por un modelo que les permita ejecutar y controlar las operaciones del trabajo cerca del tiempo real. El enfoque cuantitativo de la toma de decisiones ha hecho que conceptos como las aplicaciones estadísticas a la ingeniería cobren especial interés. Como resultado de ello, el control estadístico de procesos se utiliza para resolver problemas, para conseguir estabilidad y mejorar la capacidad del mismo proceso mediante la reducción de la variabilidad.

Una de las áreas de la ingeniería industrial que se moderniza día a día es la investigación de operaciones, pues a través de ella se desarrollan nuevos modelos matemáticos, estadísticos y algorítmicos que tienen por objetivo provocar un proceso de toma de decisiones basado en información cuantitativa. La investigación de operaciones permite el análisis de la toma de decisiones teniendo en cuenta la escasez de recursos y determina la forma de optimizar un objetivo

minimización de costos.

149

Muchas son las áreas de aplicación de la investigación de operaciones donde sobresalen los modelos de automatización y disminución de costos, los modelos de compra de insumos, los modelos de planeación y control de la producción, los métodos Pert y CPM para la programación y control de avance de proyectos. Los

colas explora los factores de demora que afectan a los clientes o productos y los modelos de inventario analizan los costos de pedir y de mantener inventarios, así como la demanda para determinar los niveles apropiados de inventarios.

Hoy en día, una de las técnicas que ha marcado un cambio radical en la forma de experimentación del ingeniero industrial es la simulación. Actualmente, y mucho más en el futuro, ya no hay mucho espacio para experimentación en el campo, pues esto consume tiempo y recursos. Ante esta situación, la simulación se presenta como la herramienta a través de la cual se pueden evaluar alternativas de mejoramiento de sistemas mediante un modelo computacional que lo emula, sin tener que detener el funcionamiento de los sistemas.

La razón de ser del ingeniero industrial es contribuir con la optimización de los procesos y la búsqueda de la excelencia según los objetivos pactados y, al alcanzarlos, volver a plantear un nuevo objetivo, pues la mejora es continua. Desde esta perspectiva, el ingeniero industrial es capaz de optimizar los procesos

producto, mejorando la capacidad de hacer más con menos o, por lo menos, con lo mismo.

Para el ingeniero industrial de hoy, la administración de operaciones se convierte en otra gran área de trabajo y de investigación, pues toda organización termina pensando en cómo debe planear y ejecutar sus distintas operaciones para sobrevivir o, mejor aún, ser exitosa en su ámbito. Son muchas las operaciones que

aspectos:

• Calidad: qué nivel se quiere lograr con el producto o servicio (estrategia y gestión de calidad)

• Procesos: tecnología de procesos que logra esa calidad de producto o servicio (estrategia y gestión de diseño de procesos)

• Ubicación: lugar donde se debe fabricar el producto o brindar el servicio (estrategia y gestión de localización y diseño de planta)

• Recurso humano: personal que se necesita para lograr tener ese producto o servicio y cómo organizarlo (estrategia y gestión de recursos humanos y de organización)

• Tecnología: equipos y máquinas necesarios para lograr ese producto o servicio (estrategia y gestión de tecnología y equipamiento)

• Planeación: cuándo y dónde abastecerse de insumos y recursos para tener listo el producto o servicio (estrategia y gestión de la cadena de abastecimiento)

• Planeación de la cantidad de insumos y productos (o servicios) que se necesitan ofrecer (estrategia y gestión de inventarios)

150

octubre 2015

r e v i s t a

También, es visible hoy en día cómo las empresas buscan invertir en la capacitación de sus talentos, esto

ingeniero industrial es importante mencionar cinco

(en control de inventarios y manejo de la producción); Logistic Resource International, cuya metodología presenta una serie de principios para modelar la cadena de abastecimiento; LEAN SIX SIGMA, que es la conocida herramienta para mejora continua y cero desperdicios a través de la cual las organizaciones

requerida por muchas empresas para que su personal se capacite en el uso efectivo de este importante paquete computacional y Buenas Prácticas de la

grado de complimiento que se necesita porque ya

veces, en el otorgamiento del permiso de funcionamiento dado por las municipalidades para una planta.

Tal y como se dijo, la ingeniería industrial no solo se enfoca en manufactura, sino también en servicios, por ello deben estar capacitados para crear procedimientos de ejecución cada vez mejores. Deben contar con conocimientos básicos de administración, pues de la rama de ingeniería son los mayores candidatos a ocupar puestos de dirección.

El sector servicios en la ingeniería industrial ha tomado auge en la última década. Cada vez son más empresas que abren sus oportunidades de trabajo para los ingenieros industriales que puedan desempeñarse en diferentes ámbitos, que van desde la mejora de los procesos hasta la administración de

El desarrollo en estos últimos años de conceptos para

ingeniero industrial a lograr sus metas. Las técnicas de

propuesta de los ingenieros industriales y para eliminar costos innecesarios en todo tipo de operaciones. Estas consideraciones económicas han

del ingeniero industrial, ya que los conceptos

económicos proporcionan una herramienta para evaluar soluciones potenciales a problemas de producción o manufactura. Estos conceptos cubren

efectivo, el capital de trabajo y la rentabilidad.

En cuanto a investigación en ingeniería industrial, los mayores tópicos van dirigidos hacia la automatización de procesos, al desarrollo de sistemas de control en tiempo real (por ejemplo, sistemas SCADA), el diseño de sistemas de mejoramiento continuo basado en

de interacción hombre-máquina, procesamiento de nuevos materiales usando nuevas tecnologías, modelos de investigación de operaciones en la nube, optimización de los modelos de simulación, desarrollo de sistemas de planeación y control de producción, aplicaciones de lógica difusa al control de sistemas,

sistemas, sistemas de logística global, aplicaciones de visión de máquina al control de producción,

control de los sistemas productivos y modelos de reducción de variabilidad en sistemas complejos de producción. También, sobresalen las aplicaciones estadísticas de modelos bayesianos, minería de datos, métodos no paramétricos, diseño de experimentos, series de tiempo y análisis de regresión.

En conclusión, la ingeniería industrial es la disciplina encargada de transformar los recursos en bienes o servicios con un valor agregado y para ello debe intervenir en el desarrollo, mejora y evaluación de sistemas y procesos de la empresa. Es difícil que esta tarea cambie en el futuro, pues el intenso desarrollo tecnológico de estos últimos años y las nuevas necesidades sociales y económicas en el sector industrial hacen que el reto de mejoramiento continuo sea una necesidad de toda organización.

Actualmente, existen indicadores que auguran a la ingeniería industrial un futuro prometedor y enfocado en la optimización de procesos de manufactura y de servicios sobre una base de innovación. Todo esto, sumado al enfoque de solución de problemas, que es y será una fuente de trabajo muy amplia para la ingeniería industrial.

151

El futuro de la ingeniería industrial está muy ligado al desarrollo de la economía nacional, en particular, en su capacidad de insertarse a la economía global. Esto implica que el crecimiento acelerado de las economías en que vivimos, hará que esta área de la ingeniería deba adecuarse rápidamente a la era actual, haciéndose necesario esas subdivisiones que buscan la interacción en nuevos campos de actuación con otras especializaciones de ingeniería mediante el trabajo en equipo.

El graduado de ingeniería industrial siempre estará alineado al estado de arte de su profesión si en su formación adquiere las siguientes capacidades y habilidades, y las desarrolla aún más durante su ejercicio profesional:

• Aplicación de conocimientos de matemáticas, de la ciencia y de la ingeniería.• Diseño y ejecución de experimentos con análisis e interpretación de datos, usando técnicas estadísticas

experimentales y de simulación.• Diseño de sistemas y procesos para satisfacer necesidades deseadas. • Aplicación de modelos computacionales para resolver problemas complejos.• Trabajo en equipos multidisciplinarios. •• Comprensión de la responsabilidad profesional y ética con la sociedad donde se desarrolla.•• Entendimiento del impacto de soluciones ingenieriles en el contexto global y social del país.• Participación en aprendizaje permanente. • Conocimiento de hechos contemporáneos.• Uso de técnicas, habilidades y herramientas de ingeniería modernas necesarias para la práctica de la ingeniería.

Referencias:

Baca U., G., Cruz V., M., Cristóbal V., I. Baca C., G., Gutiérrez M., J.C., Pacheco E., A…Obregón S., M. (2011). Introducción a la Ingeniería Industrial. México: Grupo Editorial Patria

CIEMI. Colegio de Ingenieros eléctricos, mecánicos e industriales. Disponible en:http://es.slideshare.net/karoljimenez/el-ingeniero-industrial-ante-el-sigloxxi-trabajo (Material consultado el 12 de junio de 2015)

Economía 2.0. Para Bachillerato. Tema 04: La empresa y la oferta. Disponible en: https://sites.google.com/site/economia20parabachillerato/temario/tema-4-la-empresa-y-laproduccion/3-la-funcion-de-oferta

Frederik Winslow Taylor. Disponible en: http://www.ingenieria.unam.mx/industriales/historia/carrera_historia_taylor.html

Ingeniería Industrial online. Página web: http://www.ingenieriaindustrialonline.com

Investigación ADECCO España. www.randstad.es/nosotros/sala-prensa/randstad17-09-2014

Investigación de operaciones. Wikipedia. La enciclopedia libre. Disponible en: https://es.wikipedia.org/wiki/Investigaci%C3%B3n_de_operaciones

Maynard, H. (1989). Manual del Ingeniero Industrial. México: Mc Graw Hill.

Procomer. Página web: http://www.procomer.com/contenido/sector-servicios.html

Vives Besalduch, E. Control de calidad: control estadístico de procesos. Disponible en: http://www.concretonline.com/pdf/SERVICIOS/04_calidad/art_tec/29_control20estadistico20d e20procesos.pdf

152

octubre 2015

r e v i s t a

La historia se puede perder cuando creemos que es cotidiano un hecho trascendental. El 21 de agosto de 1980 se funda el Collegium Fidélitas como institución de estudios superiores. Su primera sede, una casa que en aquel entonces ya tenía décadas de construcción, recibe a los primeros alumnos, a los primeros profesores, justo después de recibir los primeros muebles. El temprano hecho se pierde en la multitud de preocupaciones que signi�ca la creación de una Universidad. Es probable que nunca sepamos con certeza cuál fue la primera lección de Fidélitas, el primer profesor o el primer pupitre, porque cuando se construye historia pocas veces se es consciente de lo que se hace.

De muchas formas podemos abordar estos treinta y cinco años de camino. Esta vez atenderemos de manera breve a aquella primera vivienda que albergó a pioneros y veremos qué tenemos hoy comparativamente. El espacio no es el corazón del aprendizaje, es solo un referente de las necesidades de un grupo social que pretende crecer. Ese espacio, en el que nosotros mismos hemos cambiado, podría representarse de manera sencilla por un pupitre.

El primer pupitre se perdió entre otros en la habitación de una vivienda construida en lo que otrora fuera la �nca de la familia Escalante. Este predio era un espacio dedicado a la producción de café, parte del cual se destinaba a Europa, que contrastaba a principios del siglo XX con los nacientes barrios residenciales de Otoya y Amón, asentamientos de acomodados jose�nos. La estación de trenes del Atlántico y la Aduana sin dudas generaron un gran movimiento en el lugar y, como consecuencia, un mayor interés en la construcción de domicilios. Para los años cuarenta, barrio Escalante era un referente conocido en San José. Muy probablemente la pulpería La Luz, ubicada donde hasta hace poco estuviera Bagelmen’s, formó parte de muchas direcciones a �nales de la primera mitad del siglo XX. A pocas cuadras de allí, algunas décadas más tarde, la Universidad Fidélitas empezaba su obra educativa.

Figura 1: La primera instalación de la Universidad Fidélitas

Fuente: Sibaja, M., Cambronero, M., Zúñiga, R. y Sibaja, E. (1986). Historia de una Década. San José: Universidad Autónoma de Centro América, p. 205.

El primer pupitre

153

rincón de historia

154

octubre 2015

r e v i s t a

En pocos años, su matrícula creció de manera considerable, incluyendo un número importante de estudiantes extranjeros (Sibaja, Cambronero, Zúñiga y Sibaja, 1986), por consiguiente, las necesidades de infraestructura ascendieron rápidamente. A principios del siglo XXI, se inaugura el primer edi�cio en Santa Marta, actual Sede Central de la Universidad, en un espacio que permitía el crecimiento paulatino. Después de este edi�cio se han creado otros y el proceso de crecimiento aún hoy se conserva. Estos espacios docentes exigen además otros para servicios complementarios, como parqueos, cafeterías, centro de fotocopiado... Solo la Sede Central de la Universidad puede albergar hoy más de mil vehículos.

Figura 2: Edi�cios docentes de la Universidad Fidélitas

Campus San Pedro

Campus Heredia

Fuente: Elaboración propia

Fuente: Elaboración propia

155

En el 2012 se proyectaba crear una nueva Sede en Heredia, en una expansión sin precedentes institucionales. En un salto similar, la Universidad se adhiere al Sistema Nacional de Acreditación de la Educación Superior, SINAES. Para el 2015, el nuevo recinto situado en La Aurora entra en operación con nueve carreras universitarias. Este edi�cio cuenta con aulas y laboratorios, un auditorio y todos los servicios complementarios que demandan los procesos de enseñanza y aprendizaje modernos. En ese mismo periodo, se lograban acreditar tres carreras; siete programas cuentan con el sello de SINAES. La expansión en infraestructura ha venido acompañada de un esfuerzo importante por perfeccionar los servicios educativos.

Figura 3: Clase en el Collegium Fidélitas, Barrio Escalante

Fuente: Sibaja, M., Cambronero, M., Zúñiga, R. y Sibaja, E. (1986).Historia de una Década. San José: Universidad Autónoma de Centro América, p. 205.

Ciertamente no podremos encontrar aquel primer pupitre, entre otros tantos, que se perdieron en el uso cotidiano por décadas. La misión de la historia tampoco se centra en coleccionar objetos antiguos que por alguna casualidad estuvieron en el momento preciso, en el lugar indicado. La historia asiste para ayudarnos a conocer y prepararnos para el futuro. Hoy ese pupitre se ha multiplicado al menos por cuarenta y está educando a un número creciente de costarricenses. En treinta y cinco años su fecundidad ha sido importante y sostenida en el tiempo. Así no importa cuál haya sido el primer pupitre, o dónde pueda estar ahora. Lo relevante hoy es que ha sido medida de lo que se ha logrado no solo en infraestructura, sino también y especialmente, en calidad académica.

156

octubre 2015

r e v i s t a

35 Aniversario de la universidad

Charlas e intercambios con docentres y estudiantesLunes, 21 septiembre de 2015

Gestión de desechos y operaciones en rellenos sanitarios

Dra. Bridget Bero, Dr. Wilberth Odem y el Ing. Matthew MoralesProfesores Northern Arizona University

Martes, 22 Septiembre de 2015

La Revolución energética

Dr. Isaac CohenProfesor invitado y Consultor Internacional

Miércoles, 23 Septiembre del 2015

La Ingeniería de la ampliación del Canal de Panamá

Lic. María Eugenia de Sánchez Directivo de la administración del Canal

de Panamá

Eventos

157

Lunes, 28 Septiembre de 2015

Proyecto de Investigación:CR TEXTER,   una herramienta Web

para facilitar el proceso investigativo a personas no videntes

Ing. Luis Naranjo Zeledón, MSc.Profesor de la Carrera de Ingeniería en

Sistemas, Universidad Fidélitas.

Jueves, 24 Septiembre de 2015

Foro: La Generación Distribuida

Ing. Irene Cañas, Vice Ministra de Energía, MINAELic. Juan Manuel  Quesada, Intendente de

Electricidad, ARESEPIng. José Mario Jara, Gerente de CECACIER.MSc. Jorge Blanco, Vicepresidente de 

ASESOLAR.Ing. Jesús Sánchez, Director de Negocio

Distribución y Comercialización, Gerencia de Electricidad, ICE.

Dr. Gustavo Valverde, Profesor de la Escuela de Ingeniería Eléctrica de la UCRIng. Melvin Pacheco, Sub Gerente de

Operaciones de CONELECTRICAS  y representante del CIEMI

Moderador:MSc. Henry Chinchilla, profesor de la

Escuela de Ingeniería Eléctrica de la Universidad Fidélitas.

158

octubre 2015

r e v i s t a

Jornada de experiencias educativas

Introducción a las Jornadas de Experiencias Educativas, por Prof. Max Buck

Escuela de tutores, lectores y asesores de la Universidad Fidélitas, por Prof. Eduardo Araya Molina

Propuesta de un modelo para el desarrollode la investigación, Prof. Uriel Barrantes Cartín

Uso de la Cámara Getsel, por Prof. Luis Villalobos Fernández

Curso bimodal en Cálculo III con uso de software, por Prof. Mynor Chacón Díaz

Uso de herramientas tecnológicas para facilitar la docencia, por Prof. Katya Brenes Montoya

Estrategias de visualización matemáticapor medio de la tecnología, por Prof. Sergio Mata y Prof. Arturo Vega

Incorporación de la enseñanza para la comprensión en un curso de programación, porProf. Wilberth Molina Pérez

“De la teoría a la Práctica: Métodos, instrumentosy herramientas para una educación trascendente”por Dr. Rony Rodríguez Barquero

Martes 29 de septiembre de 2015

159

Jornada de experiencias educativasMiércoles 30 de septiembre de 2015

Desarrollo de la Enseñanza y Pedagogía Universitaria a través de la Educación virtual en la Carrera de Administración de Negocios, por Prof. Max Sequeira Cascante

Intercambio de conocimientos entre estudiantesde diferentes carreras, por Prof. Juan Carlos Malé Madrigal

Gestión del Talento Humano, por Prof. Eduardo Araya Molina

Pedagogía efectiva: claves para provocar el interésen tus cursos, por Prof. Rocio Lamas Álvarez

Cómo generar producción académica a partir de la experiencia docente, por Prof. Jorge Acuña Acuña

Manual de Calidad de cursos de laboratorio, porRoma Yolanda Mata Apuy

Enseñanza de las Ciencias Jurídicas a estudiantes de Ciencias Económicas y Administración (a propósito delos peligros del autoengaño), por Prof. José Olivares

Ética: deberes y compromisos morales de profesoresy estudiantes, por Lic. Mario Alfaro Campos

Clausura, por MBA. Ana Isabel Solano

r e v i s t a

REVISTA.FIDELITAS.AC.CRISSN 2215-2415