84
REVISTA INGENIERÍAS USBMed ISSN: 2027-5846 FACULTAD DE INGENIERÍAS Vol. 3, No. 2 Julio-Diciembre 2012 MEDELLÍN ANTIOQUIA

Revita ingeneria nformatica forene

Embed Size (px)

Citation preview

Page 1: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

1

REVISTA

INGENIERÍAS USBMed

ISSN: 2027-5846

FACULTAD DE INGENIERÍAS

Vol. 3, No. 2

Julio-Diciembre 2012

MEDELLÍN – ANTIOQUIA

Page 2: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

2

INGENIERÍAS USBMed ISSN: 2027-5846

Vol. 3, No. 2, Julio-Diciembre 2012

DIRECCIÓN Marta Cecilia Meza P.

EDICIÓN Wilder Perdomo Ch.

TRADUCCIÓN Gustavo A. Meneses B.

COMITÉ EDITORIAL Alher M. Hernández V. Universidad de Antioquia

Andrés M. Cárdenas T. Universidad de San Buenaventura

Beatriz L. Gómez G. Universidad de San Buenaventura

Claudia E. Durango V. Universidad de San Buenaventura

Carlos A. Castro C. Universidad de San Buenaventura

Carlos E. Murillo S. Cornell University

Cristina López G. Universidad Nacional de Colombia

Conrado A. Serna U. Universidad de San Buenaventura

Carolina Arias M. Politécnico di Milano

Diego M. Murillo G. Universidad de San Buenaventura

Diego A. Gutiérrez I. Instituto Tecnológico Metropolitano

Darío E. Soto D. Tecnológico de Antioquia

Ever A. Velásquez S. Universidad de San Buenaventura

Fabio A. Vargas A. Tecnológico de Antioquia

Gustavo A. Acosta A. Politécnico Jaime Isaza Cadavid

Gustavo A. Meneses B. Universidad de San Buenaventura

Germán M. Valencia H. Universidad de San Buenaventura

Helena Pérez G. Universidad de San Buenaventura

Hernán Salazar E. Universidad de San Buenaventura

Juan R. Aguilar A. Universidad Austral de Chile

Juan D. Lemos D. Universidad de Antioquia

Jesús A. Anaya A. Universidad de Medellín

Jesús E. Londoño S. Universidad Católica del Norte

José Eucario Parra C. Universidad de San Buenaventura

Jovani A. Jiménez B. Universidad Nacional de Colombia

Juan C. Giraldo M. Universidad de San Buenaventura

Luis A. Muñoz Instituto Tecnológico Metropolitano

Luis A. Tafur J. University of Southampton

Oscar A. Cardoso G. Universidad de San Buenaventura

Ricardo Botero T. Tecnológico de Antioquia

Rob Dekkers UWS Business School

Rudy Cepeda G. University of Connecticut

Sergio H. Lopera C. Universidad Nacional de Colombia

UNIVERSIDAD DE SAN BUENAVENTURA MEDELLÍN

FACULTAD DE INGENIERÍAS Campus Universitario: Cll. 45 61-40. Barrio Salento, Bello.

Sede Centro: Cra. 56C 51-90. San Benito, Medellín.

Teléfono: +574 514 56 00 Ext. 4164 A.A.: 5222 / 7370

[email protected]

[email protected]

DERECHOS Creative Commons – Oppen Journal

Los autores son responsables de los contenidos y opiniones

La Revista se reserva el derecho de edición, publicación, distribución y divulgación.

Page 3: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

3

CONTENIDO

Pág.

Título

Tipo

4-5 Editorial Editorial

6-11 Evaluación analítica para la determinación de sulfatos en aguas por

método turbidimétrico modificado. Carlos A. Severiche, Humberto González

Investigación

12-21 Propuesta de gestión de riesgos para SCADA en sistemas eléctricos.

María J. Bernal, Diego F. Jiménez Investigación

22-30 Sistema de evaluación cualitativa a través de dispositivos móviles.

José E. Parra Investigación

31-39 Evaluation of GCC Optimization Parameters.

Rodrigo D. Escobar, Aleyka. R. Angula, Mark Corsi. Investigación

40-47 Retiro y autogestión del usuario en almacenes de cadena con

Directorio Activo. Juan. F. Hincapié, Rodolfo. A. Marín, Jerry A. Murillo

Reflexión

48-53 Gestión de conocimiento: La solución para disminuir el reproceso en las

pruebas de software. Luz. A. Perona, Juan E. Velásquez

Reflexión

54-60 Identificación, referenciación y análisis de los vectores estratégicos del

Plan Estratégico de Ciencia, Tecnología e Innovación del Tolima. Alexis A. Aguilera.

Investigación

61-69 Framework para la computación forense en Colombia.

Andrés F. Serna, Oscar D. Marín, Juan D. Victoria. Investigación

70-84 Aplicación de los sistemas de información geográfica para la gestión de la

malla vial de la ciudad de Medellín. Jaime. A. Zapata, Gabriel J. Cardona.

Investigación

Page 4: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

4

EDITORIAL

Investigación, Desarrollo Tecnológico e Innovación, factores para la competitividad. En el siglo XX, la gestión de la investigación y el desarrollo (I+D) empezó a despertar atención en la comunidad científica y empresarial, se trataba de mejorar la utilización de los recursos humanos, económicos y materiales para la generación de conocimiento, pero años más tarde se identificó que era necesario y prioritario innovar, de tal manera que dichos conocimientos adquiridos en la etapa de I+D se convirtieran en nuevos productos, procesos y servicios que impactaran el mercado y generaran rentabilidad. Si los resultados de investigación no se transforman, no existen innovaciones ni beneficios institucionales. Aproximadamente a principios de los ochenta, se empezó a hablar de la gestión de la tecnología y su inclusión en la estrategia de las organizaciones. Evidentemente, la gestión de la tecnología, que intenta mantener y mejorar la posición competitiva de las instituciones, presenta muchos puntos de contacto con la innovación y a menudo ambas expresiones se utilizan indistintamente, ya que sus fronteras no están perfectamente delimitadas. La gestión de la tecnología comprende todas las actividades de gestión referentes a la identificación y obtención de tecnologías, la investigación, el desarrollo y la adaptación de las nuevas y emergentes tecnologías en la empresa, y también la explotación de las tecnologías para la producción de bienes y servicios. En la década de los noventa se redescubrió que lo más importante de la empresa no son sus recursos materiales, sino su talento humano, dotados de conocimientos, creatividad e iniciativa. Se habla cada vez más de las empresas basadas en conocimiento. Este contexto de la importancia del conocimiento ha hecho que las instituciones se ocupen ahora, con renovado interés, de cómo crearlo, utilizarlo, compartirlo o utilizarlo de manera más eficaz. Arie de Geus, de la compañía Shell, afirma que la única ventaja competitiva sostenible consiste en aprender más rápido que los competidores. Nace entonces la moderna gestión del conocimiento (Knowledge Management) que puede definirse como un proceso sistemático e integrador de coordinación de las actividades de adquisición, creación, almacenaje y difusión del conocimiento por individuos y grupos con objeto de conseguir los objetivos de la organización. Es así como nuestra Revista Ingenierías USBMed, aporta a la generación y transferencia de conocimiento generado al interior de la comunidad académica, representada por los diferentes grupos de investigación, unidades académicas y en articulación con el sector empresarial. De esta manera, entregamos a ustedes el Volumen 3 número 2 de nuestra Revista Ingenierías Universidad de San Buenaventura seccional Medellín, como siempre, gratificándolos por los aspectos más positivos y relevantes transcurridos durante el semestre y que redundan en beneficio de la Facultad, la revista y nuestra comunidad institucional. Para este número de la Revista, el lector encontrará sutiles cambios asociados al compromiso con el ascenso en el escalafón Colciencias-Publindex.

Page 5: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

5

Nuestras instrucciones para autores cambiarán con el fin de ajustar la revista a los estándares internacionales más comunes en publicaciones de este tipo. Se continuará apropiando el estándar IEEE (Institute of Electrical and Electronics Engineers), por ser más apropiado y a la vez usado en los diversos campos de la ingeniería. Esperamos por tanto que en la medida en que continuemos con la senda de calidad que nos hemos trazado, éste y los números sucesivos, satisfagan sus expectativas.

Wilder Perdomo Ch. Editor

Page 6: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

6

EVALUACIÓN ANALÍTICA PARA LA DETERMINACIÓN DE SULFATOS EN

AGUAS POR MÉTODO TURBIDIMÉTRICO MODIFICADO

Carlos A. Severiche Aguas de Cartagena SA ESP

[email protected]

Humberto González Aguas de Cartagena SA ESP

[email protected]

(Tipo de Artículo: Investigación. Recibido el 01/10/2012. Aprobado el 10/12/2012)

RESUMEN La meta de un análisis químico de aguas es generar resultados correctos y confiables, siendo la validación de ensayos uno de los aspectos más importantes para conseguir este propósito; además constituye un factor clave para la prestación de servicios analíticos. La determinación de ion sulfato en aguas es una de las metodologías analíticas más discutidas que se conoce en el ámbito científico técnico del análisis de aguas, principalmente, por las desventajas que presentan los métodos aceptados internacionalmente (gravimétrico, turbidimétrico y cromatográfico). En el presente estudio se hizo la evaluación del método analítico turbidimétrico, para la determinación de sulfatos en aguas; el objetivo de este trabajo fue incluir una modificación al método estandarizado y confirmar correctamente la aplicación del método modificado para el análisis de aguas. Se trabajaron muestras de diferentes tipos de agua: potable, residual, superficial, de pozo y de piscina, siguiéndose estrictamente los protocolos de validación. Se encontraron resultados satisfactorios en precisión y exactitud con el fin de emitir resultados confiables y reales de la muestra analizada.

Palabras Clave Agua, método turbidimétrico, sulfato, validación.

ANALYTICAL EVALUATION FOR THE DETERMINATION OF SULFATE IN WATER BY MODIFIED TURBIDIMETRIC METHOD

ABSTRACT The goal of a chemical analysis of water is to produce accurate and reliable results, being the validation of tests one of the most important aspects to achieve this purpose, it also constitutes a key factor in the provision of analytical services. Determination of sulfate ion in water is one of the most discussed analytical methodologies in the scientific-technical sphere of waters analysis, mainly because of the disadvantages of internationally accepted methods (gravimetric, turbidimetric and chromatographic). In this study was made the evaluation of turbidimetric analytical method for the determination of sulfate in water, the aim was to include a modification to the standardized method and confirm the correct application of modified method for water analysis. We have worked on samples of different water types: drinking water, waste water, shallow, pit and pool, strictly complying the validation protocols. Satisfactory results were found regarding to precision and accuracy in order to give real and reliable results for the analyzed sample. Keywords

Water, turbidimetric method, sulfate, validation.

ÉVALUATION ANALYTIQUE POUR LA DÉTERMINATION DE SULFATES DANS EAUX AVEC LA MÉTHODE TURBIDIMÉTRIQUE MODIFIÉE

RÉSUMÉ Le but d’une analyse chimique d’eaux est de générer des résultats corrects et fiables, avec la validation d’essais comme une des aspects les plus importants pour obtenir cet objectif; en plus, il constitue un facteur clé pour la prestation de services analytiques. La détermination d’ion sulfate dans eaux est une des méthodologies analytiques les plus discutés qui est connu sur le milieu scientifique technique de l’analyse d’eaux, essentiellement, à cause des désavantages qu’ont les méthodes acceptés internationalement (gravimétrique, turbidimétrique et chromatographique). Dans cette étude on a évalué la méthode turbidimétrique pour la détermination des sulfates dans eaux; le but de ce travail est d’inclure une modification sur le modèle standard et de confirmer correctement l’application de la méthode modifiée pour l’analyse d’eaux. On a travaillé sur des différents types d’eau: potable, résiduelle, superficielle, de puits et de piscine, en suivant strictement les protocoles de validation. On a trouvé des résultats satisfaisants par rapport à la précision et l’exactitude pour émettre des résultats fiables et réels de l’échantillon analysé. Mots-clés Eau, méthode turbidimétrique, sulfate, validation.

Page 7: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

7

1. INTRODUCCIÓN El aumento en la demanda de agua potable se debe al crecimiento demográfico mundial, al rápido desarrollo económico y social, a la urbanización acelerada, y a las mejoras en el nivel de vida y de los ecosistemas circundantes [1], [2]. El control de la potabilidad y la calidad del agua es muy importante, ya que éste es el medio de trasporte de todas las sustancias y compuestos tanto biológicos como fisicoquímicos [3]. Para llevar a cabo la inspección, vigilancia y control, es necesario realizar un seguimiento de las características fisicoquímicas y microbiológicas del proceso de potabilización de agua y del producto terminado, con el fin de comparar con los valores normativos [4], [5]. Los sulfatos en el agua pueden tener su origen en el contacto de ella, con terrenos ricos en yesos, así como por la contaminación con aguas residuales industriales; el contenido de estos no suele presentar problemas de potabilidad en las aguas de consumo humano, pero contenidos superiores a 300mg/L pueden causar trastornos gastrointestinales en los niños [6], [7]. Se sabe que los sulfatos de sodio y magnesio tienen acción laxante, por lo que no es deseable un exceso de los mismos en las aguas de consumo [8], [9]. El ion sulfato es abundante en aguas naturales. Un amplio rango de concentraciones se encuentra presente en aguas lluvias y su determinación proporciona valiosa información respecto a la contaminación y a los fenómenos ambientales; adicionalmente, puede aportar datos acerca de la información de ácido sulfúrico proveniente del dióxido de azufre presente en la atmósfera [3]. En el caso de las aguas duras, el sulfato junto con otros iones ejercen un poder incrustante y de allí la importancia de su determinación para usos industriales, especialmente en el caso de agua para calderas, ya que este fenómeno en dichos equipos, puede disminuir su efectividad y por consiguiente, su tiempo de vida [6]. En lugares donde pueda aumentar la concentración de fitoplancton, se pueden presentar zonas anaerobias debido a la descomposición de materia orgánica, en las que las bacterias afines al sulfato se activan [10], [11]. Estas bacterias toman el oxígeno de los sulfatos formando sulfuro de hidrógeno, el cual es un compuesto de olor desagradable y altamente tóxico que elimina muchos organismos del medio, excepto las bacterias anaeróbicas del ecosistema [10], [11], [12]. El ion sulfato precipita en medio ácido con cloruro de bario formando cristales de sulfato de bario de tamaño uniforme. La cantidad de cristales es proporcional a la concentración de sulfatos en la muestra y la absorbancia luminosa de la suspensión; se puede medir espectrofotométricamente a 420 nm, siendo la concentración de SO4

2- determinada respecto a una

curva de calibración, según los métodos normalizados

para el análisis de aguas potables y residuales preparados por la Asociación Americana de Salud Pública, Asociación Americana de Trabajos del Agua, Federación para el Control de la Polución del Agua [13]. El método turbidimétrico permite determinar hasta 40 mg/L de sulfatos. Si la muestra presenta una concentración mayor se debe realizar una dilución. Las aguas con alta turbiedad han de ser tratadas previamente por centrifugación o filtración para su clarificación y posterior análisis. Interfiere también un exceso de sílice superior a 500mg/L y en las muestras con alto contenido de materia orgánica puede dificultarse la precipitación de sulfato de bario [10], [13]. La reglamentación Colombiana especifica los criterios y los valores respectivos para evaluar las condiciones físicas, químicas y microbiológicas de las aguas destinadas para consumo humano a través la resolución 1575 del 2007, y establece como valor máximo admisible 250mg/L para el ion sulfato [14]. En el presente trabajo se llevó a cabo la validación del método turbidimétrico para la determinación de sulfatos en aguas. La técnica estudiada es aplicable a un rango de 1 a 40mg/L SO4

2-, rango de interés, ya que la

mayoría de muestras analizadas en el laboratorio están en este intervalo; se trataron los resultados de análisis obtenidos de muestras de diferente procedencia con el ánimo de hacer más completo el estudio.

2. MATERIALES Y MÉTODOS El Método de referencia aplicado es el descrito en la edición 22 de los Métodos Normalizados para el Análisis de Aguas Potables y Residuales 4500-SO4

2- E.

APHA-AWWA-WEF (2012) [13], con la modificación soportada y desarrollada por la SOCIEDAD AMERICANA PARA PRUEBAS Y MATERIALES (ASTM 1995) D 516-90 [15]. A continuación se explican las modificaciones hechas al método original, donde de forma inicial se refiere a los reactivos donde se prepara una sola solución acondicionadora para sulfato, esta desviación con respecto a la preparación de la solución acondicionadora, se sustenta en el método ASTM (1995) [15], ya que APHA-AWWA-WEF (2012) [13], utiliza dos soluciones acondicionadoras una para el rango alto y otra para el bajo; la otra modificación tiene lugar en el procedimiento, pues la lectura a 420nm se hace con celdas de 1cm de paso óptico y no de 5cm como plantea el método original, ya que dicho detalle haría el método más sensible; luego se tendrían que diluir buena parte de las muestras analizadas en forma rutinaria, aguas crudas de captación y especialmente, aguas potables que van a la red de distribución, haciendo el procedimiento más tedioso y complejo; hecho por el cual, se propone la modificación, debido al tipo de muestras que se analizan con frecuencia en el intervalo de 1 a 40mg/L. Se muestra a continuación en detalle la ruta desarrollada:

Page 8: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

8

Recolección y preservación: Las muestras pueden colectarse en frascos de plástico o vidrio. Dado que ciertas bacterias pueden reducir el sulfato a sulfuro, especialmente en aguas contaminadas. Para su preservación se refrigera la

muestra a temperatura 6°C y por un período máximo de 28 días. Equipos y materiales: - Espectrofotómetro ultravioleta-visible UV-VIS para

trabajar a 420nm con celdas de 1cm de paso óptico.

- Vidriería: vasos de precipitados, agitadores de vidrio, volumétricos.

Reactivos: Para la preparación de reactivos, patrones y muestras, se empleará agua desionizada. Todos los reactivos son de grado analítico, excepto que se indique lo contrario. - Solución patrón de sulfato: utilizar solución trazable

de 100-1000mg/L. - Solución acondicionadora para sulfato: Esta se usa

como forma de acondicionamiento proporcionando un medio para que los iones sulfato se mantengan en suspensión a la hora de lectura en el espectrofotómetro, es de gran importancia, ya que su no uso, precipitaría todo el analito al momento de la adición del cloruro de bario, su preparación consta de colocar en un vaso de precipitados de 1L en el siguiente orden y mezclando después de cada adición: 300mL de agua, 30mL de ácido clorhídrico concentrado (HCl), 100mL de alcohol isopropílico (CH3-CH2OH-CH3) y 75g de cloruro de sodio (NaCl). Finalmente añadir 50 mL de glicerol previamente medidos en una probeta. Mezclar todo y llevar a volumen final de 500mL con agua. Esta solución es estable seis meses almacenada en frasco de vidrio ámbar a temperatura ambiente [15].

- Cloruro de bario dihidratado (BaCl2.2H2O): Emplear una solución comercial trazable, homogeneizar antes de usar.

Procedimiento: Las condiciones ambientales no influyen para la realización de este ensayo.

A. Preparación de la curva de calibración: 1. Pipetear volúmenes crecientes de la solución

patrón de sulfato, utilizando pipetas mecánicas previamente calibradas o de forma alternativa pipetas aforadas de vidrio, en volumétricos completar con agua desionizada hasta el aforo, para obtener al menos seis concentraciones comprendidas en el intervalo de 0 a 40mg/L.

2. Transferir los patrones a vasos de precipitado de 100mL. Adicionar a cada patrón 2,5mL de solución acondicionadora y agitar con varilla de vidrio; adicionar una cucharilla de cristales de cloruro de bario y agitar nuevamente en forma vigorosa.

3. Leer antes de 5 minutos en espectrofotómetro a 420nm con celdas de 1cm de paso óptico.

4. En función del espectrofotómetro utilizado, crear la curva de calibración.

B. Verificación de la curva de calibración: Cada vez que se analicen muestras, no es necesario construir una nueva curva de calibración, sino verificar la validez de la existente. En este caso, se prepara un patrón de concentración 20,0mg/L y se lee como si

fuera muestra. Si el resultado es coincidente 10%, se considera que la curva es válida y se procede a preparar y leer las muestras [16]. En caso negativo, repetir el patrón. Si el problema persiste, verificar los reactivos, en particular, la solución madre de sulfato y, si es necesario, prepararlos y construir una nueva curva de calibración.

C. Determinación de sulfatos en muestras: 1. Transferir 50mL de muestra (en caso de turbiedad

evidente, centrifugarla o filtrarla) a un vaso de precipitados de 100mL, adicionar 2,5mL de solución acondicionadora y agitar; adicionar una cucharilla de cristales de cloruro de bario y agitar nuevamente en forma vigorosa.

Leer antes de 5 minutos en espectrofotómetro a 420nm con celdas de 1cm de paso óptico respecto a la curva de calibración de sulfato. Si la absorbancia de la muestra resultase mayor que la del mayor patrón, es necesario repetir el proceso mediante diluciones sucesivas de la muestra y posterior lectura en el equipo. Para esto, debe realizarse como mínimo dos diluciones, se calculó el coeficiente de variación y si éste no supera 10%, se informó el valor promedio; en estos casos, es necesario multiplicar previamente por el factor de dilución [16].

3. RESULTADOS Y DISCUSIÓN De acuerdo con los protocolos de validación se evaluaron los siguientes parámetros: límite de cuantificación, límite de detección, precisión, exactitud, recuperación de adiciones conocidas (exactitud en matriz) [16], [17]. Por tratarse de un método en que se modifica el paso de luz, no es necesario evaluar: identificación, selectividad, especificidad ni robustez, ya que estos parámetros no son alterados por la modificación introducida [18].

A continuación se exponen e interpretan los resultados obtenidos en los ensayos de validación del método, que se realizaron siguiendo el procedimiento de análisis referenciado. Este método fue acreditado en 2006 por el IDEAM, con base a los resultados experimentales que se presentaron y que resumidamente incluían: Exactitud:

1. Pruebas de evaluación de desempeño del IDEAM: # 1 de 2004 y # 2 de 2005 satisfactorias (90 puntos en cada caso)

2. PICCAP: datos de 2004, 2005 y los dos primeros envíos de 2006: satisfactorios

Page 9: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

9

3. Pruebas de añadido-recobrado: con agua potable (n=6) y agua cruda (n=7), recobrados de 103.8 y 102.0%, respectivamente.

Precisión: Muestra sintética de agua destilada de nivel bajo (aproximadamente 6mg/L), analizadas 4 réplicas durante 4 días seguidos: Repetibilidad: 2,6-6,9% y Reproducibilidad interna: 4,7%. En la tabla 1, se muestran datos de porcentajes de coeficientes de variación promediados, para evidenciar la repetibilidad del método con muestras de diferente procedencia. El método continuó bajo control, lo que se demuestra en los resultados satisfactorios en: Pruebas de desempeño del Instituto de Hidrología, Meteorología y Estudios Ambientales IDEAM: 100 puntos (2007, 2008, 2011), 90 puntos (2009) y 80 puntos (2010). Pruebas de desempeño del Instituto Nacional de Salud de Colombia PICCAP: clasificado como referencia para sulfatos durante todos estos años. El único cambio importante ocurrió a fines de 2010, con la entrada de un nuevo analista y la sustitución del espectrofotómetro, siendo estas causales de una nueva verificación del método modificado, buscando así pruebas que evidencien repetibilidad y reproducibilidad.

Tabla 1. Repetibilidad para muestras de diferente

procedencia

TIPO DE

MUESTRA

CV%

promedio n

duplicados ciegas 2,1 4

diluciones de agua

de piscina 2,4 4

diluciones de agua

de pozo 3,1 15

diluciones de agua

potable 2,5 79

diluciones de agua

residual 3,8 2

diluciones de agua

superficial 2,2 14

Los resultados descritos se obtuvieron con muestras de agua superficial, cruda, de piscina, industrial o tratada así como con muestras certificadas y patrones de control interno.

Para las adiciones de concentración del analito se utilizaron patrones y se añadieron a muestras de agua obtenidas en la planta de tratamiento de agua potable PTAP El Bosque: cruda del punto de llegada del agua de la captación y potable del manhole del tanque de

salida. Para establecer la posible presencia de datos atípicos, se aplicó el contraste estadístico de Grubbs [16].

En las tablas 2 y 3, se muestran datos de exactitud en patrones de referencia y añadidos recobrados en muestras respectivamente.

Exactitud:

Pruebas de añadido-recobrado: Se realizaron por quintuplicado a muestras de agua cruda y tratada con adiciones de 4,96 y 9,92 mg SO4/L.

Con base a: 1. El error relativo promedio de los patrones varió

entre -3,5 y 1,1%. 2. Los recobrados estuvieron entre 94,9 y 105,0% y el

SM reporta recobrados entre 85 y 91% [13].

Tabla 2. Datos de exactitud para patrones

PATRÓN % Error

(promedio/intervalo)

VECES

ANALIZADO

muestra

certificada

de 72.4

mg SO4/L

0,4/-6,6 a 4,0 4

patrón

interno de

5 mg

SO4/L

1,1/-8,3 a 10,7 15

patrón

interno de

20 mg

SO4/L

0,5/-5,3 a 9,0 28

patrón

interno de

36 mg

SO4/L

-3,5/-9,2 a 0,7 9

Se observa que el método no presenta tendencia alguna que indique sesgos ni errores sistemáticos apreciables [19], debido a interferencias presentes en la matriz de las muestras ni al proceso de análisis mismo. Se considera satisfactoria la exactitud [16].

Tabla 3. Datos de recobrado

MUESTRA % recobrado

(promedio/intervalo)

agua cruda + 4,96 mg

SO4/L 100,1/96,5-102,3

agua cruda + 9,92 mg

SO4/L 98,8/94,9-105,0

agua tratada + 4,96 mg

SO4/L 97,4/95,1-100,1

agua tratada + 9,92 mg

SO4/L 95,6/93,7-100,1

En la tabla 4, se muestran los datos de repetibilidad para muestras de diferente procedencia (aguas crudas, tratadas y piscinas).

Page 10: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

10

Tabla 4. Datos de repetibilidad

TIPO DE MUESTRA CV% n

agua cruda 0,9 3

agua cruda 4,0 5

agua cruda + añadido 1 2,9 5

agua cruda + añadido 2 3,8 5

agua tratada 3,1 5

agua tratada + añadido 1 2,2 5

agua tratada + añadido 2 2,7 5

agua superficial 0,1 3

agua potable de red 1,5 3

agua potable 1,6 3

agua de piscina 0,3 3

Precisión:

Análisis de muestras de diferente procedencia. Con

base a los contenidos de sulfatos (< 40 mg/L) y la tabla

de Horwitz, puede considerarse satisfactoria la

repetibilidad [19]. Para 16 muestras de diverso origen:

potable (5), pozo (1), industrial (2) y desconocida (8),

con contenidos entre 45-8000mg SO4/L, el CV

promedio fue de 3.4%, desviación estándar 0,3-9,1.

En las tablas 5 y 6, se muestran datos de reproducibilidad interna para muestras y controles internos respectivamente y el número de veces analizadas.

Tabla 5. Datos de reproducibilidad interna para

muestras

TIPO DE

MUESTRA CV% MUESTRAS

agua potable 4,0-7,6 2

agua industrial 2,7-4,5 2

Para la reproducibilidad interna, se analizaron muestras dos días diferentes no consecutivos, con patrones de control interno. Y se considera también satisfactoria la precisión [19].

Tabla 6. Datos de reproducibilidad interna para

patrones de control interno

Concentración

del patrón (mg

SO4/L)

CV% VECES

ANALIZADO

5 5,7 15

20 3,6 28

36 2,7 9

Curva de calibración: Intervalo de trabajo: 5-40mg/L Coeficiente de correlación: 0.9999 CV método: 1.53% Límite de detección (Xbl + 3 Sbl): 0.53 mg SO4/L Límite de cuantificación (Xbl + 10 Sbl): 1.83 mg SO4/L Concentración a reportar: 5.0 mg SO4/L

Dado que la legislación colombiana para agua potable considera 250 mg/L como valor máximo aceptable para sulfatos y que la mayoría de aguas naturales o residuales, presentan concentraciones superiores a 5

mg/L, la concentración mínima a reportar [13], se considera satisfactoria para el análisis de agua, pues es 50 veces el valor máximo permisible [14].

4. CONCLUSIONES El método estandarizado modificado presenta adecuadas características de desempeño, al ser preciso (coeficientes de variación <10%), veraz (no presenta sesgo significativo), con un adecuado intervalo de concentración y una concentración mínima a reportar, baja (5mg/L). Estas características permiten que el mismo se ajuste al propósito para el cual fue diseñado, que consiste en la determinación de sulfato en muestras de aguas de diferente procedencia. El usar una sola solución acondicionadora es una ventaja en tiempo y la extensión del rango dinámico lineal hasta 40mg/L, lo cual implica maximización de análisis, en muestras con sulfatos en rangos rutinarios y habituales, con un mayor volumen de capacidad. Se vuelve un método de referencia para otros laboratorios que deseen aplicarlo en Colombia, al estar este parámetro acreditado ante el IDEAM, ya que pueden reportar resultados correctos y confiables.

5. REFERENCIAS [1] H. Cheng, Y. Hu & J. Zhao. ¨Meeting China’s water

shortage crisis: current practices and challenges¨. Environm. Sci. Techn. J. (USA). Vol. 43, No. 2, pp. 240-244, 2009.

[2] I. Sarabia. ¨Calidad del agua de riego en suelos agrícolas y cultivos del Valle de San Luis Potosí, México¨. Rev. Int. Contam. Ambient. (México). Vol. 27, No. 2, pp. 103-113, 2011.

[3] J. Arboleda. Teoría y práctica de la purificación del agua. Colombia: Ed. Mc Graw Hill, 2000, p.31.

[4] M. Simanca, B. Álvarez & Paternina, R. ¨Calidad física, química y bacteriológica del agua envasada en el municipio de Montería¨. Temas Agrarios. (Colombia). Vol. 15, No. 1, pp. 71-83, 2010.

[5] EPA. Guidelines for Water Reuse, EPA- Part III, 40 CFR, Part 122, U.S. Environmental Protection Agency U.S. Agency for International Development, Washington, DC, 2007, p.136.

[6] C. Orozco, A. Pérez, M. González, F. Rodríguez & J. Alfayate. Contaminación ambiental. Una visión desde la química. Ed. Thomson, España, 2005, pp. 631-650.

[7] D. Wilson, A. Fernández & Y. Zayas. ¨Desarrollo y validación de un método de valoración anemométrica para la determinación del ion sulfato en muestras de aguas naturales y residuales¨. Rev. Cub. Qca. (Cuba). Vol. 19, No. 2, pp. 28-33, 2007.

[8] G. Guzmán. ¨Evaluación espacio-temporal de la calidad del agua del río San Pedro en el Estado de Aguascalientes, México¨. Rev. Int. Contam. Ambient. (México). Vol. 27, No. 2, pp. 89-102, 2011.

[9] F. Ríos; A. Maroto & R. Bosque. ¨La validación de Métodos analíticos¨. Rev. Tec. Lab. (Cuba). Vol. 22, No. 252, pp.12-17, 2001.

[10] I. Aguilera; R. Perez & A. Marañon. ¨Determinación de sulfato por el método turbidimétrico en aguas y aguas residuales. Validación del método¨. Rev. Cub. Qca. (Cuba). Vol. 22, No. 3, pp. 39-44, 2010.

Page 11: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

11

[11] S. Stolyar et al. ¨Metabolic modeling of a mutualistic microbial community¨. Molecular Systems Biology. Vol. 38, No. 92, pp. 1–14, 2007.

[12] P. Guevara & M. Ortiz. ¨Adaptación a microescala del método potenciométrico con electrodo ión selectivo para la cuantificación de fluoruro¨. Rev. Int. Contam. Ambient. (México). Vol. 25, No. 2, pp. 87-94, 2009.

[13] APHA, AWWA, WEF. Standard Methods for the Examination of Water and Wastewater. 22th Ed. American Public Health Association/ American Water Works Association/Water Environment Federation, Washington DC, USA, 2012, pp. 4-188 y 4-190.

[14] MINISTERIO DE LA PROTECCIÓN SOCIAL, MINISTERIO DE AMBIENTE VIVIENDA Y DESARROLLO TERRITORIAL. Por medio de la cual se señalan características, instrumentos básicos y frecuencias del sistema de control y vigilancia para la calidad del agua para consumo humano. Resolución 1575 de 2007, Bogotá, D.C.: Ministerio de la Protección

Social; Ministerio de Ambiente Vivienda y Desarrollo Territorial, 2007.

[15] ASTM. Standard test methods for sulfate ion in water. Ed ASTM annual book, USA, 1995, D 516-90.

[16] G. Cortes. Lineamientos para el control de calidad analítica. Ed. Instituto de Hidrología, Meteorología y Estudios Ambientales IDEAM. Colombia, 1999, p.11.

[17] C. Cortés & R. García. Validación con base en los criterios de aplicación de la norma NMX-EC-17025-IMNC-2006 en mediciones químicas y físicas. Ed. Entidad Mexicana de Acreditación. México, 2009, p.25.

[18] C. Cortés. Validación de métodos. Docto. No. MP-CA005-02. Ed Entidad Mexicana de Acreditación. México, 2010, p.37.

[19] M. Velázquez, J. Pimentel & M. Ortega. ¨Estudio de la distribución de boro en fuentes de agua de la cuenca del río Duero, México, utilizando análisis estadístico multivariado¨. Rev. Int. Contam. Ambient. (México). Vol. 27, No. 1, pp. 9-30, 2011.

Page 12: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

12

PROPUESTA DE GESTIÓN DE RIESGOS PARA SCADA EN SISTEMAS

ELÉCTRICOS

María J. Bernal Zuluaga Central Hidroeléctrica de Caldas SA. Manizales

[email protected]

Diego F. Jimenez Mendoza Universidad de San Buenaventura, Medellín

[email protected]

(Tipo de Artículo: Investigación. Recibido el 14/10/2012. Aprobado el 11/12/2012)

RESUMEN En la actualidad los ataques cibernéticos son uno de los principales aspectos a considerar por parte de los entes gubernamentales y por las empresas prestadoras de servicios públicos, dado que dichas entidades son el blanco preferido para desestabilizar el normal desempeño de las actividades de un sector determinado. En particular, la prestación del servicio eléctrico es fundamental para la operación de la mayor parte de las actividades diarias a nivel comercial, industrial y social de nuestro país. Los centros de control eléctricos cuentan con el Sistema SCADA para tener información en tiempo real que facilite la supervisión, control y toma de decisiones necesarias para garantizar la seguridad y calidad en la prestación del servicio eléctrico. Este artículo trata de la gestión de riesgos del sistema SCADA y la definición de un plan de tratamiento en el cual se exponen las medidas de control que deben ser implementadas para la mitigación de los riesgos a los cuales está expuesto dicho sistema.

Palabras clave Front End, HMI, Protocolo, RTU/IED, SCADA, Sistema Eléctrico.

RISK MANAGEMENT PROPOSAL FOR SCADA IN ELECTRICAL SYSTEMS ABSTRACT Nowadays cyber-attacks are one of the major concerns to be considered by government agencies and utilities because they are sensitive targets in order to disrupt the normal performance of the activities of a particular sector. One of the most important services is electricity because of its crucial role for commercial, industrial and social activities in our country. In order to have real time information that make easier supervision, control and decision making for ensuring safety and quality in the provision of electricity service, the control centers have the SCADA system (Supervisory Control And Data Acquisition). This article deals with risk management of the SCADA system and the definition of a treatment plan which proposes control measures that should be implemented in order to minimize the risks and attacks for the system. Keywords Front End, HMI, Protocol, RTU/IED, SCADA, Electric System.

UNE PROPOSITION DE GESTION DE RISQUES POUR SCADA DANS SYSTÈMES ÉLECTRIQUES

Résumé Aujourd’hui les attaques cybernétiques sont une des aspects essentiels à considérer par les organismes gouvernementaux et par les services publics, étant donné que ces organismes sont un point de mire pour déstabiliser la performance normal des activités d’un secteur particulier. De manière ponctuelle, le service électrique est fondamental pour le fonctionnement de la plupart des activités quotidiennes à l’échelle commercial, industrielle et social de notre pays. Les centres de contrôle électrique ont le système SCADA pour avoir information en temps réel pour faciliter la surveillance, le contrôle et la prise des décisions nécessaires pour garantir la sécurité et qualité dans les services publics. Cet article s’occupe de la gestion de risques du système SCADA et de la définition d’un plan d’un traitement dans lequel on expose les mesures de contrôle qu’on doit implémenter pour la mitigation des risques pour le système. Mots-clés Front-end, Interface Homme-Machine (HMI), Protocole, Unité terminale distante/Dispositif Electronique intelligent (RTU/IED), Télésurveillance et acquisition de données (SCADA), Système électrique.

Page 13: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

13

1. INTRODUCCIÓN Un Centro de control Eléctrico es el responsable de la operación y supervisión coordinada en tiempo real de las instalaciones de generación y de transporte del sistema eléctrico. Para que exista un equilibrio constante entre la demanda y la oferta de energía, se requiere realizar previsiones de demanda y mantener márgenes de generación suficientes para hacer frente a posibles cambios del consumo previsto [1]. Para cumplir con lo anterior y garantizar la seguridad y calidad del suministro eléctrico, los centros de control deben operar sin interrupción el sistema de producción y transporte de energía por medio de los Sistemas SCADA (Supervisory Control And Data Acquisition). El sistema SCADA utiliza equipos de cómputo y tecnologías de comunicación para automatizar el monitoreo y control de procesos industriales. Estos sistemas son parte integral en la mayoría de los ambientes industriales complejos y geográficamente dispersos, ya que pueden recoger la información de una gran cantidad de fuentes muy rápidamente y presentarla al operador en una forma amigable. La importancia de los sistemas SCADA en el control de servicios como la energía eléctrica hace que se conviertan en sistemas estratégicos o incluso en sistemas dignos de ser considerados como de seguridad nacional, ya que una falla en ellos puede acarrear consecuencias catastróficas para una región e incluso para un país, con pérdidas económicas, pérdidas de imagen, implicaciones legales y afectación ambiental, entre otras [2]. Este articulo tiene como objetivo comprender el sistema SCADA, identificar y valorar los activos de información que lo componen y proponer una gestión de riesgos que nos da como resultado un plan de tratamiento, en el cual se describen los controles que ayudan a prevenir, detectar y mitigar dichos riesgos.

2. SCADA Y SUS ELEMENTOS PRINCIPALES El SCADA consiste típicamente en una colección de equipos de cómputo conectados vía LAN donde cada máquina realiza una tarea especializada, como es la recolección de datos, la visualización y así sucesivamente. Para alcanzar un nivel aceptable de tolerancia de fallas con estos sistemas, es común tener computadores SCADA redundantes operando en paralelo en el centro de control. El SCADA de los sistemas eléctricos recibe toda la información de las subestaciones, se comprueba el funcionamiento del sistema eléctrico en su conjunto y se toman las decisiones para modificarlo o corregirlo si es del caso. Los principales elementos que componen los Sistemas SCADA son:

2.1. Remote Terminal Units (RTU´s) o Estaciones

remotas o Intelligent Electronics Device (IED’s) La RTU es un pequeño y robusto computador que proporciona inteligencia en el campo para permitir que

se comunique con los instrumentos. Es una unidad independiente (stand−alone) de adquisición y control de datos, cuya función es controlar el equipamiento del proceso en el sitio remoto, adquirir datos del mismo explorando las entradas de información de campo conectadas con ellos y transferirlos al sistema central SCADA [3]. Las RTU's tienen la capacidad de comunicarse por radio, microonda, satélite, fibra óptica, etc., y algunos estándares de comunicación han comenzado recientemente a emerger para RTU's, como son el DNP3 e IEC60870-5-104. Las RTU´s han evolucionado a IED´s que corresponden a dispositivos electrónicos inteligentes capaces de supervisar y controlar procesos con funciones de Interfaz ser humano y máquina (HMI) y comunicación a sistemas superiores, es decir, sistemas SCADA sobre los estándares de comunicación mencionados. Entre los elementos que las RTU’s/IED’s supervisan a nivel eléctrico son:

- Transformador de potencia - Interruptor - Seccionador - Transformador de potencial - Transformador de corriente

2.2. Master Terminal Unit (MTU) o HMI en

Subestaciones y en Estación Principal La parte más visible y "centro neurálgico" del sistema es llamado Master Terminal Unit (MTU) o Interfaz ser humano y máquina (HMI − Human Machine Interface), cuyas funciones principales son recolectar datos de las RTU’s o IED’s, salvar los datos en una base de datos, ponerlos a disposición de los operadores en forma de gráficos, analizar los datos recogidos para ver si han ocurrido condiciones anormales, alertar al personal de operaciones sobre las mismas, generar los informes requeridos y transferir los datos hacia y desde otros sistemas corporativos. La MTU de SCADA se puede ejecutar en la mayoría de las plataformas y su tendencia es migrar hacia estándares abiertos como ODBC, INTEL PCs, sistemas estándares de gráficos y sistemas de computación corrientes. La mayoría de los soluciones SCADA cuentan con HMI en las subestaciones (S/E) y HMI en el Centro de Control o Estación principal. Normalmente, los IED se comunican al HMI de S/E los que a su vez se comunican con el HMI principal.

Page 14: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

14

Fig. 1. Estructura de los sistemas SCADA [4]

2.3. Procesadores de Comunicaciones Front End La interfaz a la red de comunicaciones es una función asignada a un computador llamado Front End, el cual maneja toda la interconexión especializada a los canales de comunicaciones y realiza la conversión de protocolos de modo que el sistema principal pueda contar con datos en un formato estándar. Debido a que los SCADA cubren áreas geográficas grandes, normalmente depende de una variedad de sistemas de comunicación: LAN normalmente confiables y de alta velocidad, y WAN menos confiables y de más baja velocidad; por lo que se han desarrollado técnicas para la transmisión confiable sobre diferentes medios. Los progresos recientes han considerado la aparición de un número apreciable de protocolos "abiertos".

2.4. Aplicaciones especiales Casi todos los sistemas SCADA tienen software de aplicación especial, asociado generalmente al monitoreo y al control.

3. PROTOCOLOS DE COMUNICACIÓN DEL SCADA Los protocolos utilizados van de acuerdo con cada uno de los medios disponibles en la comunicación. Algunos de los más comunes son:

3.1. Protocolo IEC 61850 La norma IEC 61850 es un estándar internacional de comunicación para subestaciones automatizadas que se extiende a otros elementos del sistema eléctrico. El objetivo de la norma IEC 61850 es comunicar IEDs de diferentes fabricantes buscando interoperabilidad entre funciones y elementos, y la armonización de las propiedades generales de todo el sistema. Para lograrlo, la norma no solo define las comunicaciones, sino que también define un lenguaje de configuración del sistema, condiciones ambientales y especificaciones de calidad de los equipos, y procedimientos para probar equipos. La norma IEC 61850 adopta como red de área local la red Ethernet y define diversos niveles lógicos y físicos en una subestación, como nivel estación, nivel campo y nivel proceso, no define ninguna topología en particular

[5]. La posibilidad de implementar una instalación bajo IEC 61850, permite reducir el cableado entre los distintos aparatos de maniobra y protección, debido al remplazo

de señales eléctricas por mensajes, que envían información digital o análoga. Las tendencias en la automatización de las compañías eléctricas, especialmente de las subestaciones, convergen en una arquitectura de comunicaciones común con el objetivo de tener la interoperabilidad entre una variedad de IEDs encontrados en las subestaciones, que puede: - Desarrollar un estándar internacional para las

comunicaciones en el interior de una subestación

automatizada.

- Conseguir interoperabilidad entre equipos de

diferentes proveedores.

- Permitir la comunicación cerca de los equipos de

potencia.

- Reducir el cableado convencional.

3.2. Protocolo Distributed Network Protocol - DNP3 La telemetría de radio es probablemente la tecnología base de SCADA. Una red de radio típica consiste en una conversación a través del repetidor situado en algún punto elevado y un número de RTU's que comparten la red. Todas las RTU's "hablan" sobre una frecuencia (F1) y escuchan en una segunda frecuencia (F2). El repetidor escucha en F1, y retransmite esto en F2, de modo que una RTU que transmite un mensaje en F1, lo tiene retransmitido en F2, tal que el resto de RTU's pueda oírlo. Los mensajes del Master viajan sobre un enlace de comunicación dedicado hacia el repetidor y son difundidos desde el repetidor en F2 a todas las RTU's. Si el protocolo de comunicaciones usado entre el Master y el repetidor es diferente al usado en la red de radio, entonces debe haber un

"Gateway" en el sitio del repetidor [6]. DNP3 se ha utilizado con éxito sobre la red de radio, que encapsulado en TCP/IP, permite que una red de fines generales lleve los datos al Master. DNP3 es un protocolo SCADA moderno, en capas, abierto, inteligente, robusto y eficiente, que puede [3]: - Solicitar y responder con múltiples tipos de dato en un

solo mensaje.

- Segmentar mensajes en múltiples frames para

asegurar excelente detección y recuperación de

errores.

- Incluir en una respuesta, sólo datos cambiados.

- Asignar prioridad a los ítems de datos y solicitarlos

periódicamente basado en su prioridad.

- Responder sin solicitud previa.

- Utilizar sincronización de tiempo con un formato

estándar.

- Permitir múltiples operaciones punto a punto y al

Master.

- Permitir objetos definibles por el usuario incluyendo

transferencia de archivos.

Page 15: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

15

A continuación veremos la relación entre el modelo de capas OSI y el Enhanced Performance Architecture (EPA) del protocolo DNP3.

Fig. 2. Relación Modelo OSI y el Enhanced performance

Architecture (EPA) del DNP3. Fuente: Practical Industrial

Data Communications [3]

El siguiente gráfico presenta el frame del Protocolo DNP3:

Fig. 3: Frame Format Protocolo DNP3. Fuente: Practical

Industrial Data Communications [3]

3.3. Protocolo IEC 60870-5-104 El protocolo IEC 60870-5-104 o IEC 104 es un estándar basado en el IEC 60870-5-101 o IEC 101. Utiliza la interfaz de red TCP/IP para disponer de conectividad a la red LAN y para conectarse a la WAN. La capa de aplicación IEC 104 se conserva igual a la de IEC 101 con algunos de los tipos de datos y los servicios utilizados. Generalmente para los sistemas de energía, se utiliza el protocolo IEC 104 para el centro de control y el protocolo IEC 101 para la interacción con los IEDs. La ventaja más grande del protocolo IEC 60870-5-104 es que habilita la comunicación a través de una red estándar y permite la transmisión de datos simultáneos entre varios dispositivos y servicios, debido a que el protocolo IEC 60870-5-104 define el uso de una red TCP como medio de comunicación [7]. La Fig. 4 muestra las arquitecturas de los protocolos IEC 101 y IEC 104.

Fig. 4. Arquitecturas de los Protocolos IEC 101 e IEC 104.

Fuente: Practical Industrial Data Communications [3]

La Fig. 5 muestra la relación entre el modelo de capas OSI y el Enhanced Performance Architecture (EPA) del protocolo IEC 104:

Fig. 5. Relación Modelo OSI y el EPA del IEC 104. Fuente:

Practical Industrial Data Communications [3]

La Fig. 6 y la Fig. 7 nos permiten ver el campo de control del protocolo IEC-104 en transmisiones balanceadas y no balanceadas:

Fig. 6. Control field – balanced transmission. Fuente:

Practical Industrial Data Communications [3]

Page 16: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

16

Fig. 7. Control field – unbalanced transmission. Fuente:

Practical Industrial Data Communications [3]

4. IDENTIFICACIÓN Y VALORACIÓN DE ACTIVOS

DE INFORMACIÓN Los activos más importantes a tener en cuenta para el análisis de riesgos para un sistema SCADA son los siguientes: IED, HMI en S/E (HMI S/E), HMI en principal (HMI P/L), Front End (FE) y Protocolos (PT).

Los activos se valoran con base en los elementos principales para la seguridad de la información: Confidencialidad, Integridad, Disponibilidad, Trazabilidad y No repudio. La valoración de los activos se puede realizar de acuerdo con la siguiente Tabla:

Tabla I. Valoración de Activos

VALORACION DE ACTIVOS

CATASTROFICO

MAYOR

MODERADO

MENOR

INSIGNIFICANTE

En la Tabla II se presenta el resultado de esta valoración y su correspondiente justificación.

5. IDENTIFICACIÓN Y VALORACIÓN DE RIESGOS Al igual que los activos, los riegos deben ser identificados y valorados con base en los elementos principales para la seguridad de la información: Confidencialidad, Integridad, Disponibilidad, Trazabilidad y No repudio. En este paso se determinan los riesgos con base en las vulnerabilidades que se tienen y que son explotadas por las amenazas. La valoración se identifica con los siguientes símbolos y colores:

Tabla III Valoración de Riesgos

IA INACEPTABLE

ID INADMISIBLE

TO TOLERABLE

AC ACEPTABLE

Las Tablas IV, V, VI y VII presentan el resultado de la valoración de riesgos de acuerdo con su confidencialidad, integridad, disponibilidad y trazabilidad correspondientemente. La valoración de riesgos según la característica de “No Repudio” no se considera en este punto, debido a que en la valoración de activos esta característica dio menor e insignificante.

Tabla II Identificación y Valoración de Activos de Información

Valoración Justificación Valoración Justificación Valoración Justificación Valoración Justificación Valoración Justificación

IED Moderado

Información operativa

convencional que no

merece ser confidencial

Catastrófico

Por ser la unidad básica

de recepción/envió de

información, su integridad

es de muy alta valoración.

Moderado

Indisponible la supervisión

sobre el elemento o la

función que realice el

elemento indisponible

Catastrófica

Los cambios en IED

realizados deben ser

registrados para

determinar los cambios

a efectuar en HMI S/E y

HMI Principal

Menor

Los cambios y quien los

realiza en IED deben ser

registrados, Pero estas

actividades son

realizadas por personal

especializado y su

responsabilidad

formalizada.

HMI S/E Moderado

Información operativa

convencional que no

merece ser confidencial

Moderado

Si su funcionamiento no

es adecuado se realiza

manejo del IED

directamente

Mayor

La supervisión y control

de la S/E se hace muy

dispendiosa y la

información no estaría

disponible

Catastrófica

Los cambios en HMI

S/E realizados deben

ser registrados para

determinar los cambios

a efectuar en IED y HMI

Principal

Menor

Los cambios y quien los

realiza en HMI S/E

deben ser registrados,

Pero estas actividades

son realizadas por

personal especializado

y su responsabilidad

formalizada.

HMI

PrincipalModerado

Información operativa

convencional que no

merece ser confidencial

Mayor

Si su funcionamiento no

es adecuado se realiza

manejo del HMI de todas

las S/E o IED

directamente

Catastrófica

La supervisión y control

del Sistema eléctrico no

podría realizarse.

Catastrófica

Los cambios en HMI

principal realizados

deben ser registrados

para determinar los

cambios a efectuar en

IED y HMI de S/E

Menor

Los cambios y quien los

realiza en HMI Principal

deben ser registrados,

Pero estas actividades

son realizadas por

personal especializado

y su responsabilidad

formalizada.

Front End Moderado

Información operativa

convencional que no

merece ser confidencial

Mayor

Si su funcionamiento no

es adecuado se realiza

manejo del HMI de todas

las S/E o IED

directamente

Catastrófica

La supervisión y control

del Sistema eléctrico no

podría realizarse.

Catastrófica

Los cambios en Front

End realizados deben

ser registrados para

determinar los cambios

a efectuar en HMI

Principal y HMI de S/E

Menor

Los cambios y quien los

realiza en Front End

deben ser registrados,

Pero estas actividades

son realizadas por

personal especializado

y su responsabilidad

formalizada.

Protocolos InsignificanteProtocolos utilizados son

estándaresMenor

Los protocolos utilizados

son confiablesInsignificante

No aplica el concepto de

disponibilidadMenor

No se ha visto la

necesidad de verificar

logs de estos

protocolos

InsignificanteNo aplica el concepto de

no repudio

No RepudioActivo

Confidencialidad Integridad Disponibilidad Trazabilidad

Page 17: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

17

Tabla IV Valoración del Riesgo – Pérdida de

Confidencialidad del Activo

VULNERABILIDAD AMENAZA IEDHMI

S/E

HMI

P/LFE PT

Abuso de Privilegios IA TO TO

Acceso no autorizado IA IA IA

Escaneos de red (I) IA IA

Análisis de trafico IA

Abuso de privilegios IA TO IA

Acceso no autorizado IA IA IA IA

Escaneos de red (I) IA ID

Análisis de trafico IA IA

Escapes de información IA

Divulgación de

informaciónIA

Ataque de ingeniería

socialIA

Fuga/Robo de

informaciónIA

Errores del administrador IA IA

Vulnerabilidad de

programasTO IA

Difusión sw dañino IA IA

Inadecuado

procedimiento de

actualizaciones de

seguridad y antivirus

VALORACION RIESGO - PERDIDA DE CONFIDENCIALIDAD DEL ACTIVO

Controles inadecuados

de acceso físico/lógico

Configuración incorrecta

o Inadecuada

Poca conciencia sobre

la seguridad de la

información

Tabla V Valoración del Riesgo – Pérdida de Integridad

del Activo

VULNERABILIDAD AMENAZA IEDHMI

S/E

HMI

P/LFE PT

Abuso de Privilegios IA IA IA TO

Acceso no autorizado IA ID ID IA

Ataque dirigido IA ID ID

Manipulación de la

configuraciónID ID ID TO

Manipulación de

programasIA IA

Errores de administrador IA ID ID IA

Abuso de privilegios IA IA IA IA

Acceso no autorizado IA IA

Difusión sw dañino ID ID

Fallas de software ID ID IA

Errores de los usuarios IA

Fallas de hardware ID

Ataque dirigido ID

Vulnerabilidad de los

programasIA

Acceso no autorizado ID ID ID

Abuso de privilegios IA IA

Ataque dirigido ID ID ID ID

Difusión sw dañino ID ID

Fallas de hardware ID

Degradación de los

soportes de

almacenamiento

ID

VALORACION RIESGO - PERDIDA DE INTEGRIDAD DEL ACTIVO

Controles inadecuados de

acceso físico/lógico

Configuración incorrecta o

Inadecuada

Inadecuados esquemas de

reposición de activos

obsoletos

Insuficientes o inadecuados

mantenimientos predictivos,

preventivos y/o correctivos

Tabla VI Valoración del Riesgo – Pérdida de

Disponibilidad del Activo

VULNERABILIDAD AMENAZA IEDHMI

S/E

HMI

P/LFE PT

Abuso de privilegios IA IA IA

Acceso no autorizado ID ID ID

Denegación de

ServiciosID ID ID

Ataque dirigido ID ID ID

Acceso no autorizado ID ID ID

Ataque dirigido ID ID ID

Caída del sistema por

agotamiento de

recursos

ID IA ID

Denegación de

serviciosID ID ID ID

Fallas de sw ID ID

Vulnerabilidad de los

programasID ID

Denegación de

serviciosID ID

Fallas de hardware ID

Caídas del sistema por

agotamiento de

recursos

ID

Ataque dirigido ID

Fallas de hardware ID

Degradación de los

soportes de

almacenamiento

ID

Avería de origen

físico/lógicoID

VALORACION RIESGO - PERDIDA DE DISPONIBILIDAD DEL ACTIVO

Controles inadecuados de

acceso físico/lógico

Configuración incorrecta o

Inadecuada

Insuficiente protección contra

virus y código malicioso

Insuficientes o inadecuados

mantenimientos predictivos,

preventivos y/o correctivos

Punto único de fallo

Tabla VII Valoración del Riesgo – Pérdida de Trazabilidad

del Activo

VULNERABILIDAD AMENAZA IEDHMI

S/E

HMI

P/LFE PT

Fallas de hardware IA

Errores de

administradorIA IA ID IA IA

Acceso no

autorizadoIA IA

Ataque dirigido IA

Abuso de privilegios IA

Manipulación de la

configuración IA IA

Errores de

configuraciónIA

Errores de

monitorizaciónIA

Destrucción de

informaciónIA ID

Errores de

administrador IA IA ID IA

Errores de

configuraciónIA IA

Ataque dirigido IA IA ID

Errores de

monitorizaciónID ID

Escasos registros en logs o

variables auditables

Pocos mecanismos de

control y Monitoreo

VALORACION RIESGO - PERDIDA DE TRAZABILIDAD DEL ACTIVO

6. PLAN DE TRATAMIENTO Y CONTROLES La Tabla VIII nos permite ver cada uno de los controles propuestos para mitigar los riesgos detectados. Al igual que para cualquier sistema, el aseguramiento de los sistemas SCADA es un proceso continuo y permanente. Día a día aparecen nuevas amenazas que deben ser analizadas y revisadas frente a las vulnerabilidades del sistema. Así mismo, se debe ser consiente que la implementación de los controles no es solo una actividad puntual, sino un proceso que debe ser implementado gradualmente y en diferentes fases. A continuación son descritos los controles definidos para los sistemas SCADA y que pueden ser considerados de acuerdo con la gestión de riesgos que se presenta en este artículo, teniendo en cuenta que algunas medidas mitigan más de un escenario de riesgo. Para limitar las conexiones al SCADA con el fin que únicamente las necesarias se lleven a cabo, se debe restringir el acceso lógico e implementar una

arquitectura de red segura, que incluya, al menos: la

Segmentación de redes de modo que cada subred tenga un propósito específico y ofrezca acceso solo a aquellos usuarios que lo requieran, la instalación de un

Firewall para habilitar única y exclusivamente las conexiones necesarias, denegando todo el tráfico que no haya sido autorizado explícitamente, la Instalación

de un Sistema de Detección de Intrusos y/o Sistema

de Prevención de Intrusos - IDS/IPS en la red que permita detectar situaciones anómalas a partir de patrones de funcionamiento de la red SCADA, solución que también puede ser complementada incluyendo la

solución de HIPS (el mismo IPS a nivel de equipo o

host). Además, la implementación de una Solución

Network Access Control – NAC para control de acceso a la red a través de políticas, incluyendo condiciones de admisión, chequeo de políticas de seguridad en el usuario final (antivirus actualizado, sistema operativo parcheado, etc.) y controles sobre

Page 18: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

18

los recursos a los que pueden acceder en la red los usuarios y dispositivos, y lo que pueden hacer en ella [4].

Para monitorear el acceso a los activos de la red

SCADA, se debe contar con un Sistema SOC

(Security Operation Center) y un correlacionador de

eventos, donde se centralicen, estandarice y relacionen logs, se haga tratamiento a situaciones anómalas y se identifiquen y manejen oportunamente los incidentes de seguridad. Para eliminar lo que se denomina puntos únicos de

fallo, se deben considerar Sistemas redundantes cuya disponibilidad se considere esencial para el SCADA en caso de que ocurra un fallo lógico o físico, sin

prescindir de los esquemas de mantenimiento

preventivo y correctivo para la prevención y atención de cualquier daño a los activos. Un factor y no menos importante para la seguridad del sistema y una adecuada toma de decisiones es el

Entrenamiento al personal que maneja el SCADA. La capacitación debe incluir temas de seguridad física y lógica, informática y telecomunicaciones. Cursos o sesiones de concienciación sobre seguridad son claves para fomentar una cultura de seguridad entre los empleados. Igualmente se debe considerar este aspecto al momento de contratar el personal, con el fin de tener parámetros claros sobre capacidad de actuación tanto profesional como ética. Dado que la seguridad no es exclusivamente un problema técnico, es necesario desarrollar e implantar adecuadamente políticas y procedimientos por medio de los cuales se implementan y evalúan los controles:

Auditorias de seguridad y procedimientos para la

revisión de registros de auditoria y monitorización: se debe definir y establecer una serie de auditorías de seguridad periódicas que afecten los sistemas SCADA, los elementos de red y las comunicaciones, así como su alcance y enfoque. Adicionalmente formalizar el procedimiento de revisión de los registros de auditoría y de monitorización de la red, con el objetivo de detectar anomalías, ya sean funcionales o de seguridad. En este punto, vale la pena mencionar que se deben tomar

medidas para la protección de archivos incluidos los

registros de auditoria. Procedimiento para

administración de roles y privilegios: esta administración se debe realizar de acuerdo con la segregación de funciones y responsabilidades de cada empleado, para minimizar la posibilidad de ocurrencia de errores humanos y de ataques internos, y también facilitar la trazabilidad de las acciones en caso de un

incidente. Procedimiento de pruebas y control de

cambios: define los pasos a seguir a la hora de afrontar cambios en los activos de información y pruebas de validación antes de aplicarlos en producción, lo que amerita contar con entornos de pruebas diferentes a los entornos productivos.

Procedimiento de aplicación de actualizaciones

(parches): establece los requisitos y pasos a seguir para la aplicación de parches de seguridad. Es

imprescindible aplicarlo en un entorno de pruebas para detectar posibles conflictos o malfuncionamientos en el sistema como consecuencia de dicha aplicación.

Procedimiento de control de accesos físicos: este procedimiento debe establecer, al menos, los siguientes aspectos: requisitos para conceder acceso físico a las instalaciones, registro de datos del personal, identificación del personal, personal que autoriza el acceso y periodo de validez de la autorización. Aunque idealmente las redes SCADA deberían permanecer aisladas, se recomienda realizar aseguramiento de los accesos remotos para evitar accesos no autorizados. En todo caso, se deben utilizar

Protocolos Seguros que cifren todas las comunicaciones con algoritmos robustos, empleando claves complejas y tunelizando todo el tráfico relativo al acceso remoto. Adicionalmente, emplear un

mecanismo de acceso y autenticación fuerte de doble factor. Una medida que se debe aplicar antes de realizar el despliegue de una aplicación, sistema operativo o equipo en el entorno productivo, es la realización de un aseguramiento de dicho elemento, es decir la tarea de configuración segura del nuevo elemento. Los parámetros de aseguramiento de los activos son las

denominadas líneas base de seguridad cuyo objetivo es que ese elemento cuente con un nivel de seguridad razonable, sin que por ello se vea afectada su funcionalidad. Este proceso de aseguramiento suele contar al menos con: Eliminación o desactivación de servicios innecesarios y/o inseguros, sustitución de cuentas por defecto por cuentas personales y biunívocas, alteración de la configuración por defecto, eliminando aquellos valores que sean considerados inseguros, activación de mecanismos y controles de seguridad, como puede ser el establecimiento de una política de contraseñas robustas y la configuración de la ejecución de actualizaciones automáticas. Para la construcción y aplicación de las líneas base de seguridad se pueden utilizar como base y referencia las guías de buenas prácticas y seguridad que ofrecen organizaciones especializadas, teniendo en cuenta también las necesidades operativas del sistema SCADA.

Debido a la constante evolución que sufren los sistemas de información, y concretamente el surgimiento de amenazas relativas a la infección con

malware, la Implementación de sistemas de

antimalware y actualización de firmas de los

antivirus, es un control esencial para los Sistemas SCADA. Así como lo hemos mencionado, realizando las pruebas correspondientes que garanticen que las aplicaciones no tienen inconvenientes con estas firmas. De igual manera y debido al desarrollo de la tecnología,

es necesario asumir programas de renovación

tecnológica, tanto a nivel de hardware como de software, que ofrezcan más funcionalidades y mayor seguridad. Estos programas de renovación deberán ser

Page 19: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

19

sustentados con base en los resultados que arrojen los

análisis de capacidad y rendimiento de los equipos y aplicativos que deben realizarse con anterioridad, con

el objetivo que cumplan con los requerimientos del sistema.

Tabla VIII - Identificación De Riesgos y Controles Riesgo Activo Amenaza Vulnerabilidad CONTROLES

Pérdida de

disponibilidad

del hardware

Front End

Ataque Dirigido

Controles inadecuados de

acceso físico/lógico a un activo

de información

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Caída del sistema por agotamiento de recursos

Configuración incorrecta o

inadecuada

- Análisis de capacidad y rendimiento

Denegación de servicio - Entrenamiento al personal

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Segmentación de Red en VLANS

- Utilización Protocolos seguros

- Implementación de Control de acceso a la Red - NAC

Falla del Hardware

Punto único de fallo

- Sistemas redundantes

Caída del sistema por agotamiento de recursos - Análisis de capacidad y rendimiento

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Falla del Hardware Insuficientes o inadecuados

mantenimientos predictivos,

preventivos y/o correctivos

- Esquemas de mantenimiento preventivo y correctivo

Degradación de los soportes de

almacenamiento - Esquemas de mantenimiento preventivo y correctivo

Avería de origen físico o lógico - Programas de renovación tecnológica

Pérdida de

disponibilidad

del hardware

IED

Acceso no autorizado

Configuración incorrecta o

inadecuada

- Sistema de autenticación fuerte

- Procedimiento de control de accesos físicos

- Administración de roles y privilegios

Denegación de servicio - Entrenamiento al personal

Acceso no autorizado

Controles inadecuados de

acceso físico/lógico a un activo

de información

- Sistema de autenticación fuerte

- Procedimiento de control de accesos físicos

- Administración de roles y privilegios

Denegación de servicio

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Pérdida de

disponibilidad

del software

HMI

Principal

Acceso no autorizado

Controles inadecuados de

acceso físico/lógico a un activo

de información

- Sistema de autenticación fuerte

- Administración de roles y privilegios

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Denegación de servicio

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Acceso no autorizado

Configuración incorrecta o

inadecuada

- Sistema de autenticación fuerte

- Administración de roles y privilegios

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Denegación de servicio

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Falla del Software

Insuficiente protección contra

virus y código malicioso

- Implementación de sistemas de antimalware

- Esquemas de pruebas y control de cambios

Vulnerabilidades de los programas (software)

- Implementación de sistemas de antimalware

- Esquemas de pruebas y control de cambios

- Procedimiento de aplicación de parches

Denegación de servicio - Implementación de sistemas de antimalware

Pérdida de

disponibilidad

del software

HMI S/E

Acceso no autorizado

Controles inadecuados de

acceso físico/lógico a un activo

de información

- Sistema de autenticación fuerte

- Administración de roles y privilegios

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Denegación de servicio

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Caída del sistema por agotamiento de recursos

Configuración incorrecta o

inadecuada

- Entrenamiento al personal

Acceso no autorizado

- Sistema de autenticación fuerte

- Administración de roles y privilegios

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Denegación de servicio

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Falla del Software

Insuficiente protección contra

virus y código malicioso

- Implementación de sistemas de antimalware

- Esquemas de pruebas y control de cambios

- Procedimiento de aplicación de parches

Vulnerabilidades de los programas (software)

- Implementación de sistemas de antimalware

- Esquemas de pruebas y control de cambios

- Procedimiento de aplicación de parches

Denegación de servicio

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Page 20: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

20

Tabla VIII - Identificación de Riesgos y Controles

Activo Amenaza Vulnerabilidad CONTROLES

Pérdida de la

confidencialidad

del hardware

Front End

Escaneo de red

Configuración incorrecta o

inadecuada

- Implementación IPS y HOST IPS

- Implementación de firewall

- Segmentación de Red en VLANS

- Utilización Protocolos seguros

- Implementación de Control de acceso a la Red - NAC

Pérdida de la

integridad del

hardware

Front End

Manipulación de la configuración

Controles inadecuados de

acceso físico/lógico a un

activo de información - Esquemas de pruebas y control de cambios

Falla del Hardware

Configuración incorrecta o

inadecuada

- Esquemas de mantenimiento preventivo y correctivo

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Acceso no autorizado Inadecuados esquemas

periódicos de reposición de

Activos Obsoletos

- Sistema de autenticación fuerte

- Procedimiento de control de accesos físicos

- Administración de roles y privilegios

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Falla del Hardware Insuficientes o inadecuados

mantenimientos predictivos,

preventivos y/o correctivos

- Esquemas de mantenimiento preventivo y correctivo

Degradación de los soportes de

almacenamiento - Programas de renovación tecnológica

Pérdida de la

integridad del

software

HMI

Principal

Manipulación de la configuración

Controles inadecuados de

acceso físico/lógico a un

activo de información

- Esquemas de pruebas y control de cambios

Acceso no autorizado

- Sistema de autenticación fuerte

- Administración de roles y privilegios

Manipulación de programas - Esquemas de pruebas y control de cambios

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Falla del Software

Configuración incorrecta o

inadecuada

- Esquemas de pruebas y control de cambios

- Sistemas Redundantes

Errores del administrador

- Entrenamiento al personal

- Esquemas de pruebas y control de cambios

Difusión de software dañino - Implementación de sistemas de antimalware

Acceso no autorizado

- Sistema de autenticación fuerte

- Administración de roles y privilegios

Difusión de software dañino

Inadecuados esquemas

periódicos de reposición de

Activos Obsoletos

- Implementación de sistemas de antimalware

Acceso no autorizado

- Sistema de autenticación fuerte

- Administración de roles y privilegios

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Pérdida de la

integridad del

software

HMI S/E

Manipulación de la configuración

Controles inadecuados de

acceso físico/lógico a un

activo de información

- Esquemas de pruebas y control de cambios

Acceso no autorizado

- Sistema de autenticación fuerte

- Administración de roles y privilegios

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Falla del Software Configuración incorrecta o

inadecuada

- Esquemas de pruebas y control de cambios

- Sistemas Redundantes

Errores del administrador

- Entrenamiento al personal

- Esquemas de pruebas y control de cambios

Difusión de software dañino - Implementación de sistemas de antimalware

Difusión de software dañino

Inadecuados esquemas

periódicos de reposición de

Activos Obsoletos

- Implementación de sistemas de antimalware

- Programas de renovación tecnológica

Acceso no autorizado

- Sistema de autenticación fuerte

- Administración de roles y privilegios

- Programas de renovación tecnológica

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Pérdida de la

integridad del

software

Protocolos

Ataque Dirigido

Inadecuados esquemas

periódicos de reposición de

Activos Obsoletos

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Pérdida de

trazabilidad del

software

HMI

Principal

Errores del administrador Escasos registros en logs o

variables auditables

- Entrenamiento al personal

- Procedimientos de revisión y auditorias

Destrucción de información - Protección de archivos

Errores del administrador

Pocos mecanismos de

control y monitoreo

- Entrenamiento al personal

Errores de monitorización (log)

- Entrenamiento al personal

- Implementación Sistemas SOC y correlacionalor de

eventos

- Procedimientos de revisión y auditorias

Ataque Dirigido

- Implementación IPS y HOST IPS

- Implementación de firewall

- Líneas base de seguridad

Pérdida de

trazabilidad del

software

HMI S/E

Errores de monitorización (log)

Pocos mecanismos de

control y monitoreo

- Entrenamiento al personal

- Implementación Sistemas SOC y correlacionalor de

eventos

- Procedimientos de revisión y auditorias

Page 21: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

21

7. CONCLUSIONES Debido al incremento de las posibilidades de ataques a los sistemas SCADA, este proceso de análisis de riesgos e implementación de medidas de control es un proceso que debe ser asumido por la dirección de las Empresas con compromiso, involucrando a equipos interdisciplinarios en su implementación y asignando los recursos requeridos. El análisis de riesgos debe ser un proceso periódico que permita a cada empresa conocer cuál es su estado actual, con el objetivo de marcarse hitos y priorizar las tareas, atendiendo en primer lugar aquellas que sean consideradas como críticas. Una vez que los controles estén siendo gestionados para los Sistemas SCADA, las Empresas estarán acercándose al cumplimiento de la Norma NERC CIP, norma que es el marco de trabajo que tiene como función identificar y proteger los recursos cibernéticos críticos y garantizar el funcionamiento del sistema Eléctrico.

REFERENCIAS [1] CECOEL - Centro de Control Eléctrico. Online [Jul. 2012]. [2] E. San Román. CISSP, CISA y CEH. “Los sistemas

SCADA y su exposición ante ataques informáticos”. Online [May. 2012].

[3] G. Clarke, D. Reynders & E. Wright. “Practical Moderm SCADA Protocols: DNP3, 60870.5 and Related Systems”. Great Britain, 2004.

[4] P. Pablo, A. Eduardo, D. Susana, G. Laura & G. Cristina. “Estudio sobre la seguridad de los sistemas de monitorización y control de procesos e infraestructuras (SCADA)”. Instituto Nacional de Tecnologías de la Comunicación – INTECO. España. Marzo 2012.

[5] R. Vignoni, R. Pellizzoni & L. Funes. “Sistemas de automatización de subestaciones con IEDs IEC 61850: Comunicaciones, topologías”. Argentina, Mayo, 2009.

[6] D. G. Hernán. ”Implementación de Un sistema SCADA para la mezcla de dos sustancias en una industria química”. Online [En. 2012].

[7] Protocols IEC 60870-5-104. Online [Mar. 2012].

Page 22: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

22

SISTEMA DE EVALUACIÓN CUALITATIVA A TRAVÉS DE DISPOSITIVOS

MÓVILES

José Eucario Parra Castrillón

Universidad de San Buenaventura

[email protected]

(Tipo de Artículo: Investigación. Recibido el 16/10/2012. Aprobado el 22/12/2012)

RESUMEN El Sistema PruebaL es un producto del proyecto Evaluación Cualitativa a Través de Dispositivos Móviles, cuyo objetivo es analizar e implementar un sistema para gestionar procesos de evaluación. La temática se enmarca dentro de los conceptos de mobile learnig y su desarrollo consistió en el análisis de requerimientos funcionales y no funcionales, la definición del sistema, el diseño para las relaciones modulares de profesor, estudiante, administrador y pruebas y la implementación utilizando tecnología de teléfonos celulares. Se alcanzaron dos logros fundamentales: un modelo de evaluación cualitativa automatizada con el sistema PruebaL y la notificación efectiva a los teléfonos celulares matriculados en las bases de datos de estudiantes, para la presentación de las evaluaciones y el acceso Web a estas.

Palabras clave

Dispositivos móviles , m-learning, escala de Likert, evaluación cualitativa, redes inalámbricas,

QUALITATIVE ASSESSMENT SYSTEM THROUGH MOBILE DEVICES ABSTRACT The System PruebaL is a product of the research project called Quality Assessment Through Mobile Devices, which aims to analyze and implement a system to manage the evaluation processes. The subject is in the context of mobile learning concepts and the approach is made through the analysis of functional and non-functional requirements, system definition, and design for modular relationships for professor, student, administrator and testing and implementation using cell phone technology. There are two significant achievements: an automated qualitative assessment model with the system PruebaL and the effective notification for cell phones registered in student databases for conducting assessments and the Web access to them. Keywords Mobile devices, m-learning, Likert scale, qualitative assessment, wireless networks.

SYSTÈME D’EVALUATION QUALITATIVE À TRAVERS DE DISPOSITIFS MOBILES

Résumé Le système PruebaL est un produit du projet Evaluation Qualitative à Travers de Dispositifs Mobiles, qu’a comme objectif d’analyser et d’implémenter un système pour gérer des processus d’évaluation. Le thème se situe autour des concepts d’apprentissage sur mobile et est développé à partir de l’analyse des requêtes fonctionnelles et non-fonctionnelles, la définition du système, la conception des rapports modulaires du professeur, étudiante, administrateur et des essais & implémentation en utilisant technologie de téléphones portables. Il y a deux réussites fondamentales: un model d’évaluation qualitative automatisé avec le système PruebaL et la notification effectif aux téléphones portables enregistrés dans las bases de données d’étudiants, par rapport à la présentation des exams et accès pour le Web. Mots-clés Dispositifs mobiles, apprentissage sur mobile, échelle de Likert, évaluation qualitative, réseaux sans fils.

Page 23: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

23

1. INTRODUCCIÓN El proyecto contribuye a la investigación aplicada en el campo del Mobile learning (m-learning) y dentro de sus objetivos están crear un estado del arte acerca del desarrollo de aplicativos y proyectos para m-learning que utilicen software libre; determinar en cuáles dispositivos móviles es utilizable el aplicativo desarrollado, mediante una clasificación valorativa a las tecnologías existentes y desarrollar las fases de análisis, diseño, implementación y pruebas de un sistema de m-learning para dispositivos móviles.

Mobile learning es una forma de aprendizaje generada a partir de la conjunción entre el e-learning y la aplicación de los dispositivos móviles (smart devices) inteligentes, como PDAs, smartphones, Ipods, pocket PCs, teléfonos. Se fundamenta en la posibilidad que brindan estos móviles para combinar la movilidad geográfica con la virtual, lo que permite el aprendizaje en el momento en que se necesita, en el lugar donde se encuentre y con la información precisa que se requiera.

El m-learning se desarrolla apoyado en las siguientes características de los servicios móviles [1]: accesibilidad, conveniencia, inmediatez, localización, personalización y ubicuidad.

En su esencia el proyecto crea un servicio de formulario para la Web, donde el profesor diseña la estructura de la prueba, la cual consiste en la escritura de los enunciados de las preguntas, la escritura de las opciones de respuesta para la homologación con la escala de Likert y el tiempo de respuesta. Las preguntas se plantean para que el estudiante responda desde su dispositivo móvil a unas opciones, las que internamente serán interpretadas por el software para la clasificación en un modelo de Escala de Likert [2].

2. DESARROLLO DEL M-LEARNING

El e-learning o aprendizaje electrónico es más que un sistema de acceso a información y de distribución de conocimientos. Además de estas dos funciones, debe proveer mecanismos de participación pedagógica para la interacción entre los participantes, teniendo en cuenta la educación como conjunto de procesos constructivos, la tecnología como soporte y medio para la creación de ambientes educativos y la comunicación como elemento esencial para el reconocimiento y vinculación de las personas. El e-learning facilita el acceso al aprendizaje en función de las necesidades del usuario, en el lugar que lo requiera.

Acorde con los avances de la tecnología, el e-learning se ha venido transformando. Es así como las clases digitales venían antes integradas en CD con un buen nivel de multimedia, pero sin posibilidad de interacciones de los usuarios con el profesor y con la dificultad de poder actualizar los contenidos. Luego con la disponibilidad de Internet, la fuerza la toman los cursos on-line, con la posibilidad de interacción entre los participantes, la versatilidad de las comunicaciones

sincrónicas o asincrónicas, la actualización y adaptación de los contenidos y la utilización de plataformas LMS -Learning Management System-, para la gestión de los aprendizajes. Terminado la primera década del siglo XXI, con el advenimiento de la tecnología móvil, el desarrollo del e-learning viene adquiriendo la forma de m-learning, acorde con la masificación de los dispositivos móviles como recursos que la gente utiliza para comunicarse y para acceder a información en distintos formatos.

Mobile learning (m-learning) es una forma de aprendizaje generada a partir de la conjunción entre el e-learning y la aplicación de los dispositivos móviles (smart devices) inteligentes, como los teléfonos celulares. Se fundamenta en la posibilidad que brindan estos móviles para combinar la movilidad geográfica con la virtual, lo que permite el aprendizaje en el momento en que se necesita, en el lugar donde se encuentre el usuario y con la información precisa que se requiera.

El m-learning se desarrolla apoyado con características de los servicios móviles como los siguientes [1]: accesibilidad (tecnológicamente son pocas las limitaciones en el tiempo o en el espacio para utilizar los servicios y comunicarse), conveniencia (los servicios se utilizan dónde y cuándo se quiere), inmediatez (el acto se comunica en tiempo real), personalización (los servicios y los terminales son adaptables a las necesidades y gustos de los usuarios) y ubicuidad.

También se formulan las siguientes ventajas funcionales del m-learning [1]: Aprendizaje en todo tiempo y en cualquier lugar: No

se requiere estar en un lugar particular ni a una hora determinada para aprender. El dispositivo móvil puede ser usado en cualquier lugar, por lo que el aprendizaje se personaliza y adapta a los requerimientos y disponibilidades individuales de cada persona.

Los dispositivos móviles posibilitan la interacción en tiempo real entre estudiantes y profesor. Se facilita de forma automática la retroalimentación por parte del profesor.

Mayor cobertura: La telefonía móvil está al alcance

de la generalidad de la población. El dispositivo móvil es un accesorio cotidiano.

Mayor accesibilidad. La realidad tecnológica es que

los dispositivos móviles tengan conexiones a las redes y servicios de acceso a la Web.

Mayor portabilidad y funcionalidad: Los estudiantes

pueden escribir anotaciones directamente en el dispositivo, durante el mismo tiempo que recibe los objetos de aprendizaje y las comunicaciones con sus asesores. Además, puede grabar para luego acceder a las instrucciones.

Page 24: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

24

Aprendizaje colaborativo. La tecnología móvil favorece que los estudiantes puedan compartir el desarrollo de ciertas actividades con distintos compañeros, creando equipos, socializando, compartiendo respuestas, compartiendo propuestas.

Se facilita el aprendizaje exploratorio: En tiempo real, en la medida que se recibe información se puede estar explorando, experimentando y aplicando sobre contextos y campos de práctica.

El m-learning es una extensión del e-learning y por esto los análisis e investigaciones deben considerar no solo la capacidad tecnológica del dispositivo, sino que acuerdo al siguiente listado de posibles limitaciones, se deben considerar aspectos como:

Las intenciones pedagógicas deben tener un

alcance relacionado con las limitaciones de la multimedia interactiva en los dispositivos móviles.

Características como la usabilidad, la visibilidad y la navegabilidad deben acoplarse a las condiciones del tamaño reducido de los dispositivos.

La intensidad de la comunicación, el volumen de

los objetos, la extensión de los mensajes, deben considerarse teniendo en cuenta las limitaciones de los dispositivos.

Un aporte importante sobre la incidencia en la relación tecnología – pedagogía, se hace en [3]. Se concluye como los dispositivos móviles conllevan a cambios en los componentes de diseño y enseñanza de los ambientes virtuales. “ya que la incorporación de dispositivos de mobile learning “obliga” a pensar de forma diferente, a visualizar los contenidos, los materiales y las estrategias de distinto modo cuando se visualiza que el alumno estará interactuando en diversos espacios y escenarios”.

Además, se plantea en este mismo artículo que la comunicación entre los participantes en el ambiente de aprendizaje virtual con m-learning se incrementa, dada la convergencia de distintos canales y las características de mensajería instantánea que fácilmente allí se adopta. Se incrementa también la posibilidad del contacto bidireccional en forma sincrónica y de descargar los objetos de aprendizaje para reproducirlos posteriormente en cualquier lugar.

Un ejemplo de desarrollo en cuanto a la aplicación de las tecnologías de la educación y la comunicación – TIC – a las actividades formativas, son las experiencias en el Instituto Tecnológico de Monterrey, donde ha sido notable la evolución del aula de clase. Se ha pasado por la clase presencial, la incorporación de tecnología en las aulas, la educación satelital, la educación en línea aprovechando la Web, hasta llegar en el 2010 a las innovaciones con m-learning [4].

En el 2007 en el Instituto se crearon ambientes con recursos para dispositivos móviles como audio, videos, ejercicios interactivos y actividades colaborativas, utilizándose artefactos como PDA-phones, teléfonos celulares, e-Books o BlackBerry [4].

El proyecto EDUMÓVIL [5] fue financiado en 2007 y 2008 por la Fundación Motorola, está dirigido a la aplicación del m-learning, para facilitar el aprendizaje de niños de escuelas primarias de la ciudad de Huajuapan de León (México). El propósito ha sido cubrir temas que presenten dificultad en el aprendizaje, por medio de un conjunto de juegos desarrollados para ser ejecutados en dispositivos móviles. Para esto se creó un proceso de desarrollo de juegos denominado GDP (Game Development Process), propuesto por el Grupo de Investigación de Tecnologías Aplicadas a la Enseñanza -GITAE- de la Universidad Tecnológica de la Mixteca (UTM). Sobre este tema de los juegos en dispositivos móviles, existe un referente de la Facultad de Informática de la Universidad Complutense de Madrid. Allí el proyecto “Juegos Educativos en Dispositivos Móviles” se desarrolló dentro del concepto de ámbito del aprendizaje electrónico, combinando las ventajas de dos de sus categorías: el juego educativo y el aprendizaje móvil. Tal combinación hace posibles nuevas rutas y paradigmas en el diseño y creación de desarrollos como los videojuegos [6]. Este proyecto se desarrolló con base a dos plataformas: eAdventure y Android. El Software de e-Adventure está bajo licencia Open Source y se puede descargar de Internet, junto con manuales y tutoriales detallados.

Un prototipo WAP (Wireless Application Protocol-protocolo de aplicaciones inalámbricas) consistente en la implementación de un curso virtual inglés [7]. Para la construcción de este prototipo se desarrollaron modelos de casos de usos, y modelado de relaciones dominios, para un enfoque global de la solución. En el desarrollo se utilizaron herramientas de protocolos abiertos y software libre, como HTML y PHP. Algunas de sus funcionalidades son las siguientes: Despliegue de los contenidos académicos para

usuarios registrados. Registro de estudiantes o usuarios. Obtención de contenidos programados dentro del

portal WAP Evaluaciones en línea. Administración de la base de datos a través de la

Web. En la Universidad de Córdoba (España), se desarrolló un proyecto sobre incorporación de tecnologías m-learning a la docencia. El objetivo fue evaluar la utilización de distintos recursos de m-learning para la docencia de dicha institución. Concretamente se trabajó con PDAs (Personal Digital Assistant) y UMPCs (Ultra Mobile Personal Computer). Proyecto MOBIlearn [8] es una iniciativa cofinanciada por la Comisión Europea y la National Science

Page 25: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

25

Foundation de los Estados Unidos, con los objetivos de diseñar una arquitectura que permita integrar los dispositivos móviles en entornos virtuales de aprendizaje, desarrollar aplicaciones de tipo cooperativas para dispositivos móviles, definir modelos teóricos de enseñanza y diseñar modelos de formación y contenidos para entornos que integren tecnologías móviles. Otro proyecto que merece destacarse es ClayNet [9]. Es una plataforma de aprendizaje que se aplica tanto en procesos de apoyo a la educación presencial como en el aprendizaje en línea, con el agregado importante de poder ser adaptado y personalizado para cada estudiante. Su arquitectura se basa en servicios Web e integración de portlets (componentes modulares gestionadas y visualizadas en un portal web). El propósito fundamental es permitir el acceso de los usuarios desde un dispositivo móvil para el estudio e interacción con los recursos de aprendizaje. En otro proyecto donde se evidencia la aplicación del software libre, es Mobile Learning EOI, desarrollado y aplicado en la Escuela de Organización Industrial, en cuya estructura se integran Android, Google, Moodle [10]. Teniendo Android como sistema operativo, se explotan recursos poderosos de Google Apps para el trabajo colaborativo, como correo, chat, sites, docs, debates, calendarios, blogs, grupos, en conexión con una plataforma educativa de Moodle, con el agregado de poder ser gestionada desde un dispositivo móvil. Este proyecto se enmarca dentro del Plan 2020 EOI, donde un objetivo prioritario es la apuesta por el conocimiento abierto y la integración de tecnologías de software libre. En cuanto a su impacto y realización, dentro del proceso de formación de la EOI se ha dotado a más de 400 estudiantes de un dispositivo Smartphone, con sistema operativo Android (software libre) como parte de su programa formativo. Una aplicación de los móviles en la construcción de una didáctica, se observa en [11], se describe un interesante proyecto didáctico que utiliza tres itinerarios didácticos desarrolladas sobre la plataforma Moodle (Open Source software) y englobaron el uso de agendas electrónicas o PDA (HP IPAQ Pocket PC 3715) y dispositivos GPS (Garmin eTrex). En el primer itinerario el alumno, a través de la adopción de un rol de explorador para buscar un tesoro en un territorio desconocido, aprenda a orientarse geográficamente, a la vez que se familiariza con la utilización de los dispositivos móviles (PDA y GPS), Asimismo, en el segundo itinerario el alumno adopta el rol de arqueólogo y tendrá que sumergirse en la historia e influencia extranjera en esa región, también con dispositivos móviles y en el tercero, el alumno adopta el rol de artista y debe realizar una guía turística en la misma región.

La iniciativa K-Nect, es otra aplicación del aprendizaje móvil. En cinco escuelas de secundaria de Carolina del Norte (EE.UU) los estudiantes con dificultades para aprender matemáticas están utilizando el programa K-Nect, ellos reciben los problemas de álgebra en el dispositivo móvil (smartphones), suben las respuestas a un blog comunitario en la Web y comentan los resultados con los compañeros y su profesor. Además, la intención es fomentar el trabajo en equipo y aprovechar las herramientas de audio y video, es por esto que resuelven los problemas por grupos y graban sus explicaciones para que sus compañeros puedan observarlas en el blog, intercambiando los roles de quien enseña y quien escucha [5].

Como este existen proyectos pilotos financiados por compañías de nuevas tecnologías, como es el caso de K-Nect o Nokia, con el proyecto Text2teach en Filipinas. En Gran Bretaña está en marcha el proyecto MoLeNET, donde participan 115 colegios y 29 escuelas. “A través de diferentes iniciativas, el proyecto se basa en explorar las posibilidades de los soportes electrónicos móviles en general, tanto teléfonos como PDAs, reproductores de mp3 y mp4, videojuegos y netbooks, educando a los profesores en el potencial de estas herramientas con el fin de ampliar las habilidades del alumnado y generar más interés en el aprendizaje a través de actividades interactivas” [5].

3. ANÁLISIS DEL SISTEMA

PruebaL es un sistema para el diseño, aplicación y despliegue de pruebas de evaluación y resultados. El aplicativo consiste en un servicio Web y un modelo de cliente que accede a dicho servicio desde dispositivos móviles.

En el servicio Web se implementan los métodos necesarios para permitir y controlar la conexión y evaluación de los usuarios desde los móviles, así como el acceso a las notificaciones, adaptándolos a las características particulares del dispositivo utilizado. Desde el cliente móvil se ejecutan los métodos necesarios para el acceso al servicio web. Es de anotar que el sistema se probó en dispositivos celulares de discreta gama (Sony Ericsson W302), asequibles sin altos comerciales y en otros dispositivos modernos, específicamente (Black Berry Curve 9300). Con respecto a la validación de los resultados, el sistema se sometió a pruebas en tiempo real con usuarios de los dispositivos mencionados. Aun siendo un prototipo, de manera cualitativa se pudo verificar la buena apreciación e impacto que despertó en las experimentaciones. En general, dos aspectos fueron resaltados por los participantes en las pruebas: a) La utilidad del proyecto, ya que cubre la necesidad

de movilidad de las personas y está en coherencia con la cultura digital de los estudiantes jóvenes.

Page 26: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

26

b) Su potencial para ser incorporado en proyectos de educación virtual.

En las pruebas no se consideraron análisis cuantitativos ya que su naturaleza implicó técnicas de exploración bibliográfica y de aplicación de tecnologías para la Web móvil.

3.1. Descripción del sistema

La delimitación de PruebaL tiene las siguientes condiciones: 1) Existencia de un objeto de evaluación. A través del

dispositivo móvil el estudiante recibirá instrucciones sobre el material de estudio, la ubicación del material, la fecha y hora de aplicación de la prueba, las condiciones de aceptación y los mecanismos para la interacción.

2) Como el estudiante responderá de acuerdo con

unas opciones homologables a escala de Likert, las preguntas deben tener las siguientes orientaciones:

Enunciados para análisis de respuestas

argumentativas. Enunciados para análisis de respuestas

interpretativas. Enunciados para análisis de respuestas

propositivas.

3) Por las condiciones tecnológicas de los dispositivos móviles, en cuanto al reducido tamaño de las interfaces y la minimización de funciones incorporadas en los teclados, las preguntas deben formularse con texto condensado, con la intención de resumir al menor número de palabras. El texto debe escribirse para su rápida comprensión, evitándose proposiciones argumentativas extensas.

4) En un formulario para la Web, el profesor diseña la

estructura de la prueba, la cual consiste en la escritura de los enunciados de las preguntas, la escritura de las opciones de respuesta para la homologación con la escala de Likert y el tiempo de respuesta.

Las preguntas se plantean para que el estudiante responda de acuerdo con cinco opciones, cada una de las cuales tiene un peso distinto, que internamente será interpretado por el software para la clasificación siguiente:

Tabla No 1. Escalas y valores para el diseño de las

preguntas

Escala Valoración

A

La respuesta cumple de manera satisfactoria con el objeto de evaluación. Respuesta totalmente correcta.

B

La respuesta cumple de manera satisfactoria con el objeto de evaluación, pero agrega u omite características importantes.

Escala Valoración

Respuesta correcta pero con inconsistencias

C

La respuesta no es satisfactoria aunque cumple parcialmente con algunos atributos relevantes del objeto de evaluación. Respuesta que no es correcta ni incorrecta

D

La respuesta no es satisfactoria y no cumple con los atributos del objeto de evaluación, aunque alcanza a satisfacer algunos. Respuesta incorrecta pero con aciertos.

E

La respuesta no es satisfactoria y cumple atributos del objeto de evaluación, los omite, los contradice o no los comprende. Respuesta totalmente incorrecta.

5) Existen bases de datos de profesores, estudiantes, pruebas y preguntas, para gestionar el acceso, el diseño, la aplicación y la gestión del sistema.

6) El sistema tiene opciones para su aplicación grupal

o individual. Esto significa que las pruebas se pueden aplicar masivamente a grupos o individualmente a estudiantes seleccionados.

3.2. Formulario para creación de preguntas

La creación de preguntas se realiza en un formulario Web en función de los siguientes campos: número de la pregunta -NP-, peso de la pregunta -PP- (rango de 1 a 10), enunciado -E-, opciones de respuesta -OR-, valoración de cada opción -VO- (en el rango A, B, C, D, E).

La función del PP jerarquiza las preguntas, según lo decida el profesor. Varias preguntas pueden tener el mismo PP, pero ninguna de ellas puede quedar sin PP asignado. Como reglas de negocio, NP puede crecer hasta 20 y E puede tener hasta 40 palabras, por las condiciones tecnológicas y de usabilidad que implica m-learning Igualmente, la dimensión de las OR pueden ser hasta 30 palabras. La VO se hace de acuerdo con la tabla No 1. A cada opción se le asigna una de las valoraciones y no puede haber opciones con igual valor. Esto significa que en tiempo de creación de la pregunta se le están dando al software los parámetros para la respectiva evaluación. La opción correcta tienen una valoración de A y el resto de valores se asignan jerárquicamente, dependiendo de la coherencia con respecto al enunciado. Esto quiere decir que el Sistema PruebaL de manera cualitativa interpreta cada una de las posibles opciones y considera que dentro de las no acertadas hay unas más aproximadas que otras a la respuesta correcta.

El actor de esta plantilla es el profesor. Redacta los enunciados de pregunta, redacta las opciones y a cada

Page 27: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

27

opción le asigna una valoración en el rango de A hasta E. Al estudiante le llegan las preguntas y las opciones. El estudiante elige una de las cinco opciones e internamente el programa la califica de acuerdo con la valoración asignada en la plantilla. El profesor planea un número de preguntas superior al que recibirá el estudiante. Esto es, cada prueba tiene un banco de preguntas, de las cuales el programa escogerá aleatoriamente las que le llegarán al estudiante.

3.3. Funcionalidad del sistema

El sistema cumple con las siguientes funciones:

1) Aplicación de un servicio Web para programación

de la prueba, diseño de preguntas y notificación a los dispositivos móviles de los estudiantes sobre la prueba programada. Envío de pruebas a los dispositivos y registro de las respuestas de los estudiantes.

2) La evaluación es interactiva, lo que significa que las

preguntas no se despliegan en lista, sino que en la medida que el estudiante responde, se van mostrando en su dispositivo móvil.

3) En el dispositivo móvil del estudiante, se muestra el enunciado de la pregunta con un menú de cinco opciones de respuesta (cinco ítems). El estudiante elige uno de ellos y el software internamente lo homologa a la escala de Likert diseñada.

4) Las preguntas se emiten de acuerdo con un procedimiento aleatorio, en cuanto al orden de las opciones. Es decir, a estudiantes distintos les llega la misma prueba con preguntas distintas y con opciones de respuesta en orden diferente, en caso de preguntas iguales.

5) Terminada la totalidad de la evaluación, el software devuelve en el dispositivo móvil del estudiante y en su correo electrónico, los resultados de la prueba, comparando cada respuesta del estudiante con la respuesta acertada que almacenó el profesor.

6) El modelo de PruebaL permite que a los estudiantes le lleguen automáticamente a sus dispositivos móviles, los resultados con valoraciones cuantitativas y cualitativas de cada pregunta del examen.

7) En bases de datos con acceso a los profesores desde la Web, quedan registros de fecha, hora y resultados de las pruebas aplicadas.

8) El sistema queda reiniciado para una siguiente prueba. No es posible que a un estudiante le lleguen varias pruebas a la vez, sino que el

software envía la evaluación siguiente a un estudiante, solo cuando cerró la última presentada.

3.4. Expresión de los resultados Al estudiante le llega una valoración por cada pregunta. De acuerdo con el siguiente criterio se hace la evaluación, sabiendo que para cada pregunta el estudiante respondió A, B, C, D o E:

Tabla No 2. Relación de conceptos y valoraciones

Valoración Concepto emitido

A Respuesta totalmente correcta

B Respuesta correcta pero con inconsistencias

C Respuesta que no es correcta ni incorrecta

D Respuesta incorrecta pero con aciertos

E Respuesta totalmente incorrecta

El resultado general de la prueba se logra con la siguiente estructura: Cada valoración tiene asociado un número en la escala de 1 a 5. Esto permite hallar la media de la prueba, hecha la conversión es posible plantear procesos estadísticos para hallar el resultado de la prueba. Cada pregunta tiene un peso asociado, este parámetro se utilizará en la obtención estadística del resultado de la prueba.

Fig. 1. Escala de Likert

Luego el resultado final se puede expresar en los siguientes términos: a) Porcentaje de cumplimiento de logros: El resultado

se puede expresar porcentualmente.

b) Evaluación en un rango de 1 a 5.

c) Evaluación descriptiva de acuerdo con la siguiente

homologación:

Tabla No 3. Criterios para el resultado final de la prueba

Intervalo Concepto

1.0 Prueba reprobada

1.1 -2.5 Prueba reprobada con algunos aciertos

2.6 -3.5 Prueba en suspenso. NI aprobado, ni reprobada

3.6 -4.9 Prueba aprobada con algunos desaciertos

5.o Prueba aprobada

3.5. Análisis y diseño Los procesos de definición del sistema, análisis de requisitos, modelado de la solución y validación de requerimientos, se hicieron aplicando técnicas de UML.

Page 28: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

28

En las figuras 2, 3, 4 y 5, se muestra el modelado del sistema y los subsistemas.

Fig. 2: Sistema global y subsistemas de PruebaL

Fig. 3. Modelo global de PruebaL

El listado de requisitos que se logró estructurar en un modelo como parte del proceso de desarrollo de software, es el siguiente: R1: Diseño de pruebas R2: Creación de preguntas R3: Programación de pruebas R4: Edición de pruebas R5: Visualización de pruebas R6: Envío de pruebas R7: Confirmación de notificación de pruebas R8: Aplicación de pruebas R9: Gestión del administrador R10: Gestión del profesor R11: Gestión del estudiante R12: Gestión del grupo

Algunos de los diagramas UML implementados son los siguientes:

Fig. 4: Caso de uso de gestión de pruebas

Nombre del caso de uso: CU1 Servicio de pruebas Pre-condiciones: Cosas que deben ser verdad antes que el caso de uso pueda suceder. a. La plantilla debe estar habilitada para diseñar la

prueba

b. Estudiantes y profesores deben estar matriculados

antes de enviar notificaciones de pruebas y

preguntas de las pruebas.

c. La notificación de una prueba y la aceptación del

usuario, preceden a la aplicación de la prueba.

d. Los resultados de una prueba se envían al correo

electrónico del estudiante o a su móvil. El envío es

decisión del profesor u obedece a la solicitud de un

estudiante.

e. Una prueba se puede ver, editar o eliminar, solo si

el diseño está terminado.

f. Deben existir métodos para homologar los

resultados a escalas de Likert.

Post-condiciones: Cosas que deben ser verdad después de que el caso de uso se haya realizado.

a. Las pruebas aplicadas quedan grabadas como

plantillas llenas.

b. Los resultados de las pruebas deben quedar

grabados en formato de escalas de Likert.

c. Los estudiantes reciben notificaciones, pruebas y

resultados de las pruebas.

Objetivo: Gestionar los procesos del servicio Web de pruebas. Descripción: Las funcionalidades de la gestión y resultados de las pruebas, habilitan al profesor para el diseño, edición, aplicación y almacenamiento de las pruebas y los resultados.

PruebaL

Creación de

pruebas

Administración

del sistema

Aplicación de

pruebas

Diseño de prueba

Asignación de

preguntas

Programación de

prueba

Administradores

Grupos

Profesores

Estudiantes

Proceso de

respuestas

Procesos de

resultados

Pruebas

Page 29: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

29

Fig. 5: Caso de uso de gestión del cliente móvil

Nombre del caso de uso: CU2 Gestión del cliente móvil Pre-condiciones: Cosas que deben ser verdad antes que el caso de uso pueda suceder. a. Las pruebas fueron diseñadas en el servicio Web.

b. La primera pregunta llega al dispositivo móvil, solo

cuando el estudiante respondió a la notificación.

c. La siguiente pregunta llega solo cuando el

estudiante respondió a la anterior.

Post-condiciones: Cosas que deben ser verdad después de que el caso de uso se haya realizado. a. El estudiante respondió a las preguntas desde el

dispositivo móvil

b. El estudiante recibió los resultados de las pruebas

en formato de escalas de Likert.

Objetivo: Gestionar los procesos de aplicación de pruebas desde los dispositivos móviles de los estudiantes. Descripción: Las funcionalidades del cliente móvil habilitan al estudiante para responder a las pruebas y para recibir notificaciones y resultados.

3.6. Implementación La implementación de PruebaL requirió de los siguientes requisitos técnicos:

Un servidor Web para hospedar bases de datos de

prueba, estudiantes, dispositivos móviles y resultados.

Aplicativo Web con formularios para el diseño y gestión de las pruebas.

Interfaces de comunicación del aplicativo Web con los dispositivos móviles, para la aplicación de las pruebas.

Herramientas de J2ME y JDBC de la familia de Java, para tener acceso a las bases de datos desde los dispositivos móviles, para lograr que la prueba sea interactiva. Las bases de datos se gestionarán con MySQL y los formularios para el diseño y gestión de pruebas, se desarrollaran con PHP.

Tipos de dispositivos móviles:

PruebaL requiere de dispositivos móviles con tecnología WAP - Wireless Application Protocol -, protocolo para comunicaciones y aplicaciones inalámbricas. El estándar WAP soporta la mayoría de las redes inalámbricas, incluyendo CDPD, CDMA, GSM, PDC, PHS, TDMA, FLEX, ReFLEX, iDEN, TETRA, DECT, DataTAC y Mobitex y es soportado por todos los sistemas operativos.

Los WAP que utilizan pantallas de baja gama y tienen acceso a Internet utilizando micronavegadores con archivos de pequeño tamaño, adaptables a las restricciones de memorias pequeñas, bajo ancho de banda y limitaciones funcionales que tienen los dispositivos que utilizan este estándar.

Aunque WAP soporta HTML y XML, el lenguaje WML (una aplicación XML) proporciona especificaciones para pantallas pequeñas y con navegación táctil sin teclados físicos. El propósito es que a PruebaL se pueda acceder desde teléfonos celulares de uso común que tenga la capacidad de conexión a internet.

3.7. Pruebas del sistema El sistema se probó utilizando teléfonos celulares de tecnología SonyEricsson Modelo W302, con memoria de 15.9 Mbytes y BlackBerry Curve 3G 9300, con conexiones HSDPA y Wi-Fi para un rápido acceso a Internet. El plan de pruebas incluyo la matrícula de múltiples usuarios administradores, profesores y estudiantes. Se diseñaron, programaron, notificaron y enviaron exámenes de las materias bases de datos, algoritmos y economía básica. El servicio Web se alojó en un servidor libre x10Hosting, el cual ofrece a los usuarios una configuración a través de la herramienta cPanel 11. La aplicación se conectó con servicio de mensajería SMS a través de un Web Service administrado por una empresa privada (http://www.elibom.com).

4. CONCLUSIONES Las metodologías, técnicas y tecnología para el desarrollo de software, no tienen modificaciones relevantes cuando se crean soluciones para dispositivos móviles, independiente de los requerimientos funcionales que deben considerar factores de usabilidad, dadas las limitaciones por el tamaño reducido de los dispositivos y de restricciones para la navegabilidad. Además, con respecto a los requisitos no funcionales, debe considerarse aspectos relacionados con la privacidad de las redes inalámbricas, el ancho de banda, las especificaciones tecnológicas de los dispositivos y el costo de las comunicaciones. Con respecto al m-learning, las potencialidades de las redes inalámbricas, la proliferación de la tecnología móvil y la cultura digital de las personas, determinante para necesidades de acceso a las comunicaciones sin

Page 30: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

30

restricciones de localización o temporalidad, hacen viables propuestas para procesos de aprendizaje y evaluación a través de dispositivos móviles. Esto justifica emprender proyectos para el desarrollo de software dentro de los conceptos de Mobile Web y mensajería SMS. Una última conclusión está relacionada con la evaluación cualitativa. Esta es viable aplicarla en entornos digitales, si se diseñan patrones que permitan mapear las respuestas de los estudiantes con valoraciones predefinidas y graduadas con escalas como la de Likert. Dos recomendaciones quedan como resultado del proyecto presentado: el análisis de sistemas para dispositivos móviles debe considerar de manera muy completa los alcances de la tecnología móvil elegida, en cuanto a su accesibilidad, disponibilidad comercial y pertinencia; los proyectos de educación virtual y de aplicación de tecnologías de la información y la comunicación en educación presencial, tener presente alternativas para el m-learning, en consideración del impacto y penetración de las redes inalámbricas y los dispositivos móviles.

REFERENCIAS [1] Innovación en Servicios Empresariales Avanzados -

ISEA-, MOBILE LEARNING, Análisis prospectivo de las potencialidades asociadas al Mobiille Learniing. Madrid: Plan Avanza. 2009.

[2] I. Fernández, (sf). Construcción de una escala de

actitudes tipo Likert. Online [Enero. 2010].

[3] M. Ramírez. “Dispositivos móviles para ambientes virtuales: implicaciones en el diseño y la enseñanza,” Redalyc, Vol. 8, No 9, pp. 82-96, Diciembre 2008.

[4] A. M. García-Valcárcel, “Modelos y estrategias de

enseñanza”. Online [Junio. 2009]. [5] G. G. Castillo, C. A. Fernández & R. Ruíz. “Evolución del

Proceso de desarrollo de video juegos en la iniciativa académica EDUMOVIL”, in VII Jornadas Iberoamericanas de Ingeniería del Software e Ingeniería del Conocimiento. Universidad Tecnológica de la Mixteca. 2010.

[6] J. M. Cuevas, G. M. Pérez & A. Villoria. “Juegos

educativos en dispositivos móviles”. Madrid: Universidad Complutense de Madrid, Facultad de Informática. 2009.

[7] M. Díaz, J. Garrido & D. Heredia. “Prototipo de M-

learning”. Revista Investigación y Desarrollo en TIC, No 1, pp. 38-46. 2010.

[8] M. Sánchez & Y. Vicente (sf). M-learning: un nuevo

paradigma en teleeducación. Laboratorio de software de telecomunicaciones. Online [Noviembre. 2010].

[9] A. Velasco, J. Carabias, M. A. Conde & F. J. García.

“ClayNet: Adaptación de contenidos en m-learning”. Salamanca (España), Universidad de Salamanca. 2007.

[10] Escuela de Organización Industrial (sf). Plan EOI 2020.

Madrid: Autor. [11] J. M. Correa, A. Ibañez & E. Jiménez. “Lurquest:

Aplicación de tecnología m-learning al aprendizaje del patrimonio", Didáctica de las Ciencias Sociales, Vol. 50, pp. 109-123. 2006.

Page 31: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

31

EVALUATION OF GCC OPTIMIZATION PARAMETERS

Rodrigo D. Escobar The University of Texas at San Antonio

[email protected]

Alekya R. Angula The University of Texas at San Antonio

[email protected]

Mark Corsi The University of Texas at San Antonio

[email protected]

(Tipo de Artículo: Investigación. Recibido el 10/11/2012. Aprobado el 23/12/2012)

ABSTRACT Compile-time optimization of code can result in significant performance gains. The amount of these gains varies widely depending upon the code being optimized, the hardware being compiled for, the specific performance increase attempted (e.g. speed, throughput, memory utilization, etc.) and the used compiler. We used the latest version of the SPEC CPU 2006 benchmark suite to help gain an understanding of possible performance improvements using GCC (GNU Compiler Collection) options focusing mainly on speed gains made possible by tuning the compiler with the standard compiler optimization levels as well as a specific compiler option for the hardware processor. We compared the best standardized tuning options obtained for a core i7 processor, to the same relative options used on a Pentium4 to determine whether the GNU project has improved its performance tuning capabilities for specific hardware over time. Keywords Compiler optimization, Machine Learning, Compiler Heuristics, Programming Languages, Processors.

EVALUACIÓN DE PARÁMETROS DE OPTIMIZACIÓN GCC

RESUMEN La optimización en el tiempo de compilación del código puede resultar en ganancias de rendimiento significativas. La cantidad de dichas ganancias varía ampliamente dependiendo de código a ser optimizado, el hardware para el que se compila, el aumento que se pretende en el desempeño (e.g. velocidad, rendimiento, utilización de la memoria, etc.) y el compilador utilizado. Se ha utilizado la versión más reciente de la suite de benchmarks SPEC CPU 2006 para ayudar a adquirir la comprensión de las mejoras posibles en el desempeño utilizando las opciones GCC (GNU Compiler Collection) que se concentran principalmente en las ganancias de velocidad fueron posibles ajustando el compilador con los niveles de optimización del compilador estándar así como una opción de compilador específica para el procesador de hardware. Se compararon las opciones más estandarizadas de ajuste obtenidas para un procesador core i7, para las mismas opciones relativas utilizadas sobre un Pentium4 para determinar si el proyecto GNU ha mejorado sus capacidades de ajuste de desempeño para el hardware especifico en el tiempo.

Palabras clave Optimización de compilador, Aprendizaje automático, Heurística de compiladores, Lenguajes de programación, Procesadores.

ÉVALUATION DE PARAMÈTRES D’OPTIMISATION GCC Résumé L’optimisation du temps de compilation du code peut résulter dans profits significatifs de rendement. La quantité de tels profits change largement selon le code à être optimisé, le hardware pour lequel on compile, l’augmentation prétendue dans le rendement (e.g. vitesse, rendement, utilisation de la mémoire, etc.) et le compilateur utilisée. On a utilisé la version le plus récent de la suite de benchmark SPEC CPU 2006 pour aider à la compréhension des améliorations possibles sur le rendement en utilisant les options GCC (GNU Compiler Collection) qui se centrent essentiellement sur les profits de vitesse qu’ont été possibles en ajustant le compilateur avec les niveaux d’optimisation du compilateur standard, de même que une option de compilateur spécifique pour le processeur de hardware. On a comparé des options les plus standardisés d’ajustage obtenus pour un processeur core i7, pour les mêmes options relatives utilisés sur un Pentium4 pour déterminer si le projet GNU a amélioré ses capacités d’ajustage de rendement pour le hardware spécifique dans le temps. Mots-clés Optimisation de compilateur, Apprentissage automatique, heuristique pour compilateurs, langages de programmation, processeurs.

Page 32: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

32

1. INTRODUCCIÓN Compiling and optimizing software for a specific machine is more of an art than a science. Performance tuning is dependent upon so many factors that there is cutting edge work being performed on implementing machine learning as a methodology for determining the best compile time options [1] Due to this complexity, compilers - specifically the GNU Compiler Collection (GCC) have developed standardized compile time optimization switches (6 levels) along with many other flags which allow the user to control a lot of characteristics of the code produced by the compiler [2], [3], [4]. Among all these compiling options, GCC also have standardized compile time options for specific processor classes (e.g. Intel i7 core, Pentium 4, and others), which can be set using the mtune parameter. Besides, the Standard Performance Evaluation Corporation (SPEC) has developed a well-known and widely used suite of integer and floating point CPU-intensive benchmarks for the purpose of testing and comparing hardware platforms [5]. The last version was released in 2006 and it is called SPEC CPU2006. SPEC CPU2006 consists of 12 integer and 7 floating point compute-intensive workloads called CINT2006 and CFP2006 respectively, which are provided as source code and may be compiled with different options. Thus, they can be used as a test bed to compare the performance of different computer architectures, as well as the efficacy of different compiler optimization options [2]. The CINT2006 suite measures the compute-intensive integer performance, while the CFP2006 suite measures the compute-intensive floating point performance [6]. GCC is arguably the most utilized, publicly available compiler in use today. It is provided as the default compiler on most Linux systems and it is a highly developed library which has been in production since the 80’s [7]. Because it has been in production for such a long time, we could use it in combination with the SPEC CPU2006 Benchmark Suites and two vastly different hardware platforms to determine whether the de facto standard compiler had improved its performance-based tuning for specific hardware over the last decade. The remainder of this paper is organized as follows: The next section includes the motivation. Section 3 presents a brief introduction to compilers and compiler optimizations. Section 4 describes the experimental setup and methodology. Our approach, results, and additional statistics of the optimizations are discussed in Section 5. Section 6 discusses future work, and finally Section 7 concludes.

1. MOTIVATION A large variety of programs are executed every day on different processors available in the market. Most of these programs have been subject to a compilation process before their execution. Compilation processes are complex and involve lot of areas of computer science. In this paper, we aim to assess the

performance of the GCC compiler when its different optimization parameters are set. Each optimization level includes over twenty optimizations options. Therefore, a detailed analysis of how each optimization technique affects the results is out of the scope of this paper. Instead, we try to get a general idea about how the GCC compiler has improved its capabilities to apply optimization techniques to specific processors. Compilers’ configuration parameters that have been designed to generate optimized code for a particular hardware, such as the mtune parameter provided in the GCC compiler, are of particular interest. The motivation behind it is to see whether or not compilers are getting better over time at optimizing for specific architectures. Although machine learning may one day become the best way of optimizing the installation or compilation of software [1], it currently does not appear to be a solution that is ready for prime time production use. In the mean time, compilers will need to become even more efficient at utilizing the underlying system architecture through self-optimization. In this paper we examine options, also called switches, that are already present in GCC and that could easily be automated to be 'turned on' at compile time after examining the hardware it is running on. Moreover, we discuss whether work has been ongoing over the last decade into making optimizations for specific hardware stronger.

2. COMPILERS’ OPTIMIZATION TECHNIQUES Compilers are basically computer programs that translate a program written in a specific language to a program written in another language [8]. The source program is usually a program that has been written in a high level programming language, whereas the result of the translation procedure is usually a program ready to be executed by a processor (i.e. machine language code). A compiler must stick to two fundamental principles: A compiler must preserve the meaning of the

source program. A compiler must improve the source program. Preserving the meaning of the source program means that every time the translated program is executed, it produces exactly the same output that the source program would produce when supplied with the same input data. On the other hand, improvement of the source program can refer to several different characteristics of the resulting code, such as portability, size, energy consumption, or time of execution, among others. The structure of a compiler is usually divided into three sections or phases, namely: Frontend, optimizer and backend. A three phase compiler structure is presented in Figure 1. Each phase usually includes several sub-phases.

2.1. Frontend The goal of the frontend phase of a compiler is to transform the source code into some sort of

Page 33: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

33

intermediate representation (IR). An intermediate representation is a machine independent representation of the source program. The frontend phase is considered to be composed of the following phases: Lexical analysis: The text of the source program

is divided in words or tokens and every word is categorized as a generic symbol in the programming language, e.g. a variable name, an identifier, a type of variable, etc.

Syntax analysis: This phase takes the list of tokens produced in the lexical analysis pass and arranges them in a structure called parse tree that reflects the structure of the program.

Type checking: This phase analyzes whether the program violates certain requirements such as declaring a variable more than once, assigning a boolean value to a string variable, etc.

Intermediate representation generation: The main goal of this phase is to create a machine independent representation of the program. It can take different forms, such as a tree, a graph, or code.

2.2. Optimization The intermediate representation of a program is transformed to produce an optimized version of it. Usually, each optimization technique is applied independently, which means that the intermediate representation of the program may be passed several times through the optimizer. Compilers which determine

how to transform the code to run faster or consume fewer resources are known as optimized compilers. The goal of optimized compilers is to perform one or more safe and profitable transformations on the intermediate representation, preserving the results and the meaning of the program [9], [6]. Current advanced processors are dependent on the compilers to design the object code for the optimal performance. The GCC compiler consists of an intermediate language which is transformed by an independent representation of the program [9].

2.3. Backend The goal of the backend phase is to take the intermediate representation of a program and produce machine code. This section is composed of the following phases: Register allocation: In this pass, symbolic

variable names used in the intermediate code are assigned a register in the target machine code.

Machine code generation: This is the phase that actually produces assembly code for a specific machine architecture.

Assembly and linking: The assembly-language code generated in the previous pass is translated into a binary representation. Also, addresses of variables, functions, etc., are determined.

Frontend Optimizer Backend

Targetprogram

Sourceprogram

Compiler

IR IR

Fig. 1. Compiler structure

It is important to clarify that, although the term optimization implies that an optimal solution is found for a particular problem, compilers in practice face problems that cannot be solved optimally. Therefore, compilers aim to improve the source code in a safe and profitable way [8]. For a compiler to apply any optimization technique to a program, it must do the following three things [10]: Decide what section of a program to optimize and

the particular transformation to apply. Verify that the transformation will preserve the

semantics of the source program. Transform the program

Compiler optimization techniques can be machine dependent or machine independent. Machine dependent optimizations depend on the specific hardware in which the translated program is intended to be executed. On the other hand, machine independent optimizations do not depend on a particular computing system or a type of implementation [11].

3. EXPERIMENTAL SETUP For our experiments we used two machines, namely Machines A and C which are described in Table 1. In order to perform comparisons, we compiled and ran the SPEC CPU2006 benchmarks in machine A –the machine with the most modern hardware, using GCC’s generic optimization levels O0, O1, O2 and O3 [12]. GCC’s optimization levels include different optimization techniques that are performed during compilation time. Table 2 presents the set of options applied for each GCC’s optimization level [13]. For each one of the optimization levels we computed the geometric mean among all the workload speedups and, according to it, we identified the best optimization level. Unsurprisingly, as shown in table 3, the best results were obtained from the standardized optimization level O3. Later, we appended to the best optimization level found (i.e. O3), the mtune compiler parameter which tries to optimize the code produced by GCC for a specific processor (i.e. with the mtune parameter, GCC tries to perform machine dependent optimizations) [14]. Therefore, for Machine A we

Page 34: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

34

appended the parameter mtune=corei7 to the SPEC’s Optimize configuration flags, and then we executed the resulting binary files. From now on, we identify these binary files as the mtuned binary files or mtuned programs and correspond to programs resulting from a compilation process that uses the optimization parameters O3 and mtune according to each target machine (i.e. mtune=i7 for Machine A and mtune=Pentium4 for Machine C). Although the use of the mtune configuration parameter when compiling any source code doesn’t decrease the portability of the programs, it aims to increase the performance of the program execution when it is run in the processor specified with the mtune parameter [14]. Consequently, since we are running the mtuned binary files in machines with the same processors that were established for the mtune parameter, we expected to achieve a more significant improvement for our mtuned programs than the improvement we found in the

previous execution of the benchmarks with only the O0, O1, O2 and O3 optimization levels. Since Machine A’s processor is clearly much more modern and powerful than Machine C’s processor, comparing the results obtained when compiling using an optimization level in Machine A directly against the results obtained when compiling using the same optimization level in Machine C does not make sense. Instead, our purpose is to compare the relative differences between compiling in Machine A against the difference obtained when compiling in Machine C. Thus, once we ran the mtuned benchmarks in Machine A, we compiled and ran the benchmarks in Machine C using the O0 optimization level and later using the best compilation level found for Machine A (i.e. level O3) with the mtune parameter set to match the specific processor of Machine C (i.e. Pentium 4).

Table 1. Systems’ specifications

Machine A Machine C

CPU Name Intel core i7 – 2630QM Intel P4

CPU MHz 2000 2400

FPU Floating point unit Integrated

CPUs enabled 4 cores, 1 chip, 4 cores/chip, 8 threads/core

1 core, 1 chip, 1 core/chip

Primary cache 32 KB I + 32 KB D on chip per core

64 KB I + 64 KB D on chip per chip

Secondary cache 256 KB I+D on chip per core 512 KB I+D on chip per chip

Level 3 cache 8 MB I+D on chip per chip None

Other cache None None

Memory 4 GB 4 GB

Disk subsystem SATA IDE

Operating system Linux (Ubuntu 11.10) Linux (CentOS 5)

Compiler GCC 4.6.1 (gcc, g++, gfortran) GCC 4.6.1 (gcc, g++, gfortran)

The results are presented in Table 4. After running the benchmarks in both machines, we compared the differences between the obtained O0 and mtuned (i.e. O3 + mtune) results of each machine separately. We expected the differences to be smaller for Machine C,

than for machine A, and consequently show that GCC has become a better architecture specific optimizer over the last decade.

Table 2. GCC’s optimization options

GCC’S OPTIMIZATION

LEVEL INCLUDED OPTIMIZATION TECHNIQUES

O0 No options enabled.

O1

Combination of increments or decrements of addresses with memory accesses, reduction of scheduling dependencies, dead code elimination, avoidance of popping the arguments to each function call as soon as that function returns, reordering of instructions to exploit instruction slots available after delayed branch instructions, dead store elimination, guess branch probabilities, transformation of conditional jumps into branch-less equivalents, discovery of functions that are pure or constant, perform interprocedural profile propagation, merge identical constants, loop header copying on trees, constant/copy propagation, redundancy elimination, range propagation, expression simplification, hoisting of loads from conditional pointers on trees, scalar replacement of aggregates and temporary expression replacement during SSA.

O2

All the options of O1, and also performs: contained branch redirections, alignment of the start of functions, alignment of branch targets, alignment of loops, alignment of labels, cross-jumping transformation, common subexpression elimination, convert calls to virtual functions to direct calls, function inlining, interprocedural scalar replacement of aggregates, removal of unused parameters, replacement of parameters passed by reference by parameters passed by value, enable peephole optimizations, reassignment of register numbers in move instructions and as operands of other simple, reordering of basic blocks in the compiled function in order to reduce number of taken branches and improve code locality, reordering of functions in the object file in

Page 35: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

35

GCC’S OPTIMIZATION

LEVEL INCLUDED OPTIMIZATION TECHNIQUES

order to improve code locality, schedule instructions across basic blocks, allow speculative motion of non-load instructions, reordering of instructions to eliminate execution stalls and conversion of simple initializations in a switch to initializations from a scalar array, value range propagation.

O3 All the options of O2 and also performs: movement of branches with loop invariant conditions out of the loop, predictive commoning optimization, loop vectorization on trees and function cloning to make interprocedural constant propagation stronger.

4. RESULTS In order to keep the variables to a minimum for meaningful comparison, we focused only on the Integer suite of the SPEC CPU2006 bechmarks. Our initial assumption was that GCC would become stronger at optimizing for later model processors using the mtune parameter, accepting as a given that during ten years of development (the amount of time lapse from the oldest P4 processor to the newest i7 quad core production) tuning skills would have been improved. Our assumptions were predominantly wrong with several exceptions. But the exceptions alone proved to be interesting to our initial assumptions. In computer architecture terminology, the term Speedup is defined as [15]:

Most of the tests performed within a narrow range of median performance speedup. In other words, when we normalized each tests performance with the oldest processor’s baseline we found that the later model processor showed a fairly consistent speedup across the board without varying greatly from the base normalized mean. Tuning increased the performance nearly across the board within a discrete range. Tables 3 and 4, show the obtained results for machines A and C respectively. Shown ratios are compared to the

SPEC’s 2006 benchmarks reference machine. For simplicity, only the geometric mean values after executing all the different benchmarks are presented. However, more detailed data are presented in Figures 2 and 3, which show the obtained results for machines C and A respectively. Shown ratios are compared to machine C. Data corresponding to machine C are presented first, because Machine A speedup ratios shown in Figure 3 are relative to Machine C’s O0 results. Unfortunately for our assumptions, the mtune optimization coupled with the best performance optimization (O3) on average produced a very small performance increase when compared to generic O3 optimization by itself. We had initially theorized that this gap, the gap between performance of the best generic optimization (O3) and the best generic optimization combined with specific processor optimization (mtune), would widen on the later model processors. With one major exception, this did not occur. Consequently, it seems from the results we obtained, that GCC’s developments are not very focused on per processor tuning and consequently, in general, users should not expect a significant improvement by configuring GCC to produce optimized code for a specific hardware. Furthermore, sometimes such code may be less efficient than a code that has been compiled for generic hardware.

Table 3. Optimization on Core I7 using SPEC CPU 2006 Benchmarks

Core i7

O0 O3 O3 -

mtune=corei7

Seconds

Ratio Second

s Ratio Seconds Ratio

Geometric Mean

892.73 11.3

3 436.97

23.13

428.57 23.57

Table 4. Optimization on Pentium 4 using SPEC CPU 2006 Benchmarks

Pentium 4

O0 O3 O3 –mtune =

pentium4

Seconds Rati

o Second

s Rati

o Second

s Ratio

Geometric Mean

2912.71 3.48 1858.88 5.44 1976.18 5.12

Detailed examination of the instrumentation readout provided insights into the most prevalent phenomena (i.e. the overall increase in processor throughput over

the last ten years). Although this is of course, highly predictable; what was surprising is the most predominant reason for it as shown by detailed

Page 36: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

36

instrumentation readout. The processors have similar overall clock speeds. In fact, the Machine A’s processor has a slightly slower clock speed than Machine C. However predictably, the later processors have multiple cores, larger caches and faster IO (bus speed and hard drive technology). Surprisingly, the most dominant factor in overall speed gains appears to be major page faults.

Fig. 2. Normalized Ratios and Runtime on Pentium4

using SPEC CPU 2006 Benchmarks

Fig. 3. Normalized Ratios and Runtime on Core I7 using

SPEC CPU 2006 Benchmarks

There are two types of page faults: minor and major. From figures 4 and 5, it is clear that minor page faults increase with the later processors and major page faults decrease. Exploring this phenomenon a little further, we can determine this makes sense. The oldest processor is a single core processor with a single L2 Translation Look-aside Buffer (TLB). Minor page faults

will only occur on this machine when another process makes use of a particular page referenced in this table. However on the multicore machines - which currently do not have a shared last level TLB minor page faults can occur whenever a thread is spawned from the same process on a different core. Hence, the more cores not sharing the TLB, the more minor page faults. However, this is inconsequential as an overall indicator of speed since the virtual pages are still in memory; they are simply not marked in the memory management unit as loaded. This 'soft page' fault is easily fixed and does not create a large performance hit.

Fig. 4. Comparing minor Page faults between both

machines From Figure 4 we can see that the minor page faults are more for Machine A when compared to Machine C. O3-mtune has less number of minor faults when compared to the -O3 optimization. Nevertheless, Figure 5 shows that major faults are less for Machine A than for Machine C. It can also be noticed that after tuning, the major page faults are reduced in Machine C. In both processors the tuning helps in reducing the number of page faults. Statistics related to major page faults are presented in Figure 5. Looking at the normalized numbers, we can see that decreased major page faults are easily attributable as a large part of the later systems' overall performance increase. It can be argued that this one statistic alone is responsible for between 46 - 91 percent of the overall system performance gains. We say, 'it can be argued' because even though these numbers are normalized, we do not have exact indicators as to the performance cost of a page fault vs the performance cost of another slow down e.g. cache misses. However, we do know that page faults are probably the single biggest performance slow down in a system due to the IO time required to retrieve a page from disk. Bearing in mind the foundations presented in the previously exposed points, we now focus on analyzing

Page 37: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

37

the results presented in Figure 3. Figure 3 presents the speedup ratios relative to those of Machine C, which were present in Figure 2. The interesting tests were: 403.gcc, 462.libquantum, 473.astar, 429.mcf. These 4 out of 12 benchmarks displayed anomalies outside the normal range of speedups shown by the majority. The fourth one displays an across the board speedup nearly double that of the normal range. And more interesting still, are the other three which we believe indicate a fundamental difference in the way GCC tunes for later processors.

Fig. 5. Comparing major Page faults between both

machines First, we will discuss the fourth test, which does not indicate a better tuning strategy on the part of GCC developers, but does show the largest across the board performance increase (over 6x speedup for Machine A when compared to Machine C; these speedups occurred on all three SPEC INT tuning tests –O0 baseline, -O3 and –O3 tuned for the processor). The test was the 429.mcf test which revolves around combinatorial analysis. The nature of the test, predictable branching and a high level of locality – both spatial and temporal, allows it to maximize the greatest improvements of the newer processor. This is also shown in Figure 6, the test has less basic blocks and a much higher percentage of them are accessed over 1000x when compared to the other tests indicating that

stronger caching mechanisms will produce much better results. The other three tests that exhibit anomalies are of greater interest. The first, 403.GCC shows a huge normalized improvement with the O3 optimization, but a marked decrease in performance when using the O3 tuning coupled with the specific processor tuning. Figure 7 shows basic blocks counting for this benchmark. Although we were unable to determine a reason for the decreased performance for mtuned later processors, the huge increase in the O3 performance appears to be at least partially due to loop unrolling (note the decrease in all block numbers for O3 tuning in Figure 7). The second, 462.libquantum which simulates a quantum computer, also shows a relatively huge O3 optimization gain on the newer processors, but this time the specific processor tuning is more in line with the rest of the tests which means it is either about the same as the O3 alone, or slightly better. However, in this test, loop unrolling does not appear to be as much of a factor. We mention the anomaly simply because it is apparent in the raw data, but were unable to draw any firm conclusions based upon the data at hand. And finally, the third test and by far the most interesting for our initial hypothesis, is the 473.astar test which revolves around path-finding algorithms. This was the only one test where our hypothesis proved correct as shown in Figure 3. Specific processor tuning (mtune) for GCC showed big performance increases relative to baseline and O3 testing for the dual core processor and huge increases for the i7. Path finding algorithms revolve around recursive coding which is highly thread-able. Each of the later processors has an increasing amount of hardware threads when compared to Machine C. The basic blocks for this test are not modified greatly during the O3 optimization stage so loop unrolling does not produce a sizable performance gain, however the mtune tests show slight gains in the dual core which is capable of spawning 4 simultaneous hardware threads and huge gains when placed on the highly threaded quad core processor.

Page 38: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

38

Fig. 6. Basic blocks using 429.mcf Benchmark

Fig. 7. Basic blocks using 403.GCC Benchmark

5. FUTURE WORK In order to firm up our conclusion, the benchmarks should be run against later model computers containing processors with different hardware threading capabilities, ideally two (one of each) with 16 hardware threads, two with 8 hardware threads and two with 4 threads. The number of cores and cache sizes should remain the same for each pair in order to eliminate other possible variables. The tests should then be normalized to the original P4 (2 thread) processor run. If our conclusions are correct, we should see normal improvements in O3 level optimization, but ever increasing improvements in the mtune optimization speed.

6. CONCLUSIONS It appears GCC developers have done very little optimization development for specific processors. We believe this is due to the large number of possible processors in the market and the fact that tuning for each individual processor would be an arduous process

at best. Further testing on an array of the latest, highly threaded processors would be necessary to concretely declare this as a truth.

REFERENCIAS

[1] M. Stephenson, S. Amarasinghe, M. Martin and U.-M. O'Reilly, "Meta optimization: improving compiler heuristics with machine learning," in PLDI '03 Proceedings of the ACM SIGPLAN 2003 conference on Programming language design and implementation, New York, 2003.

[2] Standard Performance Evaluation Corporation, "SPEC's Benchmarks and Published Results". Online [September. 2011].

[3] Standard Performance Evaluation Corporation, "SPEC CPU2006 Benchmark Descriptions". Online [September. 2011].

[4] K. Hoste and L. Eeckhout, "Cole: compiler optimization level exploration" in CGO '08 Proceedings of the 6th annual IEEE/ACM international symposium on Code generation and optimization, 2008.

Page 39: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

39

[5] Standard Performance Evaluation Corporation, "SPEC CPU2006" Online [September. 2011].

[6] Wind River Systems, "Advanced compiler optimization techniques" April 2002. Online [December. 2012].

[7] D. Edelsohn, W. Gellerich, M. Hagog, D. Naishlos, M. Namolaru, E. Pasch, H. Penner, U. Weigand and A. Zaks, "Contributions to the GNU Compiler Collection" IBM Systems Journal, vol. 44, no. 2, p. 2005, 259-278.

[8] L. Torczon and K. Cooper, Engineering a Compiler, San Francisco, CA: Morgan Kaufmann Publishers Inc., 2007.

[9] W. v. Hagen, The Definitive Guide to GCC, Second Edition ed., Berkeley, CA: Apress, 2006.

[10] D. F. Bacon, S. L. Graham and O. J. Sharp, "Compiler transformations for high-performance computing" ACM Computing Surveys (CSUR), vol. 26, no. 4, pp. 345-420, 1994.

[11] P. B. Schneck, "A survey of compiler optimization techniques" in ACM '73 Proceedings of the ACM annual conference, 1973.

[12] T. Jones, "Optimization in GCC" January 2005. Online [December. 2012].

[13] The GNU Compiler Collection Team, "Options That Control Optimization" Online [October. 2011].

[14] The GNU Compiler Collection Team, "i386 and x86-64 Options – Using the GNU Compiler Collection" Online [October. 2011].

[15] J. L. Hennessy and D. A. Patterson, Computer Architecture: A Quantitative Approach 4 Ed, San Francisco, CA: Morgan Kaufmann Publishers Inc., 2006.

Page 40: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

40

RETIRO Y AUTOGESTIÓN DEL USUARIO EN ALMACENES

DE CADENA CON DIRECTORIO ACTIVO

Juan F. Hincapié Z. Rodolfo A. Marín G. Jerry A. Murillo C. Universidad de San Buenaventura COTRAFA Universidad de San Buenaventura

[email protected] [email protected] [email protected]

(Tipo de Artículo: Reflexión. Recibido el 25/11/2012. Aprobado el 27/12/2012)

RESUMEN Los almacenes de cadena son organizaciones en donde el personal es numeroso, diverso, de alta rotación y alto retiro; además la gran variedad de negocios que tienen tales organizaciones, hacen que posean muchas aplicaciones a las cuales muchos usuarios deben ingresar y en la mayoría de veces éste acceso se vuelve administrativamente costoso. Por tanto se hace necesario el establecimiento de un procedimiento informático (administración de usuarios) que permita al propio usuario gestionar sus contraseñas y que además le permita a la organización controlar la desactivación automática de los accesos al momento del retiro (terminación de contrato) del usuario. Para lograr esto existen variedad de herramientas en el mercado que satisfacen dicha necesidad, pero su implementación y soporte es demasiado costoso; por eso este artículo pretende mostrar algunos conceptos importantes y la manera en que otras herramientas y metodologías pueden realizar un adecuado proceso de autogestión y retiro del usuario en los almacenes de cadena a un menor costo.

Palabras clave

Almacenes de cadena, autogestión, contraseñas, desactivación automática, directorio activo, dominio, empleados, interconexión, LDAP, proceso, script, retiro de usuario, soporte, servicio web.

DISENGAGEMENT AND SELF-MANAGEMENT OF USERS IN RETAILERS HAVING ACTIVE DIRECTORY

ABSTRACT Retailers are companies where the staff is large and diverse; there is high turnover and high disengagement. Because of their wide variety of businesses, these companies have many applications which are accessed by many users representing most of the times high costs administratively. Therefore it is necessary establishing a data-processing (user management) that allows to the user managing his passwords and that also allow to the company to take control of the automatic turn-off of the access when user disengages (contract termination). To achieve this there are variety of tools on the market that meet this need, but their implementation and support are too expensive; for this reason this article tries to show some important concepts and the way other tools and methodologies can perform adequate self-management process and user disengagement in retailers at a lower cost. Keywords Retailers, active directory, automatic disabling, domain, employees, interconnection, LDAP, organizational unit, password, process, user disengagement, script, Self-Management, support, web services.

DESENGAGEMENT ET AUTOGESTION DES USAGERS DANS HYPERMARCHES QU’UTILISENT REPERTOIRE ACTIF

Résumé Les hypermarchés sont des entreprises avec beaucoup de personnel, qui est divers, de haute rotation et haute désengagement ; à cause de la grande variété de ses affaires, ces entreprises ont beaucoup de logiciels sur lesquels les usagers doivent se connecter et la plupart du temps cet accès devient couteux d’après le point de vue administratif. Par conséquent il est nécessaire d’établir une procède informatique (administration des usagers) qui permette au même usager de gérer ses mots de passe et que permettre a l’entreprise de contrôler le désamorçage automatique des accès dans le moment du désengagement (terminaison du contrat) d’usager. Pour réussir ca il y a variété d’outils sur la marché qui satisfont ces besoins, mais son implémentation et support sont très coûteux, c’est pour ca qui dans cet article nous prétendons de montrer quelques concepts importants et la manière dans lequel des autres outils et méthodologies peuvent réaliser un processus approprié d’autogestion et désengagement des usagers dans les hypermarchés à un coût plus bas. Mots-clés Hypermarchés, autogestion, mots de passe, désamorçage automatique, répertoire actif, domaine web, employés, interconnexion, protocole léger d’accès à un répertoire (LDAP), processus, script, désengagement d’usager, support, service de la toile.

Page 41: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

41

1. INTRODUCCIÓN Cada vez los Sistemas de Información (SI) como bases de datos, sitios Web, servidores de almacenamiento y servidores de archivos, son necesarios y por tanto, en las empresas se debe procurar no olvidar el control que debe tener la administración sobre las actividades realizadas por los diferentes usuarios de los SI. Ahora bien, el constante cambio y rotación de los empleados de los almacenes de cadena invita a la administración para que esté muy atenta a las funcionalidades y controles que deben tener sus colaboradores. En los almacenes, el perfil de los usuarios es variable y el soporte es altamente demandante siendo necesaria la implementación de herramientas que permitan un manejo adecuado de los usuarios de los aplicativos. Sin importar la actividad económica, cada organización realiza el ingreso de sus empleados nuevos a los SI, pero un gran porcentaje de estas pasa por alto retirar los usuarios de los empleados que dejan de laborar, colocando en riesgo a la organización, dado que otro empleado puede utilizar dichos accesos y cometer diferentes fraudes o llevar a la indisponibilidad de los SI. Otra problemática del día a día es la variedad de SI, que lleva a los almacenes de cadena a incurrir en altos costos en la administración de los usuarios; por ejemplo, la probabilidad de que los usuarios olviden sus contraseñas y bloqueen sus cuentas es bastante alta, y en consecuencia los costos en el tema de soporte se convierten en un asunto álgido y de difícil control que puede afectar la continuidad de los servicios en los diferentes puntos de atención. Al Observar el panorama del flujo de usuarios en los almacenes de cadena, surgen dos preguntas: ¿cómo controlar que los usuarios que salen de la empresa sean desactivados automáticamente de los sistemas de información?, ¿cómo permitir a los usuarios que puedan ellos mismos cambiar sus contraseñas y desbloquear su usuario de una manera segura?, máxime si se tiene en cuenta que la fortaleza empleada en la contraseña y la cantidad de las mismas han hecho que los usuarios se decidan por crear contraseñas sencillas o que las escriban en pequeños recortes cerca al computador e incluso algunos deciden crear archivos maestros de contraseñas [1]. La respuesta a dichas preguntas podría resumirse, en la implementación de un sistema (con el proceso y procedimiento respectivo) que permita realizar un control de todas las personas que se retiran de la organización, así mismo, dicho sistema debe permitir mediante políticas de seguridad una conexión interactiva entre el usuario y sistemas centralizados de autenticación de manera que se puedan minimizar los riesgos de

suplantación de identidades y manipulación indebida de información; ahora bien, conocidas las respuestas a la problemática de control de usuarios activos y la autogestión de las contraseñas y cuentas de usuario, surgen otros interrogantes ¿qué empresas cuentan con la implementación de estos sistemas de información?, ¿cuentan las empresas con la infraestructura necesaria para la implementación de estos sistemas?, ¿qué costo genera dicha implementación?, entre otra cantidad de situaciones. Con todo el contexto se puede afirmar que existen diferentes empresas en el mercado que manejan dichas soluciones y que son llamadas comúnmente (Identity Management), entre las cuales se encuentran multinacionales de amplio reconocimiento como IBM, Oracle, Novell, Computer Associates. Cada una de ellas brinda la posibilidad de manejar las identidades de una manera muy completa, pero que implica para las organizaciones tener que incurrir en altos costos de implementación y soporte. Pero, ¿toda esa costosa tecnología es capaz por sí sola de realizar las actividades que permitan minimizar el riesgo que tienen los Almacenes de Cadena debido a la alta rotación de los usuarios?

2. SISTEMAS DE GESTIÓN DE IDENTIDAD Un sistema de gestión de identidades (idM por sus siglas en inglés – identity management) se refiere a cómo las personas o empleados se identifican, autorizan y administran en una o varias redes informáticas; incluye la manera en que a los usuarios se les genera una identidad, la protección de la misma, la tecnología de soporte a dicha protección y la interacción con distintos sistemas [2]. Es un compendio de procesos de negocio, de infraestructura tecnológica y políticas que permite a los sistemas conectados determinar quién tiene acceso, a que componentes está autorizado, al tiempo que protege la privacidad y el acceso de la información confidencial [3]. Su implementación requiere de cuatro factores principales, la definición de roles, la propagación de las cuentas de usuarios, inicialización del sistema y la integración con sistemas de “Single SignOn” [2]. Pero tal y como se menciona anteriormente la posible implementación de un sistema IdM requiere de inversión alta en implementación y soporte [4]. Los grandes almacenes de cadena pueden llegar a tener entre 30.000 y más usuarios distribuidos en distintas aplicaciones y algunas cadenas de almacenes de corte mediano pueden llegar a tener incluso 8000.

Page 42: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

42

En el siguiente cuadro se observa el valor que tiene la implementación de un sistema de manejo de identidades de las casas fabricantes Novell y Oracle, donde se incluye todo el proceso de soporte, implementación, actualización y licenciamiento.

Consideraciones: los valores son proyectados a 5 años y los valores son en dólares [4]. Massive= 40 mil usuarios. Largue= 8 mil usuarios.

Tabla 1. Costos Sistema de Gestión de Identidades Novell y Oracle [4]

Se puede observar que el costo en 5 años para los grandes almacenes de cadena puede oscilar entre

1´700.000 USD y 2´350.000 USD. Si se considera que los márgenes de rentabilidad del retail (Almacenes de cadena) son relativamente bajos [5] comparados (2,2% en promedio) con otros sectores, como por ejemplo, el de la telefonía celular en donde la principal empresa obtuvo un margen aproximado del 26% en el año 2011 [6]; se encuentra entonces que

incurrir en esos altos costos de tecnología hace que sea bastante difícil. En consecuencia, innovar con un “económico” desarrollo que permita controlar los usuarios retirados de la organización y que su vez permita la autogestión de usuarios para desbloqueo y actualización de la contraseña, permitirá a dichas organizaciones ahorros importantes que aportan al no deterioro de sus indicadores financieros y a disminuir los incidentes de pérdida de dinero e información por parte de la utilización no autorizada de usuarios ya retirados.

Page 43: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

43

3. ASPECTOS IMPORTANTES A continuación una mirada a algunos aspectos importantes a tener en cuenta en el desarrollo del software con el que se puede innovar en los almacenes de cadena y en otras organizaciones.

3.1. Costos Los valores que se deben invertir en la implementación, soporte, actualización y licenciamiento entre otros, de un sistema práctico y sencillo “desarrollado en casa” “in house”, el cual entre sus componentes posee interfaces, archivos planos y Web Services, los cuales son herramientas menos costosas en su puesta en marcha y en su mantenimiento. El desarrollo y puesta en marcha de un sistema in house, está diseñado para soportar todos los usuarios que tengan interacción con los servicios soportados por los servidores del Directorio Activo, al igual que los que pueda soportar la aplicación de gestión humana (GH) que para el caso planteado a continuación se habla de un aproximado de 40 mil usuarios.

Tabla 2. Costos sistema propio de retiro y autogestión de

usuarios (inhouse)

Costos de mano de obra, costos de implementación, soporte,

actualizaciones, licenciamiento herramienta Web Services.

Mano de Obra 8400

Instalación de servicios web services 5000

Actualizaciones 3000

Mantenimiento y control 10000

Total USD 26400

Como se puede apreciar en la Tabla 1 y la Tabla 2 la diferencia en los costos es bastante considerable, aunque es importante anotar que las herramientas de Oracle y Novell son más completas que la solución propuesta en el presente artículo, pero si bien es cierto que lo que se pretende controlar es la autogestión del usuario y la desactivación del usuario cuando ya no haga parte de la empresa, con dicha herramienta se puede gestionar al usuario en estos dos aspectos. A continuación una explicación de cómo podría ser la función de retiro de usuarios del aplicativo propio (inhouse).

3.2. Manejo del retiro del usuario Las herramientas de gestión humana (existentes en todas las organizaciones, sobre todo para temas de nómina y prestaciones sociales) tienen la posibilidad de enviar o compartir toda la información de acuerdo a las necesidades del solicitante, por tanto, son características fundamentales de éstas herramientas los campos que relacionan a un individuo (empleado interno o externo) con las distintas funciones que realizan en la empresa y a su vez los campos que documentan el ingreso y retiro del empleado. Además de las herramientas de GH, debe existir la herramienta tecnológica llamada Directorio Activo la cual permite la creación de usuarios dando acceso a servicios colaborativos y en red, y a distintos sistemas

de información acorde a las funciones a desarrollar; esta herramienta es una de las más comunes y usadas por los Almacenes de Cadena, además es el primer servicio donde normalmente se da vida a un usuario de aplicación. Por lo tanto, hay que interrelacionar el sistema de GH con la herramienta tecnológica de control de acceso a aplicaciones (Directorio Activo) como sistema centralizado, esta interrelación consiste en poder lograr que archivos y procedimientos de gestión humana (empleados retirados) lleguen al directorio activo y éste a su vez valide si los empleados retirados coinciden con algún usuario de este directorio y proceda a realizar la función de inhabilitar. Es importante tener en cuenta que en el directorio activo se está usando el campo ID el cual deberá estar relacionado con el campo “cédula” del sistema de GH. En dicho sistema debe existir un registro muy importante como la fecha en que ingresa el empleado y la fecha fin de su contrato laboral, esta última fecha es también llamada fecha de retiro. La plataforma de GH debe generar archivos de retirados todos los días, en donde, como propuesta se plantea que genere los retirados de los últimos 30 días, de tal forma que un archivo generado, por ejemplo, el 24 de abril contendrá los usuarios “retirados de la empresa” del 24 de marzo al 23 de abril y podrá tener los siguientes campos, en donde el campo con integridad referencial deberá ser el ID del empleado. Para que lo anterior sea satisfactorio se propone la siguiente estructura para la interfaz del sistema de GH al Directorio Activo (DA):

Fig. 1. Interfaz Sistema Gestión Humana.

Esta interfaz está destinada exclusivamente al retiro de usuarios, los campos área, estado y fecha son características propias del sistema de GH. En la raíz del Directorio Activo se debe crear una Unidad organizacional (Por sus siglas en inglés –Organitacional Unit -OU-) “equipos y usuarios deshabilitados”. Una vez generados los archivos por el sistema de gestión humana, deberán ser colocados automáticamente en una carpeta del controlador de dominio, la cual puede ser predeterminada con anterioridad y a continuación se ejecuta con ayuda del programador de tareas el script [7] que se muestra en el apéndice. Como resultado de la ejecución del Script los usuarios del directorio activo que en el campo “UserDN” coincidan serán deshabilitados, se les quitará los grupos del directorio activo, serán llevados a una OU especial y en un log serán registrados “el usuario, la OU en la que se encontraban y los grupos que tenían

Page 44: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

44

en el momento de ser deshabilitados, se deberán guardar en un archivo diario con los respectivos retiros para así controlar la fecha y la hora en que son retirados dado que el script está programado a una hora especial del día. Es importante tener en cuenta que el archivo resultante debe ser monitoreado y estar dentro de las actividades de la persona encargada de dicha labor, además de salvaguardar, depurar y gestionar adecuadamente dicho archivo. Lo anterior demuestra que no sólo el componente tecnológico soluciona el problema, sino que se debe contar con personal de monitoreo que constantemente realice gestión. Además, todos los procedimientos deben estar documentados, oficializados y promulgados para que las tareas no dejen de realizarse. Comprometer al personal que administra el software de GH y áreas que contratan servicios externos para que en los distintos contratos se establezca la obligación de matricular en el sistema de GH a cada una de las personas que prestarán servicios dentro de la organización, deben ser muy rigurosos con la matrícula de aquellos que requieren acceso a los sistemas de la organización. Deben informar en que momento dejan de prestar servicio en los almacenes de cadena. Y cada empleado antes de retirarse deberá reclamar un paz y salvo. Para el pago de avances y logros en los proyectos, este documento será exigible para personal que deba interactuar con sistemas de información y deberá ser anexado a las distintas facturas de cobro que periódicamente pasa el “tercero, contratista o socio de negocios” para que le sean cancelados sus servicios en virtud del contrato. El documento deberá relacionar fecha, identificación (cédula), nombre completo y sistemas de información con los que interactúan y si deben seguir o no activos, además, en el caso de que las personas hayan cambiado de área o si han cambiado el uso de uno o varios sistemas deben expresarlo. La persona encargada de autorizar el pago es el responsable de informar mediante “llamada de servicio al HelpDesk” la inhabilitación de los usuarios o cambio en los sistemas usados por el usuario. Es importante recordar que el estándar internacional ISO27001, en su anexo de “Objetivos de control y Controles” en su apartado A.8.3 “Terminación o cambio de cargo” propone que: “los derechos de acceso de todos los empleados, contratistas y usuarios de terceras partes a las instalaciones de procesamiento de información y la información, deberán ser retirados a la terminación de su cargo, contrato o acuerdo, o deben ser ajustados al cambio.”

3.3. Autogestión del usuario Se debe tener presente que gran parte de las llamadas al “help desk” tiene que ver con bloqueo, desbloqueo y reseteo de contraseñas, y por tanto, es de esperar que

el procedimiento que se propone baje ese número de llamadas en un 87%, es decir, con el sistema “inhouse” implementado sólo se recibirán en el help desk un 13% del total de llamadas por el concepto. Para reducir los niveles de llamadas al help desk por los motivos anteriores, se propone la creación de una aplicación Web que se encargará de recoger la información de la persona que tiene problemas con su usuario y una vez validada la información el usuario, puede proceder a colocar la contraseña que desee, siguiendo los requisitos de creación de contraseñas que se tengan parametrizados en el directorio activo. La aplicación Web usará un “Web Services” para ir al sistema de GH a consultar la información del usuario y para hacer la respectiva gestión en el directorio activo. La comunicación entre el directorio activo y el Web Service ha de realizarse haciendo uso del Protocolo ligero de acceso a directorios (LDAP, por sus siglas en ingles), el cual es utilizado para leer y escribir en el Directorio Activo. Para lograr que esta comunicación sea segura y confidencial se utiliza la tecnología Capa de sockets seguros (SSL) - Seguridad de la capa de transporte (TLS). Esto se hace mediante la instalación de un certificado con un formato correcto de una entidad emisora de certificados (CA) de Microsoft. El Web Services se encarga de recoger la información digitada por el usuario (Cédula y Usuario del Directorio Activo), luego consulta en el sistema de gestión humana, los datos correctos del usuario y a su vez trae otros datos de forma aleatoria (sistema reto-respuesta); estos son presentados al usuario en forma de “selección múltiple”, dicho usuario deberá responder adecuadamente los datos que le pertenecen, además para mejorar las medidas de seguridad se puede adicionar que el usuario deba llenar alguna palabra o frase para que en la próxima ocasión sea escrita tal cual como fue escrita la primera vez y si ha escogido de forma acertada, la aplicación Web presenta dos cuadros para escribir y reescribir la contraseña que el usuario desee. El Web Services se encarga de enviar tales credenciales al DA.

En la Fig. 2, se muestra la relación entre los componentes de hardware y software a la hora de realizar las respectivas validaciones del usuario a partir de que el usuario solicita el servicio a través del formulario de la aplicación Web.

Fig. 2. Flujo de la información en la autogestión.

Page 45: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

45

Con lo anterior se pretende mostrar diversas formas de implementación de sistemas de información que cumplen de alguna manera con ciertas funciones de un manejador de identidades (identity management), con un costo y manejo de ejecución bajo. Para poder hablar entonces de algunas funciones del manejador de identidades, partimos del hecho que los almacenes de cadena cuentan con una aplicación de GH que registra todo el personal que ingresa a la empresa, igualmente cuentan con un sistema de información donde al personal se le asigna un usuario para el ingreso, por lo tanto se necesita de una herramienta que permita interrelacionar estos 2 sistemas de información y permitir el manejo de los usuarios, que para este caso el manejo propuesto es inactivarlos y que cada persona pueda autodesbloquear y autorenovar la contraseña, de allí que se propone la implementación de un Web Services para dicha interconexión. El Web Services es un sistema de información seguro y fácil de implementar como lo menciona Javier Vacas Gallego “los Web Services son la mejor alternativa posible ya que posee diversas posibilidades respecto a la integración de la seguridad, así como una complejidad mínima en el tratamiento de los datos. Esto es ideal para una comunicación ágil y eficaz [8]. Web Services recoge información representada en scripts por parte de las 2 aplicaciones, gestión humana y directorio activo, las integra y ejecuta cada función permitiendo como se menciona anteriormente la desactivación de los usuarios en los sistemas de información de la empresa y el cambio de contraseña de los usuarios, adicionalmente se propone que el intercambio de información entre los sistemas de información se realice a través del protocolo de acceso ligero a directorios LDAP v3 que contiene TLS (Transport Layer Security), lo cual permitirá agilidad y seguridad de la información en los 2 procesos que se están planteando de gestión de usuarios. El Web Services deberá usar la tecnología XML que permite el uso de un conjunto de utilidades que facilitan el acceso a todos los usuarios de forma rápida, sencilla e intuitiva; además al centralizar la función de autogestión en una sola aplicación posibilitará una única fuente documental de controles [9]. En la Fig. 3, se observa cómo sería el proceso que debe llevar a cabo el sistema de autogestión, para lograr que el usuario pueda desbloquearse y crear una nueva contraseña, permitiendo continuar con las actividades sin tener que llamar al “Help Desk”.

Fig. 3. Flujo de la autogestión para el desbloqueo y

cambio de contraseña

4. CONCLUSIONES El manejo y gestión de usuarios es un tema demasiado delicado y extenso, todos los sistemas de información de las empresas tienen como punto principal: la ejecución de procesos que dan valor a sus actividades económicas, a su vez son los usuarios quienes ejecutan dichos procesos, convirtiéndose en elementos fundamentales para el normal desarrollo de SI. El sistema de autogestión propuesto pretende reducir el número de llamadas al “Help Desk” facilitando así el aumento de la productividad y la reducción de costos. La herramienta Web Services permite interconectar SI para lograr un control más efectivo del movimiento de los usuarios en la red de datos de la empresa. Dentro de este esquema de administración de usuarios el DA es el eje principal, ya que sobre este se encuentra el registro de todos los usuarios. Con la integración de varias herramientas tecnológicas, DA y Web Services se pueden construir soluciones que pueden sustituir algunas funciones de IdM.

Page 46: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

46

La innovación en las empresas es fundamental, se necesitan otras formas de hacer las cosas y que a su vez generen valor a la compañía. Que un usuario dependa 100% del “Help Desk” es un inconveniente alto porque los costos antes de disminuir en el tiempo van en aumento, por eso estas herramientas sencillas pueden ser un diferenciador de calidad en el servicio y de valor para la empresa. Para el usuario es mejor dedicar dos minutos al Web Services, que 7 minutos (apro.) tratando de que el analista del Help Desk brinde la ayuda correspondiente. El retiro de usuarios de forma automática y oportuna ahorra tiempos y dinero a las organizaciones, dado que las explicaciones a las revisorías y auditorías por el no retiro son costosas en esas dos variables, y si a eso le sumamos los posibles fraudes que pueden ocasionarse por el manejo de usuarios que ya no están en la organización, es claro que ahorra dolores de cabeza. Es importante también mencionar que la tecnología de

IdMs a pesar de ser tan costosa y de poseer un grado alto de madurez, por sí sola no soluciona la problemática planteada y por lo tanto se hace necesario que todas estas tecnologías tengan un gran componente documental y procedimental que alerte a las personas que de otra manera tienen que ver con los distintos procesos de la organización.

APENDICE: Script que deshabilita usuarios [9]

Option Explicit

'On Error Resume Next

Dim strUserDN, objUser, objOU, strNTName, strOUDN, Group,

GroupDN

Dim objRootDSE, strDNSDomain, objTrans, strNetBIOSDomain,

objgroup

Dim objFSO, strFilePath, objFile, strFileOut, objReportTextFile,

Groupmembership

Const ADS_NAME_INITTYPE_DOMAIN = 1

Const ADS_NAME_TYPE_NT4 = 3

Const ADS_NAME_TYPE_1179 = 1

ConstForAppending = 8

ConstADS_Property_Delete = 4

'Creacion del objeto

Set objFSO = CreateObject("Scripting.FileSystemObject")

' Determinar el dominio

Set objRootDSE = GetObject("LDAP://RootDSE")

strDNSDomain = objRootDSE.Get("defaultNamingContext")

'Especifica el archivo de entrada

strFilePath = InputBox("Cual es el nombre del archivo?"

&VbCrLf&VbCrLf& _

"Si el archivo no esta en el mismo directorio del VBS" &VbCrLf& _

"por favor coloque el pathcompleto.","Usuarios a

procesar","Usuarios_a_inhabilitar.txt")

If strFilePath = vbCancel Then

MsgBox "Cancelado !!."

WScript.quit

EndIf

'Verificar que el archivo de entrada exista

If Not objFSO.FileExists(strFilePath) Then

MsgBox "El Archivo" & strFilePath & " no existe. ",_

vbCritical, "Error"

WScript.Quit

End If

'Genera log de salida

strFileOut = "salida.txt"

If strFilePath = vbCancel Then

MsgBox "ProcesoCancelado."

WScript.quit

End If

'Verifica que el archivo log exista

If Not objFSO.FileExists(strFileOut) Then

MsgBox "El archivo SALIDA.txt no existe. The script will quit

now.",_

vbCritical, "Error"

WScript.Quit

End If

' Ubicamos la OU a mover los usuarios a inhabilitar.

strOUDN = InputBox ("OU donde va a mover los usuarios

procesados...?","Unidad Organizacional",_

"OU=Equipos y usuarios Deshabilitados," &strDNSDomain)

If strOUDN = vbCancel Then

MsgBox "Cancelado."

WScript.quit

End If

'Asociamos a la OU

Err.Clear

Set objOU = GetObject("LDAP://" &strOUDN)

If Not Err.Number = 0 Then

MsgBox "Por favor verifica la OU, Proceso cancelado."

WScript.Quit

End If

' Abrir el archivo de entrada yrecorrerlo.

Set objFile = objFSO.OpenTextFile(strFilePath, 1)

Set objReportTextFile = objFSO.OpenTextFile(strFileOut,

ForAppending, True)

Set objTrans = CreateObject("NameTranslate")

objTrans.Init ADS_NAME_TYPE_NT4, strDNSDomain

Page 47: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

47

objTrans.Set ADS_NAME_TYPE_1179, strDNSDomain

strNetBIOSDomain = objTrans.Get(ADS_NAME_TYPE_NT4)

' Remover trailing backslash.

strNetBIOSDomain = Left(strNetBIOSDomain, _

Len(strNetBIOSDomain) - 1)

objTrans.Init ADS_NAME_INITTYPE_DOMAIN, strNetBIOSDomain

Do Until objFile.AtEndOfStream

strNTName = Trim(objFile.ReadLine)

If strNTName<> "" Then

On Error Resume Next

objTrans.Set ADS_NAME_TYPE_NT4, strNetBIOSDomain& "\"

&strNTName

If Err.Number<> 0 Then

On Error GoTo 0

Wscript.Echo "User "&strNTName _

&" not found in Active Directory"

End if

err.clear

on Error GoTo 0

'Remover usario de los grupos a los que pertenecia

err.clear

on Error Resume Next

strUserDN = objTrans.Get(ADS_NAME_TYPE_1179)

Set objUser = GetObject("LDAP://" &strUserDN)

objUser.Put "msExchHideFromAddressLists", True

' 512eshabilitado 514 desabilitado

objUser.put "UserAccountControl", 514

objuser.Put "delivContLength", "1"

objUser.SetInfo

objReportTextFile.write(strNTName)

Erase GroupMembership

GroupMembership = objUser.GetEx("memberOf")

For each Group in GroupMembership

GroupDN = Replace(Group,"/","\/")

Set objGroup = GetObject("LDAP://" &GroupDN)

objReportTextFile.write(vbtab& objGroup.cn)

objGroup.PutEx ADS_PROPERTY_DELETE, "member",

Array(strUserDN)

objGroup.SetInfo

Next

objReportTextFile.Writeline(vbcrlf)

objOU.MoveHere "LDAP://" &strUserDN, vbNullString

EndIf

Loop

Msgbox "Proceso Terminado, revisar por favor"

AGRADECIMIENTOS Los autores agradecen muy especialmente al señor Héctor Fernando Vargas Montoya por la ayuda y dedicación en la corrección de este artículo. Agradecimientos también al señor Oscar Mauricio Sánchez Medina por compartir sus experiencias con respecto al desarrollo de scripts en plataforma de Directorio Activo.

REFERENCIAS

[1] A. Hovav & R. Berger. Tutorial: Identity Management

Systems and Secured Access Control, Communications of AIS; Issue 25, p. 5, 2009.

[2] M. K. Srinivasan & P. Rodrigues, “Analysis On Identity

Management Systems With Extended State-Of-The-Art Idm Taxonomy Factors,” in International Journal of Ad hoc, Sensor & Ubiquitous Computing (IJASUC) Vol.1, No.4, December 2010.

[3] M. Berman & J. Cooper, Identity Management For The

Rest Of Us: How To Grow A New Infrastructure, presented at the Educause Mid-Atlantic Regional Conference, Baltimore, MD, 2006.

[4] S. Curtis, The Impact of Total Cost of Ownership in IAM

investment Decisions. Rencana LLC. 2010.

[5] FENALCO, Los Grandes Almacenes E Hipermercados En Colombia: “Más Allá De Las Cifras”. p. 22, Noviembre 2011.

[6] Comunicación Celular S.A., Balance General al 31 de

diciembre de 2011. Online [Agosto. 2012].

[7] O. M. Sánchez M., Analista de Directorio Activo, compilación de distintos scripts. Online [Septiembre. 2012].

[8] J. Vacas, J. Borrell & J. C. Muiño. Arquitectura

Corporativa de Web Services. Bellaterra, Junio, 2008.

[9] A. Baldwin, M. Cassasa, Y. Beres & S. Shiu. Assurance For Federated Identity Management, Journal of Computer Security, Vol. 18 Issue 4, p.14, 2010.

Page 48: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

48

GESTIÓN DE CONOCIMIENTO: LA SOLUCIÓN PARA DISMINUIR EL

REPROCESO EN LAS PRUEBAS DE SOFTWARE

Luz A. Perona Ossaba Universidad de San Buenaventura

[email protected]

Juan E. Velásquez Isaza Universidad de San Buenaventura

[email protected]

(Tipo de Artículo: Reflexión. Recibido el 27/11/2012. Aprobado el 27/12/2012)

RESUMEN La gestión de conocimiento se ha convertido en una clave fundamental en los procesos de la ingeniería de software, permitiendo mejorar y optimizar cada una de las actividades que se ejecutan durante todo el ciclo de desarrollo de software. Cada una de las etapas de la ingeniería de software ha adoptado de la gestión de conocimiento algunas características, de acuerdo con las necesidades que se presentan, adecuándolos y fortaleciéndolos para reducir los tiempos y disminuir la fuga de información dentro de las organizaciones. Es por esto que las pruebas de software han adoptado la gestión de conocimiento como la alternativa para disminuir el reproceso en las pruebas de software.

Palabras clave Gestión de Conocimiento (GC), Ingeniería de Software, Desarrollo de Software, Pruebas de Software.

KNOWLEDGE MANAGEMENT: THE SOLUTION TO REDUCE REPROCESSING IN SOFTWARE TESTING.

ABSTRACT Knowledge Management has become a fundamental key in software engineering processes, allowing the improvement and optimization of all the activities performed during the software development cycle. Each of the stages of software engineering has adopted some features of Knowledge Management, according to the needs, adapting and strengthening them to reduce time and reduce the leakage of information inside companies. For this reason software testing has adopted knowledge management as an alternative to reduce rework. Keywords Knowledge Management (KM), Software Engineering, Software Development, Software Testing.

GESTION DE LA CONNAISSANCE: LA SOLUTION POUR DIMINUER LE REPROCESSUS DANS LES TESTS DU LOGICIEL

Résumé La gestion de la connaissance est devenue comme une clef fondamentale dans les processus du génie logiciel, en permettant d’améliorer et d’optimiser chacun des activités qui s’exécutent pendant tout le cycle du développement logiciel. Chacun des étapes du génie logiciel a adopté quelques caractéristiques, d’après las besoins, en les adaptant et les fortifiants pour réduire les temps et diminuer la fuite d’information au sein des entreprises. Par conséquent les tests du logiciel on adopté la gestion de la connaissance comme l’alternative pour diminuer le reprocessus dans les tests du logiciel. Mots-clés Gestion de la connaissance, génie logiciel, développement logiciel, tests du logiciel.

Page 49: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

49

1. INTRODUCCIÓN Para el presente artículo nos basaremos en la bibliografía que presentamos durante el desarrollo y en las experiencias que se han obtenido durante la vida laboral, ejerciendo como analistas de pruebas por más de 5 años en varios proyectos de software, desde una perspectiva analítica, interpretativa o crítica. No se hace referencia a las empresas para no comprometer las metodologías y procesos de las mismas, ya que el objetivo es presentar un artículo reflexivo. Cuando una compañía decide invertir en un proyecto de desarrollo de software, busca entregarle a sus clientes (usuarios internos o externos) un sistema que les ayude a mejorar los procesos o procedimientos que actualmente se están llevando a cabo en la compañía. Para lograr la satisfacción de los clientes, es necesario garantizar la calidad del proyecto de software desarrollado. Por esta razón el proceso de pruebas de software se convierte en clave fundamental para lograr los objetivos planteados al inicio del proyecto. La inyección de defectos a través del ciclo de desarrollo de los proyectos de software es recurrente y no se puede evitar. Durante el proceso de pruebas se identifican los defectos que deben ser corregidos por el equipo de desarrollo, es en este punto donde es importante tener identificados los errores para tomar acciones conocidas dentro o fuera del equipo de desarrollo que permitirán tener una solución rápida y efectiva. Estas situaciones se presentan en todos los proyectos de desarrollo de software, por lo que los resultados que presentamos de nuestra investigación dentro del artículo, se pueden aplicar tanto en pequeños como en grandes proyectos de software, donde la principal diferencia radica en el número de integrantes del equipo de trabajo y el número de líneas de código generadas al finalizar el proyecto. Dependiendo del tamaño del proyecto, la corrección de defectos puede ser más costosa, por esto es importante que la solución que se plantee pueda ser estándar. La rotación de personal en los equipos de trabajo y el uso de nuevas tecnologías sin la capacitación adecuada, son algunas de las causas principales para que la presencia de defectos aumente en un equipo de trabajo; en este punto es importante tener una buena gestión de conocimiento dentro del equipo de trabajo o en la compañía, permitiendo el acceso a la información de situaciones reales que se han presentado, las soluciones planteadas y los resultados obtenidos, permitiendo tomar decisiones en cuanto a la mejor solución al momento de abordar la corrección de los defectos identificados [1]. Se han realizado varias aproximaciones en cuanto a sistemas para implementar la gestión de conocimiento en el proceso de pruebas de software, como el QESuite 2.0, plataforma de administración de las pruebas de software desarrollado por Beijing University of Aeronautics and Astronautics (BUAA), por ahora, corresponde a un prototipo que ha sido construido [2].

Dentro de la experiencia, hemos logrado visualizar que para que la gestión de conocimiento sea parte importante del proceso de pruebas de software, no es necesario contar con costosas herramienta que ayuden en el proceso, basta con tener la disposición y una buena metodología para permitir que el conocimiento se transfiera dentro del equipo de trabajo sin limitaciones.

2. EL PROBLEMA DEL REPROCESO EN LAS

PRUEBAS DE SOFTWARE Para las compañías de desarrollo de software, enfrentar nuevos proyectos se convierte en un reto y en cada uno de ellos busca mejorar las prácticas y metodologías que utilizaron en proyectos anteriores. Dentro del ciclo de vida de los proyectos de software, se desarrollan las pruebas como una actividad que busca garantizar que el producto desarrollado cumpla con las necesidades del cliente, es por esto que se pueden describir como el proceso permite identificar y entregar la calidad de software como un producto basado en la especificación que se ha dado y es requerida por los usuarios. La medición de la calidad del producto basada en las especificaciones de usuario, involucra muchas personas que trabajan juntas para este propósito, como una comunidad de práctica [3]. Una de las preguntas más importantes es cómo integrar eficazmente la gestión del conocimiento en el proceso de pruebas de software para que los activos de conocimiento se puedan transmitir y reutilizar por las organizaciones en el proceso de pruebas [3]. Las pruebas de software son una actividad basada en conocimiento, tanto de negocio como de metodologías orientadas a brindar una solución real a las necesidades del cliente. Sin embargo, el conocimiento acerca de las pruebas de software, habilidades, experiencia e inspiración son muy importantes ya que le permiten a los analistas de calidad alcanzar los objetivos planteados. Si no tiene pensamientos abiertos, experiencias abundantes en pruebas y competencias, la calidad de las pruebas no se puede asegurar [2]. Es importante que los analistas de calidad tengan criterio y argumentos válidos para enfrentar un proceso de pruebas, esto para evitar que por desconocimiento se omitan errores que puedan llegar a ser críticos dentro del sistema implementado. Las pruebas de software se basan en dos procedimientos, verificación y validación. La verificación consiste en hacer chequeos que certifiquen que el sistema funciona de acuerdo con las especificaciones y la validación consiste en asegurar que el sistema hace lo que se supone deba hacer, es decir que la especificación este correcta [4]. Si miramos el proceso de pruebas de software como el conjunto de actividades relacionadas con 1) verificación del desarrollo del producto, este debe estar basado en las necesidades del cliente, 2) reporte de los defectos

Page 50: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

50

encontrados y 3) solución de los defectos por parte del equipo de desarrollo, nos damos cuenta que este proceso se puede repetir en muchas oportunidades, hasta que se logre encontrar una solución óptima y adecuada para el defecto encontrado. Es por esto que el reproceso es tan evidente dentro de esta etapa del ciclo de vida de desarrollo. La principal razón, que genera tanto reproceso se deriva de que los desarrolladores al momento de enfrentarse con un desarrollo no encuentran a su disposición la información necesaria para hacerlo o porque no se tiene la capacidad de indagar o al entrar a resolver estos incidentes no encuentran información que les pueda minimizar el trabajo debido a que es posible que otros desarrolladores o a ellos mismos les haya pasado algo similar pero ya no se acuerdan cómo lo resolvieron o simplemente la persona o personas que de alguna manera pudieran colaborar ya no se encuentran en la organización. Esta problemática se presenta en todos los proyectos de software, sin importar el tamaño; pero mientras más grande el proyecto puede llegar a ser más crítico y costoso, ya que cualquier solución implementada para corregir el defecto puede afectar otros artefactos de desarrollo, generando nuevos errores. Es en este punto es importante involucrar la gestión de conocimiento en el proceso de pruebas de software, ya que desde la perspectiva del analista de calidad se puede identificar situaciones previamente encontradas y las soluciones que se han entregado a ellas. Con la gestión del conocimiento se pueden establecer formas de manejar la información que otras personas conocen y que no se ha dejado almacenada en ningún medio, ayudando a formar grupos de trabajo que se encarguen de entrevistar los diferentes participantes o invitarlos a formar bases de datos de conocimiento acerca de todas las experiencias, de todos los incidentes que se les hayan presentado en algún momento del ciclo de desarrollo. De esta forma se podrían minimizar los costos en la solución de incidentes y permitir que las pruebas de software hagan parte importante de este ciclo de desarrollo. Una vez se identifiquen los incidentes durante el proceso de pruebas, el desarrollador tiene la capacidad y la información a la mano para darle solución de manera más rápida y eficaz a dichos incidentes. Se debería entonces entender la gestión de conocimiento, como una disciplina que permite consolidar el capital intelectual en las organizaciones. La gestión de conocimiento apoya no sólo los conocimientos técnicos de una empresa, sino también el dónde, quién, qué, cuándo y por qué suceden las cosas [5]. Lo anterior nos lleva a que dentro de las organizaciones, el conocimiento no se encuentre centralizado en un grupo particular de personas, sino que se pueda ir transfiriendo a otras personas que lo requieran. Es aquí, donde la gestión del conocimiento tiene su primer obstáculo, ya que todos sabemos que

dentro de la mentalidad del ser humano está que mientras se sienta dueño del conocimiento, se tendrá asegurado un lugar en la organización. Lograr que el conocimiento se extienda, implica que las personas sean conscientes de la importancia de trabajar en equipo, buscando el logro de objetivos y metas, sin importar quién sea el dueño del conocimiento. El concepto de gestión de conocimiento, surgió a mediados de 1980 por la necesidad de obtener conocimiento de la "avalancha de información" y fue utilizado principalmente como un término del mundo de los negocios [5]. Más de 10 años de investigación en la gestión de conocimiento promueven y marcan muchas herramientas de tecnologías de información -IT- para la gestión, pero no todas satisfacen los requerimientos particulares de cada empresa, especialmente en campos especializados. Desde que se comenzó a escuchar el concepto de gestión de conocimiento, se evidenciaba la transformación que estaba ocurriendo en muchas organizaciones [6]. Entonces, ¿por qué es importante que la gestión de conocimiento se adhiera a los procesos de ingeniería de software? Porque los procesos de ingeniería, en especial el desarrollo de software, es muy cambiante, requiere de gran conocimiento del negocio e involucra muchas personas trabajando en diferentes fases y actividades [5]. Es en este punto donde vemos que la gestión de conocimiento puede apoyar el proceso de pruebas de software, porque en proyectos en los que la rotación de personal es muy alta el conocimiento previamente adquirido, se va con las personas y en ocasiones recrear situaciones detectadas con anterioridad puede tener un costo muy alto por el desconocimiento que se tiene tanto del negocio como de las metodologías utilizadas. Estudios previamente realizados [5], nos llevan a entender que para implementar la gestión de conocimiento en una compañía es necesario enfocarse en la aplicación de siete procesos:

Fig. 1. Integración de los procesos de gestión de

conocimiento (Elaboración propia)

Teniendo en cuenta los procesos de la gestión de conocimiento aplicada al proceso de pruebas, en cada uno de ellos obtendríamos resultados que mejorarían el

Page 51: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

51

reproceso que se presenta actualmente en esta etapa del ciclo de desarrollo; la creación, permite crear conocimiento previamente adquirido, sea dentro o fuera del proyecto en curso; la adquisición, permite obtener conocimiento de los demás integrantes de proyecto que ayuden a solucionar incidentes detectados con características similares a otros ya identificados previamente; la identificación puede llegar a ser un poco más compleja, debido a la cantidad de posibles soluciones que surjan dada la similitud en errores previamente detectados; la adaptación, permite mantener actualizadas las bases de conocimiento, para que los miembros de la organización tengan acceso a ella en el momento que los requieran, es importante establecer políticas de actualización de la información, pero sobre todo se debe destinar el tiempo y los recursos para realizar esta actividad que sin ella la gestión de conocimiento no tendría la información disponible; la distribución de conocimiento es el proceso más importante de la gestión de conocimiento, debido a que sin unos canales adecuados de distribución de la información, no sería posible acceder a ella en el momento en que se requiera; la aplicación del conocimiento, permite crear conciencia en los miembros de los equipos de desarrollo de aplicar el conocimiento existente para agilizar los procesos y minimizar el riegos de reproceso por soluciones no adecuadas. Luego de implementar gestión de conocimiento dentro de los procesos de ingeniería de software, vemos que es posible mejorar el reproceso en cada una de las etapas, incluyendo el proceso de pruebas de software tema de este artículo. El análisis realizado del proceso de pruebas de software, en algunas compañías, usando los principios primarios de la gestión de conocimiento, fueron identificados cinco problemas importantes en el proceso [2]: 1. Baja rata de reuso de conocimiento en las pruebas

de software: El conocimiento en las pruebas de software no se ha almacenado concienzudamente. Algunas bases de conocimiento se han implementado pero generan gran discusión en los grupos de trabajo.

2. Barreras en la transferencia de conocimiento en las pruebas de software: La administración del conocimiento de pruebas es muy difícil de transmitir.

3. Ambiente pobre para compartir el conocimiento de

las pruebas de software: Los miembros del equipo tienen poco tiempo en común para compartir experiencias.

4. Pérdida significativa en el conocimiento de las

pruebas de software: Los conocimiento y experiencias obtenidas por el equipo de trabajo en pocas ocasiones se convierte en conocimiento

público. Adicionalmente, la rotación de personal lleva a la pérdida de conocimiento en pruebas.

5. Imposible obtener la más óptima distribución del

recurso humano rápidamente: La gestión de conocimiento es una integración entre personas, procesos y tecnología, donde las personas son la parte más importante. Sin tener un conocimiento adecuado de la información de cada persona, los recursos no se asignan adecuadamente dentro de los proyectos de software.

De acuerdo a lo planteado en el artículo Administración de Conocimiento en Desarrollo [1], los autores describen cuál es el conocimiento, cómo lo puede usar un desarrollador y cómo se puede implementar en la práctica una base que lo contenga. A. Conocimiento sobre la corrección de defectos

Primero se debe definir cuál es el conocimiento asociado a la corrección de defectos. Esto quiere decir que la información que se recopila acerca de un defecto y de su corrección puede ser orientada para facilitar la corrección de defectos similares en el futuro. Por esta razón, se considera apropiado definir un modelo general de defectos, en el cual todos los defectos siguen una caracterización estándar bajo la cual se tipifica su descripción y su solución.

B. Análisis y uso del conocimiento

Una vez se cuenta con una base de casos el siguiente problema a resolver es cómo hacer uso de ella. Para esto se decidió adoptar el modelo de razonamiento basado en casos (Case-based reasoning) o CBR. Este modelo sirve para abordar problemas complejos, cuyo análisis por medio de aproximaciones convencionales no es posible o no da buenos resultados. El supuesto principal del CBR es simple: problemas similares deben tener soluciones similares. En síntesis, este razonamiento consiste en que, dado un problema, obtengamos una solución a éste por medio de la adaptación de una o varias soluciones dadas a problemas parecidos. La figura 2 muestra el esquema general de este razonamiento.

Fig. 2. Esquema general de este razonamiento

(Elaboración propia)

Page 52: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

52

La razón principal para su adopción es que un defecto no puede solucionarse siguiendo siempre los mismos métodos, ya que no hay procedimientos sistemáticos que ayuden a localizarlos y a corregirlos. No obstante, la experiencia adquirida cuando se corrigen los defectos sí puede servir para solucionar los defectos similares que aparezcan en el futuro; y es en esa experiencia la que deberían aprovechar los desarrolladores en el momento en que intentan corregir uno en particular. Si logramos identificar dentro del proceso de pruebas de software, las posibles soluciones que se puedan implementar para los defectos encontrados, el desarrollador tendría una visión más clara de la solución requerida por el analista de calidad, de acuerdo con las necesidades de los clientes. Como parte de la estrategia para mejorar las prueba de software y parte de ellos está basada en la creación de un sistema de soporte a la toma de decisiones. Sin embargo, mucho del esfuerzo es dedicado al proceso de extracción de conocimiento, para que los errores no se lleven a la base de conocimiento, aunque no es razonable esperar una base de conocimiento libre de errores. Muchas herramientas y procedimientos se han desarrollado para ayudar a detectar errores en los sistemas de apoyo en la toma de decisiones [4]. Pero no sólo se han desarrollado herramientas para detectar errores en las bases de conocimiento, sino que también se han adelantado investigaciones de cómo incluir herramientas de gestión de conocimiento en el proceso de pruebas de software. Se han invertido grandes esfuerzos tanto en tiempo como en dinero para lograr implementar una herramienta que permita gestionar el conocimiento en las pruebas de software. Grandes empresas como IBM y Microsoft, han invertido dinero y puesto a disposición mano de obra para la investigación en gestión de conocimiento y han presentado una serie de teorías y desarrollado productos de software. Debido a los grandes esfuerzos realizados, sin obtener los resultados esperados se ha instaurado la conferencia, KBSE (Knowledge-Based Engineering Conference Software) que se celebra cada año, en la que se discute el último avance de la gestión del conocimiento en las pruebas de software [7]. En cuanto a software desarrollado para lograr incluir la gestión de conocimiento en las pruebas de software se refieren al prototipo desarrollado por Beijing University of Aeronautics and Astronautics (BUAA), el sistema actual es un subsistema de QESuite2.0. El sistema es una plataforma de software de gestión del conocimiento orientada al proceso de prueba. El sistema utiliza el conocimiento del ciclo de vida como guía. Éste puede ayudar a las empresas a almacenar, gestionar, buscar y compartir todo tipo de conocimientos mediante el uso de los documentos de conocimiento. Se puede evaluar el nivel de conocimientos del personal utilizando mapas de conocimiento.

El sistema confirmará el personal que tenga conocimiento por las estadísticas y que van a mejorar la cultura de intercambio de conocimientos en la empresa. El módulo de mapas de conocimiento es el núcleo del sistema. Éste se divide en dos partes: la red de especialistas y la construcción del equipo de pruebas. Los usuarios comunes pueden editar su experiencia de proyecto. Los analistas de conocimiento tienen derecho a seleccionar a otros usuarios para editar su experiencia de proyecto. Después de editar la experiencia de proyecto, el sistema automáticamente definirá el nivel de conocimiento de los usuarios en función del tiempo que los usuarios utilizan estas tecnologías. Para alcanzar el nivel de especialista, éste debe ser editado por el analista de conocimiento [2]. En el entorno local, se han realizado esfuerzos para involucrar el proceso de pruebas en etapas más tempranas del ciclo de desarrollo, mejorando la calidad de cada uno de los entregables. Como resultado de estas prácticas se han obtenido avances y resultados satisfactorios: 1. Conocimiento del negocio desde el comienzo del

ciclo, cuando el analista de calidad se involucra desde la etapa de conceptualización.

2. Especificación de requerimientos apoyada por el analista de calidad orientada a soluciones posibles técnicamente.

3. Desarrollo de software basado en pruebas. Corresponde a una nueva práctica de desarrollo conocida como TDD (Test Driven Development) que consiste en que el desarrollo se realice basado en los casos de prueba diseñados por el analista de calidad, garantizando que el desarrollo realmente está acorde con las necesidades del cliente.

Si miramos estos puntos como orientados a la gestión de conocimiento aplicada al proceso de pruebas de software, vemos que: 1. Se minimiza el reproceso por las diferencias en la

interpretación de los requerimientos, entre el analista de calidad y el desarrollador.

2. Se permite la integración de cada uno de los actores del ciclo de desarrollo, especialmente entre los roles analista de calidad y desarrollador.

3. La utilización de los TDD, permiten que el desarrollador retroalimente los casos de prueba diseñados por el analista de calidad o diseñar nuevos casos que permitan garantizar las necesidades del cliente en el proyecto de software.

4. El número de errores encontrados en la etapa de pruebas se disminuye, debido a que el desarrollador ejecuta los casos de prueba al finalizar la etapa de desarrollo.

Page 53: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

53

3. CONCLUSIONES La gestión de conocimiento viene a apoyar a las organizaciones, para que el proceso de administración del conocimiento sea más efectivo y eficaz, permitiendo que éste pueda estar disponible en todo momento para los miembros de la organización. Las investigaciones desarrolladas para integrar la gestión de conocimiento con las pruebas de software, han arrojado resultados tanto teóricos como prácticos, pero aún hace falta realizar más investigaciones que permitan obtener mejores resultados en el proceso, que realmente garanticen que el reproceso que se genera en las pruebas de software se disminuye en todos los proyectos, sin importar el tamaño o características particulares. Cuando una compañía logre implementar de manera exitosa un buen proceso de gestión de conocimiento aplicado al proceso de pruebas de software, se podría garantizar que los tiempos de ejecución de la etapa de pruebas se verían reducidos significativamente y la capacidad de identificación y solución de los mismos será más efectiva.

REFERENCIAS

[1] F. Romero, R. Rueda, N. López & R. Casallas.

“Knowledge Management in Software Development to Reduce Defect Correction Effort”, presentado a

III Congreso Colombiano de Computación, Medellín, 2008.

[2] L. Xue-Mei, G. Guochan, L. Yong-Po & W. Ji. Research and Implementation of Knowledge Management Methods in Software Testing Process. IEEE 978-0-7695-3688-0/09.International Conference on Information Technology and Computer Science, 2009.

[3] R. Abdullah, Z. Darleena Eri & A. Mohamed Talib. A model of knowledge management system in managing knowledge of software testing

environment. IEEE 978-1-4577-1531-0/11. 5th Malaysian Conference in Software Engineering (MySEC), 2011.

[4] A. Terry Bahill, Fellow, IEEE, K. Bharathan & Richard F. Curlee. How the testing techniques for a decision support system changed over nine years. IEEE Transactions on Systems, Man, and Cybernetics, Vol. 25, No. 12, December 1995.

[5] l. Rus & M. Lindvall. Knowledge Management in Software Engineering. IEEE Software, pp. 26-38, 2002.

[6] J. Ward & A. Aurum. Knowledge Management in Software Engineering – Describing the Process. Proceedings of the 2004 Australian Software Engineering Conference (ASWEC’04), 2004.

[7] Y. L. Ji Wu, & X. L. Guochang Gu, Investigation of Knowledge Management Methods in Software Testing Process, International Conference on Information Technology and Computer Science, IEEE 978-0-7695-3688-0/09, 2009.

Page 54: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

54

IDENTIFICACIÓN, REFERENCIACIÓN Y ANÁLISIS DE LOS VECTORES

ESTRATÉGICOS DEL PLAN ESTRATÉGICO DE CIENCIA, TECNOLOGÍA E

INNOVACIÓN DEL TOLIMA

Alexis A. Aguilera Alvear Centro de Productividad del Tolima

[email protected]

(Tipo de Artículo: Investigación. Recibido el 28/11/2012. Aprobado el 27/12/2012)

RESUMEN Como parte de las actividades metodológicas para la formulación del Plan Estratégico de Ciencia, Tecnología e Innovación del Tolima (PECTIT), se propone la realización de la referenciación internacional con el propósito de identificar los vectores estratégicos de Sistemas Regionales de Ciencia, Tecnología e Innovación (SRCTI) que han contribuido para un “buen u óptimo” desempeño del Sistema como parte del desarrollo socio-económico, productivo, ambiental y tecnológico de regiones extranjeras. El ejercicio mencionado involucró a cinco regiones, ubicadas en Brasil, Chile, Italia, México y España, seleccionadas debido a sus buenas actuaciones sociales, ambientales y económicas, que se han basado en la ciencia, la tecnología y las estrategias de innovación. La identificación de determinados vectores estratégicos apoyará RSTIS Tolima para priorizar estrategias y programas como componentes PECTIT, para ser ejecutado en el corto, mediano y largo plazo.

Palabras clave Sistemas Regionales de Ciencia, Tecnología e Innovación; Vectores Estratégicos; Plan Estratégico de Ciencia, Tecnología e Innovación; Referenciación; Brechas; Tolima.

IDENTIFICATION, BENCHMARKING AND ANALYSIS OF THE MAIN VECTORS OF THE STRATEGIC PLAN FOR SCIENCE, TECHNOLOGY AND

INNOVATION OF TOLIMA-COLOMBIA ABSTRACT

As part of the methodological activities for the development of the Strategic Plan for Science, Technology and Innovation of Tolima, Colombia, it is proposed the implementation of international benchmarking in order to identify the strategic vector of Regional Systems of Science, Technology and Innovation that have contributed to "good or excellent" performance of the system as part of socioeconomic, productive, environmental and technological development of foreign regions.

The above mentioned exercise involved five Regions, located in Brazil, Chile, Italy, Mexico and Spain, selected because of its good social, environmental and economic performances, which have been based on science, technology and innovation strategies.

The identification of selected strategic vectors will support Tolima RSTIS to prioritize strategies and programs like the components of the Strategic Plan for Science, Technology and Innovation of Tolima, in order to be executed in short, medium and long term. Keywords Regional Systems of Science, Technology and Innovation; Strategic Vectors; Strategic plan for Science, Technology and Innovation; Benchmarking; Gaps; Tolima.

IDENTIFICATION, RÉFÉRENCEMENT ET ANALYSE DES VECTEURS PRINCIPAUX DU PLAN STRATÉGIQUE DE SCIENCE, TECHNOLOGIE ET

INNOVATION DU TOLIMA-COLOMBIE Résumé Comme une partie des activités méthodologiques pour la formulation du Plan Stratégique de Science, Technologie et Innovation du Tolima, Colombie, on propose la réalisation du référencement international avec le but d’identifier les vecteurs stratégiques du Systèmes Régionaux de Science, Technologie et Innovation (SRCTI) qui ont contribué à un « bon ou optimal » performance du Système comme partie du développement socio-économique, productif, environnemental et technologique des régions étrangères.

Page 55: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

55

Cet exercice est associé à cinq régions du Brésil, le Chili, l’Italie, le Mexique et l’Espagne qui ont été sélectionnés à cause de leurs réalisations d’ordre social, environnemental et économique, qui se fondent sur la science, la technologie et des stratégies d’innovation. L’identification de quelques vecteurs strategiques aidera à RSTIS pour prioriser des stratégies et programmes comme components du Plan Stratégique de Science, Technologie et Innovation pour les exécuter à court, moyen et long terme. Mots-clés Systèmes régionaux de Science, Technologie et Innovation, vecteurs strategiques, Plan Stratégique de Science, Technologie et Innovation, référencement, brèche, Tolima.

Page 56: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

56

1. INTRODUCCIÓN La ley 1286 de 2009, Ley de Ciencia y Tecnología, establece entre sus propósitos y mandatos que el Departamento Administrativo de Ciencia, Tecnología e Innovación-COLCIENCIAS formule el Plan Nacional de Ciencia, Tecnología e Innovación teniendo en cuenta las metas y objetivos de los Planes Estratégicos Departamentales de Ciencia, Tecnología e Innovación (PEDCTI) y con ello cumpla con el objetivo establecido en dicha ley el cual pretende “fortalecer el desarrollo regional a través de políticas integrales de descentralización e internacionalización de las actividades científicas, tecnológicas y de innovación, de acuerdo con las dinámicas internacionales” [1].

De otra parte, la mencionada Ley establece en sus artículos 26, 27 y 28 que, le corresponde a las entidades territoriales incluir programas, proyectos y actividades de fomento de la ciencia, la tecnología y la innovación (CTeI) en sus respectivos Planes de Desarrollo. Colciencias como ente del Sistema Nacional de Ciencia, Tecnología e Innovación (SNCTI) se dio a la tarea de fomentar e impulsar la formulación de los PEDCTI con el propósito de dar cumplimiento a los mandatos de ley, integrar a los actores regionales en el SNCTI y lograr un modelo productivo social sustentado en la generación, uso y apropiación del conocimiento relacionado con las potencialidades y realidades de los territorios. Inicialmente entre 2008 y 2009, Colciencias realizó un apoyo directo a través de convenios interinstitucionales a varios departamentos para la formulación de su PECTIT. Entre estos departamentos se encuentran: Antioquia, Risaralda, Bolívar, Valle del Cauca, Huila y Bogotá. En 2010 la convocatoria 539-2010 titulada “Conformar un Banco de Proyectos para Apoyar la Formulación de Planes Estratégicos Departamentales de Ciencia, Tecnología e Innovación” se lanzó para 23 departamentos, entre ellos el Tolima. De esta manera, el Centro de Productividad del Tolima fue seleccionado como el ejecutor para la Formulación del PECTIT a partir de una metodología coherente y sistemática con los propósitos establecidos por Colciencias, entre los cuales se encuentra la realización de una referenciación internacional para la identificación de los ejes o vectores estratégicos, pilares de los programas y proyectos que se definan en el Plan. En tal sentido, este artículo presenta los resultados de la referenciación internacional para el PECTIT.

2. DESARROLLO

La referenciación internacional para la identificación de los ejes o vectores estratégicos del PECTIT tomó como soporte metodológico las brechas tecnológicas y la vigilancia tecnológica.

En un sentido amplio el análisis de brechas busca la comparación con los mejores referentes con el ánimo de identificar, adaptar e implementar estrategias para mejorar los resultados en una organización [2]. Entre tanto, la vigilancia tecnológica es una metodología para la búsqueda, captación, procesamiento y análisis de información de carácter científico, tecnológico, político, normativo, económico, ambiental, entre otros para aportar elementos de juicio a la toma de decisiones en un campo, área, institución o región [3].

La aplicación de la metodología de brechas tecnológicas para desarrollar la referenciación internacional, tomó solo algunos elementos de ésta. En tal sentido, no se llegó hasta la comparación y medición de distancias entre los referentes y el Departamento del Tolima. La metodología de vigilancia tecnológica se aplicó para la búsqueda de información secundaria de los referentes seleccionados para los ejes estratégicos. Para el caso del PECTIT, la referenciación parte de una serie de variables de la planificación en CTeI de regiones internacionales, que den lugar a su análisis como modelo y con ello, estudiar la posibilidad de adaptar las prácticas de los referentes. Por lo anterior, el desarrollo de la referenciación para el Plan parte de la metodología de brechas tecnológicas para realizar la definición de las variables o criterios a estudiar; la selección de los referentes; la construcción de diagnóstico del desempeño científico-tecnológico; y se apoya en la vigilancia tecnológica para la referenciación de cada variable o criterio; y la construcción de las conclusiones como insumos para el PECTIT. En síntesis, las actividades metodológicas son las siguientes.

Tabla 1. Actividades metodológicas de la referenciación

internacional

Metodología Actividad Producto

Brechas Tecnológicas

Definición de los criterios de la referenciación internacional

Criterios para la realización de la referenciación

Propuesta y selección de regiones

Regiones a estudiar

Vigilancia Tecnológica

Identificación de la estructura del Sistema Regional de Ciencia, Tecnología e Innovación de las regiones referentes.

Estructura, políticas, actores, programas del Sistema Regional de Ciencia, Tecnología e Innovación de regiones referentes

Referenciación de las variables o criterios (vectores y estrategias de la planificación de ciencia, tecnología e innovación)

Referenciación de las variables o criterios para las regiones seleccionadas

Conclusiones

Conclusiones para el aporte al Plan Estratégico de Ciencia, Tecnología e Innovación del Tolima

Socialización de los resultados

Presentación de resultados

De igual manera, es importante mencionar que la referenciación internacional se condicionó a la disponibilidad de información secundaria, consultada en Internet, de cada uno de los referentes.

2.1. Resultados En primer lugar, se hace referencia al concepto de Sistema Regional de Innovación (SRI) el cual no tiene una definición plenamente aceptada y siguiendo la exposición general que hacen Asheim y Gertler [4] se concibe como “la

Page 57: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

57

infraestructura institucional que apoya a la innovación en la estructura productiva de una región”. Por otra parte, un Sistema de Ciencia y Tecnología (SCyT) se compone de los actores que producen conocimiento en donde el rol principal lo tienen las universidades y los centros de investigación y desarrollo tecnológico. En la integración de los dos conceptos anteriores surgen los Sistemas Regionales de Ciencia, Tecnología e Innovación (SRCTI) como modelo para el entendimiento de los arreglos para el fomento de la CTeI en el ámbito local. Es precisamente, Cooke en 1992 quien habló por primera vez acerca del concepto integrador y señaló que los SRCTI están integrados por dos subsistemas: 1) Subsistema de generación de conocimiento o infraestructura de apoyo regional (laboratorios de investigación públicos y privados, universidades, agencias de transferencia tecnológica, organizaciones de formación continua) y 2) Subsistema de explotación de conocimiento o estructura de producción regional (empresas); lo cual permite integrar los conceptos de Sistema Nacional de Innovación (SNI) y SNCTI. Así mismo, el Banco interamericano de desarrollo -BID- [5] identifica claramente cuatro subsistemas: 1) el Subsistema de generación de conocimiento en el cual se encuentran los actores como universidades, centros de investigación y demás agentes relacionados con la actividad académica y de investigación. 2) Subsistema de explotación del conocimiento conformado por las empresas. 3) Subsistema de apoyo a la investigación integrado por las instituciones de soporte a la infraestructura física, de maquinaria, de soporte tecnológico y de servicios avanzados. 4) Subsistema de financiación conformado por las instituciones del sector bancario, los agentes gubernamentales que disponen recursos para la investigación, las agencias de cooperación nacional e internacional, entre otros. A partir de esta conceptualización se aborda la referenciación internacional como un proceso para conocer y comprender los ejes estratégicos concebidos como los soportes estructurales de los SRCTI de regiones pares al departamento del Tolima.

2.2. Identificación y Selección de Referentes Para seleccionar las regiones referentes se estableció una serie de criterios, estos son: Referentes latinoamericanos y europeos. Apuestas productivas similares al Tolima (Agroindustrial

- Agricultura - Textil - Turismo - Minería - Piscícola). Condiciones medioambientales similares (clima Tropical

- sin tener en cuenta si es región costera). Política o plan de CTeI. Estos criterios tienen el propósito de identificar regiones extranjeras con condiciones ambientales y productivas con un grado de similaridad al Tolima y que cuenten con un direccionamiento claro y de largo plazo en materia de CTeI. Así mismo, las regiones referentes son escogidas por contar con un desempeño socio-económico soportado en el desarrollo científico, tecnológico y de innovación. Bajo los cuatro (4) criterios mencionados, las regiones propuestas son: Pernambuco - Brasil [6] O´Higgins - Chile [7] Michoacán - México [8] Galicia - España [9] Emilia Romagna - Italia [10]

De igual manera, es importante mencionar que estas regiones cuentan con políticas y planes para fomento de la CTeI y cada uno de estos define claramente los vectores del SRCTI y los programas asociados que permiten su desarrollo.

2.3. Variables de comparación (vectores de los

SRCTI) Con base en la selección de referentes de comparación, se procedió a realizar una revisión de las políticas, documentos de direccionamiento estratégicos o planes de CTeI con el propósito de identificar y determinar los vectores estratégicos y sus respectivos sub-vectores de los SRCTI respectivos. Es importante aclarar el significado que tiene los vectores estratégicos para efectos de la referenciación internacional. Por vector estratégico se entiende como los aspectos cruciales que actúan como obstaculizadores y facilitadores en el funcionamiento del SRCTI, por ende, son considerados como elementos relevantes para orientar el accionar de una política de la CTeI. Luego de la revisión de los Planes o Políticas de CTeI de los referentes seleccionado, se propone el abordaje de las siguientes variables de comparación (vectores estratégicos) los cuales son comunes en todos los casos. Las variables de comparación son las siguientes.

Institucionalidad

Financiación

Infraestructura

Programas de Gestión

Redes

Recursos Humanos

Fig. 1. Vectores estratégicos para referenciación

internacional

Cada de una de estas variables de comparación (vectores) tiene, a su vez, una serie de sub-variables (sub-vectores). La revisión realizada a cada uno de los referentes permitió identificar los sub-vectores que dinamizan o desarrollan el eje respectivo. Estos son:

Tabla 2. Vector y sub-vectores de los SRCTI de regiones

referentes

Vector Sub-vectores

Institucionalidad

Órgano rector Políticas de CTeI Política regional con

componente de CTeI Actores Planes de CTeI

Recursos Humanos

Maestría Movilidad Doctorados Jóvenes investigadores

Financiación Instrumentos de financiación Fondo regional de CTeI

Redes Cooperación nacional Cooperación internacional

Infraestructura de CTeI

Sistema de información Programas para dotación y

Page 58: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

58

Vector Sub-vectores

desarrollo

Programas de gestión

Propiedad intelectual Emprendimiento Apropiación de CTeI Iniciación científica Apoyo a la innovación CTeI aplicado a sectores

estratégicos

2.4. Comparación de referentes A continuación se presenta la comparación de los vectores y sub-vectores para cada una de las regiones referentes, incluyendo al Tolima.

Tabla 3. Referenciación de regiones para cada vector

estratégico

Eje

s

Mic

ho

ac

án

O-H

igg

ins

Ga

lic

ia

Pe

rna

mb

uc

o

Em

ilia

Ro

ma

gn

a

To

lim

a

Fin

an

cia

ció

n Fondo

Regional CTI SI NO SI NO NO NO**

Instrumentos de financiación (Convocatorias)

SI SI SI SI SI SI

Ins

titu

cio

na

lid

ad

Órgano rector

SI SI SI SI SI SI

Actores SI SI SI SI SI SI

Política Regional con componente CTI

SI SI NO SI NO SI

Política de CTI (leyes, decretos, acuerdos)

SI SI SI SI SI SI

Plan de CTI SI SI SI NO* SI NO

Pro

gra

ma

s d

e G

es

tió

n d

e C

TI

Apropiación CTI

SI SI SI SI SI SI

Sectores Productivos o Industriales

SI SI SI SI SI NO**

Apoyo a la creación de empresas de base tecnológica

SI NO SI SI SI NO**

Propiedad Intelectual

NO NO NO NO SI NO

Iniciación científica

SI NO NO NO NO SI

Apoyo a la Innovación

NO NO SI SI SI NO**

Infr

ae

str

uc

tur

a p

ara

la

Inv

es

tig

ac

ión

Sistemas de Información

SI NO NO SI SI SI

Dotación, adquisición o desarrollo de infraestructura para la CTI

NO NO SI SI NO NO

Eje

s

Mic

ho

ac

án

O-H

igg

ins

Ga

lic

ia

Pe

rna

mb

uc

o

Em

ilia

Ro

ma

gn

a

To

lim

a

Re

cu

rso

s

Hu

ma

no

s p

ara

la

Inv

es

tig

ac

ión

Programas de Formación (Maestría-Doctorados-Movilidad-jóvenes investigadores)

SI SI SI SI SI NO**

Re

de

s

Cie

ntí

fic

as

y

Te

cn

oló

gic

as

Relaciones de Cooperación Científica y Tecnológica en el orden regional y nacional

SI SI SI NO SI NO

* La política de CTeI de Pernambuco es considerada como el Plan de CTeI.

** Programas promovidos por el Plan de Desarrollo del Tolima [11], pero que no se encuentran en ejecución u

operación. La revisión de los vectores y sub-vectores para las regiones referentes, permite establecer las siguientes conclusiones: Todos los vectores estratégicos son comunes en las

regiones seleccionadas. Algunos sub-vectores son comunes para todas las

regiones, entre ellos: instrumentos de financiación; reconocimiento oficial de actores de SRCTI; existencia de un órgano rector del SRCTI; programas de apropiación de CTeI; programas de apoyo a sectores productivos y; programas de apoyo para la formación de recursos humanos en CTeI.

Los programas de iniciación científica (niños, jóvenes) solo se promueven en Michoacán (México) [8].

Los programas de apoyo a la propiedad intelectual solo se promueven en Emilia Romagna (Italia) [10].

Los fondos regionales de CTeI se han constituidos en Michoacán y Galicia (España) [9], lo cual indica que no es una condición para desarrollar los SRCTI.

Se puede afirmar que todas las regiones cuenta con planes de CTeI. Aunque la matriz indica que Pernambuco no cuenta con planes de CTeI, se considera que la política de CTeI es el Plan de CTeI, según lo manifestado en la propia política.

Los sistemas de información son sub-vectores emergentes en los SRCTI analizados, toda vez que se han incorporado de manera reciente (últimos cuatro años) en regiones como Michoacán, Pernambuco y Emilia Romagna [6], [8], [10].

Las políticas de desarrollo regional han posicionado a la CTeI como componente de desarrollo. En tal sentido, se reconoce su existencia y ello posiciona a la CTeI en la región, por medio de la creación de un órgano de dirección y coordinación, diseño e implementación de políticas y planes de CTeI y apalancamiento de programas de gestión en la materia.

La implementación de los programas de fomento a la CTeI se realizan por medio de convocatorias en todas las regiones analizadas.

Todas las regiones destinan recursos y diseñan programas específicos para incentivar la investigación

Page 59: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

59

aplicada y la innovación a mejorar los sectores productivos (o estratégicos) priorizados en las políticas regionales. Estos programas están orientados, principalmente, a las universidades y centros de investigación con el propósito de establecer alianzas con el sector productivo y empresarial.

Los programas de apoyo a la innovación están orientados directamente a las empresas. Galicia, Pernambuco y Emilia Romagna cuentan con este tipo de programas.

2.5. Vectores presentes en el Tolima Aunque en el Tolima se encuentran presenten los vectores de institucionalidad, financiación, programas de gestión de CTeI, infraestructura y recursos humanos, los mismos solamente se encuentran planificados en la política del Tolima (Plan de Desarrollo del Tolima) [11], pero muy pocos con programas reales implementados. Solamente, el establecimiento de un órgano rector (institucionalidad), el Plan de Desarrollo del Tolima (Institucionalidad), la definición de los actores del SRCTI (institucionalidad), la política de CTeI (institucionalidad) los programas de apropiación (Programas de gestión) y los sistemas de información (vector infraestructura) se encuentran en ejecución; los restantes solamente se encuentran enunciados en la política regional. Lo anterior indica que el vector más desarrollado en el departamento del Tolima es el eje de institucionalidad, lo cual indica que el departamento cuenta con las bases estructurales de su sistema, es decir, con la política regional (Plan de Desarrollo del Tolima) [11] que incluye el componente de CTeI, el órgano rector y una ordenanza vigente que permite definir los actores y reglas de juego del SRCTI. Aunque en la Política Departamental se menciona que la CTeI será el soporte para la competitividad del departamento, no se define explícitamente los sectores priorizados, ni los programas a implementar. Esto es una falencia de la planificación de CTeI en el departamento. El Departamento cuenta con un diferenciador de otros departamentos. El contar con un Observatorio de Ciencia y Tecnología departamental que realice el seguimiento y medición del desempeño científico y tecnológico es una ventaja que tiene el Tolima frente a otros departamentos, el cual permite dinamizar el sub-vector de sistemas de información. El Fondo de CTeI está establecido por ordenanza pero no se encuentra en ejecución, lo cual se constituye en una pérdida de capacidad y esfuerzo del departamento para el fomento de la CTeI, toda vez que, los fondos son los dinamizadores de los vectores programas de gestión, infraestructura, recursos humanos y redes.

3. CONCLUSIONES La referenciación internacional aporta elementos comunes y no comunes para estructurar los planes de CTeI. En este sentido, los ejes recurrentes en los sistemas regionales de innovación analizados son: Institucionalidad Recursos Humanos Programas de gestión para capacidades científicas y

tecnológicas Financiación Los vectores mencionados anteriormente son los cuatro ejes que la literatura y la teoría sobre SRCTI mencionan. Ello significa que las regiones analizadas han tomado como

soporte estructural las propuestas teóricas y las han implementado por medio de los sub-vectores, dando resultados positivos. Los vectores “infraestructura” y “redes científicas y tecnológicas” pueden ser consideradas como emergentes, dado que no todas las regiones las consideran como vectores estructurales del Sistema o de los componentes de los Planes. Los anteriores no se encuentran en las teorías de SRCTI como vectores o ejes. Se manifiestan como funciones transversales para que un sistema funcione correctamente. En tal sentido, la importancia que destacan estos en las regiones analizadas como parte central del SRCTI demuestra que la infraestructura y la información son necesarias para implementar programas de CTeI.

Es importante aclarar que en algunos planes regionales de CTeI (Brasil y México) consideran el vector de infraestructura como parte de los programas para el desarrollo de capacidades. Uno de los aspectos fundamentales para el buen desempeño de los SRCTI analizados es la financiación para la promoción de los programas. Algunas regiones han implementado fondos regionales para diferentes programas, otras regiones fondos sectoriales o por programas. Un aspecto fundamental para el correcto desempeño de los SRCTI de los casos revisados se constituye en el liderazgo claro por parte de una única entidad, que orienta las estrategias y programas de CTeI, evitando así la duplicidad de esfuerzos y lineamientos. Así mismo, otra condición estratégica es la participación e involucramiento directo de los agentes de referencia del SRCTI, que para todos los casos involucra al Estado, la Academia y la Empresa, teniendo a la sociedad como beneficiaria. El involucramiento de los actores del SRCTI se da desde el aporte financiero, el diseño de políticas y programas, la ejecución de los mismos y el seguimiento. La priorización de sectores permite focalizar los programas de CTeI y el desarrollo de capacidades para potenciar la competitividad regional basada en conocimiento. Un hecho de suma importancia lo presenta Emilia Romagna [10] con la implementación del Programa de Propiedad Intelectual, toda vez que es la única región con tal programa, lo cual demuestra conciencia e importancia de la generación y protección del conocimiento para su aplicación a la solución de necesidades. Por último, uno de los aspectos que llama la atención se centra en los programas de apoyo al emprendimiento de base tecnológica. Ello demuestra una clara tendencia a la transformación de la estructura productiva para incorporar el conocimiento en como parte de las estrategias de productividad y competitividad. Con base en la revisión y análisis de la referenciación internacional, las principales recomendaciones para el SRCTI del Tolima pueden resumirse en los siguientes puntos: 1. El SRCTI del Tolima deberá determinar los sectores

socio-económicos sobre los cuales apuntarán los programas y proyectos (Caso Chile – Brasil - España), basado precisamente sobre los documentos regionales de competitividad como lo son la Agenda Interna de

Page 60: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

60

Productividad y Competitividad, el Plan Regional de Competitividad, la Agenda Prospectiva de Ciencia y Tecnología, entre otros.

2. Determinar claramente las funciones de los actores

involucrados en el SRCTI (Caso España). Para el departamento del Tolima es sumamente importante establecer roles, según los roles de los actores, según Colciencias (2008) [12] tales como financiación, información, científico, tecnológico y gobernanza y de esta manera apoyar al órgano rector (Consejo Departamental de Ciencia, Tecnología e Innovación del Tolima) para movilizar y realizar el seguimiento de los programas de fomento.

3. Revisar la constitución y funcionamiento (fuentes de

financiación) de los fondos regionales para CTeI a partir de los modelos implementados en departamentos como el Huila, Risaralda, Bolívar y Antioquia. Igualmente, otro de los referentes que se sugiere revisar es el Fondo de CTeI de Colombia, el Fondo Nacional de Financiamiento la Ciencia, la Tecnología y la Innovación “Fondo Francisco José de Caldas”. Estos modelos permitirán identificar las fuentes de financiación, los esquemas de manejo de recursos y los mecanismos e instrumentos para la financiación de programas y proyectos del Plan de CTeI del Tolima.

4. Asegurar que la estructura del SRCTI del Tolima cuente con los cuatro vectores centrales (Institucionalidad – Financiación – Recursos Humanos – Programas de Gestión), de tal manera que los programas implementados en la actualidad continúen su operación. Adicionalmente, estudiar la posibilidad de implementar otros programas conexos de cada vector identificados en la referenciación internacional que permitan dinamizar el SRCTI.

5. Específicamente, para el vector de infraestructura, el

Tolima ha avanzado positivamente en la gestión de la información, a través del Observatorio de Ciencia, Tecnología e Innovación. Sin embargo, aún el Departamento depende de los indicadores de CTeI nacionales que genera el Observatorio Colombiano de Ciencia y Tecnología (OCyT), entre ellos datos sobre inversión, capacidades (grupos, investigadores), producción científica, entre otros, y aún no se generan indicadores específicos para los programas de fomento implementados en la región, por ejemplo, Programa Ondas Tolima. En tal sentido, la recomendación se centra en la generación de una batería de indicadores a la medida de los programas de CTeI que se encuentren operando en el departamento, incluyendo la medición de los programas y proyectos establecidos en el PECTIT.

6. Por otra parte, es importante que el Departamento

establezca programas de fortalecimiento de la infraestructura para la CTeI ligados a los centros, laboratorios y grupos de investigación según los sectores priorizados por la Comisión Regional de Competitividad del Tolima y los que se prioricen en el PECTIT para focalizar los programas científicos y tecnológicos de apoyo a la productividad y competitividad. En tal sentido, es pertinente seguir el modelo Brasil (Programa de fortalecimiento de la infraestructura para la investigación en centros de investigación, laboratorios, universidades y empresas) el cual opera por medio de convocatorias y solamente financia aquella infraestructura para la generación de conocimiento que aplique para proyectos de investigación e innovación para sectores productivos o

industriales y en el cual participen los centros, universidades, laboratorios y grupos de investigación.

7. Es muy importante que el Departamento considere la

gestión de la propiedad intelectual como mecanismo para el fomento de la investigación e innovación, principalmente en el sector productivo, empresarial e industrial de la región.

8. En cuanto al vector de Redes Científicas y

Tecnológicas, el Tolima cuenta con una gran oportunidad para hacer parte de las redes nacionales e internacionales en diferentes áreas de conocimiento. En tal sentido, la incorporación de las redes de conocimiento debe tener como lineamiento aquellos temas o sectores priorizados en el PECTIT. Implementar este vector permitirá que Departamento pueda contar con infraestructura, capital humano, financiamiento de proyectos por medio de alianzas estratégicas.

REFERENCIAS [1] Congreso de la República. Ley 1286 de 2009 “Por la

cual se modifica la Ley 29 de 1990, se transforma a Colciencias en Departamento Administrativo, se fortalece el Sistema Nacional de Ciencia, Tecnología e Innovación en Colombia y se dictan otras disposiciones”. Artículo 2 “Objetivos Específicos”. Diario Oficial N° 47.241. Bogotá. Online [En. 2009].

[2] J. Medina, A. Aguilera, C. Franco & L. Landines, Modelo Prospectiva y Vigilancia Tecnológica del Sena para la Respuesta Institucional de Formación – Manual Serie Guías Metodológicas, Cali: Instituto de Prospectiva, Innovación y Gestión del Conocimiento, Universidad del Valle. 2010.

[3] F. Palop & J. M. Vicente, Vigilancia tecnológica e Inteligencia competitiva. Su potencial para la empresa Española, Madrid: COTEC. 1999.

[4] B. T. Asheim & M. S. Gertler, “The geography of innovation: regional innovation systems,” in Fagerberg, J., Mowery, D., Nelson, R. (Eds.), The Oxford Handbook of Innovation. Oxford University Press, Oxford, pp. 291–317. 2005.

[5] J. J. Llisterri & C. Pietrobelli. Los Sistemas Regionales de Innovación en América Latina. Washington: Banco Interamericano de Desarrollo BID, 2011.

[6] Gobierno de Pernambuco. Decreto No 30.369 del 19 de abril de 2007. Reglamento de la Secretaria de Ciencia, Tecnología y Medio Ambiente y dicta otras providencias. Recife. Online [Feb. 2012].

[7] Instituto de Desarrollo Local y Regional, IDER, Universidad de La Frontera. Política de Ciencia, Tecnología e Innovación. Región del Libertador Bernardo O’Higgins. Online [Ago. 2010].

[8] Consejo Estatal de Ciencia y Tecnología de Michoacán, “Programa Estatal de Ciencia y Tecnología de Michoacán. Morelia”. Online [Mar. 2006].

[9] Junta de Galicia. Plan Gallego de Investigación, Innovación y Crecimiento 2011-2015. Galicia. Online [Jul. 2011].

[10] R. E. Romagna. “Programa Regional de Investigación Industrial, Innovación y Transferencia Tecnológica. 2012-2015”. Italia. Online [En. 2011].

[11] Gobernación del Tolima. Plan de Desarrollo Departamental 2012-1015. Online [Feb. 2012].

[12] Instituto Colombiano para el Desarrollo de la Ciencia y la Tecnología Francisco José de Caldas COLCIENCIAS. Sistema Nacional de Ciencia, Tecnología e Innovación. Presentación Institucional. Oficina de Planeación: Bogotá. 2008.

Page 61: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

61

FRAMEWORK PARA LA COMPUTACIÓN FORENSE EN COLOMBIA

Andrés F. Álvarez Serna Universidad de San Buenaventura

[email protected]

Oscar D. Marín Rivera ETICAL SECURITY

[email protected]

Juan D. Victoria Morales COMPUREDES

[email protected]

(Tipo de Artículo: Investigación. Recibido el 19/11/2012. Aprobado el 28/12/2012)

RESUMEN Este FRAMEWORK es un conjunto estandarizado de conceptos, prácticas y criterios para enfocar la problemática a la que se enfrentan los investigadores forenses al momento de procesar las evidencias digitales. Este artículo se refiere a la forense digital en conceptos generales y ubica al lector en el presente de esta ciencia y muestra una guía de pasos a seguir para la recolección y tratamiento de las evidencias enmarcadas en las leyes colombianas y servirá como material de apoyo a estudiantes interesados en el tema y/o quienes ya estén en el medio.

Palabras clave

Evidencias, Forense, MD5, SHA, Memoria virtual, RAM, Swap.

FRAMEWORK FOR COMPUTER FORENSICS IN COLOMBIA ABSTRACT This Framework is a standardized set of concepts, practices and criteria for approaching the problems that must face forensics researchers when processing digital evidences. This article deals with digital forensic through basic concepts and brings the reader to the present of forensic science, it also shows a guide of proposed steps for the collection and processing of evidence based in Colombian laws, aiming to serve as support material for students interested in this subject and professionals in the field. Keywords Evidences, Forensic, MD5, SHA, Virtual Memory, RAM, Swap.

CADRE DE REFERENCE POUR L’INVESTIGATION NUMÉRIQUE LÉGALE DANS COLOMBIE

Résumé Ce cadre de référence est un ensemble standardisé de concepts, pratiques et critères pour faire une approche à la problématique que doivent affronter les chercheurs légales dans le moment de traiter les évidences numériques. Cet article s’occupe de l’investigation numérique légale avec des concepts généraux et place au lecteur dans l’actualité de cette discipline, montre une guide à suivre pour la collecte et traitement des évidences d’après la loi colombienne et supporte aux étudiants intéressés sur le thème et aussi aux professionnels. Mots-clés Évidences, Numérique Légale, MD5, SHA, Mémoire virtuel, RAM, Échange.

Page 62: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

62

1. INTRODUCCIÓN La ciencia forense informática es una disciplina moderna que busca en un incidente, fraude ó uso de recursos informáticos responder a los cuestionamientos ¿quién?, ¿cómo?, ¿dónde? y ¿cuándo? sucedieron los hechos, mediante la identificación, preservación, extracción, análisis, interpretación, documentación y presentación de los hechos como material probatorio sólido.

2. CARACTERÍSTICAS GENERALES Gracias al crecimiento en el uso del internet y a los masivos problemas de seguridad que esto acarrea, el crimen digital se ha convertido en un reto para los investigadores. Es aquí donde comienza una nueva forma de mirar la ciencia forense en la tecnología y nace la computación forense. El objetivo del investigador forense es aportar evidencia sólida a los administradores de justicia quienes son los encargados de determinar las responsabilidades civiles, administrativas y penales. Dentro de los objetivos de la computación forense encontramos la necesidad de determinar los hechos ocurridos en un evento donde se interactúa con equipos de cómputo, buscando esclarecer los hechos, determinando la magnitud del incidente y los implicados. La finalidad de la ciencia informática forense en la mayoría de los casos, busca identificar material probatorio que pueda ser utilizado en un tribunal o simplemente apoye la gestión de riesgos mejorando la prevención de futuros incidentes [1].

3. REPOSITORIOS DE EVIDENCIAS En entornos digitales la evidencia de cada operación podría estar en diversos componentes que pueden variar abruptamente según las características del sistema, es allí donde es fundamental la pericia del investigador y conocimiento especializado del sistema que se está evaluando. Una de las primeras recomendaciones es iniciar buscando en los repositorios más comunes de evidencia como los sistemas de archivos, archivos temporales, registro de Windows, archivos eliminados, slack space, memoria virtual.

Sistema de Archivos: Son los encargados de estructurar la información guardada en una unidad de almacenamiento que representa los datos en bits. El conjunto de bits almacenados en una unidad es conocido como archivos o ficheros, estos son representados por nombres y son equivalentes a documentos físicos, que pueden ser encontrados en medios de cómputo internos o externos como teléfonos móviles, cámaras digitales, memorias USB, discos duros, unidades de almacenamiento externo, en general en cualquier dispositivo electrónico que permita almacenar información. Archivos temporales: se crean en el sistema de archivos cuando inicia un programa para respaldar la información antes de ser guardado o bien para poderse

ejecutar si el equipo no tiene suficiente memoria. Estos archivos normalmente se borran después de utilizar el programa, siempre y cuando el programa este configurado de esta manera. Casi siempre los archivos temporales se guardan en diferentes carpetas según el sistema operativo, por ejemplo en Windows se almacenan en la ruta C:\Windows\Temp, y en C:\Users\”usuario”\AppData\Local\Temp, la carpeta temporal de cada usuario se almacenan con extensión .TMP. En UNIX se guarda con el nombre original y extensión del archivo anteponiendo un carácter especial ~ y son almacenados en la ruta /tmp. Registro de Windows: Sirve para almacenar los perfiles de los usuarios, las aplicaciones instaladas en el equipo y los tipos de documentos que cada aplicación puede crear, las configuraciones de las hojas de propiedades para carpetas y los iconos de aplicaciones, los elementos de hardware que hay en el sistema y los puertos que se están utilizando. En el registro se encuentra información valiosa que es utilizada como evidencia digital Ej.: programas instalados o desinstalados, modificación sobre ellos etc. Archivos Eliminados: Cuando se elimina información de los discos duros, estos desaparecen del sistema de archivos y son marcados en las unidades de almacenamiento como espacio libre, entonces existen bloques que contienen la información borrada o datos no usados. Lo anterior significa que la información permanece en el disco hasta que los datos son sobrescritos físicamente permitiendo la recuperación de información que el usuario final considera eliminada [1]. Slack space: es el espacio inutilizado en un sector del disco, que pueden ser utilizados para investigación porque puede contener información. Este espacio se encuentra al final de cada sector [1]. Memoria virtual: es una memoria temporal creada mediante la mezcla de hardware y software para realizar la carga de programas ayudando a la memoria RAM. La memoria virtual se combina entre el disco duro y la memoria RAM, cuando la memoria RAM está saturada lleva datos a un espacio asignado al disco duro, llamado memoria virtual. En este espacio del disco el investigador encontrará información importante de los programas que se ejecutaron sin importar que el computador se encuentre apagado o encendido. El común de las personas piensa que realizar daños a los sistemas se pueden realizar sin ser descubiertos y que necesitan gran conocimiento para realizarlos, por esta razón veremos unos mitos y prejuicios a los que se ven enfrentados.

Page 63: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

63

4. MITOS Y PREJUICIOS ¿La persona que realiza un ataque informático

requiere de un conocimiento grande en informática? No es así. Anteriormente se requería de un conocimiento amplio, pero hoy en día los atacantes con poco conocimiento realizan ataques con grandes impactos. Como ejemplo tenemos que antes se necesitaba realizar gran investigación y desarrollo de aplicativos (xploits) que finalmente realizan el ataque aprovechando una vulnerabilidad; ahora con solo descargar archivos desde la web como: http://www.exploits-msn.com/ encontramos programas que con solo un click pueden realizar ataques significativos incorporando nuevas motivaciones como el hacktivismo como muestra la figura 1.

¿Los hackers o crackers tienen un coeficiente

intelectual superior al normal? Cualquier persona con conocimientos básicos en informática puede convertirse en hacker o cracker, gracias a las herramientas que se encuentran en internet, libros, conferencias etc.

¿Los criminales cibernéticos son expertos en computadores y con alta habilidad técnica? Ya no es necesario ser experto cualquiera con acceso a un computador e internet puede lograr ataques; con tan solo ingresar a foros como: http://www.taringa.net/posts/info/1697890/Ejemplo-de-Como-Funciona-un-Exploit.html, encontrará los pasos para realizar y ejecutar xploits fácilmente.

¿Puedo pasar desapercibido si realizo un ataque?

Los investigadores forenses trabajan arduamente para hallar las evidencias necesarias que lo lleven a establecer cuándo?, cómo? y dónde? se realizó un ataque.

¿Si formateo el equipo se borra toda la evidencia?

No, el forense especialista tiene las herramientas necesarias para recuperar la información como por ejemplo: ENCASE (http://www.guidancesoftware.com).

Fig. 1. Motivación, conocimiento e impacto de los ataques informáticos [2]

5. CIENCIA FORENSE

5.1. Principio de Locard Edmon Locard fue uno de los pioneros de la criminalística a principios del siglo XX y su tratado consistió en la siguiente apreciación: “Siempre que dos objetos entran en contacto transfieren parte del

material que incorporan al otro objeto" [3]. Este principio ha permitido obtener notables evidencias en lugares insospechados de esos tiempos, como por ejemplo huellas dactilares, huellas en arcilla y barro, sangre, cabello o restos en partes del cuerpo humano. Basado en lo anterior podemos deducir que un criminal siempre dejará un rastro en una escena o una acción

Page 64: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

64

cometida, por lo tanto la forense digital ha aprovechado este principio como un apoyo a la gestión de la recolección de las evidencias digitales dejadas en un sistema informático después de realizar un acto ilícito.

5.2. Clase de Evidencia Evidencias Físicas: es la evidencia tangible que puede ser tomado de una escena del crimen que ayude a obtener datos informáticos, como lo son equipos de cómputo, router, memorias, unidades de almacenamiento externo, cámaras, equipos móviles y cualquier tipo de dispositivo electrónico que pueda contener información. Evidencia volátil: La evidencia volátil como su nombre lo dice es aquella que permanece solo por un tiempo determinado y no es para siempre. La información transitoria se encuentra normalmente

en la memoria RAM, en la swap ó en la memoria

virtual, la información contenida en estas áreas es temporal mientras el equipo este encendido. Otro tipo de evidencia transitoria se puede dar cuando estamos realizado una conexión o se tiene sesión abierta en internet, esta evidencia debe ser tomada en el acto.

Evidencia digital: Es la información o datos obtenidos en los equipos tecnológicos para su posterior análisis y puedan ser presentadas como evidencias. Esta información tiene la característica de ser copiada exactamente realizando una copia bit a bit utilizando herramientas de análisis forenses con las cuales se puede determinar que la información copiada no ha presentado modificaciones en su contenido y que permita verificar que la copia es exacta; para esto podemos utilizar algoritmos MD5 y SHA1 para generar el archivo HASH.

5.3. Principio de Admisibilidad Según la legislación colombiana para garantizar la validez probatoria de la evidencia digital se tienen en cuenta los criterios de: autenticidad, confiabilidad, suficiencia y conformidad con las leyes y reglas de la administración de justicia, que dan lugar a la admisibilidad de la evidencia. Es importante aquí explicar puntualmente el significado de cada una de estas características: Autenticidad: que la información obtenida se haya adquirido en la escena del acontecimiento con el fin de no alterar los medios originales. Para esto se realiza una imagen bit a bit y se utiliza el algoritmo MD5 o SHA1 para demostrar que no fue modificado. Confiabilidad: En este paso se verifica que la evidencia obtenida proviene de una fuente verificable y creíble. En este paso se debe asegurar que los registros y logs del sistema del equipo utilizado para la recolección de la evidencia estén sincronizados y puedan ser verificados e identificados; crear una línea de tiempo donde muestre paso a paso como se realizó

la recolección de la evidencia y que los medios utilizados para almacenar la evidencia sean estériles. Suficiencia: Todas las evidencias se deben presentar y estar completas para poder adelantar el caso; se debe realizar una correlación de eventos que afiance la presentación y desarrollo de las evidencias. Conformidad con las leyes y reglas de la administración de justicia: la forma como es obtenida y recolectada la evidencia digital se enmarca claramente en las leyes y procedimientos vigentes en Colombia.

6. COMPUTACIÓN FORENSE La computación forense hace parte de las disciplinas de las ciencias del derecho y de la computación y se enfoca en el análisis de los datos que pueden provenir de un equipo de cómputo o de una infraestructura informática como una red o subred que puede incluir cualquier medio de almacenamiento fijo o removible y que cumple con el principio de admisibilidad ante una entidad investigativa y pueda ser admisible en una audiencia frente a una corte. La evidencia digital puede ser utilizada en: Investigaciones de fraude Robo de identidad o de propiedad intelectual Fuga de información Pleitos civiles Demandas Delitos informáticos.

6.1. Ciencias forenses de la computación La ciencia forense de la computación ofrece ventajas competitivas en el mundo de la investigación digital, que han permitido avances significativos en el mundo tecnológico con los logros importantes que se citan a continuación: Analizar evidencias en formato digital, lo que antes

era un mito. Verificar la integridad de la evidencia en mención. Reconocimiento de la evidencia digital. Estudio de los diferentes formatos en que se

encuentra almacenada la información. Identificación de los propietarios de la información,

cómo se modifica, quién la modifica, quien tiene perfil para manipular la información.

Habilidades técnicas y procedimientos forenses. El manejo y control de los documentos

electrónicos.

6.2. Características de las evidencias digitales La evidencia digital es el componente fundamental de cualquier investigación forense. Los profesionales de la computación forense tienen algunos retos con la información a intervenir y los atributos de éstos es así como se debe de entender las siguientes características de la evidencia digital, que pueden ser: eliminadas, copiadas, alteradas, volátil, duplicables.

Page 65: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

65

Al sistema de archivos del equipo a investigar es factible obtenerle la línea del tiempo, para comprobar la transformación cronológica de los datos. También es importante anotar que existen herramientas que permiten identificar si las evidencias han sido alteradas. Al final de este documento se explica paso a paso el análisis forense y hace énfasis en las características de las evidencias digitales.

6.3. Actividades de la computación forense Las actividades de la computación forense se realizan siguiendo un orden secuencial como se muestra a continuación en la figura 2.

Fig. 2. Elaboración propia

Recolección: Realizar la identificación de las posibles fuentes de datos y realizar una adecuada recolección de las evidencias encontradas en un equipo de cómputo, unidades externas, redes de datos, equipos móviles, etc. Luego de la identificación de los potenciales datos se debe desarrollar un plan para adquirir la información y verificar la integridad de éstos [4].

Examinar: En esta etapa se examinan los datos encontrados utilizando técnicas y herramientas para ayudar al investigador a determinar cuáles datos son realmente importantes y le aportan a la investigación, también se puede obtener información de que sistema operativo utilizó, que tipo de conexión obtuvo, detalles como origen y contenido, tipos de datos digitales como gráficos, documentos de textos, aplicativos, o rastros (logs) del sistema que puedan ayudar a dar fuerza a la evidencia [4].

Análisis: En el análisis se revisa la información examinada y determina lugares, objetos, eventos, relación entre las evidencias halladas y se llega a alguna conclusión para determinar quién, cómo, cuándo y donde sucedieron los hechos [4], [5].

Entrega de informes: Esta es la parte final del proceso donde se entrega la presentación basada en lo encontrado en la fase de análisis. El informe debe ser claro y conciso utilizando un lenguaje entendible y sin tecnicismos cuidándose solo de presentar las evidencias encontradas y no dar o sugerir culpables. Debe contener un orden cronológico y vincular los datos probatorios con fechas y horas detalladas, si es del caso hacer referencia a la ley correspondiente que se está violando. [4], [5].

7. LEGISLACIÓN Existe normatividad desde tres frentes: la legislación informática, legislación penal y la legislación civil. La legislación civil permite responder a personas y a sus bienes si es de carácter patrimonial o moral. Por su lado la legislación penal vela por los daños a los bienes jurídicos protegidos por el estado. El análisis de la evidencia digital deberá cumplir con los requisitos de admisibilidad, pertinencia, suficiencia y legalidad establecidas por la ley, los documentos electrónicos deben ser aceptados por el juez sin valorar antes su autenticidad y seguridad. Para que los documentos digitales sean admitidos como evidencias se deben de tener en cuenta las siguientes leyes:

La Ley 527 de 1999 conocida como la ley del comercio electrónico y su decreto reglamentario 1747 de 2000, reconoció fuerza probatoria como documentos a los mensajes de datos.

El artículo 10º de la Ley 527/99 regla: "Los mensajes de datos serán admisibles como medios de prueba y su fuerza probatoria es la otorgada en las disposiciones del Capítulo VIII del Título XIII, Sección Tercera, Libro Segundo del Código de procedimiento Civil. Lo anterior satisface el requisito de que la información conste por escrito, equiparándolo así al documento escrito tradicional

La Corte Constitucional en sentencia C-662 de junio 8 de 2000, con ponencia del Magistrado Fabio Morón Díaz, al pronunciarse sobre la constitucionalidad de la Ley 527 de 1999, hizo las siguientes consideraciones: (...) "El mensaje de datos como tal debe recibir el mismo tratamiento de los documentos consignados en papel, es decir, debe dársele la misma eficacia jurídica, por cuanto el mensaje de datos comporta los mismos criterios de un documento [6].

Con la promulgación de la ley 1273 de 2009 se da mayor admisibilidad a las evidencias digitales, en esta ley se modifica el código penal buscando la preservación integral de los sistemas de información y las comunicaciones.

La ley 1273 de 2009 “De la Protección de la información y de los datos”

7.1. Capítulo I De los atentados contra la confidencialidad, la integridad y la disponibilidad de los datos y de los sistemas informáticos

Artículo 269A: Acceso abusivo a un sistema informático Artículo 269B: Obstaculización ilegítima de sistema informático o red de telecomunicación

Artículo 269C: Interceptación de datos informáticos Artículo 269F: Violación de datos personales Artículo 269G: Suplantación de sitios web para

capturar datos personales.

Page 66: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

66

Artículo 269H: Circunstancias de agravación punitiva

7.2. Capítulo II De los atentados informáticos y otras infracciones. Artículo 269I: Hurto por medios informáticos y

semejantes Artículo 269J: Transferencia no consentida de

activos Artículo 58. Circunstancias de mayor punibilidad.

8. PROBLEMAS PARA LA ACEPTACIÓN DE LAS

EVIDENCIAS DIGITALES Uno de los grandes obstáculos para la aceptación de evidencia digital en Colombia, es la carencia en los códigos procesales penales de normas especializadas destinadas a salvaguardar la cadena de custodia y admisibilidad de la evidencia digital. Esta falencia afecta a todas las partes involucradas incluyendo al juez encargado de administrar justicia que en algunos casos por el desconocimiento e incertidumbre técnica prefiere apartarse del material probatorio digital. La factibilidad técnica que existe para alterar la evidencia digital conocida como técnica anti forense es utilizada comúnmente por la defensa para desvirtuar la solidez del material probatorio, por lo cual es fundamental que cada operación realizada sobre la información y medios sea según los procedimientos oficiales establecidos, utilizando las mejores practica descritas por los organismos oficiales que incluyen la estricta documentación y toma de evidencia de cada proceso de manipulación. Existen mecanismos tecnológicos que permiten sustentar la solidez de la evidencia y sus alteraciones, para esto el perito informático debe apoyarse en los sistemas de correlación de eventos, logs de auditoría, sistemas de detección de intrusiones, registro de autenticación, autorización y estampas de tiempo para sustentar sus apreciaciones. Quizás uno de los retos más importantes que tiene la administración de justicia en el mundo en este momento es que no existen barreras geográficas para los delitos informáticos donde la jurisdicción de un solo incidente involucra múltiples legislaciones de estados y países, obligando a la parte acusatoria a ligarse al ámbito local en el que tiene autoridad sin que se dispongan de mecanismos sólidos de cooperación internacional. Otro obstáculo para la aceptación de la evidencia digital podría denominarse “tecnicismo” que consiste en utilizar un lenguaje científico y tecnológico que resulta en muchas ocasiones indispensable para describir de forma clara y concisa un evento. Es estrictamente necesario que el perito informático utilice un lenguaje comprensible y didáctico que le permita al juez entender los procedimientos y resultados de la investigación forense digital.

Según la sentencia C–334/10 de la corte constitucional la evidencia digital es “frágil y volátil”, además de fácilmente manipulable. “Luego, al aportar elementos digitales en un caso, es preciso que el aparato judicial cuente con una base formal y clara sobre la admisibilidad de la evidencia digital presentada. Es decir, que la justicia pueda contar con características básicas de esta evidencia, estableciendo procedimientos básicos que le permitan verificar su autenticidad, confiabilidad, suficiencia (completitud) y en conformidad con las leyes establecidas” [7].

9. PASO A PASO EN LA RECOLECCIÓN DE LAS

EVIDENCIAS

9.1. Factores críticos de éxito La computación forense debe enfocarse como una estrategia para combatir los delitos informáticos, en este sentido al manipular los equipos informáticos debemos tener presente lo siguiente: Ajustar el sistema donde se realiza el análisis antes

de la recolección de la evidencia. En el análisis de los medios se debe verificar que

los medios son vírgenes y que nunca han sido utilizados para no distorsionar la integridad de la información.

Adicionar datos propios al sistema de archivos del equipo que se pretende analizar.

Evitar afectar procesos del sistema. Evitar accidentalmente, tocar las líneas del tiempo. Utilizar Herramientas o comandos que no alteren la

imagen y para su visualización realizar el montaje como solo lectura.

Las evidencias se utilizan principalmente para encontrar datos específicos concernientes a la actividad criminal.

Utilizar máquinas forenses y herramientas automatizadas para examinar gigabytes de datos.

Utilizar técnicas que enfaticen la recolección de la evidencia digital de una adecuada que cumplan con mecanismos aceptados por quien los utilicen como prueba aceptable en investigaciones o en tribunales.

Minimizar la pérdida de datos y evidencias.

10. GUÍA DE TRABAJO

10.1. Pasos para el análisis forense en Colombia Antes de iniciar la recolección de la evidencia es necesario tener muy claro los procedimientos que garanticen la cadena de custodia del material probatorio. La Fiscalía General de la República de Colombia, publica en el 2004 el MANUAL DE PROCEDIMIENTOS DEL SISTEMA DE CADENA DE CUSTODIA, “Este manual contempla las normas, el proceso y los procedimientos del sistema de cadena de custodia que permitirán alcanzar niveles de efectividad para asegurar las características originales. Cabe resaltar que este manual está enfocado al manejo de evidencia física por lo cual es necesario tomar acciones para salvaguardar la evidencia digital,

Page 67: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

67

por ejemplo en “aseguramiento del lugar de los hechos” se contempla un aislamiento físico del material con el propósito de que este no sea alterado, en un entorno digital este aislamiento debe contemplar la desconexión total de la red y de los mecanismos de acceso remoto sin caer en el error de apagar el sistema o prender si se encuentra apagado. En el mismo manual la “Recolección, embalaje y rotulado del elemento de prueba o evidencia” no se tiene en cuenta los mecanismos tecnológicos necesarios para el embalaje de evidencia digital que podrían ocasionar la pérdida de la información, se deberían contemplar mecanismos de control para fuentes de energía estática y electromagnetismo, condiciones extremas de calor y humedad que podrían generar incluso Geotrichum (hongos) en los medios de almacenamiento. De igual manera en la “Presentación del elemento en diligencia judicial” es necesario el acompañamiento del perito informático forense para la valoración científica, se recomienda que el perito cuente con el reconocimiento de alguna organización reconocida [8]. La evidencia digital podría estar representada en archivos, proceso en ejecución en el sistema, archivos temporales, registros, tiempo de encendido del sistema, fechas de accesos a recursos, imágenes y videos etc. Para recolectar la evidencia es muy importante considerar las buenas prácticas debido a que no existe un procedimiento único oficial abalado para estos fines, el RFC 3227 - Guidelines for Evidence Collection and Archiving se convierte en una buena guía de la cual destacamos en principio el orden en que debe ser recolectada la evidencia iniciando con la información más volátil almacenada en medios de este tipo como memoria RAM, memoria cache, tablas de procesos, tablas de enrutamiento, entradas ARP y sistemas de archivos temporales. Para terminar finalmente recolectando la información menos volátil como los sistemas de archivos y topologías de red [9]. El paso siguiente después de la recolección de la información es establecer un mecanismo mediante el cual podamos asegurar la integridad de los datos, para este propósito son utilizados los algoritmos de resumen como el MD5 y SHA1 que arrojan como resultado un valor alfanumérico de longitud fija llamado HASH, estos algoritmos pueden recibir como entrada una cadena de caracteres ó archivos de cualquier tamaño y permiten asegurar que los documentos digitales no han sido alterados durante la investigación. Los algoritmos más comúnmente utilizados son:

Tabla 1. Algoritmos de HASH

Algoritmo Tamaño del resultado

en bits

MD2 128

MD4 128

Algoritmo Tamaño del resultado

en bits

MD5 128

PANAMA 256

RIPEMD 128

RIPEMD-128 128

RIPEMD-160 160

RIPEMD-256 256

RIPEMD-320 320

SHA-0 160

SHA-1 160

SHA-224 224

SHA-256 256

SHA-384 384

SHA-512 512

Tiger2-192 192

WHIRLPOOL 512

En la utilización de los algoritmos de hash no podemos dejar pasar por desapercibido la baja probabilidad que existe que al menos dos entradas arrojen un valor de resultado idéntico esto es conocido como colisión y afecta a todos los algoritmos debido a que se pueden utilizar como entrada del algoritmo un número infinito de cadenas de caracteres pero como resultado siempre obtendremos un valor de longitud limitado en el caso de MD5 de 128 bits lo que quiere decir 2

128=3’402823669 * 10

38 de posibles combinaciones.

Es importante resaltar que los medios de almacenamiento, no manejan la información a niveles tan pequeños como bits o bytes, sino que la manejan en grupos llamados clúster, sector o bloque. La cantidad de bytes agrupados en estos depende del “sistema de archivos” es decir el formato que tenga el medio de almacenamiento. Por ejemplo, el que usa Windows se llama NTFS (New Technology File System) en este el tamaño de sus clúster es de 512 bytes. La importancia de estos clúster es que el medio de almacenamiento lleva un registro de qué clúster pertenece a qué archivo o si éste no ha sido asignado a un archivo. Esto no se hace por dejar evidencia, sino porque los medios de almacenamiento, necesitan para un adecuado funcionamiento dichos registros y se llevan en la MFT (tabla de asignación de archivos por sus siglas en ingles File Asignation Table). Un hecho significativo es que cuando se borra un archivo éste realmente no es borrado del medio de almacenamiento, lo que ocurre es que se registra en la MFT que estos clúster no están asignados y por esta razón no se puede acceder a él directamente. Pero los bits que conformaban este archivo siguen intactos en el medio de almacenamiento y por tanto el archivo que fue borrado puede ser recuperado Para asegurar la aceptabilidad de la evidencia recomendamos utilizar mínimo dos algoritmos de

Page 68: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

68

HASH simultáneamente o utilizar los algoritmos que arrojan como resultado cadenas de mayor longitud como SHA-512, WHIRLPOOL. Para garantizar la aceptabilidad en el análisis forense es necesario realizar una copia exactamente idéntica a los datos originales, para esto se utilizan las copias en la unidad de almacenamiento más pequeño que existe como lo es la copia bit a bit. Para estas copias bit a bit existen innumerables herramientas y equipos físicos que tiene un alto nivel de fiabilidad pero recomendamos utilizar el programa “dd” que está incluido en la mayoría de compilaciones de Linux y permite en compañía de NETCAT realizar copias incluso por red. Una vez adquirida la imagen es necesario obtener la línea de tiempo que contiene cronológicamente la creación, modificación, acceso y eliminación de los archivos contenidos. Para una correcta interpretación cronológica es necesario comparar el reloj interno del sistema del cual se extraen los datos y un servidor de tiempos NTP para definir la hora real de los eventos. También es una buena práctica utilizar un servidor NTP para documentar con hora exacta cada una de las operaciones realizadas sobre los datos. Para el procesamiento de la evidencia es necesario utilizar herramientas y comandos que no alteren la información analizada de ser posible en modo solo lectura. Sin las herramientas adecuadas, con solo abrir un archivo pueden ser alteradas las fechas de última modificación. Para el análisis de la evidencia resulta muy útil la búsqueda de palabras claves dentro de todos los archivos para lo cual se recomienda crear un diccionario de palabras concernientes al caso investigado. Otro de los pasos que nos encontramos al momento de una investigación forense es enfrentar investigaciones que en muchos casos pueden traspasar las fronteras nacionales y que por tal motivo están regidas por legislación muy diferente a la colombiana. Por esta razón es necesario utilizar procedimientos estandarizados que puedan responder a cualquier legislación por lo cual cabe recomendar la utilización de los estándares conocidos para el manejo de incidentes de seguridad informático que no son precisamente para análisis forense como la ISO/IEC 27002:2005. Una de las partes más útiles para el análisis forense son los datos que deben ser levantados al momento de encontrar evidencia digital resaltamos los siguientes de la norma: ¿Qué es la evidencia encontrada? Son las pruebas como archivos que conducen al

esclarecimiento del delito. ¿Quién encontró la evidencia?

La evidencia debe ser encontrada por especialistas informáticos forenses.

¿Cómo encontró la evidencia? La utilización de técnicas que permiten el análisis

mediante las líneas de tiempo. ¿Cuándo encontró la evidencia? En el momento del análisis. ¿Dónde encontró la evidencia? En Memoria volátil, sistemas de archivos, redes de

cómputo. ¿Quién recuperó la evidencia? Forense informático. ¿Cómo recuperó la evidencia? Utilizando herramientas que garanticen la

admisibilidad de los archivos digitales. ¿Dónde recuperó la evidencia? En equipo y medios estériles donde previamente se

realizó copia bit a bit del medio incautado. ¿Cómo preservar la evidencia? En medios estériles, y el embalaje en recipiente

que permitan conservar la integridad del dispositivo, además de realizar un MD5 o SHA1.

También se puede utilizar el SP800-61 del NIST “National Institute of Standards and Technology” en su guía de manejo de los incidentes de seguridad en computadores de donde pueden ser extractados algunos principios claves para sustentar la admisibilidad de la evidencia encontrada [4], [10]. Más importante aunque la misma evidencia es la presentación que se realiza de los resultados para ser abalados como material probatorio. Es recomendado utilizar un lenguaje sin tecnicismos, claro y amable sin emitir juicios con una impecable redacción, se debe tener muy claro que sus interlocutores son en su mayoría abogados y personas del común que no tiene conocimientos técnicos para asimilar la contundencia de la evidencia. Finalmente es muy importante presentar el reporte en orden cronológico narrando de forma ordena y fluida cada uno de los hallazgos encontradas durante el análisis, evitando emitir juicios.

10.2. Resumen paso a paso 1. La incautación debe realizarse por el informático

forense para asegurar la admisibilidad de la evidencia.

2. Recolectar, incautar, aislar y asegurar la evidencia. 3. Tomar una imagen bit a bit de los discos,

memorias USB, encontradas, si es el caso. 4. Conservar la integridad de la evidencia. Sacar un

Md5 o sha1 para la imagen, archivo o fichero encontrado.

5. Procesamiento de la evidencia al ser embalado, rotulado, firma y fecha del funcionario que hace la incautación.

6. Todos los procedimientos realizados deben ser documentados y catalogados con fechas y descripción del procedimiento

Page 69: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

69

7. No modificar la evidencia de ninguna forma, evitar romper la cadena de custodia de la evidencia o del medio.

8. Análisis de la evidencia 9. Cuando tenga una imagen de cualquier medio de

almacenamiento (discos, memorias, dispositivos móviles, cámaras etc.) sacar línea de tiempo de las imágenes. En estas encontramos creación, modificación, acceso y eliminación de los archivos contenidos.

10. Montar la imagen para ver su contenido, tener en cuenta que cuando monte la imagen no se realicen modificaciones de su contenido en ninguna de sus formas, para realizar su análisis.

11. Realizar reporte con fechas, orden cronológico de lo encontrado y entregar conclusión de lo sucedido en el mismo orden.

12. Generar un registro de seguridad de todo el procedimiento antes, durante y después para ser presentado ante un juez.

11. CONCLUSIONES La combinación de diferentes técnicas empleadas en el análisis forense ofrece al investigador las evidencias necesarias para demostrar un hecho ocurrido en un sistema tecnológico. Todo evento realizado en sistema deja un registro del suceso y puede ser obtenido por el especialista así haya sido borrado por el atacante. Las bitácoras y la correlación de eventos son la fuente más importante de los investigadores forenses. Se denota que estamos obligados a fortalecer más estas herramientas para una labor más integral de quienes estamos en este mundo de la forense digital. Cada vez más nos acercamos a los hechos reales de los delitos informáticos y uno de los factores ha sido la utilización de herramientas forenses.

REFERENCIAS

[1] J. Cano. Computación forense descubriendo los

rastros Informáticos. Online [En. 2009].

[2] Software Engineering Institute. Carnegie Mellon University. Trusted Computing in Embedded Systems - Challenges. Online [Nov. 2010].

[3] G. Zucarddi & J. D. Gutiérrez. “Informática

Forense”. Online [Nov. 2006].

[4] K. Kent, S. Chevalier, T. Grance & H. Dang. National Institute of Standards And Technology. “Guide to Integrating Forensic Techniques into Incident Response. NIST SP 800-86”, Online [Aug. 2006].

[5] J. E. Bonilla. Computación Forense. Online [Nov.

2009].

[6] Congreso de la República. Ley 527 de 1999. Online [Mayo. 2012].

[7] Corte Constitucional de Colombia. Sentencia C-

334/10 corte constitucional. Online [Junio. 2010].

[8] Fiscalía General de la Nación. Manual de procedimientos para cadena de custodia, Fiscalía General de la Nación, p. 23, ISBN 958-97542-8-7.

[9] D. Brezinski & T. Killalea. Guidelines for Evidence

Collection and Archiving. IETF. Online [Feb. 2002].

[10] Norma técnica Colombiana NTC-ISO/IEC 27001. Online [Jul. 2006].

Page 70: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

70

70

70

APLICACIÓN DE LOS SISTEMAS DE INFORMACIÓN GEOGRAFICA PARA LA

GESTIÓN DE LA MALLA VIAL DE LA CIUDAD DE MEDELLÍN

Jaime A. Zapata Duque Alcaldía de Medellín, Colombia

[email protected]

Gabriel J. Cardona Londoño Alcaldía de Medellín, Colombia

[email protected]

(Tipo de Artículo: Investigación. Recibido el 04/12/2012. Aprobado el 30/12/2012)

RESUMEN

El estado de la malla vial depende fundamentalmente de factores tales como el tráfico, características estructurales y funcionales del pavimento y condiciones climatológicas locales, y su mantenimiento tiene importantes implicaciones espaciales. Este documento describe el proceso de implementación del sistema de gestión de pavimentos de la ciudad de Medellín, desarrollado en una plataforma SIG. El sistema está soportado en una geodatabase corporativa de inventario y diagnóstico, el cual alimenta un software de modelación del deterioro del pavimento y arroja recomendaciones de intervención en cada segmento vial. Este sistema sirve como apoyo a las autoridades encargadas a la toma de decisiones, con el fin de realizar la planeación del mantenimiento de la malla vial, optimizar los recursos disponibles y ofrecer un mejor servicio a la comunidad.

Palabras clave Sistemas de información geográfica (SIG), Transporte, vehículos, transporte por carretera, mantenimiento, asfalto, áreas urbanas, gestión.

APPLYING GEOGRAPHIC INFORMATION SYSTEMS FOR THE MANAGEMENT OF THE ROAD NETWORK OF MEDELLÍN CITY

ABSTRACT

The road network condition depends mainly on factors such as traffic, structural and functional characteristics of asphalt and local weather conditions, and its maintenance, have important spatial implications. This document describes the implementation process of an asphalt management system for Medellin city, developed in a GIS platform. The system is supported in an inventory and diagnostic geodatabase, which feeds the modeling software for asphalt deterioration, and provides intervention recommendations for each road segment. This implementation helps supporting the decision making process for authorities, in order to perform the planning of road network maintenance, optimizing available resources and providing better service to community.

Keywords Geographic Information Systems (GIS), Transportation, Vehicles, Road transportation, Maintenance, Asphalt, Urban areas, Management

APPLICATION DES SYSTÈMES D’INFORMATION GEOGRAPHIQUE POUR LA GESTION DU RESEAU ROUTIER DE LA VILLE DE MEDELLÍN

Résumé La condition du réseau routier est déterminée par des facteurs comme la circulation, de caractéristiques structurales et fonctionnelles de l’asphalte et des conditions climatologiques locales, et sa maintenance a dans implications spatiaux significatifs. Cet article décris le processus d’implémentation du système de gestion d’asphaltes de la ville de Medellín, développé sur une plateforme SIG. Le système est supporté sur une geo-base de données corporatif d’inventaire et diagnostic, qui supporte un logiciel de modélisation de la détérioration de l’asphalte et nous donne des recommandations pour l’intervention sur chaque segment routier. Ce système supporte aux autorités responsables pour la prise des décisions, avec le but de réaliser la maintenance du réseau routier, d’optimiser les ressources disponibles et d’offrir un meilleur service aux citoyens. Mots-clés Système d’information Géographique (SIG), transport, véhicule, Maintenance, transport routier, asphalte, gestion.

Page 71: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

71

71

71

1. INTRODUCCIÓN La malla vial es el componente principal del sistema de transporte terrestre sobre la cual se fundamenta la movilidad de bienes y personas dentro de una entidad territorial. El mantenimiento de la infraestructura vial es una prioridad para las autoridades encargadas de su administración, ya que representa un patrimonio muy valioso para la economía de la región en la que se encuentra. La adecuada administración de la malla vial conlleva a realizar la planeación y el mantenimiento de su infraestructura en óptimas condiciones, mediante la identificación de las necesidades, la priorización de las intervenciones y la optimización de los recursos. Una malla vial en buen estado contribuye a la articulación entre los puntos de origen y destino de los diferentes viajes que se generan, lo cual se traduce en una mayor competitividad y desarrollo del transporte e infraestructura del territorio del cual hace parte. Esto se ve reflejado en la realización de viajes más rápidos, cómodos, seguros y económicos. Los desplazamientos que a diario se realizan sobre la infraestructura vial, tanto en modos de transporte individuales como masivos y de carga, ocasionan un deterioro progresivo sobre el pavimento. Así mismo, las características geomecánicas de la estructura del pavimento, las condiciones ambientales, geológicas, los drenajes y las condiciones del suelo, contribuyen significativamente al detrimento de la malla vial, reflejándose en la aparición de fallas superficiales e irregularidad en la carpeta asfáltica. El deterioro de la malla vial tiene repercusiones económicas, ambientales, sociales y políticas, dentro de las cuales se pueden mencionar, desde el punto de vista de los usuarios, el aumento en los costos de operación vehicular, en tiempos de desplazamiento, inconformidad, accidentalidad, congestión y consumo de combustible; desde el punto de vista de la infraestructura, el incremento en las intervenciones sobre la capa de rodadura y la estructura del pavimento; y desde el punto de vista ambiental con el aumento de los niveles de contaminación del aire y por ruido, en resumen una pérdida de confianza y credibilidad en los gobiernos responsables. Todos estos factores pueden ser caracterizados, analizados e integrados espacialmente a través de los Sistemas de Información Geográfica (SIG). Esta herramienta de alto poder de análisis, interpretación y visualización, que emplea tecnología de avanzada mediante hardware y software especializados, permite integrar datos alfanuméricos con la información geográfica. Los SIG realizan dicha integración mediante el despliegue de diferentes capas temáticas de estudio, tales como la red vial, topografía, usos del suelo, red hídrica, catastro, equipamientos colectivos, espacios públicos, división administrativa, sistemas de transporte, obras de infraestructura, entre otras. De esta manera, es posible realizar procesos complejos de análisis multicriterio con el fin de tomar decisiones y optimizar los recursos en la solución de un problema en particular.

Dentro del ámbito de aplicación de los SIG, la red vial de un territorio se representa mediante líneas segmentadas, conectadas entre sí, con integralidad, consistencia y continuidad, que permiten clasificar, visualizar, interpretar y analizar los atributos inherentes a la calzada vehicular. De esta manera se representan diferentes capas temáticas, tales como tipos de superficie de rodadura, estados de condición, jerarquía vial, tipo de tráfico, pendientes, tipos de intervención; en general, un conjunto de información que permite al usuario de los SIG disponer de un mejor entorno visual, que le facilita el análisis de la información.

2. ESTADO DEL ARTE Existen algunas investigaciones previas en el marco de la implementación de los SIG en los temas relacionados con vías. A continuación mostraremos algunos de estos importantes antecedentes.

P. Álvarez y otros [1] desarrollaron un modelo de planificación del mantenimiento de la red de carreteras en Badajoz, España, el cual permite determinar las condiciones de las vías, evaluar sus indicadores y llevarlos a un ambiente SIG, con el fin de visualizar su distribución según el estado, con esta información se pueden realizar diagnósticos y optimizar los recursos asignados. Los factores que afectan el mantenimiento de las vías, tales como el tráfico, estado superficial y calidad de la señalización, permiten medir el grado de satisfacción de los usuarios y definir los sitios de intervención. Mediante la visualización geográfica, se observan las condiciones más adecuadas de las vías para la seguridad de los usuarios, la preservación de las estructuras viales, la pavimentación de las vías, la señalización horizontal y vertical y los taludes. Los SIG ofrecen numerosas aplicaciones y análisis de la información, apoyando la toma de decisiones sobre la inversión de los recursos estatales de manera objetiva y técnica. Por otro lado J. Coutinho [2], considera varios criterios de evaluación y alternativas en la planificación y modelamiento de un territorio, dada la importancia que tienen los aspectos sociales, económicos, ambientales y técnicos, en la toma de decisiones, todo esto para ofrecer a los usuarios un entorno flexible y fácil de usar en la planificación de la infraestructura urbana. En la evaluación de las inversiones se consideran criterios múltiples y aplicaciones espaciales en la distribución de costos y beneficios, utilizando métodos de análisis como el DSS (Decisión Support Systems), facilitando la relación entre la toma de decisiones y los modelos computarizados. W. Chen y otros [3] plantean que el propósito de un sistema de gestión de pavimentos es determinar la intervención más efectiva de mantenimiento y reconstrucción en un territorio, integrando tecnología SIG y GPS para la recolección y almacenamiento de datos, análisis geoespacial y optimización de la planeación del mantenimiento, con lo cual se aumenta la capacidad y utilidad del modelo de gestión. En el caso del aeropuerto

Page 72: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

72

72

72

de Shanghai se crearon bases de datos espaciales mediante la segmentación del pavimento y la identificación década tramo con un único código, con lo cual se generó un mapa y se recolectaron los datos con GPS permitiendo de esta manera disminuir el trabajo y mejorar la productividad. Adicionalmente se utilizó una tecnología geoespacial mediante cartografía de mapas temáticos con información de la condición del pavimento y se identificaron las fallas en las losas para determinar las medidas correctivas. Así los SIG permitieron realizar el análisis y ejecución de una gestión óptima del mantenimiento del pavimento, con lo cual se logró mejorar la toma de decisiones y resolver problemas a futuro. En el trazado de carreteras en Beirut, Líbano, se utilizó un enfoque de evaluación integrado empleando criterios generados bajo una plataforma SIG, con la cual se evaluaron las alternativas para el alineamiento de las vías. Además se tuvieron en cuenta consideraciones geotécnicas y medio ambientales para la realización de modelos del diseño de las autopistas, la estabilidad de las vertientes y el ruido del tráfico. Con este trabajo se logró mostrar el potencial del enfoque desarrollado, que permite incorporar nuevos criterios en el diseño del trazado de carreteras y automatizar el procedimiento de evaluación. En el desarrollo de un prototipo de análisis de impacto del tráfico se pueden integrar los SIG para generar modelos de simulación y visualización en 3D. De esta manera Wang [4] empleó SIG con distintos modelos para proyectar el tráfico, la velocidad vehicular y las concentraciones de monóxido de carbono. Apoyados en modelos en 3D de los segmentos viales y edificios a lo largo de la carretera los autores realizaron una presentación en 3D con experiencias de conducción, lo que brinda amplias posibilidades de toma de decisiones a los planeadores en los proyectos de investigación y práctica [4]. Durante las últimas décadas, se ha extendido la aplicación del SIG en diversos temas de la Ingeniería de Infraestructura Vial, con aplicación en sistemas de administración de la red vial. A nivel nacional cabe mencionar lo realizado en Medellín, Bogotá y Cali, a nivel latinoamericano los países que cuentan con esta aplicación son Argentina, Brasil, Panamá y Perú, y a nivel internacional Israel, EEUU y España, entre otros. La empresa de consultoría TNM Ltd., ha desarrollado a nivel mundial varias aplicaciones de los sistemas de gestión vial. En Israel se evaluaron las características de los pavimentos para alimentar la base de datos del sistema de la red interurbana [5]. En la ciudad de Panamá, se efectuó la actualización del inventario de la red vial interurbana (8.500 Km de vías pavimentadas y no pavimentadas y 1384 puentes) y se hicieron estudios de tráfico. En Perú se realizó el inventario de la red vial nacional pavimentada (aprox. 8.500 Km) y los puentes del país y se implementó el sistema de valoración de la

red nacional. En la ciudad de Bogotá se realizó la actualización del inventario y diagnóstico de la malla vial urbana (232.7 Km-calzada), nuevas vías urbanas (70.3 Km-calzada) y nuevas vías rurales [5]. Y, en el ámbito regional, se puede mencionar que a partir del año 2005 se llevó a cabo el inventario y diagnóstico de la malla vial urbana y rural de la ciudad de Medellín en una longitud de 2013 Km-calzada. Es importante tomar en cuenta el caso en la ciudad de Los Ángeles, USA, en el año 2008 el Departamento de Obras Públicas donde se realizó la evaluación de la infraestructura vial, con el fin de mejorar dicha infraestructura. Para este efecto se utiliza un sistema de alta tecnología que permite determinar el mantenimiento o la rehabilitación requerida, predecir las condiciones futuras del pavimento y establecer el tiempo óptimo para ejecutar dichas tareas. Para cada condición se utilizó el “Índice de Condición del Pavimento” (PCI), el cual evalúa las condiciones físicas de las vías según las características estructurales y operacionales basado en la metodología Micro PAVER que determina el tipo, la severidad y la cantidad de fallas superficiales [6]. La ciudad de Medellín, por su parte, presenta unas características particulares que influyen específicamente en el comportamiento de los pavimentos; factores, tales como la geomorfología, geografía, medio ambiente, drenajes, demografía, usos del suelo y división política administrativa, entre otros. Por esta razón, es indispensable la implementación de un sistema de gestión vial acorde a las características propias de la ciudad y desarrollado sobre la plataforma SIG. La implementación del sistema de gestión vial en la ciudad de Medellín tiene como fin primordial realizarla planeación del mantenimiento de la malla vial y su infraestructura asociada. El sistema está soportado en una geodatabase corporativa de inventario y diagnóstico, con la cual se alimenta un software que realiza la modelación del deterioro del pavimento a lo largo del tiempo. Este software está basado en el modelo HDM-4 (Metodología del Banco Mundial) y fue calibrado para las condiciones particulares de la ciudad, con el fin de obtener resultados reales, que respondan a las características de la ciudad y de la red vial.

Luego de este proceso, el sistema de gestión vial arroja diferentes recomendaciones de intervención para cada segmento vial seleccionado, de acuerdo con una matriz de decisiones que fue diseñada según las especificaciones propias de la Secretaría de Infraestructura Física de la Alcaldía de Medellín. Esta matriz de decisiones involucra tres parámetros principales con los cuales procesa los datos: el tráfico, la capacidad estructural y las condiciones superficiales y de servicio del pavimento. De esta manera, el sistema de gestión vial permite identificar las necesidades y priorizar las intervenciones de acuerdo con varios criterios de selección tales como: el tipo de intervención, la jerarquía vial, la relación costo-beneficio o el menor costo. Finalmente, el resultado de esta implementación logra apoyar la toma de decisiones por parte de las

Page 73: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

73

73

73

autoridades encargadas, y así realizar la planeación del mantenimiento de la malla vial, optimizar los recursos disponibles y ofrecer un mejor servicio a la comunidad.

3. MARCO TEÓRICO El primer elemento a considerar en la implementación del Sistema de Gestión Vial, es la recopilación de los datos de campo, es decir la elaboración del Inventario y Diagnóstico del estado actual de la malla vial de la ciudad de Medellín, a través de la obtención de los parámetros geométricos y técnicos. El segundo elemento es la elaboración de una Matriz de Decisiones, cuyo objetivo básico consiste en establecer la intervención requerida en un segmento vial para mantener un nivel de servicio adecuado y proteger el patrimonio vial en un cierto período de tiempo.

3.1. INVENTARIO Y DIAGNÓSTICO DE LA MALLA

VIAL Los parámetros geométricos y técnicos incluyen el inventario de fallas superficiales en el pavimento - MDR, medida del coeficiente de resistencia al deslizamiento – CRD, mediciones de deflectometría, medida del índice de regularidad superficial – IRI, determinación de espesores de la estructura de pavimento y conteos de tránsito para la asignación del tránsito promedio diario –TPD, los cuales serán posteriormente insumos para el modelo de priorización de los segmentos viales. Un segmento vial se define como la porción de vía entre dos intersecciones, que tiene un nodo inicial y final, una dirección y sentido. El segmento vial es el elemento geográfico básico de visualización, de tipo lineal conectado entre dos nodos, el cual se identifica mediante un identificador de segmento (ID_OP) compuesto por un código de siete (7) dígitos. El primer número del código representa la jerarquía vial de acuerdo al Plan de Ordenamiento Territorial – POT de la ciudad, los otros seis (6) dígitos corresponden a un consecutivo de asignación para los segmentos clasificados dentro de cada jerarquía vial. De esta manera, el (1) representa las autopistas urbanas, el (2) las arterias principales, el (3) las arterias menores, el (4) las vías colectoras, el (5) las vías de servicio, el (6) las vías rurales cabecera y el (7) las vías rurales veredales. La determinación de los parámetros técnicos mencionados anteriormente, se realiza con equipos de alto rendimiento, logrando una mayor captura de datos, mayor eficiencia, disminución de costos y menor impacto ambiental. La definición y forma de medir cada parámetro se describe a continuación.

3.1.1. Parámetros Técnicos del Pavimento Los parámetros técnicos del pavimento describen las diferentes características de cada una de las capas que lo componen. Estas capas pueden ser variables y van desde la superficie de rodadura hasta la subrasante o suelo de apoyo de la estructura, pasando por las capas intermedias o material granular. Los principales parámetros técnicos que se analizaron son el índice de rugosidad internacional, las deflexiones, los espesores

de las capas, el coeficiente de resistencia al deslizamiento, la capacidad de soporte de la subrasante y el índice de condición global del pavimento, las cuales se describen a continuación.

3.1.2. Índice de Regularidad Internacional– IRI La regularidad superficial, expresada normalmente por un índice, se define como las deformaciones verticales acumuladas a lo largo de un kilómetro con respecto a un plano horizontal en un pavimento, denominadas irregularidades. Estas deformaciones se deben al procedimiento constructivo y al efecto producido sobre la vía por el tránsito vehicular o por la combinación de ambas. El IRI se mide con el equipo denominado perfilógrafo láser RSP de medición directa, sin contacto con la vía, de clase II según la FHWA (Federal Highway Administration), y se obtiene midiendo el perfil longitudinal [7]. La superficie de rodadura del pavimento proporciona al usuario características de confort, seguridad y durabilidad, lo cual se logra a partir del cumplimiento de ciertos parámetros. La superficie de rodadura de un pavimento se puede clasificar conforme a las irregularidades superficiales presentes. El IRI es una característica del pavimento flexible importante, ya que afecta la calidad del desplazamiento, los costos de operación y el mantenimiento de los vehículos. Con el fin de estandarizar el valor de la regularidad superficial, el Banco Mundial propuso el Índice Internacional de Regularidad (IRI), que se basa en un modelo matemático denominado cuarto de carro normalizado (Golden Quarter Car) circulando a 80 km/h. Dicho índice se obtiene a partir de la acumulación del desplazamiento relativo entre las masas de la carrocería y la suspensión del modelo, cuando el vehículo circula por el perfil de la vía en estudio. Entre más alto es el valor del IRI, más mala se considera la condición superficial.

3.1.3. Deflectometría La deflexión es una medida de deformación del pavimento flexible, representa una respuesta total del sistema o estructura del pavimento ante la aplicación de una carga externa. La condición estructural de un pavimento se evalúa midiendo la deflexión vertical que presente éste bajo una carga normalizada. La medición se realiza en forma no destructiva y se utiliza para relacionarla con la capacidad estructural del pavimento. Es importante destacar que no sólo se desplaza el punto bajo la carga, sino también en un sector alrededor de ella, causando un conjunto de deflexiones, el cual se denomina cuenco o bulbo de deflexiones como se observa en la Figura 1. El equipo empleado para la medición de deflexiones es el Deflectómetro de Impacto (Falling Weight Deflectometer – FWD). El principio general de funcionamiento de este equipo de alto rendimiento se basa en la producción de una onda de carga sobre el pavimento, lo cual se consigue mediante el impacto generado por la caída libre de una masa, que es

Page 74: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

74

74

74

transmitido mediante un sistema de amortiguamiento elástico montado sobre una placa de carga. Los sensores de deflexión utilizados tienen una serie de siete geófonos para registrar las velocidades y los desplazamientos (D0, D20, D60, D90, D120, D150 y D180), donde D0 es la deflexión medida bajo el punto de aplicación de la carga y D180 es la deflexión medida en el punto más alejado de la carga [8].

Fig. 1. Bulbo de deflexiones [8]

3.1.4. Espesores del Pavimento La determinación de espesores de la estructura del pavimento, permite, conjuntamente con la deflectometría, analizar la capacidad estructural del pavimento. Es así como el número estructural – SN en pavimentos flexibles, depende directamente de la medida de la deflexión y de los espesores de la estructura del pavimento y permite establecer la condición estructural del mismo. La información de espesores del pavimento para los segmentos viales se recopiló mediante la metodología Ground Penetrating Radar (GPR), la cual emplea un dispositivo que emite un pulso corto de energía electromagnética, capaz de determinar la presencia o ausencia de un objeto mediante el examen de la energía reflejada de dicho pulso. El equipo utilizado fue el Georadar, el cual sondea el subsuelo por medio de impulsos electromagnéticos de alta frecuencia. En una estructura de pavimento la onda electromagnética viaja hasta que se encuentra con una discontinuidad dieléctrica debida a un cambio de material, como una nueva capa del pavimento, humedad, presencia de cámaras de aire o cualquier otro fenómeno por el que cambie la constante dieléctrica del material. Una parte de la onda es reflejada por esta discontinuidad y el resto continúa su camino hacia el interior del pavimento. Controlando con exactitud el tiempo de

viaje de la onda desde su inicio hasta la recepción de la onda reflejada, es posible la determinación de los espesores de cada capa de pavimento [9].

3.1.5. Coeficiente de Resistencia al Deslizamiento –

CRD La resistencia al deslizamiento es la fuerza desarrollada entre la superficie del pavimento y los neumáticos de los vehículos. El coeficiente de fricción del pavimento, depende entre otras cosas, del tipo de pavimento, el estado superficial y las condiciones de humedad. El CRD se puede determinar en cada una de las calzadas vehiculares empleando el péndulo inglés, ensayo normado en el INV-E-792, o el Grip Tester, el cual es un equipo de alto rendimiento [10].

3.1.6. California Bearing Ratio – CBR El CBR está definido como la fuerza requerida para que un pistón normalizado penetre a una profundidad determinada. Está expresado en el porcentaje de fuerza necesaria para que el pistón penetre a esa misma profundidad y con igual velocidad, en una probeta normalizada constituida por una muestra patrón de material remoldeado. El CBR se determina en la capa de la sub-rasantea través de apiques, del suelo que está por debajo de la estructura del pavimento. La expresión que define al CBR, es la siguiente [11]:

(1)

Donde el PDC (Penetrómetro dinámico de cono) portátil, constituido por una masa deslizante que se deja caer por gravedad sobre un yunque de impacto, y que por medio de una varilla transmite la energía a una puntaza cónica que se hinca en el terreno. Este se emplea para hacer una evaluación de la capacidad portante de las capas de afirmado mediante una correlación con el índice CBR. La correlación empleada para el cálculo del CBR a partir del PDC, es la desarrollada por la Universidad del Cauca [11].

3.1.7. Índice de Condición Global o Serviciabilidad

del Pavimento – OPI A partir de la información del índice de fallas superficiales (Modified Distress Rating – MDR) y del IRI, es posible calcular el valor del OPI (Overall Pavement Index) para cada una de las calzadas que conforman el segmento vial [12], [13].

3.1.7.1. Índice de Fallas Superficiales – MDR El cálculo del MDR se basa en valores deducibles obtenidos de las respectivas curvas de fallas o pesos en función del grado de severidad y de la extensión del daño de acuerdo a la metodología PAVER [14]. Esta metodología fue desarrollada por el Cuerpo de Ingenieros del Ejército de los Estados Unidos. El valor deducible varía de 0 a 100 e indica el impacto que cada daño tiene sobre la condición del pavimento. Así, un valor de 0 en la curva, indica que el daño no tiene efecto en el comportamiento del pavimento, mientras un valor de 100 indica un daño de gran influencia.

Page 75: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

75

75

75

Los rangos asignados por la Secretaría de Obras públicas, para la calificación del MDR, son: MUY MALO (0-30), el pavimento se encuentra sumamente fallado y requiere una intervención de manera urgente y masiva sobre la calzada; MALO (30-50), presencia elevada de fallas de severidad baja a media, con una suma de la extensión total de las fallas inferior al 60% del área total mantenida; REGULAR (50-65), se requiere hacer un mantenimiento al pavimento, con el fin de evitar su rápida destrucción, la severidad de las fallas es baja y la suma de la extensión total de las fallas es inferior al 40% del área total de la calzada; BUENO (65-85), el pavimento requiere solamente una atención rutinaria, la severidad de las fallas es baja y la suma de la extensión total de las fallas es inferior al 25% del área total de la calzada; MUY BUENO (85-100) el pavimento se encuentra en óptimas condiciones, sin presencia de fallas El valor de MDR se calcula bajo la siguiente expresión basada en la Metodología Washington [12].

)(1002

ipnMDR (2)

Donde “pn” es el peso de ponderación del daño según su severidad y extensión. Este cálculo, inicialmente, se basa en los valores deducibles obtenidos de las respectivas curvas o pesos en función del grado de severidad y de la extensión del daño de acuerdo con el Sistema PAVER. Los valores deducibles se introducen en la fórmula antes mencionada, obteniéndose el valor del MDR. En el caso de vías con alto grado de deterioro, la raíz cuadrada de la sumatoria de los pesos al cuadrado puede resultar mayor que 100, por lo cual al realizar el cálculo se obtendría valores negativos. Por definición, el MDR es un índice positivo, en estos casos, se asigna un valor MDR = 0. Las tipologías de fallas analizadas en los pavimentos flexibles para el cálculo del MDR son: Abultamientos, Corrugaciones, Agrietamiento en bloque, Ahuellamiento, Baches, Descascaramiento, Exudación del asfalto, Grietas longitudinales y transversales, Hundimientos, Grietas en media luna, Peladuras, Piel de cocodrilo, Desintegración de bordes, Fisuramiento por reflexión, Parcheo, Brechas de servicios públicos. El índice de fallas superficiales – MDR conjuntamente con la medida de regularidad IRI, conforman el índice de condición global del pavimento – OPI. La importancia del levantamiento de fallas, radica en que a partir del resultado de éstas se pueden programar intervenciones rutinarias o periódicas, puntuales o masivas, para conservar un nivel de servicio adecuado en cada una de las calzadas vehiculares. El deterioro de un pavimento se entiende como la serie de daños y manifestaciones superficiales de la capa de rodadura que perjudican la condición de circulación segura y confortable.

3.1.7.2. Cálculo del Índice de Condición Global del

Pavimento – OPI La Guía AASHTO [19] establece que “La serviciabilidad es la habilidad específica de una sección de pavimento para servir al tráfico”. Hay dos formas de definir la serviciabilidad. La primera es basada en la medida del Índice de Rugosidad, el cual considera solamente la rugosidad del pavimento; este índice se denomina Índice de Serviciabilidad Presente del Pavimento PSI (Pavement Serviciability Index) y se calcula a través de la siguiente expresión:

IRIePSI 000261.0198.05 (3)

Dónde: PSI es el Índice de Serviciabilidad del Pavimento; (e) es la base de logaritmos neperianos y el IRI es el Índice de Rugosidad Internacional La otra forma de evaluar la serviciabilidad es a través de la evaluación combinada de la rugosidad y el estado superficial del pavimento a través de los daños superficiales, expresión que la AASHTO denomina Índice de Condición Global del Pavimento y que ha sido evaluada y calibrada por la empresa de consultoría TNM Limitada a lo largo de varios años de investigación, encontrando el Índice de Condición Global del Pavimento. El OPI representa una interrelación del estado superficial (desempeño funcional y estructural) y la condición del pavimento medido en términos de rugosidad (desempeño funcional), siendo, por lo tanto, un parámetro representativo del estado global del pavimento. La expresión encontrada para el OPI es:

22.05/PSIMDROPI

(4)

Dónde: OPI es el Índice de Condición Global del Pavimento; MDR es el Índice de Fallas Superficiales; PSI es el Índice de Serviciabilidad del Pavimento

3.1.8. Cálculo del número estructural – SN El procedimiento referenciado de retro cálculo para la estimación del número estructural actual o efectivo en pavimentos flexibles, así como del módulo resiliente de la subrasante – Mr por la metodología AASHTO se detalla a continuación: Se calcula el número estructural efectivo mediante la relación de la AASHTO [15]:

3**0045.0 PEfectivo EDSN (5)

Dónde: SNefectivo es el número estructural efectivo existente en pulgadas; (D) Espesor total de las capas del pavimento sobre la subrasante, en pulgadas; (Ep) es el Módulo equivalente de la estructura del pavimento, en PSI (libras por pulgada cuadrada), determinado a través de la siguiente ecuación [8].

Page 76: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

76

76

76

rrd

PMr

*

*24.0

(6) Dónde: (do) es la Deflexión central obtenida del inventario deflectométrico FWD); (p) es la Presión aplicada en la medición de deflexiones, en PSI; (a) es el Radio del plato de carga del deflectómetro, en pulgadas; (D) es el Espesor total de las capas del pavimento sobre la subrasante, en pulgadas; (Ep)es el Módulo equivalente de la estructura del pavimento, en PSI y (Mr) es el Módulo resiliente de la subrasante, en psi, determinado por la relación[15]:

(7) Dónde: (P) es la Carga aplicada por el deflectómetro de impacto en libras; (dr) es la Deflexión Df6 medida a una distancia de 1.8 m del centro del plato de carga; (r) es la Distancia desde el centro del plato de carga, en pulgadas. El valor del CBR en pavimentos flexibles se calculó a partir del valor del Mr encontrado por retro cálculo, mediante la expresión. La importancia del cálculo de este parámetro (Mr) es la correlación que existe con la capacidad portante de la subrasante que se determina mediante el CBR, evitando así procesos destructivos en el pavimento cuando se mide en campo mediante apiques [16]:

Mr = 100 x CBR (kg/cm2) (8)

3.1.9. Parámetros Geométricos del Pavimento La información recopilada en campo corresponde a la ubicación y descripción general del segmento vial. La ubicación está referida a datos tales como nomenclatura, nombre de las vías generadoras de la nomenclatura y tipo de vía. Los datos de geometría tales como longitud, ancho, pendiente y número de carriles están referidos a las calzadas, bahías, bermas, andenes, cunetas, ciclorutas y barreras de protección. También se toman datos generales de señalización horizontal y vertical, cámaras, válvulas, sumideros, muros de contención y puentes. La geometría es importante para la definición de la sección transversal del segmento vial y la estimación de las cantidades de obra requeridas para las intervenciones.

3.1.9.1. Tránsito Promedio Diario – TPD El Transito Promedio Diario – TPD se define como el número de autos, buses y camiones a partir del cual se determina la carga sobre el pavimento, mediante el número de ejes equivalentes de 8.2 toneladas. Mediante la determinación y asignación del TPD en cada segmento vial, es posible estimar la magnitud, composición y distribución de los flujos vehiculares en los diferentes corredores viales de la ciudad. Este

enfoque permite determinar actividades de planeación estratégica tendientes a la optimización de los recursos destinados al mantenimiento vial. Con el fin de determinar el TPD se caracterizan tres

grupos de vehículos que son: TPD Autos, corresponde al valor de Tránsito Promedio de 24 horas de circulación de autos en la calzada inventariada. Los autos hacen referencia a todos los vehículos

livianos.TPD Bus, corresponde al valor de Tránsito

Promedio de 24 horas de circulación de buses en la calzada inventariada. Los buses incluyen los buses y

busetas.TPD Camión, corresponde al valor de Tránsito Promedio de 24 horas de circulación de camiones en la calzada inventariada. Los camiones corresponden a todos los vehículos de carga con cuatro o más ruedas, de acuerdo con la siguiente clasificación de ejes: Camión C2: Camión de dos (2) ejes, Camión C3: Camión de tres (3) ejes, Camión C4: Camión de cuatro (4) ejes, Camión C5: Camión de cinco (5) ejes y Camión >C5: Camión de más de cinco (5) ejes. La asignación del TPD se realizó mediante la zonificación de la ciudad, teniendo en cuenta las características relacionadas con especificaciones viales y los patrones de movilidad y físicos que las diferencian, tales como la topografía, rutas de buses, usos del suelo y usos del automóvil particular. La ciudad se caracterizó en seis (6) zonas homogéneas indicadas en la Figura 2. La primera zona corresponde al corredor del rio (autopista urbana), vía de mayor importancia de la ciudad que atraviesa de sur a norte la ciudad, de topografía plana y, volúmenes altos de vehículos pesados. La segunda zona es la Nor-Oriental, caracterizada por fuertes y pronunciadas pendientes en dirección de las calles, vías con bajas especificaciones, en cuanto a la movilidad predomina el transporte público formal e informal, la presencia de automóviles particulares no es significativa y con alta densidad poblacional de la zona. La tercera zona es la Centro-Oriental, en donde se ubica el centro de la ciudad, con tránsito alto de vehículos de transporte público, se caracteriza por grandes avenidas de varias calzadas y por ser de topografía plana en el centro. La cuarta zona es la Sur-Oriental, con altas y pronunciadas pendientes, con densidad baja de vías pero de alto nivel jerárquico, buenas especificaciones, volúmenes de transito altos en vehículos particulares, zona especialmente residencial y comercial. La quinta zona es la Sur – Occidental, con pendientes moderadas y planas en su extensión, residencial, con algunos sectores industriales y comerciales, con avenidas importantes, de varias calzadas, alta movilidad y gran presencia de vehículos particulares y de transporte público.

p

r

p

r

E

a

D

M

E

a

DM

apd

2

2

3

0

1

11

1

1***5.1

Page 77: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

77

77

77

Finalmente, la sexta zona es la Nor-Occidental, con iguales características que la zona 2, es decir con altas pendientes, con presencia poco significativa de vehículos particulares, densidades altas de población y vías con bajas especificaciones.

Fig. 2. Zonas

homogéneas para asignación del TPD

Las vías de la ciudad se clasificaron de acuerdo a una serie de familias de vías típicas, que presentan condiciones muy similares en su nivel de demanda. Su identificación está en función de tres variables básicas: el componente físico, el componente funcional y el componente operativo. El componente físico se refiere a la geometría transversal del segmento vial de acuerdo al número de calzadas y carriles presentes en cada segmento y se clasifican con base en su capacidad. El componente funcional tiene en cuenta la jerarquía de la vía establecida en el Plan de Ordenamiento Territorial – POT, clasificando el segmento vial con base en la importancia de su ubicación dentro de la funcionalidad de la malla vial. El componente operativo refleja las diferencias que se presentan en los segmentos viales respecto de la composición vehicular esperada, con base en el uso del suelo y el estrato socio económico donde se encuentra el segmento. La superposición de estos tres componentes permite clasificar familias de vías que cumplen con características comunes, especialmente con su localización en cada una de las zonas establecidas, lo cual posibilita el diseño de la toma de información de campo. El número de calzadas resultante de las familias de vías según la jerarquía vial y el TPD se indica en la Tabla 1.

Tabla 1. Número de calzadas según TPD y jerarquía

Tránsito Promedio Diario TPD (anual)

Jerarquía

Vial

<4.000.000

4.000.000-8.000.000

> 8.000.000

Total genera

l

Autopista 85 22 70 177

Artería Principal

641 1540 728 2909

Artería menor

404 161 42 607

Colectora 4419 335 43 4797

Servicio 12909 187 8 13104

Tránsito Promedio Diario TPD (anual)

Jerarquía

Vial

<4.000.000

4.000.000-8.000.000

> 8.000.000

Total genera

l

Rural 2495 2 0 2497

Total general

20953 2247 891 24091

3.1.9.2. Cálculo del Número de ejes equivalentes N Con los datos asignados de tránsito promedio diario, se determinó el número de ejes equivalentes de 8.2 ton en cada una de las calzadas. Los volúmenes de tránsito y su composición vehicular permiten el cálculo del Número de Ejes Equivalente, utilizando los factores de daño de cada tipo de vehículo y está dado por la siguiente expresión:

N = 365*(Va*Fa + Vb*Fb + Vc*Fc) (9) Donde, Fa, Fb y Fc indican los factores de daño para automóviles, buses y camiones, respectivamente y Va, Vb y Vc son volúmenes de vehículos que corresponden al valor del Tránsito Promedio Diario de autos, buses y camiones. La determinación de los Factores Daño para este proyecto, incluidos en el cálculo del número de ejes equivalentes, se realizó a partir de los resultados del estudio de tránsito en cuanto a distribución del parque automotor y empleando los factores de equivalencia promedio utilizados más frecuentemente (Universidad del Cauca – 1996), los cuales se indican en la Tabla 2 [17].

Tabla 2. Factores de equivalencia por tipo de vehículo

Tipo de

Vehículo

Factor de equivalencia

(Universidad del Cauca –

1996)

Buseta 0.05

Bus 1.00

C2 P 1.14

C2G 3.44

C3 – C4 6.73

C5 4.40

> C5 4.72

En cada una de las estaciones de aforo, en las cuales se obtuvo un valor discriminado de tránsito para cada tipo de vehículo, se llevó a cabo el cálculo de los factores daño, multiplicando cada factor por el valor porcentual de tránsito por cada tipo de vehículo. Es decir, el factor daño de los buses, que incluye buses y busetas, y el de camiones se calcularon mediante las fórmulas: Fb = (% TPDbusetas * 0.05) + (% TPDbuses * 1.00)

(10) Fc = (% TPDC2P * 1.14) + (% TPDC2G * 3.44) + (% TPDC3-C4 * 6.73) + (% TPDC5 * 4.40) + (% TPD >C5 *

4.72) (11)

Page 78: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

78

78

78

Donde C2P, C2G, C3-C4-C5, es la caracterización de los camiones de acuerdo al tipo de ejes, ya sea sencillo, doble o tándem [18]. Para los autos, no se tienen factores de equivalencia, sin embargo, para no excluir el mínimo valor de aplicaciones que este puede aportar sobre la estructura de pavimento, se asumirá un valor mínimo de 0.001. Después de tener calculados todos los factores de daño, se procedió a calcular el promedio de todos los movimientos evaluados en campo. El resultado obtenido es el siguiente: Fa = 0.001, Fb = 0.47 y Fc = 2.52; lo cual indica claramente que los camiones afectan en una escala ponderada de 2.0 veces más que un bus, ya que las cargas concentradas de sus ejes influyen notablemente en el daño y la aparición de las fallos superficiales. Por ello en los diseños de pavimentos flexibles se considera como parámetro de diseño el número equivalente (N) con una carga de 8.2 ton durante su vida útil.

3.2. MATRIZ DE DECISIONES El segundo elemento a considerar en la implementación del Sistema de Gestión Vial, es la elaboración de una Matriz de Decisiones, cuyo objetivo básico consiste en establecer la intervención requerida en un segmento vial para mantener un nivel de servicio adecuado y proteger el patrimonio vial en un cierto período de tiempo. Con los datos de diagnóstico, se hace la gestión sobre cada uno de los elementos, definiendo previamente unos criterios apropiados del estado de los elementos.

3.2.1. Filosofía de la Matriz de decisiones Las estructuras de pavimento son construidas con el objetivo de servir al tránsito en forma segura, confortable y eficiente, sin embargo, el costo en que deben incurrir las agencias viales para su construcción es demasiado alto y el retorno de dicha inversión solo es justificable en la medida que el volumen de bienes y servicios transportados justifiquen dicha inversión, la cual se cuantifica en el concepto denominado Patrimonio Vial. Este concepto corresponde a la suma del costo de tres elementos básicos: Valor del terreno, que hace referencia al valor del espacio o franja que corresponde al derecho de vía en la cual se construye la calzada; el valor del pavimento, que corresponde al valor actual de la superficie de rodadura, teniendo en cuenta el deterioro que presenta dicha superficie por acción de las cargas vehiculares, efectos ambientales como el clima y la deficiencia en las especificaciones técnicas de los materiales o procesos constructivos; y el valor de los elementos o infraestructura asociada al pavimento, que corresponde al costo de los materiales, equipos, transporte y mano de obra necesarios para la construcción de los mismos, elementos indispensables para la operación de la estructura de pavimento en términos estructurales, funcionales y de seguridad, costo depreciado de acuerdo a su condición estructural y funcional. De otra parte, se encuentra que tanto el pavimento como los elementos asociados presentan desde el

punto de vista funcional y estructural una evolución o deterioro a través del tiempo generado por la acción de las cargas, el clima y otros factores, lo cual implica que con la sola construcción de la infraestructura no es posible servir de manera eficiente a los usuarios durante todo el período de vida útil estimado en el diseño. Es decir, se hace necesario realizar acciones de mantenimiento para conservar el valor del patrimonio vial en un estándar mínimo que no implique a posteriori inversiones mayores para recuperar el patrimonio perdido por ausencia de acciones preventivas. Bajo los conceptos anteriormente descritos nace un nuevo concepto denominado “Gestión de Pavimentos” el cual se puede definir como el conjunto de operaciones que tienen como objetivo conservar por un período de tiempo las condiciones de seguridad, comodidad y capacidad estructural adecuadas para la circulación, soportando las condiciones climáticas y de entorno en que su ubica la malla vial estudiada. Todo lo anterior, con el objetivo de minimizar el costo monetario, social y ecológico que implica reconstruir una malla que ha llegado a su valor mínimo. Los recursos de que dispone la Administración de Medellín para implementar un modelo de mantenimiento adecuado que cubra la totalidad del área pavimentada son insuficientes, al menos mientras se modifica el paradigma de ubicar mayores recursos para el mantenimiento de los pavimentos. Esta situación conduce a que el modelo o Matriz de Decisiones a estructurar, al menos inicialmente, debe ser flexible y sostenible a través del tiempo y que además permita ser retroalimentado con el objetivo de establecer posibles mejoras de acuerdo a la experiencia del comportamiento de las intervenciones directamente en campo. De igual forma, debe permitir en el corto y mediano plazo, la inversión de los pocos recursos disponibles en las zonas con mejor estado, cubriendo la mayor área de pavimento posible, elevando progresivamente su nivel de servicio. Lo anterior, bajo parámetros de medición y metodologías de auscultación e intervención con base en tecnología de punta, para que posteriormente, a largo plazo, los estándares de estado superficial y estructural se eleven y se puedan cubrir mayores áreas. Por lo anterior, el concepto de “rehabilitación” o “reconstrucción” concebido en la Matriz de Decisiones se limita a condiciones superficiales y estructurales extremas, dado que mientras que las mismas se presentan se considera viable potencializar la respuesta de los pavimentos existentes mediante acciones anuales de mantenimiento rutinario y periódico. Se considera que las acciones de mantenimiento a implementar deben ser anuales dado que los pavimentos son estructuras dinámicas y por lo tanto requieren atención periódica. No obstante lo anterior, si un pavimento se encuentra en malas condiciones y es intervenido de forma masiva, ya sea mediante una

Page 79: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

79

79

79

acción preventiva o correctiva, se entiende que a corto y mediano plazo en los años posteriores solo requerirá de intervenciones de carácter rutinario hasta que alcance un nivel de servicio tal que requiera una intervención mayor. Por lo tanto, el objetivo básico de la Matriz de Decisiones consiste en establecer la intervención requerida en un segmento vial para mantener un nivel de servicio adecuado y proteger el Patrimonio Vial en un cierto período de tiempo, a partir de la combinación de diferentes variables para cada tipo de pavimento (flexible, rígido y articulado). Dentro de estas variables se encuentran la jerarquía del segmento de acuerdo a los criterios establecidos por el Plan de Ordenamiento Territorial – POT, el nivel de tráfico proyectado que solicita el segmento, su condición estructural y su condición funcional.

3.2.2. Rangos de la Matriz de Decisiones Los rangos establecidos en la Matriz de Decisiones combinan los parámetros técnicos TPD (Tabla 3), el SN (Tabla 4) y el OPI (Tabla 5). Estos rangos fueron definidos y ajustados de acuerdo con los estándares de la Secretaría de Infraestructura Física. La clasificación por TPD (Tránsito Promedio Diario) proyectado a un (1) año para la Matriz de Decisiones se muestra en la Tabla 2.

Tabla 3. Clasificación del TPD

Clasificación Rangos del Tránsito Promedio

DiarioTPD(unidades)

Bajo TPD < 4.000.000

Medio TPD (4.000.000 – 8.000.000)

Alto TPD >8.000.000

La clasificación del número estructural SN, el cual depende para estructuras de pavimento con espesor constante y deflexiones centrales, tiene los rangos indicados en la Tabla 3.

Tabla 4. Clasificación del SN

Clasificación Rangos del número estructural SN

(pulgada)

Bajo SN <3

Medio SN (3 – 4 )

Alto SN >4

La clasificación de las vías de acuerdo a la serviciabilidad es a través de la evaluación combinada de la rugosidad (IRI) y el estado superficial del pavimento (MDR) a través de los daños superficiales, expresión que la AASHTO denomina Índice de Serviciabilidad Global (OPI). Los rangos de OPI considerados para la Matriz de Decisiones se indican en la Tabla 4.

Tabla 5. Clasificación del OPI

Clasificación Índice de Serviciabilidad Global

OPI

Muy Bueno 85-100

Bueno 65-84

Regular 40-64

Malo 0-39

Una vez combinadas las variables se procede a la definición de las intervenciones requeridas. Para ello se contempla la patología de daños superficiales presentados, las cuales difieren dependiendo de la causa que la produce. También se considera cuando el pavimento no tiene fallas superficiales, para cuyo caso no requiere intervención. Para los pavimentos flexibles se han establecido cuatro (4) generadores de causas para las patologías superficiales como son: problemas estructurales, problemas geotécnicos y de confinamiento, problemas de la mezcla asfáltica y reparaciones de la superficie. Una vez clasificado el segmento vial de acuerdo con las variables analizadas, y establecido el daño o los daños presentes, se definen las intervenciones requeridas para mantener el nivel de servicio de la vía en un nivel óptimo durante un cierto período de tiempo.

3.2.3. Intervenciones generadas por la Matriz de

Decisiones Las intervenciones requeridas para mantener el nivel de servicio de la vía se clasifican en cuatro (4) grandes grupos y se identifican con un determinado color en la Matriz. El Mantenimiento Rutinario, se identifica con el color verde, corresponde a las acciones preventivas sobre la calzada y que son necesarias para lograr que la curva de deterioro de cada uno de los parámetros se comporte de acuerdo al diseño del pavimento. El Mantenimiento Periódico Puntual, se identifica con el color amarillo, corresponde a las acciones preventivas sobre el pavimento con el objetivo de solucionar daños puntuales presentes en el pavimento. El Mantenimiento Periódico Masivo, se identifica con el color naranja, corresponde a las acciones preventivas sobre el 100% del pavimento con el objetivo de solucionar daños generalizados en la superficie del pavimento que abarcan áreas importantes del segmento vial. La Rehabilitación o Reconstrucción, se identifica con el color rojo, corresponde a acciones reactivas frente a deficiencias estructurales severas frente al nivel de solicitación de carga de la calzada vehicular, reparando el 100% del mismo. En la Figura 3, se observa el proceso de deterioro progresivo de un pavimento en el tiempo, para el cual se tomó como referente el modelo de deterioro HDM-4 (Metodología del Banco Mundial), que fue calibrado para la ciudad de Medellín [19].

Page 80: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

80

80

80

Fig. 3. Modelación del deterioro [5]

El alcance de las intervenciones futuras a partir de la implementación de las intervenciones generadas por la Matriz de Decisiones, se muestran en la Figura 4.

Fig. 4. Alcance de las intervenciones [5]

De igual forma, es importante anotar que esta Matriz se constituye en una herramienta de “gestión” la cual permite cuantificar de manera adecuada los recursos necesarios para la conservación del Patrimonio Vial a partir de los datos de diagnóstico levantados directamente en campo. Las intervenciones en Pavimento Flexible tienen relación con las especificaciones técnicas normalizadas, recomendadas para su correcta implementación a nivel nacional, y se indican en la Tabla 6.

Tabla 6. Intervenciones en pavimento flexible

Descripción de la intervención Tipo

Mantenimiento rutinario de la calzada

Puntual

Sello de fisuras

Parcheo de huecos ó parcheo elaborado

Re nivelación de la carpeta asfáltica

Confinamiento de la estructura y re nivelación de carpeta

Corrección de daños y slurryseal

Corrección de daños y micro aglomerado en caliente

Masivo Parcheo y sobre carpeta de 5 cm

Fresado hasta espesor requerido, reposición de la carpeta asfáltica y sobre carpeta de 8 cm

Reposición total de la carpeta

Estudios y diseños de rehabilitación de la estructura de pavimento

Masivo

4. METODOLOGÍA La implementación del Sistema de Gestión Vial está soportada en una Base de Datos Geográfica anidada en una Geodatabase corporativa del Municipio de Medellín, bajo una plataforma SIG y administrado bajo el software de ArcGIS.

4.1. Base de Datos Un elemento fundamental para la estructuración de la Base de Datos es el Modelo Entidad – Relación, el cual se presenta en una forma resumida en la Fig.5.Las capas o reglas de negocio se llevan a cabo mediante el desarrollo de módulos Java 1.6. La base de datos es manejada por motor Oracle 11G.

Fig. 5. Resumen Modelo Entidad - Relación

4.2. Implementación del SIG para la Visualización y

Análisis Otro elemento constitutivo del sistema es la visualización gráfica de todas las aplicaciones, utilidades y desarrollos, en un ambiente SIG, herramienta de alto poder de análisis, interpretación y visualización, que emplea tecnología de avanzada mediante hardware y software especializados. El SIG permite integrar datos alfanuméricos con la información geográfica, realizar análisis multicriterio, apoya el

establecimiento de la toma de decisiones permitiendo

la optimización de los recursos. En la implementación del Sistema de Gestión Vial se tiene un modelo distribuido, con un servidor de aplicaciones; éste se comunica e interactúa con tres servidores adicionales, el primero es el servidor de base de datos en Oracle y el SDE, el segundo es el servidor de archivos donde reposan las fotos y videos; y el tercero es el servidor de ArcGIS Server. Todos los servidores se encuentran vinculados a través de la Web. El esquema distribuido permite tener una mayor disponibilidad de la información, ya que cada servidor contribuye a sustentar los recursos que requiera la Gestión, ya sea de almacenamiento y procesamiento de información o de aplicaciones. Adicionalmente el esquema distribuido brinda mayor agilidad en la consulta de información al momento de realizar peticiones a la interfaz; permitiendo una infraestructura modular, versátil y con interoperabilidad. Con la evolución de las nuevas aplicaciones y el esquema distribuido, se logra mayor integración de los servidores y un uso más productivo de la información. El esquema distribuido brinda escalabilidad y crecimiento, es decir las redes se pueden ampliar,

Page 81: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

81

81

81

aumentando el número de módulos o sustituyendo por otros más potentes, es fácilmente adaptable a nuevos problemas y soluciones del hardware. El esquema empleado para el desarrollo o arquitectura del sistema, está a nivel de bases de datos, de bienes y servicios y en las aplicaciones. La capa de presentación del sistema de Gestión se desarrolló en Flex A.P.I. versión 4.5.1, como se ilustra en la Figura 6.

Fig.6. Arquitectura del Sistema de Gestión Vial

A nivel de bases de datos el repositorio de toda la información recopilada del inventario se encuentra en una Geotadabase corporativa para la Secretaría de Infraestructura Física, en la cual se encuentra la cobertura vial (Capa Segmento), que es el elemento geográfico del sistema. La plataforma geográfica definida como estándar para la Secretaría es ESRI, en todos sus productos (ArcIMS, ArcSDE, ArcView, ArcInfo, ArcEditor). A nivel de bases de servicios el repositorio de almacenamiento de objetos Geográficos es ArcSDE para la parte de servidores e interfaz con los centros de servicios de ArcGIS. El publicador Intranet o Internet a nivel georreferenciado y de publicación de mapas es ArcIMS. A nivel de las aplicaciones como herramientas de análisis técnico multicriterio, explotación y minería de datos se tiene los desarrollos de ArcGIS (ArcView, ArcEditor, ArcInfo) versión 10.1, el software de gestión en Java y los browser web. Finalmente, se cuenta con una plataforma e infraestructura tecnológica a nivel de hardware que asegura el funcionamiento del Sistema de Información Geográfica del aplicativo [20].

5. RESULTADOS

5.1. Análisis de los datos de inventario La mayor importancia del proyecto de “Inventario y Diagnóstico de la Malla Vial de la ciudad de Medellín” radicó en el diagnóstico de la malla vial y la respectiva asignación de intervenciones en cada segmento, de acuerdo con la Matriz de Decisiones propuesta; se presenta un análisis estadístico de la información en las calzadas vehiculares de la ciudad. En total, se recolectó información de 22.646 segmentos viales, en los cuales se encontraron 24.091 calzadas vehiculares, esto es debido a que hay segmentos viales

que tienen más de una calzada por tener una mayor jerarquía vial, como por ejemplo las autopistas urbanas y arterias principales. La longitud total levantada en información fue de 2.053 Km-calzada. La distribución de las calzadas y su respectiva longitud, de acuerdo al tipo de pavimento y a la jerarquía vial, se presenta en la Tabla 7. En el presente inventario, sólo se tuvieron en cuenta las calzadas vehiculares.

Tabla 7. Número y Longitud de calzadas según el tipo de

pavimento

Tipo de

Pavimento

Número de

Calzadas

Longitud de

Calzadas (Km-

calzada)

Flexible 21.327 1.789,9

Rígido 1.788 125.4

Articulado 115 8,6

Afirmado 290 40,8

Otros 571 124.3

TOTAL 24.091 2.053

Como se observa en la Figura 7, en el inventario de la malla vial se identificaron cinco tipos de pavimento o superficie de rodadura: flexible, rígido, articulado, afirmado y otros. El pavimento flexible representa el 89% del total, razón por la cual la mayoría de intervenciones están enfocadas hacia ese tipo de superficie. En segundo lugar está el pavimento rígido con 7% y el pavimento articulado representa sólo el 1%.

Fig. 7. Distribución porcentual de calzadas de acuerdo al

tipo de pavimento

Similarmente, en la Tabla 8, se presenta la discriminación realizada para las calzadas vehiculares y los segmentos viales de acuerdo con el tipo de jerarquía vial entregado en la cobertura. Las vías identificadas como autopista, corresponden a las calzadas adyacentes al corredor del río en ambos costados.

Tabla 8.Número de calzadas vehiculares y segmentos

según el tipo de vía

Tipo de Vía Número de

Calzadas

Número de

Segmentos

Autopista 177 172

Arteria Principal 2.909 1.962

Arteria Menor 607 472

Colectoras 4.797 4.558

Servicio 13.104 12.987

Rurales 2.497 2.495

TOTAL 24.091 22.646

Page 82: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

82

82

82

De igual manera, para la misma clasificación por tipo de vía, se determinó la longitud de las calzadas correspondiente a cada tipo como se indica en la Tabla 9.

Tabla 9. Longitud de calzadas según el tipo de vía

Tipo de Vía Longitud de Calzadas

(Km-calzada)

Autopista 26,6

Arteria Principal 296,5

Arteria Menor 54,5

Colectoras 394,1

Servicio 963,1

Rurales 318,4

TOTAL 2.053

En la Figura 8 se observa la distribución porcentual de la longitud de calzadas según el tipo de vía. Es así como el 47% corresponde a las vías de servicio, en segundo lugar están las vías colectoras con el 19%, seguidas de las vías rurales con el 16%, las arterias principales con el 14%, las arterias menores con el 3% y finalmente las autopistas con el 1%, siendo éstas últimas las vías de mayor jerarquía de la ciudad.

Fig. 8. Distribución porcentual de calzadas de acuerdo al

tipo de vía POT

El mayor porcentaje de segmentos, correspondió a vías colectoras y de servicio. Esto no implica que la mayor longitud de inventario corresponda a este tipo de jerarquías, ya que es claro que las calzadas de mayor longitud estuvieron en la autopista. Las vías colectoras y las vías de servicio, en un alto porcentaje son segmentos de una sola calzada y esto se puede apreciar en el resumen que se presenta en la Fig. 9, donde se aprecia la configuración de la sección transversal del total de segmentos evaluados. Igual sucede con las vías rurales.

Fig. 9. Distribución del número de segmentos según la

configuración de la sección transversal

5.2. Resultado de la corrida de la matriz Para la corrida de la matriz se utilizaron las calzadas vehiculares con superficie en pavimento flexible por cada tipo de jerarquía vial, para obtener finalmente el tipo de intervención. La longitud de calzadas y número de segmentos en pavimento flexible por tipo de jerarquía vial, se indica en la Tabla 10. De ésta longitud, el 49% corresponde a vías de servicio, el 22% a vías colectoras, luego el 15% a vías arterias principales, el 10% a vías rurales, el 3% a vías arterias menores y finalmente el 1% a las autopistas. Tabla 10. Número de segmentos y longitud de calzadas

según el tipo de vía

Tipo de Vía Número de

Segmentos

Longitud de

Calzadas (Km-

calzada)

Autopista 177 26.6

Arteria Principal 2606 268.1

Arteria Menor 606 54.3

Colectora 4720 388.1

Servicio 11708 875.3

Rural 1510 177.5

TOTAL 21.327 1.789,9

Dentro del grupo de calzadas en pavimento flexible, la matriz arrojó la clasificación del estado de las vías según el rango de OPI, como se indica en la Tabla 11. Se encontró que el 41% está en regular estado, el 30% en mal estado, el 21% en buen estado y el 7% es excelente; sin embargo, sumando los estados bueno y excelente, se contabiliza el 28% de las vías en esas condiciones.

Tabla 11. Longitud y porcentaje de intervenciones

generadas según los rangos de OPI

OPI

Longitud de

Calzadas (Km-

calzada)

Porcentaje

Estado

0-39.9 550.9 30.8% Malo

40-64.9 740.8 41.4% Regular

65-84.9 368.9 20.6% Bueno

85-100 129.3 7.2% Excelente

TOTAL 1789.9 100.0%

Page 83: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

83

83

83

Análogamente, la matriz arrojó la clasificación del estado de las vías en pavimento flexible según el rango de IRI, como se indica en la Tabla 12. Como se puede observar, este criterio duplica el porcentaje de estado excelente con el 15% y disminuye el porcentaje de estado bueno con el 7% con relación al criterio OPI, pero ambos sumados contabilizan el 22%, que es similar al arrojado por este criterio. Luego viene el estado regular con el 53%, ampliando el margen de aceptabilidad en comparación con el OPI y finalmente el estado malo con el 26%.

Tabla 12. Longitud y porcentaje de intervenciones

generadas según los rangos de IRI

IRI

Longitud de

Calzadas (Km-

calzada)

Porcentaje Estado

12 a 15 391.8 26.3% Malo

5.5 a 11.99 946.2 52.5% Regular

4.81 a 5.49 130.8 6.5% Bueno

0 a 4.8 321.1 14.6% Excelente

TOTAL 1 789.9 100%

Los resultados discriminados de acuerdo al tipo de intervención, arrojados por la matriz de decisiones se observan en el Anexo No. 1

6. CONCLUSIONES Mediante la aplicación de los Sistemas de Información Geográfica – SIG al proceso de Gestión de la Malla Vial de la ciudad de Medellín, se caracterizaron y analizaron los elementos más importantes de su infraestructura y se identificaron los parámetros técnicos y geométricos que la conforman. Estos elementos y parámetros se integraron espacialmente sobre una Geodatabase corporativa, que permite el despliegue de diferentes capas temáticas de estudio, tales como la red vial, topografía, usos del suelo, red hídrica, catastro, equipamientos colectivos, espacios públicos, división administrativa, sistemas de transporte, obras de infraestructura, tipos de superficie de rodadura, estados de condición, jerarquía vial, tipo de tráfico, pendientes, tipos de intervención, entre otros. En general, un conjunto de información que permite al usuario de los SIG disponer de un mejor entorno visual, que le facilita el análisis de la información. De esta manera y teniendo como base la Matriz de Decisiones, que se desarrolló atendiendo los estándares de la malla vial de la ciudad, se realizaron procesos complejos de análisis multicriterio y se generaron diferentes recomendaciones de intervención. Las intervenciones generadas por la Matriz de Decisiones se obtuvieron luego de los procesos de análisis del modelo de deterioro HDM-4, el cual fue calibrado para la ciudad, teniendo en cuenta los criterios de priorización establecidos. Entre los resultados obtenidos, se puede destacar que el 89% de las calzadas de la ciudad corresponden a pavimentos flexibles, razón por la cual la mayoría de

intervenciones están enfocadas hacia ese tipo de superficie. En segundo lugar está el pavimento rígido con 7% y el pavimento articulado representa sólo el 1%. Del total de los 2.053 Km-calzada de longitud de la malla vial, según el tipo de vía o la jerarquía vial, el 47% corresponde a las vías de servicio, en segundo lugar están las vías colectoras con el 19%, seguidas de las vías rurales con el 16%, las arterias principales con el 14%, las arterias menores con el 3% y finalmente las autopistas con el 1%, siendo éstas últimas las vías de mayor jerarquía de la ciudad. La Matriz de Decisiones arrojó que la clasificación del estado según el rango de IRI para las vías en pavimento flexible, es de 15% en estado excelente, 7% en estado bueno, 53% en estado regular y 26% en estado malo. Finalmente, con los resultados obtenidos, se analizaron los datos estadísticos del inventario de la infraestructura y los mapas de las intervenciones requeridas en la gestión de la malla vial. Estos resultados, dinámicos en el tiempo, constituyen la herramienta principal de gestión de la Secretaría de Infraestructura Física. Ellos son la base para tomar decisiones y optimizar los recursos en la solución de un problema en particular y en la planificación del mantenimiento de la malla vial de la ciudad, lo que permite ofrecer un mejor servicio a la comunidad.

REFERENCIAS [1] P. Álvarez, F. López-Rodríguez, J. L. Canito, F. J. Moral

& A. Camacho. “Development of a measure model for optimal planning of maintenance and improvement of roads”.Computers & Industrial Engineering, Vol. 52, Issue 3, pp. 327-335, April 2007.

[2] J. Coutinho-Rodrigues, A. Simão & C. H. Antunes. “A

GIS-based multicriteria spatial decision support system for planning urban infrastructures”. Decision Support Systems, Vol. 51, Issue 3, pp.720-726, June 2011.

[3] W. Chen, J. Yuan & M. Li. “Application of GIS/GPS in Shanghai Airport Pavement Management System”.Key Laboratory of Road and Traffic Engineering of the Ministry of Education, Tongji University, Shanghai 200092, P.R. China, Shanghai Airport Authority, Shanghai 200335, P.R. China.

[4] X. Wang. “Integrating GIS, simulation models, and visualization in traffic impact analysis”. Computers, Environment and Urban Systems, Vol. 29, Issue 4, pp. 471-496,July 2005.

[5] TNM TECHNOLOGY & MANAGEMENT. Online [Nov. 2011].

[6] W. A. Robertson, N. Sauceda & R. Olive. “Condicion de las calles, evaluación de la infraestructura vial”. Departamento de Obras Públicas, Agencia de Mantenimiento de Calles. Los Angeles, Septiembre de 2008.

Page 84: Revita  ingeneria nformatica forene

Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

84

84

84

[7] M. W. Sayers & S. M. Karamihas. “The Little Book of Profiling. Basic Information about Measuring and Interpreting Road Profiles”. The Regent of the University of Michigan. Online [September. 1998].

[8] U.S. Department of Transportation Federal Highway Administration. “Geotechnical Aspects of Pavements Reference Manual”, Online [Nov. 2012].

[9] U.S. Department of Transportation Federal Highway Administration. “Ground Penetrating Radar for Measuring Pavement Layer Thickness”, Publication Number: FHWA-HIF-00-015. 2000. Online [Nov. 2012].

[10] Mastrad, Quality and Test Systems. Online [Nov. 2012].

[11] Instituto Nacional de Vías, Universidad de Cauca, “Método De Ensayo Normal Para El Uso Del Penetrómetro Dinámico De Cono En Aplicaciones De Pavimentos A Poca Profundidad”. Online [Nov. 2012].

[12] U.S. Department of Transportation Federal Highway

Administration. “Distress Identification Manual for the long-term pavement performance program”, Publication Year: June 2003. Online [Nov. 2012].

[13] U.S. Department of Transportation Federal Highway

Administration. “Guidelines for Detection, Analysis, and Treatment of Materials-Related Distress in Concrete Pavements Vol II”, Publication Number: FHWA-RD-01-164, Date: March 2002. Online [Nov. 2012].

[14] U.S. Army Corps Of Engineers. “O&M: PAVER Concrete Surface Airfields Pavement Condition Index (PCI)”, UFC 3-270-05. 15 March 2001. Online [Nov. 2012].

[15] C. H. Higuera Sandoval, “Caracterización de la resistencia de la subrasante con la información del deflectómetro de impacto”. Revista Facultad de Ingeniería UPTC, Vol. 19, No. 28. Pp. 73-92, 2010.

[16] H. A. Rondón & F. A. Reyes. “Metodologías de diseño de pavimentos flexibles: Tendencias, alcances y limitaciones”. Universidad Militar Nueva granada, Bogotá, Colombia, 2007 pp. 41-65.

[17] Consorcio troncal carrera 7. “Estudios y diseños troncal carrera 7, Informe final de pavimentos – parámetros de diseño”, pp. 20, 2008.

[18] F. Sánchez. Caracterización del Tránsito Modulo 4”. Online [Dic. 2012].

[19] Secretaría de Infraestructura Física, Municipio de Medellín. SOLTEC ING Soluciones Técnicas, “Ajuste y calibración de modelos de deterioro para el sistema de gestión vial e infraestructura asociada del Municipio de Medellín”. Informe Final, pp. 1-47, junio 2011.

[20] ESRI. Understandingourworld, “Introducing ArcGIS 10.1”. Online [Nov. 2012].