View
228
Download
0
Category
Preview:
Citation preview
ESCUELA POLITÉCNICA NACIONAL
Facultad de Ingeniería Eléctrica
" FILOSOFÍA DE MANTENIMIENTO DELOS EQUIPOS DEL SISTEMA CENTRAL DEL
CENTRO NACIONAL DE CONTROL DE ENERGÍA "
TESIS PREVIA A LA OBTENCIÓN DEL TITULO DEINGENIERO EN ELECTRÓNICA Y CONTROL
Germán Ernesto Pancho Carrera
QUITO, julio de 1996
CERTIFICACIÓN
Certifico que el presente trabajo detesis fue realizado por el Sr.Germán Pancho Carrera, bajo misupervisión y asesoramiento.
Ing. <Ga»b*iel Arguello R.
C O N T E N I D O
ÍTEM página
1. INTRODUCCIÓN 1-1
1.1 ANTECEDENTES 1-1
1.2 OBJETIVOS 1-2
1.3 ALCANCE 1-2
2. EL CENTRO NACIONAL DE CONTROL DE ENERGÍA 2-1
2.1 INTRODUCCIÓN 2-1
2.2 ESPECIFICACIONES DE DISEÑO DEL CENTRO DE CONTROL.. 2-22.2.1 Requerimientos del Equipamiento del Centro de Control 2-22.2.2 Responsabilidades del Sistema 2-42.2.3 Datos del Proceso 2-5
2.3 DESCRIPCIÓN Y OPERACIÓN DEL SISTEMA DE CONTROL 2-72.3.1 Visión General del sistema SPIDER 2-72.3.2 Sistema de Adquisición de Datos 2-9
Unidades Terminales Remotas RTU400 2-10Computadores Frontales FE200 2-11
2.3.3 Sistema Central 2-13Computadores principales 2-14Estaciones de Trabajo 2-17Computador de Mantenimiento 2-19Red de Área Local 2-20Equipo de tiempo base 2-24
2.4 FILOSOFÍA DE MANTENIMIENTO DE LOS EQUIPOS 2-252.4.1 Requerimientos generales del sistema de soporte de
mantenimiento 2-252.4.2 Requerimientos específicos del sistema de soporte de
mantenimiento 2-27
3. SISTEMA CENTRAL Y FUNCIONES DE APLICACIÓN 3.1
3.1 DESCRIPCIÓN DEL EQUIPAMIENTO DEL SISTEMA CENTRAL.. 3-13.1.1 Introducción 3-13.1.2 Equipamiento del Sistema Central 3-4
Computador principal: VAXstation 4000 modelo 90 3-4Computador de mantenimiento: MicroVAX 3100 modelo 80 .. 3-5Estación de trabajo: DECstation 5000 modelo 133 3-6Sistema de computadores frontales FE200 3-7Equipo de tiempo base GREDAS 3-11Red de Área Local 3-12Servidores de Red 3-15Otros periféricos 3-16
3.2 FUNCIONES DE APLICACIÓN 3-193.2.1 Introducción 3-193.2.2 Software SPIDER 3-193.2.3 Módulos de Análisis de Red 3-243.2.4 Secuencias de Control de las Aplicaciones 3-263.2.5 Secuencia de análisis de red en tiempo real 3-273.2.6 Secuencia de análisis de red en modo de estudio 3-283.2.7 Cálculo Topológico de RED (NPC) 3-283.2.8 Modelación Dinámica de RED (DNM) 3-303.2.9 Chequeo de Razonabilidad (NPC) 3-313.2.10 Estimador de Estado (SE) 3-333.2.11 Pronóstico de Carga (BLF) 3-383.2.12 Flujo de Carga (OLF) 3-40
4. MANUAL DE MANTENIMIENTO DEL SISTEMA CENTRAL 4-1
4.1 INTRODUCCIÓN 4-1
4.2 MANTENIMIENTO RUTINARIO 4-24.2.1 Información mediante el panel de alarmas 4-34.2.2 Información mediante despliegues, listas de alarmas
y eventos 4-64.2.3 Información mediante despliegues en sistema operativo 4-9
Diagnósticos VAX/VMS 4-10Diagnósticos ULTRIX 4-12
4.2.4 Respaldos de información 4-124.2.5 Reinicializaciones de equipos 4-184.2.6 Configuraciones de equipos 4-19
4.3 MANTENIMIENTO CORRECTIVO 4-224.3.1 Diagnósticos y chequeos mediante software 4-234.3.2 Cambio de equipos y tarjetas 4-24
11
CONTENIDO DE LOS ANEXOS
ÍTEM página
ANEXO I: EQUIPAMIENTO DEL SISTEMA CENTRAL Al-1
1.1 DIAGRAMA DE CONFIGURACIÓN DEL SISTEMA CENTRAL Al-1
1.2 LISTADO DE REPUESTOS: LRUs Y SUB-LRUs Al-6
ANEXO II: DOCUMENTACIÓN SPIDER A2-1
2.1 INTRODUCCIÓN A2-1
2.2 NOMENCLATURA DE LA DOCUMENTACIÓN A2-1
2.3 ESTRUCTURA DE LA DOCUMENTACIÓN A2-1
2.4 DOCUMENTACIÓN EN MEDIOS DE ALMACENAMIENTOÓPTICO (CD ROM) A2-22.4.1 Documentación VAX/VMS A2-22.4.2 Documentación ULTRIX A2-3
ANEXO III: PROCEDIMIENTOS DE DIAGNÓSTICOS EN SISTEMAOPERATIVO A3-1
3.1 INTRODUCCIÓN A3-1
3.2 DIAGNÓSTICOS DE SISTEMA OPERATIVO VAX/VMS A3-13.2.1 Análisis de Errores en VAX/VMS (Error Log Utility) A3-13.2.1.1 Descripción A3-13.2.1.2 Comandos para Análisis de Errores A3-23.2.2 Monitoreo del Sistema (Monitor Utility) A3-43.2.2.1 Descripción A3-43.2.2.2 Comandos para el monitoreo del sistema A3-43.2.3 Análisis del Desempeño de Red (NCP) A3-73.2.3.1 Descripción A3-73.2.3.2 Comandos para supervisión de Red A3-7
3.3 DIAGNÓSTICOS DE SISTEMA OPERATIVO ULTRIX A3-83.3.1 Análisis de Espacio en Particiones A3-83.3.2 Análisis de Errores (uerf) A3-93.3.3 Análisis de Desempeño de Procesos A3-103.3.4 Análisis de Memoria, Entrada/Salida y Actividad de Red A3-11
IV
3.4 DIAGNÓSTICOS ADICIONALES A3-13
3.5 ESTÁNDARES DEL SISTEMA A3-153.5.1 Introducción A3-153.5.2 Estándares en VAX/VMS A3-16
Errores en dispositivos A3-16Recursos en disco de los computadores VAX A3-16Monitoreo del sistema A3-16Recursos de los archivos p a ge file swapfile A3-18Análisis de Desempeño de RED (NCP) A3-18
3.5.3 Estándares en ULTRIX A3-18Uso de las particiones en las estaciones de trabajo A3-18Análisis del desempeño de procesos:Estadísticas del swap space A3-19Estadísticas del uso de Memoria A3-19Estadísticas de Entrada/Salida de información A3-19Estadísticas de la actividad de la red A3-19
ANEXO IV: PROCEDIMIENTOS DE RESPALDO Y REPOSICIÓN DEINFORMACIÓN A4-1
4.1 PROCEDIMIENTOS DE RESPALDO DE INFORMACIÓN A4-14.1.1 Procedimientos en VAX/VMS A4-1
Respaldo de información en un computador principal A4-1Respaldo de información en el computadorde mantenimiento A4-3
4.1.2 Procedimientos en ULTRIX A4-4Respaldo de información en una estación de trabajo A4-4
4.2 PROCEDIMIENTOS DE RESTAURACIÓN DE INFORMACIÓN ... A4-64.2.1 Procedimientos en VAX/VMS A4-6
Restauración de la información en un computador principal.. A4-6Restauración de la información del computadorde mantenimiento A4-8
4.2.2 Procedimientos en ULTRIX A4-9Reposición de la información de respaldo de unaestación de trabajo A4-9
ANEXO V: REINICIALIZACIONES DE EQUIPOS A5-1
5.1 REINICIALIZACION DE UN COMPUTADOR PRINCIPAL A5-1
5.2 REINICIALIZACION DEL COMPUTADORDE MANTENIMIENTO A5-3
5.3 REINICIALIZACION DE UNA ESTACIÓN DE TRABAJO A5-5
5.4 REINICIALIZACION DE UN COMPUTADOR FRONTAL A5-5
5.5 REINICIALIZACION DEL EQUIPO DE TIEMPO BASE A5-6
5.6 REINICIALIZACION DE UN SERVIDOR DE RED A5-65.6.1 Reinicialización de un servidor serie A5-65.6.2 Reinicialización de un servidor paralelo A5-7
ANEXO VI: PROCEDIMIENTOS DE DIAGNOSTICO Y CHEQUEOSMEDIANTE SOFTWARE A6-1
6.1 DIAGNÓSTICOS DE COMPUTADORES VAX Y DEC A6-16.1.1 Procedimientos en VAX/VMS A6-1
Diagnósticos de la VAXstation 4000 modelo 90 A6-1Diagnósticos mediante software del computadorde mantenimiento A6-3
6.1.2 Diagnósticos en ULTRIX A6-7Diagnósticos mediante software de unaestación de trabajo A6-7
6.2 FUNCIONES DE DIAGNOSTICO EN UNCOMPUTADOR FRONTAL A6-86.2.1 Funciones de autodiagnóstico A6-86.2.2 Mensajes del sistema de computadores frontales A6-96.2.3 Funciones de diagnóstico A6-9
6.3 FUNCIONES DE DIAGNOSTICO EN EL SISTEMADE TIEMPO BASE - GREDAS A6-11
6.4 FUNCIONES DE DIAGNOSTICO EN LOS SERVIDORES DE RED A6-126.4.1 Diagnósticos de un servidor serie A6-126.4.2 Diagnósticos de un servidor paralelo A6-13
vi
ÍNDICE DE FIGURAS
Figura No. página
2.1 Datos del proceso 2-72.2 Diagrama de bloques del sistema SPIDER 2-82.3 Configuración de los computadores frontales 2-122.4 Supervisión de los computadores principales 2-162.5 Arquitectura de red 2-223.1 Computador principal VAXstation 4000 modelo 90 3-53.2 Computador de mantenimiento MicroVAX 3100 modelo 80 3-63.3 Estación de trabajo DECstation 5000 modelo 133 3-73.4 Computador frontal FE200 3-103.5 Equipo de tiempo base GREDAS 3-113.6 Posición del controlador de LAN en la pila de protocolos 3-123.7 Trama Ethernet 3-133.8 Módulos de programas SCADA 3-233.9 Secuencia de análisis de red en tiempo real 3-273.10 Secuencia de análisis en modo de estudio 3-283.11 Funcionalidad del cálculo topológico de red 3-293.12 Funcionalidad del chequeo de razonabilidad 3-323.13 Funcionalidad del estimador de estado 3-383.14 Funcionalidad del pronóstico de carga 3-403.15 Funcionalidad del flujo del operador 3-434.1 Sistema de Soporte de Mantenimiento 4-14.2 Panel de Alarmas 4-64.3 Estados en los dispositivos del sistema central 4-84.4 Herramientas de diagnóstico VAX/VMS 4-114.5 Herramientas de diagnóstico ULTRIX 4-12
vw
ÍNDICE DE TABLAS
Tabla No. página
2.1 Descripción de la arquitectura de red 2-213.1 Tabla de nodos y direcciones 3-143.2 Características de los equipos del sistema central 3-173.3 Módulos de programas SCADA 3-213.4 Códigos de las mediciones 3-44.1 Información de los computadores con fines de respaldo 4-134.2 Tiempos en la ejecución de respaldos de información 4-144.3 Mnemónicos de un computador principal 4-154.4 Mnemónicos del computador de mantenimiento 4-164.5 Particiones en las estaciones de trabajo 4-164.6 Mnemónicos de una estación de trabajo 4-174.7 Parámetros de entorno de las consolas 4-20A3.1 Recursos en disco de los computadores VAX A3-16A3.2 Estándares de Monitoreo en VAX/VMS A3-17A3.3 Estándares de monitoreo de procesos A3-17A3.4 Recursos de los archivos pagefile y swapfile A3-18A3.5 Uso de las particiones en las estaciones de trabajo A3-18A5.1 Valores de la acción de recuperación A5-2A6.1 Número de identificación y definiciones de los dispositivos
de un computador principal A6-2A6.2 Mensajes de error en un computador principal A6-2A6.3 Números de componentes y mnemónicos
en un computador principal A6-3A6.4 Números de componentes y mnemónicos
del computador de mantenimiento A6-5A6.5 Mensajes de error en una estación de trabajo A6-7A6.6 Leds de diagnóstico en un computador frontal A6-10
VIH
CAPITULO I
INTRODUCCIÓN
1.1 ANTECEDENTES
La Industria Eléctrica alrededor de todo el mundo ha dado un gran cambio, las
tradicionales oficinas de despacho de energía eléctrica, han sido sustituidas por los
denominados centros de control. El concepto de despacho de carga ha evolucionado a
una filosofía compleja que permite el control supervisorio de los sistemas de potencia.
El Instituto Ecuatoriano de Electrificación (INECEL) ha trabajado en los últimos años
en un proyecto que permita realizar la adquisición automática de datos y operación
remota del Sistema Nacional Interconectado (SNI), mediante un sistema computarizado
de manejo de energía. Actualmente la fase de proyecto está concluida con la creación del
Centro Nacional de Control de Energía (CENACE).
El Sistema SPIDER es la denominación dada por la firma sueca-suiza Asea Brown
Boveri (ABB), a su sistema de manejo de energía, constituido por un sistema de
adquisición de datos (SCADA) y un conjunto de funciones de aplicación, que ha sido
contratado e instalado en el SNI. El Centro de Control diseñado e instalado por personal
técnico de ABB e INECEL, inició su operación comercial en agosto de 1995. Luego de la
recepción definitiva del proyecto, el personal de INECEL tendrá a su cargo en forma
total la operación y mantenimiento de este sistema.
Pag. 1-1
1.2 OBJETIVOS
En relación a los antecedentes presentados, los objetivos que se pretenden alcanzar con
el presente trabajo de tesis son los siguientes:
a. Proporcionar una visión general del sistema de manejo de energía SPIDER,
describir su Sistema Central, así como su estructura y las funciones, que
permiten el control y el monitoreo del SNI.
Por las características de alta tecnología del sistema SPIDER, la tesis pretende
constituirse en un texto de referencia para los profesionales en Ingeniería
Eléctrica y Electrónica, que tengan interés en áreas asociadas a sistemas SCADA
y sistemas de control.
b. Definir los procedimientos que permitan efectuar el mantenimiento preventivo y
correctivo de los equipos instalados en el sistema central.
c. Crear un manual, en el que se documenten los procedimientos que permitan
identificar y manejar las fallas en los equipos del sistema central, a fin de
disminuir los tiempos de reemplazo de equipos y/o componentes. El manual ha
sido diseñado en base a la documentación que ABB ha entregado a INECEL, a la
información de los cursos de entrenamiento recibidos, a los resultados de las
pruebas realizadas y a la experiencia acumulada en el trabajo diario.
1.3 ALCANCE
Después de haberse detallado los antecedentes y objetivos, a continuación se presenta el
bosquejo de la tesis, con el fin de familiarizar al lector con el material. El capítulo II
presenta una descripción global de los aspectos funcionales y operativos del Sistema de
Pag. 1-2
Supervisión y Control, con sus especificaciones de diseño más importantes. El capítulo
se complementa con una descripción de los recursos, funciones y organización de soporte
de mantenimiento aplicados al sistema central, que constituyen toda una filosofía, para
satisfacer los requerimientos que el INECEL planteó en las bases del concurso
internacional de precios para la instalación del Centro de Control.
El capítulo III describe las características más importantes del equipamiento del
sistema central, así como la arquitectura de la red LAN instalada, con el enfoque de
diseño de los sistemas de arquitectura abierta. En la segunda parte de este capítulo, se
proporciona una visión general de los módulos de software SPIDER que se ejecutan en
el sistema, detallándose desde el punto de vista funcional las funciones de aplicación que
se ejecutan para el monitoreo y control de seguridad del SN1, sin profundizar demasiado
en los algoritmos matemáticos asociados.
Debido a que la información que ABB ha entregado al INECEL no describe el hardware
de sus equipos a nivel de diagramas circuitales, ni el software a nivel de lenguaje
ensamblador, la descripción de la funcionalidad de los equipos y programas, que consta
en los capítulos II y III, se realiza tomando en cuenta estas consideraciones mediante
ilustraciones en diagramas de bloques.
El capítulo IV es un manual para el mantenimiento preventivo y correctivo de los
equipos del Sistema Central, que pretende ser una guía para el personal de
Mantenimiento y de Operación del CENACE. El capítulo documenta procedimientos
asociados a los siguientes tópicos:
• Procedimientos y herramientas para el mantenimiento supervisorio de los
equipos del sistema central.
Pag. 1-3
• Diagnósticos de monitoreo y desempeño diario de los computadores del sistema
centra] mediante sistema operativo, tanto en el entorno del sistema VAX/VMS y
como en el sistema ULTRIX. También se definen los estándares del sistema que
permiten evaluar esta información.
• Estructura de la documentación SPIDER. Se incluyen también los
procedimientos para el uso de la documentación de los sistemas operativos en
unidades de lectura óptica.
• Ejecución de los procedimientos de respaldos y restauración de información.
• Diagnósticos de hardware, procedimientos de configuración y reiniciaüzación de
los computadores principales, computador de mantenimiento, computadores
frontales, estaciones de trabajo, servidores de red y equipo de tiempo base.
El manual describe a detalle los procedimientos mediante referencias a anexos, con el
fin de mantener una estructura simple, consistente y objetiva. El capítulo V, finalmente
presenta la descripción y los resultados de las diferentes pruebas del manual, elaborado
en el capítulo IV, las mismas que permitieron evaluar la confiabilidad y precisión de los
procedimientos detallados. La redacción de la tesis, utiliza con frecuencia términos en
inglés con el propósito de conservar fidelidad en algunas ideas y/o conceptos.
Pag. 1-4
CAPITULO II
EL CENTRO NACIONAL DE CONTROL DE ENERGÍA
2.1 INTRODUCCIÓN
El Instituto Ecuatoriano de Electrificación (INECEL), es la Institución encargada de la
electrificación nacional con responsabilidad directa en la planificación, diseño,
instalación, operación y mantenimiento de la generación y transmisión del país. Los
sistemas de subtransmisión y distribución son responsabilidad de las 18 empresas
regionales.
Ecuador tiene una capacidad instalada de 2375 mW, de los cuales 1675 pertenecen a
INECEL y 700 mW a las empresas regionales. El 75% corresponde a centrales
hidráulicas y el 25% a centrales térmicas. La demanda nacional pico en 1995 fue de
1665 mW, con una entrega total de energía por parte del INECEL a las empresas
eléctricas de 6244 GWh1.
El Sistema Nacional Interconectado (SNI), está formado por tres centrales de
generación hidráulicas y cuatro térmicas y adicionalmente por un anillo de 230 kV en
doble circuito y líneas radiales de 138 kV. Las empresas regionales están conectadas al
sistema de transmisión mediante subestaciones de 230/138/69/46 kV., de donde parten
líneas de subtransmisión hacia sus respectivas áreas de concesión.
En el pasado, la supervisión y control del SNI la realizaba la Unidad de Despacho de
Carga, ubicada en Quito, a la cual operadores de las centrales y subestaciones
1 INECEL, Informe de Resultados de Operación del Sistema Eléctrico del INECEL Enero- Diciembre de1995. INECEL - CENACE, Quito, 1996,pp. 9.
Pag. 2-1
reportaban información con una frecuencia horaria. La información se transmitía vía
radio o teléfono, sin disponer de recursos para una supervisión en tiempo real. Las
experiencias obtenidas durante la operación normal y especialmente en condiciones
emergentes, demostraron las limitaciones de una operación manual del sistema.
Desde el primero de agosto de 1995, el SNI cuenta con un sistema de manejo de energía
denominado SPIDER, instalado por la compañía sueca-suiza Asea Brown Boveri (ABB)
con la participación de técnicos del INECEL, para dotar de seguridad, calidad y
economía a la operación del sistema eléctrico ecuatoriano.
2.2 ESPECIFICACIONES DE DISEÑO DEL CENTRO DE CONTROL
Las especificaciones de diseño para el sistema de supervisión y control, fueron
concebidas para que el centro de control ejecute las siguientes funciones:
a. Supervisión y control del SNI.
b. Funciones de análisis de red.
c. Funciones de planeamiento operativo y reportes.
d. Análisis de seguridad del sistema.
e. Análisis post - operativo.
f. Comunicación con otros centros de control1 .
2.2.1 Requerimientos del Equipamiento del Centro de Control
Los requerimientos de equipamiento del Centro Control, fueron concebidos con el
propósito de conformar un conjunto de subsistemas que funcionalmente satisfagan los
1 En la actualidad no existen en el país otros centros de control asociados a la industria eléctrica, sinembargo, el sistema SPIDER está concebido para que a futuro sea posible la comunicación con otroscentros de control.
Pag. 2-2
propósitos bajo los cuales fue creado este sistema. El Centro de Control está conformado
actualmente de los siguientes subsistemas:
• Un subsistema de computación, provisto de dos computadores principales, un
computador para mantenimiento de software, controladores de comunicaciones e
interfaces de red.
• Un subsistema interfaz hombre - máquina, equipada con estaciones de trabajo
provistas de unidades de vídeo de alta resolución que faciliten la presentación de
datos, despliegues e información de los sistema de potencia. La funcionalidad de
las estaciones de trabajo definidas mediante áreas de autoridad, permiten contar
con estaciones de trabajo para intervenir en los sistemas de generación, de
transmisión del SNI, así como ejecutar tareas de supervisión, mantenimiento y
entrenamiento de personal.
• Un subsistema de adquisición de datos, conformado por una unidad terminal
remota en cada subestación del SNI que recolecte la información del sistema de
potencia y ejecute en sitio las funciones y comandos definidos desde el sistema
central. Además de dos computadores frontales, que recolecten toda la
información que envían las unidades terminales remotas.
• Un subsistema de comunicaciones que consta de un sistema de comunicaciones
de onda portadora (PLC) sobre las líneas de potencia, que centraliza toda esta
información en la subestación Santa Rosa para integrarse al Centro de Control
mediante un enlace por fibra óptica.
• Subsistema de servicios auxiliares que incluye un suministro continuo de
energía, control de temperatura y humedad, control de ingreso de personal a las
diferentes áreas, etc.
Pag. 2-3
2.2.2 Kesponsabilidades del Sistema
El INECEL hp dividido la responsabilidad del sistema de supervisión y control en tres
áreas:
a. Funcionalidad.- ABB ha sido la responsable del equipamiento e integración
correcta de las funciones del centro de control. Esta funcionalidad del sistema
está dividida en dos grupos:
1. Grupo Funcional A.- Asociado a las funciones SCADA del sistema:
• Interfáz hombre - máquina
• Supervisión
• Control
2. Grupo Funcional B.- Relacionado con las funciones de aplicación, para
ejecutar el monitoreo, control y análisis de seguridad del sistema.
• Análisis de red
• Funciones de reporte
• Planeamiento operativo
b. Desempeño y capacidad del sistema.- Los requerimientos de desempeño y
capacidad del sistema, incluyen los siguientes aspectos:
• Capacidad de memoria en los computadores: 50%; capacidad remanente
del CPU en carga normal: 50%, y en carga pico: 20%.
• Interfaces I/O y bufíers en las UTR e información de la subestación
respectiva desde el centro de control, pueden manejarse con un
incremento del 20%.
• Capacidad de expansión del sistema después de la recepción definitiva:
incremento de memoria en los computadores: 50%; incremento del
número de objetos por UTR: 20%; incremento en el número de
Pag. 2-4
subestaciones: 10; incremento en el número de terminales de
programación: 5; incremento de teclas en los teclados funcionales: 15;
incremento en el número de enlaces con otros centros de control: 4 y la
posibilidad de instalar periféricos y estaciones de cintas adicionales en los
computadores del sistema central.
• Requerimientos en tiempos máximos para actualización de datos de las
funciones de control y supervisión: 5 a 18 s.; tiempo de respuesta para
llamadas a despliegues: 1 a 3 s.; tiempos de ejecución de impresiones: 1
min. (impresiones a color) a 1 h. (reportes); tiempo de ejecución para las
funciones de análisis de red: 5 s. a 3 min., tiempo de reinicialización de
computadores 30 s. a 30 min.
c. Disponibilidad del sistema.- Este requerimiento, cuantifica el tiempo que los
equipos se encuentran operativos. En un ambiente operativo real, la
disponibilidad depende de la contribución de desempeño de los subsistemas de
ABB e INECEL, así como del plan de mantenimiento que se ejecuta en el
sistema.
2.2.3 Datos del Proceso
Un aspecto importante en las especificaciones de diseño, es el detalle para cada
subestación, de la información y los datos a ser recolectados por su respectiva unidad
terminal remota. Los datos de proceso que se adquieren o se envían, se clasifican de la
siguiente manera:
a. Señales analógicas.- Estas señales provienen de los transductores hacia la
unidad terminal remota y permiten obtener mediciones de valores, tales como:
voltajes de barra, valores de corriente, nivel de embalses y valores de potencia
Pag. 2-5
activa y reactiva. La señal de entrada a la unidad terminal remota es un voltaje
DC (alta impedancia O a 20 V), o una señal de corriente DC (baja impedancia O a
20 mA).
b. Señales digitales.- Estas señales ingresadas a la unidad terminal remota
permiten determinar la posición de los taps en transformadores. Estos valores
digitales tienen una precisión de 8 ó 16 bits.
c. Señales de energía.- Son señales de pulsos que ingresan a la unidad terminal
remota y que permiten cuantificar energía. Cada pulso corresponde a una
determinada cantidad de vatios hora (Wh).
d. Indicaciones.
• Simples: utilizadas para determinar estado de alarmas en equipos tales como
transformadores , unidades de generación, etc; y la posición de seccionadores.
• Dobles: utilizadas para detectar el estado en los disyuntores,
e. Comandos.- Estas señales han sido acondicionadas para ejecutar las siguientes
acciones:
• Apertura y cierre de disyuntores
• Control de taps en transformadores.
• Regulación de potencia activa y reactiva en unidades de generación.
• Regulación de valores de consigna (set point) en unidades de generación.
• Arranque y parada de turbinas a gas.
f. Set points o valores consigna.- Son valores ingresados por el operador en forma
numérica a la unidad terminal remota, para controlar la potencia de las
unidades de generación.
Pag. 2-6
f£><£>j
i
(
Sistema Central
Operador
Subsistema de Adquisición de Datos
Indicaciones Mediciones Energía Comandos Sel point
Proceso
Fuente: ABB, Course F14 - Remóte Terminal Unit RTU400
Figura 2.1: Datos del proceso
2.3 DESCRIPCIÓN Y OPERACIÓN DEL SISTEMA DE CONTROL
2.3.1 Visión General del sistema SPIDER
El sistema SPIDER es un sistema de manejo de energía, que permite la supervisión en
tiempo real del SNI, así como su operación remota. Este sistema incorpora un conjunto
de funciones que se agrupan como se detalla a continuación:
a. Funciones de adquisición de datos y control del sistema de control (sistema
SCADA):
• Adquisición de indicaciones, mediciones y valores acumulados.
• Ingreso manual de valores del proceso.
• Control del proceso.
• Comunicación entre las unidades terminales remotas y el sistema central.
Pag. 2-7
• Supervisen del sistema de control.
b. Funciones de aplicación orientadas a la operación del sistema eléctrico de
potencia, que permiten realizar la modelación y análisis de red .
Estación de trabajo
LAN1
LAN 2
Stall alarm Stallalarm
ComputadorPrincipal A Adaptador
ComputadorPrincipal B
Computador FrontalA
Computador FrontalB
T
UTR UTR
UTR UTR
Estrella
UTR UTR
Serie
UTR J4 *j UTR
Lazo
Fuente: ABB, Course F14 - Remote Terminal Unit RTU400
Figura 2.2: Diagrama de bloques del sistema SPIDER
Pag. 2-8
2.3.2 Sistema de Adquisición de Datos
El estado del Sistema Eléctrico de Potencia se monitorea continuamente mediante el
subsistema de adquisición de datos, formado por 23 unidades terminales remotas y dos
computadores frontales. Este sistema recolecta y procesa alrededor de 480 mediciones y
5000 indicaciones en un período de 10 a 15 segundos.
El subsistema de adquisición de datos, incorpora información de los valores de corriente
por líneas y transformadores, flujos de potencia activa y reactiva, voltajes de barra y
posiciones de taps en los transformadores. Mediciones consideradas como secundarias,
tales como temperatura en transformadores, presiones de gas, niveles de combustible y
agua, frecuencia en puntos específicos del sistema, entre otras; también son adquiridas
por este subsistema..
Mediante el sistema de comunicaciones a nivel nacional, que enlaza el sistema central
con las unidades terminales remotas, se envían a las subestaciones los comandos de
control. La ejecución o no de uno de ellos, es determinado en el centro de control,
mediante un programa que monitorea el desborde de un temporizador de respuesta de
comando.
El monitoreo de indicaciones y telecomando para interruptores se realiza en todas las
subestaciones. No se realiza control alguno sobre seccionadores, disponiéndose
únicamente de su información de estado.
Cuando el sistema de adquisición de datos detecta un cambio en el sistema de potencia,
una función procesa el evento de acuerdo a la definición de la base de datos del sistema
central, de manera que sea registrado en una lista de alarmas, de eventos y/o se
presente como una alarma audible.
Pag. 2-9
Unidades Terminales Remotas RTU400
El proceso de adquisición de datos se realiza mediante las Unidades Terminales
Remotas (UTR). Estas unidades son microcomputadores que ejecutan internamente las
funciones de adquisición y procesamiento de información en sitio, mediante los
siguientes módulos de programas:
a. Módulo de adquisición de datos del proceso.- Este módulo tiene a su cargo la
ejecución de las siguientes tareas:
• Adquisición de indicaciones, las mismas que se actualizan en la base de
datos de la UTR. La actualización se realiza, únicamente cuando se
produce el cambio de estado en una indicación, un arranque del equipo o
un requerimiento de actualización de datos desde sistema central.
• Filtrado digital de indicaciones que valida un cambio de estado en una de
ellas, después de un tiempo de retardo.
• Captura y registro secuencial de eventos para almacenar cambios
transitorios en los datos, los que posteriormente son presentados en una
lista de eventos en el sistema central.
• Supresión de posiciones intermedias, para el caso de indicaciones dobles.
• Protección de sobrecarga, para prevenir un exceso de datos en la UTR
debido a una oscilación en una medición.
• Adquisición de datos para valores digitales, con selección del formato de
salida y el monitoreo de banda muerta (histéresis).
• Adquisición de pulsos en forma cíclica para medir energía.
• Adquisición de datos para valores análogos, mediante conversores A/D
con selección del tiempo de muestreo, factor de ganancia y banda muerta
(histéresis).
Pag. 2-10
b. Módulo de base de datos.- Este módulo almacena la información del proceso en
una base de datos, la que posteriormente se transmite al sistema central.
c. Reporte de datos del proceso.- Este módulo interpreta los requerimientos de
información que proviene del sistema central, mediante consultas a la base de
datos.
d. Módulo de comunicación.- Este módulo maneja un sistema de telegramas de
comunicación con el sistema central, mediante un protocolo específico (RP 570).
e. Módulo de salida hacia el proceso.- Este módulo permite la ejecución de los
comandos de maniobra, regulación y set point generados desde el sistema
central.
La información que maneja cada UTR está definida en la base de datos del sistema
central, y se transfiere cada vez que arranca el equipo, mediante tablas de funciones que
incluyen información acerca de:
a. Topología de la subestación, datos a adquirirse localmente y hardware instalado.
b. Procesamiento de la información y del sistema de lineas de comunicaciones
asociado a la unidad.
Computadores Frontales FE200
El computador frontal es un sistema interfaz que maneja la comunicación con las
unidades terminales remotas (protocolo RP 570) y simultáneamente con los
computadores principales (red LAN Ethernet IEEE 802.3). La transferencia de
información, se ejecuta de manera rápida y confiable, mediante rutinas de llamado, las
mismas que se interrumpen cuando se ejecutan comandos hacia el proceso. Esta forma
de trabajo mediante rutinas de llamado, asegura que la transferencia de información al
centro de control, sea eficiente con un retardo de tiempo mínimo.
Pag. 2-11
j
'
Redes Ethernet (norma IEEE802.3)
r
Computador FrontalA (on Une)
A
1
L
'I . I . J l
, T , T _J
' '
Computador FrontalB (stand by) p
OTc
+ 0
T L+ ' 0
UTR
' '
UTR ^ UTRi '
UTR
Estrella Serie LazoConfiguración de los lazos de comunicación
Figura 2.3: Configuración de los computadores frontales
El sistema central tiene una configuración redundante de computadores frontales, uno
de los cuales se mantiene en linea (on line)y el otro listo para entrar en operación (stand
by). El módulo de supervisión del sistema SPIDER prevé la ejecución de un switchover
automático en caso de falla del computador frontal en linea. Esta transferencia se
ejecuta sin afectar la comunicación con los computadores principales y las unidades
terminales remotas.
Las funciones más importantes que ejecutan los computadores frontales se resumen en
los siguientes puntos:
a. Manejo de las líneas de comunicación, a través de rutinas de llamado y tablas de
búsqueda a las unidades terminales remotas, para recoger información, enviar
comandos y sincronizar unidades.
Pag. 2-12
En caso de folla en una de las líneas de comunicación, el computador frontal
habilita y reconfigura un camino adicional (configuración tipo lazo) para
continuar con la adquisición de los datos.
b. Reducción del volumen de información que se envía a los computadores
principales. Las mediciones adquiridas desde el proceso, se normalizan y son
escalados a unidades de ingeniería (voltios, amperios, vatios, etc.).
El sistema de computadores frontales, ejecuta sus funciones en base a los siguientes
módulos de programas:
a. Módulo de supervisión interna, que monitorea internamente el hardware y
software, controla los procesos de arranque y switchover.
b. Módulo de la base de datos, que contiene la información y valores normalizados
que provienen del sistema de potencia.
c. Módulos de comunicación, que maneja el intercambio de información con los
computadores principales y unidades terminales remotas.
d. Módulo de ejecución de los comandos de control, que envía estos requerimientos
a las respectivas unidades terminales remotas.
2.3.3 Sistema Central
El sistema central es un concepto que agrupa un conjunto de equipos y programas,
donde se ejecutan en forma centralizada las funciones más importantes del centro de
control. Este sistema integrado de acuerdo a los estándares de los sistemas de
arquitectura abierta, ha sido diseñado para satisfacer los requerimientos funcionales y
de desempeño, y al mismo tiempo aprovechar las características de esta arquitectura
para implementar programas de expansión y actualización a futuro.
Pag. 2-13
El sistema central conecta a través de dos redes de área local tipo Ethernet a
computadores principales, estaciones de trabajo, computadores frontales, computador de
mantenimiento y servidores de red. Funcionalmente las tareas que efectúa el sistema
central son las siguientes:
a. Almacenamiento de los datos del proceso, en una base de datos en tiempo real.
b. Procesamiento de la información del sistema de potencia mediante funciones de
aplicación.
c. Presentación de la información del sistema de potencia en las estaciones de
trabajo.
d. Generación de los comandos hacia el proceso.
e. Supervisión del sistema de control.
Computadores principales
Los computadores principales son equipos que trabajan bajo el ambiente del sistema
operativo VAX/VMS. VMS (Virtual Memory System) es el sistema operativo de
propiedad de los sistemas de 32 bits de los computadores VAX de Digital Equipment
Corporation. Se anunció en 1977, junto con el sistema VAX 11/780 de DEC. VMS es un
sistema operativo que aprovecha las capacidades reales de multitarea y multiusuario1 .
En la plataforma de VAX/VMS se ejecuta el sistema SPIDER, formado por un conjunto
de módulos de programas que procesan en tiempo real la información del SN1, los
eventos del sistema de potencia y de control, así como la ejecución de cálculos,
programas de supervisión interna de equipos, presentación y actualización de la
información en las estaciones de trabajo, etc. En el capítulo tres se explica a detalle la
configuración y características de los módulos SPIDER.
Sheldom Tom. Lan Times - Enciclopedia de Redes. España, 1995, pp. 938.
PáR. 2-14
El centro de control tiene una configuración redundante de computadores principales,
los que operan en los modos stand by y on Une. La relación stand by - on Une, se
supervisa mediante un enlace sincrónico (IAA link) vía red LAN que siempre está en
servicio. El computador en linea envía cada dos segundos el carácter O al computador
stand by, por su parte, este último envía el carácter H (Hot stand by) al computador en
línea. Si en algún caso, el computador stand by no responde al requerimiento de
diagnóstico, por un periodo de 10 segundos, se ha detectado una falla en este enlace de
supervisión.
Complementario al enlace de supervisión, existen dos unidades de stall alarm,
conectadas mediante una interfaz serial a cada computador. Estas unidades, poseen
circuitos de monitoreo interno (watchdog timer) que detectan el flujo de los caracteres (H
y/o O) que se incluyen en los mensajes entre los computadores principales, y que
permiten identificar su estado operativo.
Adicionalmente, se generan mensajes de chequeo desde el computador en linea al
computador stand by cada dos segundos, a través de un enlace de datos (data link) de la
red LAN 1. El computador stand by, envía a su vez de retorno mensajes de
reconocimiento. Si el mensaje de chequeo contiene información que indica una falla en el
computador de envío (computador en línea), el computador stand by configura al
primero como inoperable.
Si el computador stand by no recibe los mensajes de chequeo y diagnóstico por más de
diez segundos, se considera que el computador en línea tiene una falla y es colocado
como inoperable. Si por el contrario, el computador en línea no recibe los mensajes de
Pag. 2-15
reconocimiento del computador stand by, se considera que este último tiene una falla y
es colocado como inoperable.
Computador AOnline
LAN
IAA-Link A-B(mensajes de diagnóstico)
Data Link A-B(mensajes de chequeo)
Computador BStand by
Fuente: ABB, Control Syetem Operation
Figura 2.4: Supervisión de los computadores principales
Respecto a la funcionalidad del sistema de control, la configuración dual de
computadores principales, fue diseñada con dos propósitos:
a. Transferencia en el modo de operación entre los dos computadores principales,
para el caso, en que el computador principal en linea tenga un problema de
hardware y/o software.
b. Colocar en linea mediante un switchover manual, programas que han sido
modificados por trabajos de mantenimiento o cambios en la base de datos que se
encuentran residentes en el computador stand by.
El sistema central dispone de un sistema de archivos en red NFS (Network File System)
que permite a las estaciones de trabajo, accesar a archivos de información residentes en
el computador principal en linea, como si aquellos fueran locales. La aplicación que se
Pag. 2-16
ejecuta en las estaciones de trabajo (WS400) envía un requerimiento de información, al
computador principal, de tal manera que este acceso remoto a archivos, sea
transparente para cada una de las estaciones de trabajo.
La compartición de recursos y la interoperabilidad entre los sistemas VMS y ULTRIX se
realiza mediante un conjunto de servicios para sistemas VMS denominado UCX. NFS es
una parte de este software que opera en la capa de aplicación del modelo de red1 . El
software UCX provee las siguientes facilidades:
• Acceso remoto a archivos.
• Acceso remoto a nodos.
• Ejecución remota de comandos.
• Copia de archivos residentes en nodos remotos.
• Arranque remoto de equipos
• Correo electrónico.
Estaciones de Trabajo
Las estaciones de trabajo son equipos que trabajan bajo el ambiente del sistema
operativo ULTRIX de DEC. Ultrix, es la implementación de Digital Equipment
Corporation para sistemas VAX y los sistemas basados en RISC de estaciones DEC2 .
Las estaciones de trabajo son los equipos de interfaz entre el operador y el sistema de
supervisión y control. Las funciones de operación del sistema SCADA se realizan
mediante el programa de aplicación denominado WS400, que transforma la estación
1 DEC, Introduction to DEC TCP/1P Services for Qpen/VMS. USA, s/f, pp. 1-11.
2 Sheldom Tom, Lan Times • Enciclopedia de Redes. España 1995, pp. 1048.
ón de
Pag. 2-17
trabajo que está ejecutando OSF/Motif bajo X-Window, en una consola integrante del
sistema de manejo de energía.
La Fundación de software abierto (OSF, Open Software Foundation) adoptó el X-
Window System, que proporciona una forma para que aplicaciones diferentes sobre una
red trabajen sobre la pantalla del usuario. Motif es un juego de herramientas (tool kit)
del programador que trabaja con el X-Window y se usa para definir componentes
normalizados en una interfaz gráfica de usuario tales como barras de menú, bordes y
fondos de ventana1.
El programa de aplicación WS400 contiene procedimientos de seguridad, que permiten o
no el acceso al sistema, mediante códigos de ingreso (logiri) y la asignación de áreas de
autoridad. El ámbito de autoridad es asignado según la función especifica que cada
consola va a desarrollar (por ejemplo: generación transmisión, supervisión,
mantenimiento y entrenamiento). Las funciones básicas que ejecutan las estaciones de
trabajo en el sistema central son las siguientes:
a. Presentar la información dinámica del estado y configuración del SNI y del
sistema de control.
b. Permitir el ingreso manual de datos (mediciones y/o indicaciones) en los
despliegues de información.
c. Presentar información asociada a la operación de los sistemas de potencia y de
control en listas de alarmas y eventos.
d. Mostrar registros históricos de datos.
e. Presentar una interfaz al operador para ejecutar comandos en el sistema de
potencia.
Sheldom Tom, Lan Times - Enciclopedia de Redes. España 1995, pp. 585.
Pag. 2-18
f. i'resentar una interfaz al operador para efectuar las siguientes acciones sobre el
sistema de control:
• Switchover manual de computadores principales y frontales.
• Puesta en/fuera de servicio a impresoras, computadores principales,
computadores frontales y estaciones de trabajo.
h. Presentar ventanas para la conexión con otros nodos de la red.
Las estaciones de trabajo, pertenecen a una generación de interfaces de usuario full
graphics, diseñadas para ejecutar tareas de control supervisorio y adquisición de datos.
Esta tecnología ofrece ventajas desde el punto de vista estético y una amplia capacidad
de manejo de despliegues, que pueden resumirse en los siguientes puntos:
a. Capacidad para instalar características funcionales específicas en cada estación
de trabajo, consistente con la tendencia hacia la arquitectura distribuida de los
sistemas de control.
b. Definición del nivel de información en capas (declutering). Cada capa está
asociada a una escala del despliegue, para mostrar automáticamente la
información y otra a la cual debe desaparecer.
c. Capacidad para definir la referencia de posicionamiento de un despliegue, así
como su tamaño.
d. Manejo menús de diálogo, para proveer al usuario de una interacción paso a
paso, en la ejecución de funciones.
Computador de Mantenimiento
El computador de mantenimiento es un sistema VAX que trabaja bajo el ambiente del
sistema operativo VAX/VMS. Este sistema de características tecnológicas similares a los
computadores de mantenimiento trabaja fuera de línea y provee al usuario de un
Pag. 2-19
conjunto de herramientas para el mantenimiento del software del sistema existente, así
como para realizar tareas de desarrollo, tales como: compiladores, ensambladores y
editores.
Dado que a futuro se prevé que el sistema de potencia realizará cambios tales como:
adición de líneas, subestaciones y centrales de generación; el sistema de control deberá
ejecutar procesos ,de generación y mantenimiento de su base de datos mediante conjunto
de herramientas de software denominado Data Engineering.
El computador de mantenimiento tiene conectados 6 terminales de programación que
permiten realizar conexiones remotas y ejecutar de manera interactiva, las funciones
para el mantenimiento y expansión de los datos EMS y SCADA.
Red de Área local
En la funcionalidad del sistema SPIDER, las redes de área local DECnet instaladas
para conectar equipos en el sistema central, han contribuido para formar un sistema de
informática distribuida, para alcanzar los siguientes objetivos:
• Compartición de archivos y programas.
• Compartición de recursos de red.
• Generación de grupos de trabajo.
• Facilidad de comunicación mediante correo electrónico.
DECnet es el nombre de Digital Equipment Corporation para el conjunto de productos
de hardware y software que implementan la Arquitectura de red de Digital (DNA,
Digital Network Architecturé). El centro de control tiene implementado dos redes de
área local DECnet del tipo Ethernet, que en adición con el software DECnet-VAX,
Pag. 2-20
permite a los sistemas VMS participar como un nodo de las redes DECnet. Las
interfaces DECnet-VAX son componentes normalizadas del sistema operativo VMS que
se usan en un sistema local y autónomo. DECnet-VAX ofrece comunicación tarea a
tarea, gestión de archivos y compartición de los recursos de red mediante los protocolos
de la Arquitectura de red de Digital (DNA). DNA dispone de varios niveles como se
describe en la tabla 2.1.
Capa Función
Aplicación Maneja los detalles de una aplicación particular, protocolo o comando.UCX soporta las siguientes aplicaciones, protocolos y comandos:• Protocolo para transferencia de archivos (FTP).• Protocolo para transferencia de correo (SMTP),• TELNET para acceso remoto a otros nodos de la red.• Protocolo para administración de red (SNMP).• NFS para acceso remoto a archivos.
Transporte Provee un flujo de datos entre dos computadores. UCX soporta dosprotocolos de transporte:• Protocolo de control de transmisión (TCP), que provee un flujo
confiable de datos entre dos computadores. Este protocolo manejalos datos que provienen de la capa de aplicación y los coloca en lacapa de red. TCP reconoce los paquetes recibidos y configura lostimeouts, para asegurar que los computadores remotos reconozcanlos paquetes recibidos.
• Protocolo datagrama de usuario (UDP), que permite que lasaplicaciones creen data gramas para acceder a aplicaciones oprocesos.
Red Encamina los mensajes que los protocolos de niveles superiores tieneque ensamblar. Esta capa también encamina los paquetes IP endatagramas, envía mensajes de error y control en a través de la red(protocolo ICMP)y maneja la conversión entre direcciones IP yEthernet mediante el protocolo de resolución de direcciones (ARP).
Enlace de datos Define los protocolos que interactúan con los componentes físicos de lared, como son los adaptadores y cables de red. Controla el flujo deinformación y añade su propio control de errores en los paquetes queenvía a través de estos enlaces.
Tabla 2.1: Descripción de la arquitectura de red1
DEC, Introduction to DEC TCP/1P Services for Open/VMS. USA, s/f, pp. 1-3.
Pag. 2-21
Capa de aplicación
Protocolo de terminalremoto (TELNET)
Protocolo detransferencia dearchivos (FTP)
Protocolo básico detransferencia de correo
(SMTP)
Capa de transporte
Protocolo de control detransmisión (TCP)
Capa de red
Protocolo de resolución dedirecciones (ARP)
Capa de enlace de red
Protocolo básico paraadministración de red
(SNMP)
Sistema de archivos enred (NFS)
Protocolo daíagrama deusuario (UDP)
Protocolo Internet(IP)
Protocolo de mensajes decontrol Internet (ICMP)
Drivers paradispositivos de red
Controladores de red
Red LAN
Fuente: DEC, Introducción to DEC TCP/IP Services for Open/VMS
Figura 2.5: Arquitectura de red
El nivel de enlace de datos está formado de dos subniveles, llamados subnivel de control
de acceso al medio (MAC, Media Access Control) y subnivel de control de enlace lógico
(LLC, Logical Link Control). El subnivel MAC, define el método de acceso al medio (al
Pag. 2-22
canal de red), mientras que el subnivel LLC proporciona la posibilidad de pasar
información entre diferentes tipos de red.
Las redes del sistema central instaladas bajo la norma IEEE 802.3, definen un método
de acceso al medio por acceso múltiple por detección de portadora/detección de colisiones
CSMA/CD (Colusión Sensor Múltiple Access) con una velocidad de transmisión de 10
Mbps.
El método de acceso al medio CSMA/CD, permite a un computador cualquiera que desea
transmitir, "escuchar" previamente cualquier posible transferencia de información que
se este cursando a través del cable de la red LAN. Si el canal se encuentra ocupado, el
computador espera hasta que éste se encuentre inactivo, caso contrario transmite de
inmediato. Si dos o más computadores en forma simultánea, comienzan a transmitir a
través del cable inactivo se genera una colisión. Los computadores entonces terminan su
transmisión, esperan un tiempo aleatorio y repiten el proceso.
Para la conexión de impresoras y unidades de copiado a la red mediante servidores de
red, se dispone de un protocolo de transporte de área local (LAT, Local Área
Transport). El servidor provee de varios puertos para la conexión de estos dispositivos,
los mismos que son multiplexados por el software LAT, en el caso que se generen
peticiones simultáneas de acceso.
En la subestación de Pascuales se tiene equipos, que son de alguna manera, una
extensión del sistema central: una estación de trabajo, un servidor de red y una
impresora. El enlace entre el CENACE y esta subestación se realiza mediante un
encaminador que conmuta los paquetes de información entre estos dos puntos.
Pag. 2-23
Cuando el encaminador recibe un paquete, comienza un procedimiento de verificación
de errores y rn proceso para descartar la parte de la información que le añadieron los
protocolos de nivel físico y de enlace de datos de la red. Luego se evalúa la información
del paquete y finalmente se la envía a su destino.
Equipo de tiempo base
En los computadores principales y frontales del sistema SPIDER se ejecutan rutinas
asociadas con tiempos, que deben ser sincronizadas desde un reloj externo. El equipo
GREDAS es un sistema de tiempo base, que proporciona al sistema de esta señal de
sincronización. El sistema GREDAS obtiene su información de un sistema de
posicionamiento basado en satélites GPS (Global Positioning System), que le permite
calcular el tiempo con gran precisión.
La señal de sincronización se envía a los computadores principales y frontales en forma
de pulsos, a través de un adaptador de reloj, que actúa de interfaz entre el equipo
GREDAS y estos computadores.
El equipo GREDAS, también proporciona un conjunto de información a los operadores
de las consolas de la sala de control. En un panel frontal, se presenta la siguiente
información:
• Tiempo local (GMT menos cinco horas)
• Tiempo del "sistema eléctrico" (Sistema Nacional Interconectado)
• Desviación del tiempo (diferencia entre el tiempo local y del sistema eléctrico)
• Frecuencia del "sistema eléctrico" (subestación Santa Rosa)
• Fecha
Pag. 2-24
En el anexo No.l se incluyen un conjunto de esquemas que ilustran la configuración
completa de los equipos del sistema central.
2,4 FILOSOFÍA DEL MANTENIMIENTO DE LOS EQUIPOS
Una vez que se ha detallado en las secciones anteriores, las especificaciones de diseño
más importantes del centro de control y la funcionalidad de cada uno de sus
subsistemas. El objetivo fundamental de esta sección es describir el plan diseñado para
el mantenimiento de los equipos del sistema central, tomando como base a los objetivos
y los requerimientos planteados en las bases del concurso privado de precios para la
instalación del centro de control. El plan propuesto contempla toda una filosofía de
recursos, funciones y organización para dar el soporte de mantenimiento.
La sección, sin embargo, no abarca tópicos asociados a los procedimientos que deben ser
ejecutados en la práctica para las tareas de supervisión, mantenimiento preventivo y
correctivo. Estos procedimientos se documentan a detalle en el capítulo 4.
2.4.1 Requerimientos generales del sistema de soporte de mantenimiento
Las actividades de soporte de mantenimiento deben ser ejecutadas por personal con
preparación a nivel de ingeniería., quienes deben estar en la capacidad de corregir la
mayoría de las fallas en los equipos del sistema central. Las fallas que no puedan
corregirse deben ser restablecidas por personal de la empresa suministradora ABB por
pedido del INECEL.
El personal del sistema central debe ser también capaz de realizar modificaciones en los
equipos, evaluación de estadísticas de errores y desempeño y actualizaciones en el
sistema.
Pag. 2-25
Para realizar el mantenimiento preventivo y correctivo en el sistema central, se han
definidos dos tipos de requerimientos:
a. Requerimientos para el mantenimiento de hardware.- Los equipos del sistema
central están modularizados en unidades reemplazables en sitio. Con el objetivo
de identificar los requerimientos de repuestos se introducen los siguientes
conceptos:
1. Unidades Reparables:
• Line replaceable units (LRU).- Son unidades que pueden reemplazarse
directamente en sitio, con el objetivo de restablecer rápidamente la
operación del equipo asociado.
En el sistema central, los computadores principales, las estaciones de
trabajo, el computador de mantenimiento, los terminales de
programación, los servidores de red y los periféricos como impresoras y
unidades de copiado, tienen asociados como LRU a otra unidad
idéntica completa.
• Sub-Line replaceable units (sub-LRU).- Son módulos de una LRU y
están diseñados para facilitar la reparación o reducir la necesidad de
inversión en LRUs.
En el sistema central, los computadores frontales, el equipo de tiempo
base y los módulos de supervisión Stall Alarm, disponen de módulos a
nivel de tarjetas y partes para la ejecución del mantenimiento
correctivo.
Pag. 2-26
En el anexo No.l se incluye un listado con el detalle de los repuejtos del
sistema central, asociado a la descripción de LRUs y Sub-LRUs.
2. Unidades No Reparables:
Consumable Units (CU).- Son unidades que se desechan si reportan algún
tipo de falla, por ejemplo: relés, fusibles, cables, etc.
b. Requerimientos para el mantenimiento a nivel de programas (software).- El
mantenimiento del software se realiza, bajo la premisa que el trabajo de los
operadores en las consolas de la sala de control no sea interrumpido. Pruebas
asociadas a trabajos de mantenimiento de software, se ejecutan en un entorno de
estudio aislado del sistema de potencia.
Las tareas de mantenimiento de la base de datos y actualización de programas,
se desarrollan en el computador de mantenimiento, con procedimientos de
chequeos de razonabilidad, que aseguren que el equivalente físico de la
información tenga consistencia en el sistema de potencia y de control. Cambios
en la información de la base de datos o en archivos en general, se colocan en el
computador principal en línea, en dos fases: a) mediante un procedimiento de
generación que actualiza la información en el computador principal stand by, y b)
mediante un switchover manual que coloca en línea el cambio.
2.4.2 Requerimientos específicos del sistema de soporte de mantenimiento
a. Requerimientos para la supervisión de la operación, el manijo de eventos, la
localización de fallas y estadísticas, se los define bajo la denominación FLl y
consisten de lo siguiente:
Pag. 2-27
Supervisión en la operación.- El SPIDER incorpora módulos de supervisión
automática de la operación de los equipos del sistema central, que incluyen
la detección de fallas, contingencias y reconfiguraciones.
Esta función de monitoreo, genera mensajes alerta en cada una de las
estaciones de trabajo, así como señales audibles e indicaciones en un panel
de alarmas ubicado en la sala de control.
Cuando se genera un evento en el sistema de potencia o de control, esta
información se registra cronológicamente en listas de alarmas y de eventos,
las mismas que se imprimen en forma automática, a fin de llevar una
estadística de las follas y eventos, cabe anotar que el sistema SPIDER
realiza una distinción entre los eventos del sistema de potencia y de control,
para presentarlos en listas separadas.
Localización de fallas.- La supervisión automática del estado operativo de
los equipos y fallas en programas de software, genera mensajes de error
denominados "SPIDER logs", así como estadísticas de fallas y desempeño del
sistema, que se presentan de las siguientes formas:
=> Listas de registro de errores (traps).- Estas listas registran información
de mensajes de error en dispositivos físicos y programas de software. Los
"traps" pueden deberse a fallas en programas, bases de datos, colas de
mensajes, errores de entrada/salida de datos, fallas en la aplicación
WS400.
:> Registros del sistema (System logs).- La función de monitoreo genera
unos archivos denominados "System logs", que permiten visualizar
Pag. 2-28
mensajes de diagnóstico y errores asociados al desempeño de los sistemas
operativo VAX/VMS y ULTRIX.
System Logs en VMS
El archivo ERROR_LOG que se encuentra en los computadores que
trabajan bajo el sistema operativo VAX/VMS, tiene información de
errores asociados a periféricos, memoria RAM, discos, CPU, procesos de
inicialización, etc.
La información acerca de la consola remota de Pascuales, el WANRouter
(encaminador), las comunicaciones e información adicional sobre los
registros de errores (traps), se encuentra en un archivo denominado
OPERATOR.LOG.
Cuando se ha producido una acción de intercambio operativo entre
computadores (switchover), un rechazo/aprobación de una base de datos,
o un arranque de equipos se genera información al respecto en un archivo
denominado SREPORT.DAT, ubicado en el directorio SPI$ERRORLOG.
System Logs en ULTRIX
En las estaciones de trabajo, se puede visualizar mediante una ventana
denominada Xconsole información relacionada a procesos de la aplicación
WS400, tal como: problemas de lectura/escritura en memoria, apertura
de nuevas ventanas y mensajes de software.
Pag. 2-29
Para encontrar system logs en ULTRIX, se invoca a un programa de
reportes de errores denominado uerf (ultrix error repórter formatter), en
cada una de las estaciones de trabajo.
=> Estadísticas de fallas y desempeño del sistema.- Las estadísticas de fallas
se registran en las listas de eventos, de alarmas, de traps, los archivos de
registros (system logs) y la información que se generan de los
procedimientos de diagnóstico, monitoreo y desempeño diario que se
ejecutan en el sistema1 .
b. Los requerimientos para aislar y reparar fallas, se los define bajo la
denominación FL2, que incluyen aspectos como: funciones, procedimientos,
documentación y otras ayudas para al aislamiento y corrección de fallas. FL2
consiste de dos partes:
• Procedimientos FL2A: Especifican un conjunto de instrucciones paso a paso
a efectuarse cronológicamente. Los procedimientos FL2A deben producir uno
de los siguientes resultados:
- El sistema es verificado y reinicializado.
- En caso de una falla a nivel de software, ésta debe ser aislada por
personal de área respectiva.
Si la folla no ha podido aislarse con los procedimientos FL2A, se
continua su tratamiento con los procedimientos denominados FL2B.
1 Los procedimientos de diagnóstico, monitoreo y desempeño se ejecutan a nivel de sistema operativomediante rutinas de comandos y programas utilitarios. Estos procedimientos se encuentrandocumentados en el capítulo 4.
Pag. 2-30
Procedimientos FL2B: Contener suficientes referencias a la documentación
SPIDER, disponible en grupos de manuales (binders). Los procedimientos
FL2B, deben producir uno de los siguientes resultados:
- Aislamiento de la falla.
- Una vez identificada y aislada la falla, debe precederse al cambio de la
LRU y/o sub-LRU respectiva.
- Si la falla no puede aislarse, entonces se solicita la asistencia del
representante del equipo.
Pag. 2-31
CAPITULO III
SISTEMA CENTRAL Y FUNCIONES DE APLICACIÓN
3.1 DESCRIPCIÓN DEL EQUIPAMIENTO DEL SISTEMA CENTRAL
3.1.1 Introducción
El diseño e implementación del sistema de central, es consistente con los denominados
sistemas de arquitectura abierta. Estos sistemas tienen como objetivos conseguir
diseños de hardware independientes, medularidad en los paquetes de software y
capacidad de expansión de los equipos.
El diseño viene acompañado de características óptimas de funcionalidad, para ejecutar
aplicaciones de control supervisorio en tiempo real, brindar seguridad en la adquisición
y el procesamiento de datos y cumplir con los requerimientos de respuesta vs.
desempeño
El diseño en arquitectura abierta, permite que los equipos de diferentes suministradores
sean funcionalmente compatibles, e integrables entre sí de tal manera, que las
características individuales de los dispositivos sean transparentes al sistema.
El sistema SPIDER, tiene un sistema central con un diseño implementado de acuerdo a
esta filosofía, que incorpora dos características importantes:
a. Distribución funcional de nodos.- Ofrecen la posibilidad de distribuir funciones a
los nodos de procesamiento, en redes de área local a través de interfaces
estándares, de tal manera, que cada nodo sea un administrador de recursos de
hardware y software por sí mismo.
Pag. 3-1
El procesamiento distribuido minimiza la interacción entre nodos, para reducir
la carga de la red. Los diseños en red que incorporan interfaces estándares y
protocolos, permiten contar con un flujo de información de gran rapidez.
Los estándares de hardware, permiten a cada nodo configurarse con un amplio
rango de productos, que incluyen unidades de expansión de memoria, unidades
de disco duro, unidades de lectura óptica (CD ROMs), etc.
A la independencia funcional, se incluyen configuraciones redundantes en los
equipos más importantes, con el objetivo de incrementar la confiabilidad
funcional de todo el sistema.
b. Independencia de niveles.- Permite a un nodo funcional actualizar el hardware
de todos o cada uno de sus componentes. Este cambio, puede ser una simple
actualización en un procesador o un cambio completo del nodo. Esta flexibilidad
para actualizar, requiere de estándares de conexión, que puede ser un bus
interfaz o un interfaz de red.
Los estándares definidos a los nuevos diseños, si bien tiene beneficios tales como la
independencia de niveles y portabilidad de software, debieron tener una cuidadosa
selección para cumplir con las especificaciones de desempeño del sistema.
Para que el diseño del sistema sea independiente de los proveedores, deben observarse
estándares asociados tanto a características eléctricas (niveles de señal, tiempos,
nombres) como físicas (tamaño, tipo de conector, número de pines) de dispositivos. Los
estándares más importantes son:
Pag. 3-2
a. Estándares para la conexión de periféricos.- Estos estándares pueden dividirse
en dos grupos: paralelo y serial.
• Los estándares paralelos incluyen un sistema interfaz para computadores
pequeños: SCSI. El SCSI es un estándar, donde el control inteligente es
dividido entre el controlador principal y el dispositivo electrónico
conectado. Aunque inicialmente usados como interfaces de disco, estos
estándares soportan ahora la conexión de cintas magnéticas y unidades
de lectura óptica (CD ROMs).
• Los estándares seriales son representados por: RS-232, RS-423 y RS-422.
El RS-232, es una interfaz serial para la comunicación punto a punto. El
RS-423, es una interfaz para la comunicación serial punto a punto
permitiendo el envío de datos a alta velocidad para distancias mayores
que las usadas para el RS-232. El RS-422 es una interfaz serial que
permite la comunicación multipunto.
• Otro estándar de conexión serial de periféricos, puede ser una red, donde
un dispositivo con un interfaz no estándar de red, puede conectarse
mediante un servidor serie o paralelo, que aisla los interfaces no estándar
del resto del sistema.
b. Estándares de red.- Los actuales estándares para redes de área local, incluyen
diseños de acuerdo a la norma IEEE 802.3. Esta norma funciona con el modo de
acceso al medio CSMA (Colusión Sensor Múltiple Access).
c. Dispositivos periféricos.- Los dispositivos periféricos con características
estándares son los siguientes: unidades de cinta externa, unidades de expansión
de memoria y unidades de lectura óptica.
Pag. 3-3
3.1.2 Equipamiento del Sistema Central
Computador principal: VAXstation 4000 modelo 90
La VAXstation 4000 modelo 90, es un equipo de la línea VAX de sistemas de
computadoras que se introdujo por primera vez en 1977, conjuntamente con el sistema
de memoria virtual (VMS, Virtual Memory System). VMS es un sistema operativo
diseñado para aprovechar la ventaja de arquitectura de 32 bits del sistema VAX,
además que proporciona un verdadero entorno multitarea/multiusuario.
La VAXstation es un equipo con un índice desempeño de 24 VUPs (desempeño relativo
respecto a VAX-11/780 que se introdujo en 1977). El equipo tiene un interfaz LAN IEEE
802.3, un interfaz TURBOchannel para la conexión de la segunda LAN y un interfaz
SCSI. Las dos tarjetas de interfaz de red son adaptadores diseñados para redes
Ethernet, que operan en el nivel de enlace de datos de la pila de protocolos y
proporcionan puntos de acoplamiento a los cables coaxiales de banda base de 50 ohms
instalados.
SCSI (Small Computer System Interface) es un interfaz de periféricos que permite la
conexión de hasta siete dispositivos, tales como unidades de expansión, unidades de
lectura óptica y unidades de cinta; en un solo adaptador que proporciona un bus
compartido que utilizan los periféricos conectados. SCSI permite altas velocidades de
transmisión de datos mediante una configuración de encadenamiento donde cada
dispositivo se conecta a la parte posterior del dispositivo anterior. Otra característica
SCSI es la posibilidad que tienen los dispositivos conectados al adaptador anfitrión de
desconectarse de este y llevar a cabo algún tipo de procesamiento1 .
1 Sheldom Tom, Lan Times • Enciclopedia^de Redes, España 1995, pp. 497.
Pag. 3-4
La VAXstation incluye en su configuración una unidad de disco (RZ26) de 1.05 Gbyte,
una unidad de cinta (TLZ06) de 4 Gbyte de capacidad, 80 Mbyte de memoria RAM y una
unidad de expansión (SZ160 con un disco (RZ58) de 1.38 Gbyte de capacidad. Estos
dispositivos, excepto la memoria, están conectados mediante el interfaz SCSI.
Adicionalmente existen dos puertos seriales RS-232 que permiten conectar el
computador con un módulo de supervisión externa (stall alarm) y con el equipo de
tiempo base GREDAS, que proporciona la señal de sincronización. La figura 3.1 ilustra
la configuración de hardware de la VAXstation modelo 90.
'Unidad de Expansión
scs
Mouse
16 Mb
64 MbTurbo Channel
Teclado
Credfle -
Stall Alarm .
Red Lan
Figura 3.1: Computador principal VAXstation 4000 modelo 90
Computador de mantenimiento: MicroVAX 3100 modelo 80
La MicroVAX 3100 modelo 80, es un computador de características similares a la
sistema VAX 4000. El equipo tiene 48 Mbyte de memoria RAM, expandible hasta 72
Mbyte. A través de conectores SCSI, el equipo está provisto de 2 discos RZ58 y una
unidad de cinta TLZOG.
Pag. 3-5
El computador de mantenimiento tiene conectados 6 terminales de programación \0
que se conectan a través de un acoplador sincrónico MMJ DEC 423. Estos dispositivos
proporcionan emulación de terminal remoto similar al protocolo Telnet de Internet, de
tal manera que los usuarios puedan ejecutar aplicaciones en la computadora como si
estuvieran conectados localmente. Cada terminal tiene la posibilidad de definir
mediante software, sus características de comunicación, de velocidad de transmisión de
datos, de chequeos de paridad, de definición de teclado, etc. La figura 3.2 ilustra la
configuración de la MicroVAX 3100 modelo 80.
Unidad de expansión :
Unidad de expansión
RZ58n( l.38üb
R2581.38 Oh
VT420
VT420
VT<»>
vr«"_? :
Figura 3.2: Computador de mantenimiento MicroVAX 3100 modelo 80
Estación de trabajo: DECstation 5000 modelo 133
La DECstation modelo 133, es un computador DIGITAL diseñado con tecnología RISC,
con un índice de desempeño de 34,4 MIPS (Millón Instruction per Second), que trabaja a
una frecuencia de 33 Mhz bajo la plataforma del sistema operativo ULTRIX.
Pag. 3-G
La tecnología RISC (P.ISC, Reduced Instruction Set Computer) se basa en el hecho que
un 20% de las instrucciones de la computadora, realiza casi el 80% del trabajo del
sistema, de tal manera que esta arquitectura reduce el número de instrucciones para
dejar sólo aquellas que se usan más, las otras instrucciones se deben implementar en
programas externos. Esto se traduce en una mejora en la eficiencia del procesador.
La DECstation tiene 32 Mbyte de memoria RAM expandibles hasta 128 Mbyte, está
provisto de dos discos, un disco RZ25 (426 Mbyte) y otro disco RZ58 (1.05 Gbyte). Cada
estación de trabajo dispone externamente de un controlador de teclado DTIH 1000 y un
módem para complementar el teclado alfanumérico con uno de tipo funcional. El
controlador tiene también relés de salida utilizados para el control de alarmas audibles.
SCSI
Turbo Channel 1
Control de alarma
TeeJadMían uro
Figura 3.3: Estación de trabajo DECstation 5000 modelo 133
Sistema de computadores frontales FE200
El sistema de los computadores frontales FE200 forma parte del subsistema de
adquisición de datos, formado por once lazos de comunicación y veinte y tres unidades
terminales remotas.
Pag. 3-7
Los computadores frontales están conformados por un conjunto de módulos y tarjetas
conectadas a u", bus de comunicaciones, controlado por un microprocesador. El
equipamiento está básicamente dividido en dos partes:
a. La parte "general" que contiene las siguientes unidades:
Fuente de poder.
Tarjeta de procesamiento.
Tarjeta de comunicaciones sincrónica para la comunicación con el
computador principal.
Tarjeta de comunicaciones asincrónica para la comunicación con el otro
computador frontal.
Tarjeta terminal del bus de datos (PBC).
b. La parte "individual":
Tarjetas de comunicación asincrónica para la comunicación con las
unidades terminales remotas.
El sistema de computadores frontales FE 200, incorpora las siguientes tarjetas:
• Tarjeta DBBC 170.- Monitorea el voltaje de 5V y 24V de la fuente de
alimentación y proporciona una indicación de bajo voltaje en los niveles de 4.8V y
16V respectivamente.
• Fuente de poder DSSA 265.- Es una fuente no regulada de voltaje de 115/230
Vac a 24 Vdc, cuya salida alimenta a una unidad de regulación (DSSR 122), que
convierte los 24 Vdc en voltaje regulado de 5 Vdc mediante un sistema de
regulación que trabaja a una frecuencia de 40 Khz.
• Unidad central de procesamiento DSPC 171.- La tarjeta posee un
microprocesador Motorola MC 68020 de 32 bits con frecuencia de reloj de 12.5
Pag. 3-8
Mhz. El microcontrolador mantiene comunicación con las tarjetas de memoria a
través del bus MXB (Memory Expasion Bus) y para la comunicación con otros
módulos usa un bus PBC (DSBB 170A).
• Tarjeta de memoria DSMB 175.- La tarjeta tiene una capacidad de 4 Mbyte de
RAM. La tarjeta maneja un sistema de corrección de errores de datos de 7 bits.
• Tarjeta de comunicaciones sincrónica DSCS 150.- La tarjeta maneja el sistema
de comunicación sincrónica con los computadores principales, mediante una
unidad de conexión que sirve de interfaz para la red.
• Tarjeta de comunicación asincrónica DSCA 151.- Esta tarjeta maneja la
comunicación con las UTR's, posee 4 canales y la velocidad de transmisión puede
seleccionarse por software desde 50 a 9600 Bd. (SSC ® 1200 Bd.)
Los canales de comunicación comparten los recursos de la tarjeta
microprocesadora. Para cada canal se dispone de 1 Kbyte de RAM y 256 Bytes de
DPM (Dual Port Memory). El interfaz de comunicación entre las tarjetas DSCA
151 y el CPU del FE es la memoria DPM, que es una parte separada de la
memoria RAM.
• Unidad de intercambio DSTC 1005.- Esta unidad, permite conectar las lineas de
comunicación a través de una interfaz V.24/V.281 con el computador frontal en
línea. Este intercambio es controlado por las tarjetas de comunicación
asincrónica en el FE.
Con propósitos de redundancia los dos canales asociados a una misma unidad de
conexión no deben pertenecer a un mismo lazo de comunicaciones.
1 I>a norma V.24 del CCITT equivale a la norma EIA RS232. V.28 define la circuitería de la interfazRS232.
Pag. 3-9
Tarjeta de comunicación asincrónica DSCA 114.- Esta tarjeta posee cuatro
canales, para manejar la conexión con el otro computador frontal, con un
computador portátil y para enviar los mensajes internos del sistema a una
impresora matricial del sistema de control.
Tarjeta de memoria en bus DSBB 175.- Esta recibe los pulsos de sincronización
que provienen del equipo de tiempo base GREDAS a través de una unidad de
acoplamiento (clock adapter).
GPS
DSSA165
DSSRDSRB 170 B
C
DSBC 170
DSCA 151
DSCA 151
DSCA 151
DSCA 150
DSCA 114
DSMB 175
DSPC 171
DTTC 1005
Comm y
Unidad de conexiónDSTC 190
Unidad de conexiónDSTC 120
Conexión PCConexión otro FE
Figura 3.4: Computador frontal FE200
El sistema SPIDER puede configurar hasta cinco pares de computadores frontales, y
cada par, da soporte para 12 tarjetas de comunicación asincrónica. Cada tarjeta
administra 4 líneas y cada una de ellas con capacidad de conectar hasta 16 unidades
terminales remotas.
Pag. 3-10
Equipo de tiempo base GREDAS
El sistema de tiempo base GREDAS, es un sistema que proporciona una referencia de
tiempo a los computadores principales y frontales. GREDAS obtiene su información de
un sistema GPS (Global Positioning System) de posicionamiento basado en satélites.
Un receptor estándar de tiempo MX4200 GPS se encuentra conectado al equipo, de
donde obtiene su voltaje de polarización. El receptor GPS evalúa su posición geográfica
por medio de las señales de 4 satélites GPS (satélites NAVSTAR, utilizados en los
sistemas de navegación).
El intercambio de datos entre el GPS y el GREDAS se lo realiza en el modo RS 232C a
una velocidad de 4800 baudios, con un formato de: 1 bit de arranque, 8 bits de datos y
un bit de parada. La exactitud del sistema de tiempo base se encuentra en el orden de
los 500 nseg.
AntenarReceptor
MX4200 GPS
J GPSPanel de LAlarmas ( - —
•¿ Watchdog
Señal devoltaje _
Relés— CTJ— cu—en— C3
•en- 1
p
96007 bitsIbit
GREDAS
iluuu de
computador pr
De.vi.ra™ <t» IK-np., CT.™™,iiti «,i.n,H -í Display
FEA
FEB
Figura 3.5: Equipo de tiempo base GREDAS
Pag. 3-11
El sistema GREDAS f^tá provisto de relés de salida que permiten detectar condiciones
anormales, asociados a la ausencia de la señal GPS y a la interrupción que provoca un
circuito de supervisión interna del equipo (watchdog timer). Estas indicaciones se
envían al panel de alarmas de la sala de control. Adicionalmente el equipo tiene
circuitos de salidas digitales para presentar valores de frecuencia, tiempo y fecha.
Red de Área Local
Los computadores principales, el computador de mantenimiento, el sistema de
computadores frontales, las estaciones de trabajo, el encaminador y los servidores, están
interconectados a través de dos redes de área local diseñadas de acuerdo a la norma
IEEE 802.3 (Ethernet).
Ethernet presenta un rendimiento de 10 Mbits/seg y utiliza un método de Acceso
múltiple con detección de portadora/detección de colisión (CMS/CD) al cable de red. Para
la conexión de los equipos en la red, se dispone de tarjetas interfaz que tienen asociadas
controladores de red de área local. La figura 3.6 ilustra la localización del controlador de
la tarjeta interíaz en relación con el modelo de arquitectura de red.
: Capas superiores j
Nivel de enlacede datos
Control de enlacelógico
Control de accesoal medio
IEEE 802.3ETHERNET
\s\e tarjeta de/ red
lFuente: Sheldom Tom, Lan Times - Enciclopedia de Redes
Figura 3.6: Posición del controlador de LAN en la pila de protocolos
Pag. 3-12
La transmisión en la red se realiza mediante un cable coaxial RG-58 (10 Base 2). Este
cable coaxial delgado apantallado tiene dos conductores y una impedancia de 50 ohms.
En los extremos de los segmentos de red se acoplan terminaciones BNC de 50 ohms. En
una línea troncal pueden haber hasta un máximo de 30 nodos. La longitud máxima del
cable es 186 metros y la mínima distancia entre dos interfaces que conectan equipos es
2.5 metros.
La estructura básica de una trama de datos de la red Ethernet, definida en la
especificación IEEE 802.3, representa una estructura de un paquete de datos que
describe la posición de las cabeceras de direcciones, bits de datos y la carga útil de la
información del paquete. La trama tiene el siguiente formato:
Ethernet (IEEE 802.3)
Direccióndestino
(6 bytes)
Direcciónorigen
(6 bytes)
Códigotipo
(2 bytefi)
Campo deinformación(variable)
Campoopcional
(variable)
CódigoCRC
(4 bytes)
Fuente: Sheldom Tom, Lan Times - Enciclopedia de Redes
Figura 3.7: Trama Ethernet
• La dirección destino y origen, son las direcciones Ethernet de los nodos de
recepción y envío respectivamente.
• El código tipo es un campo variable usado por los diferentes suministradores.
• El campo de información tiene los datos a ser transmitidos.
• El campo adicional es utilizado solamente si el paquete Ethernet es menor que
el mínimo requerido de 64 bytes.
• El código CRC es un código de chequeo de la estructura del protocolo.
Pag. 3-13
Cada nodo de la red tiene una dirección asignada que otros nodos usan cuando se
comunican con él. La tabla 3.1 muestra las diferentes direcciones (IP) asociadas a
nombres lógicos asignados a cada uno de los nodos.
Dirección
138.221.106.197
28.0.2.196
138.221.106.197
28.0.2.132
138.221.106.133
28.0.2.134
138.221.106.135
28.0.2.136
28.1.137
138.221.106.241
28.0.2.241
138.221.106.242
28.0.2.242
138.221.106.244
28.0.1.219
28.0.2.220
138.221.106.176
28.0.2.238
28.0.1.239
Nombre del nodo
emull
emu!2
emulS
snem!4
sneml5
snemlG
snem!7
snemlS
snem!9
snem20
snem20_2
snem21
snem21_2
snem28
sner!9
sner20
snet37
snet38
snet39
Equipo
servidor de red paralelo
servidor de red paralelo
servidor de red paralelo
estación de trabajo No. 1
estación de trabajo No. 2
estación de trabajo No. 3
estación de trabajo No. 4
estación de trabajo No. 5
estación de trabajo No. 6
computador principal
computador principal (LAN 2)
computador principal
computador principal (LAN 2)
computador de mantenimiento
encaminador (Pascuales)
encaminador (CENACE)
servidor serie
servidor serie
servidor serie (Pascuales)
Tabla 3.1: Tabla de nodos y direcciones
Pag. 3-14
Servidores de Red
Los servidores de red EMULEX Perfomance son equipos provistos de una interíaz de
red LAN compatible con la norma IEEE 802.3 y han sido diseñados para conectar
periféricos de tipo asincrónico a computadores manufacturados por DIGITAL.
Los servidores del sistema central tanto serie y paralelo son del tipo " self-load", es decir
tienen su software de operación residente internamente en memoria ROM, de manera
que la instalación de este software en los computadores conectados a la red es opcional.
El sistema central tiene dos tipos de servidores de red, el servidor paralelo y el servidor
serie. El servidor paralelo conecta a unidades de copiado a color a la red, y su programa
de operación se ejecuta en el ambiente del sistema operativo ULTRIX. Los servidores
serie en cambio conectan impresoras matriciales a la red y su programa de operación se
ejecuta en el ambiente del sistema operativo VAX/VMS.
• Servidor Paralelo: Emulex Perfomance 2501
El servidor serie EMULEX Perfomance 2501, es un equipo compatible con redes
Ethernet, que tengan computadores que funcionen en la plataforma del sistema
operativo VAX/VMS o ULTRIX y soporten los protocolos TCP, IP, TELNET,
TFTP. El servidor tiene un pórtico paralelo DB25, para conectar a la red
unidades a color.
• Servidor Serie: Perfomance 2508
El servidor paralelo EMULEX Perfomance 2508, es un equipo compatible con
redes Ethernet, que tengan computadores que funcionen en la plataforma del
sistema operativo VAX/VMS o ULTRIX y soporten los protocolos TCP, IP,
Pag. 3-15
TELNET, TFTP, LAT. El servidor tiene 8 pórticos seriales RS 232C para
conectar impresoras matriciales.
Otros periféricos
• Unidad de lectura óptica RRD42
La estación de trabajo No.4 y el computador principal B, tienen conectados,
mediante una interfaz SCSI, una unidad de lectura óptica RRD42. Este
dispositivo permite la lectura óptica de discos compactos de 600 Mbyte de
capacidad (51/4). El dispositivo se conecta mediante el interfaz SCSI a
computadores de la familia VAX y DEC, que soportan una operación con los
sistemas operativos VMS, ULTRIX y MS-DOS.
• Encaminador de red: WANrouter 150
Para la comunicación con la estación de trabajo ubicada en la subestación
Pascuales, se dispone de dos equipos DEC WANrouter 150. El enlace de tipo
sincrónico, se efectúa a través de un canal de comunicaciones PLC y dos módems
Ericsson SBN 9696A a una velocidad de 4800 bps.
Este equipo tiene la capacidad para manejar protocolos DECnet, TCP/IP, OSI. El
equipo soporta una línea de 56.0/64.0 Kb/s y una de 9.6 Kb/s simultáneamente o
dos líneas a 19.2 Kb/s.
• Unidades de cinta externa: TLZOS
La unidad de cinta externa TLZ06, es un dispositivo que alberga unidades de
cinta (Digital Audio Tape) de 4mm con una capacidad de 4 Gbyte con compresión
de datos.
Pag. 3-16
La unidad de pinta tiene una velocidad de transferencia máxima de 366 Kbyte/s
en modo de compresión de datos. El formato de almacenamiento implementa
técnicas de manejo de errores que aseguran confiabilidad en los datos.
La capacidad de 4 Gbyte en las cintas que se coloca en esta unidad, se consigue
con el uso de unidades de cinta de 90 metros de longitud y una compresión de
datos de 2X. La compresión de datos es seleccionada en el software en la unidad
TLZ06 y puede ser desactivada para leer y escribir cintas de 60 metros, de modo
de intercambiar información que fue almacenada en otro formato (TLZ04).
La tabla 3.2 resume las características más importantes de los equipos
conectados a las redes del sistema central.
Equipo CaracterísticasVAXstation 4000modelo 90
ProcesamientoDesempeño relativoRAM
LAN InterfazPeriféricosMonitorDisk drive
DAT unitDisco de expansión
Consumo
32 bits24VUPs80 Mbyteexpandible hasta 128 MbyteTurbo channel(V=10 Mbits/s)Teclado LK401, DEC mouseVDU 19" alta resoluciónRZ26, 1.05 Gbytet. acc = 20.8 msTLZ06, 4 Gbyte, V- 366 kbyte/sRZ58, 1.38 Gbytet. acc = 18.1 ms465 W
DECstation5000 modelo 133
Frecuencia de relojDesempeñoRAM
LAN interfazPeriféricosMonitorDisk drive
DAT unitConsumo
33Mhz24 MIPS32 Mbyteexpandible hasta 128 MbyteDW29-AA (V=10 Mb/s)Teclado LK401, DECmouse2 VRT19 color, alta resolución1 RZ25, 426 Mbytet. acc = 20.8 ms1RZ26, 1.05 Gbytet. acc= 20.8 msTLZ06, 4 Gbyte V= 366 kbyte/s662 W
Tabla 3.2: Características de los equipos del sistema central
Pag. 3-17
Equipo Características3100
modelo SOArquitecturaDesempeño relativoRAMInterfaz LANTerminalesDisk drive
DATunitConsumo
32 bits10 VUPs (respecto VAX-11/780)48 Mb expandióle hasta 72 MbIEEE 802.3. (V=10 Mbits/s)5 terminales DEC VT4202RZ58, 1.38Gbytet. acc= 18.1 msTLZ06, 4 Gbyte, V= 366 kbyte/s120 W
ServidorparaleloEMULEXPerfomance2501
TipoCompatibilidadPrerequisitos
Consumo
Selfloadredes Ethernet 802.3TCP/IP hosts que soporten lossistemas operativos VAX/VMS yULTRDC. Protocolos:TCP,IP,TELNETyFTP30 W
Servidor serieEMULEXPerfomance2508
TipoCompatibilidadPrerequisitos
VelocidadInterfaz serialConsumo
SelfLoadredes Ethernet 802.3TCP/IP hosts quesistemas operativosULTRDC. Protocolosprotocolo LAT.75 a 38.4 kbpsRS232C50 W
soportenVAX/VMSTELNET
losyy
Unidad delectura ópticaRDD42
Discos compatiblesVelocidad rotaciónVelocidad transf.Tiempo de accesoInterfazConsumo
CDROM model 1 y 2, CD audio200 rev/min150 kbyte/s0.45 s.SCSI (máx 6 metros)25 W
Unidad de cintaTLZ06
Capacidad
VelocidadMemoria cachéSistemas operativosEquipos compatibles
4 Gbytes, cintas 90 m.compresión de datos de 1:2366 kbyte/siMByteVMS, ULTRIX y SCO UNIXMicroVAX 3100VAXstation 4000DECstation 5000
Tabla 3.2: Características de los equipos del sistema central (cont.)]
1 La tabla está basada en la documentación técnica que incluye el documento SSC Design Spccifícations.Pag. 3-18
3.2 FUNCIONES DE APLICACIÓN
3.2.1 Introducción
En los computadores del sistema central, ABB ha instalado un conjunto de funciones de
software para ejecutar las funciones del centro de control. Para hacer posible la
actualización de paquetes EMS-SPIDER de una manera simple y eficiente, se ha
utilizado paquetes de software estándar para disminuir la dependencia al momento de
adquirir software a suministradores específicos.
El software SP1DER está basado en un diseño modular, que combinado con el sistema
de arquitectura abierta permite que el sistema pueda actualizarse o expandirse a
nuevas funciones de aplicación o nuevas funciones desarrolladas. Mediante el uso de los
computadores VAX y su sistema operativo VMS es posible realizar actualizaciones en
programas, sin que esto signifique el cambio de nuevos procesadores.
Esta sección pretende complementar la descripción del hardware del sistema central con
una descripción general el software SPIDER, en la que se trata con cierto detalle los
aspectos funcionales del los programas de aplicación (funciones de aplicación), que en
definitiva es la parte del software que permite el procesamiento de los datos que se
adquieren desde el sistema de potencia, previa a su presentación en las estaciones de
trabajo.
3.2.2 Software SPIDER
El software SPIDER residente en los computadores principales, funcionalmente está
dividido en los siguientes grupos:
Pag. 3-19
a) Sistema operativo.- Consiste de un programa de administración en tiempo real,
el cual asigna los recursos del computador en términos de memoria y tiempo de
ejecución. También maneja la comunicación con periféricos, así como el soporte
de software para mantenimiento y aplicaciones.
b) Sistema de base de datos.- El sistema de base de datos es una parte esencial de la
expansión y desempeño del sistema. Su definición consta tanto de datos del
sistema de potencia y de control y los programas para el manejo de los mismos.
Los datos históricos se almacenan en una base de datos histórica.
Adicionalmente el sistema SPIDER soporta la definición de una base de datos de
estudio con propósitos de estudio y simulación.
c) Software EMS.- El software EMS organizado de una forma modular permite
seleccionar un conjunto de funciones de aplicación asociadas al procesamiento de
la información que proviene del sistema de potencia. Cada función está
implementada en un paquete de software que tiene a la base de datos como
interfaz del resto del sistema.
Las aplicaciones EMS están diseñadas e implementadas en un Módulo de
Análisis de Red que incluyen funciones de monitoreo, análisis y seguridad. En
este capítulo, se incluye una descripción detallada de las funciones de aplicación
del módulo de análisis de red.
d) Software SCADA.- El software SCADA contiene las funciones básicas de
supervisión y control, tales como: adquisición de datos, procesamiento de eventos,
Pag. 3-20
comunicación hombre-máquina, control del sistema de potencia y supervisión del
sistema de control.
Los programas son agrupados en entidades funcionales, donde cada módulos está
asociado a una letra. Los diferentes módulos SCADA son los siguientes:
Módulo Descripción
A Base de datos en tiempo realB Intercambio de datos con el procesoC Procesamiento de eventosD Interfaz hombre máquinaE Reportes de informaciónG Supervisión del sistema de controlH Generación y mantenimiento de la base de datosJ Enlace entre computadoresK CálculosT Procesamiento de datos históricos
Tabla 3.3: Módulos de programas SCADA
Base de datos.- La estructura de la base de datos en tiempo real AVANTI, describe en
catálogos de datos, los conceptos, propiedades y relaciones, que construyen una
estructura lógica. La estructura y contenido de la base de datos se manipula
mediante el lenguaje DML (Data Manipulation Language), mientras que las
consultas de información se ejecutan mediante un lenguaje denominado AQL (Avanti
Query Language).
Intercambio de datos con el proceso.- Este módulo maneja los datos que se reciben
desde el sistema de computadores frontales, así como la salida de mensajes de control
para ejecutar comandos de maniobra y regulación.
Procesamiento de eventos.- Este módulo procesa los eventos que se generan el
sistema de control y de potencia y que son almacenados en diferentes listas para la
presentación al operador.
Pag. 3-21
• Interfaz hombre-mániúna.- Este módulo ejecuta la verificación de autoridades en las
estaciones de trabajo para la presentación de despliegues y la ejecución de comandos.
También se maneja la presentación/actualización de despliegues y reportes; así como
la ejecución de funciones de comunicación entre el operador y el sistema, a través de
comandos de control, reconocimientos de alarmas, ingresos manuales de información
y cambios de configuración en el sistema central.
• Reportes de información.- El SPIDER incluye un módulo que compila información
histórica de eventos y de estado del sistema, cuyos resultados son enviados en forma
automática a impresoras.
• Supervisión.- El módulo supervisa el estado operativo de los equipos del sistema
central y es el responsable de la sincronización de los computadores principales y
frontales mediante el reloj externo. El módulo también maneja la inicialización de
computadores y ejecuta cambios automáticos de configuración cuando ocurren fallas
en el sistema (switchover).
• Generación y mantenimiento de la base de datos.- El módulo incluye programas que
generan la estructura y definen el contenido de datos. El módulo incluye un editor de
despliegues (Picture editor), un interfaz para el ingreso de datos del sistema de
potencia y de control (Data Engineerig) y un enlazador de despliegues (Picture
Linking).
• Enlace entre Computadores.- Este módulo es el responsable de la transferencia y
actualización de información al computador de respaldo, así como de la supervisión
del enlace de comunicación entre computadores principales.
• Cálculos.- El SPIDER incluye un lenguaje para la ejecución de cálculos (CAL), para
ejecutar operaciones sobre valores que provienen del proceso.
Pag. 3-22
Procesamiento de datos históricos.- Los datos históricos son almacenados en una base
de datos del mismo tipo. Esta información se agrupa en bloques denominados TTD,
que son mostrados mediante curvas o reportes.
Procesamiento dedatos históricos
Cálculos
Supervisión delsistema de control
Sistema debase dedatos
Comunicaciónhombre-máquina
Interfazhombre-máquina
Reportes deinformación
Procesamientode eventos
Enlace entrecomputadores
ComputadorStand by
Generación ymantenimiento dela base de datos
Intercambio dedatos con el
procesoSistema de
adquisición de datos
SISTEMA OPERATIVO
Fuente: ABB, Courae SlO - System Design
Figura 3.8: Módulos de programas SCADA
e) Software con propósitos de diagnóstico.- Este software consiste de un conjunto de
programas diseñados para identificar y aislar fallas de hardware, de programas
o de información. El software de diagnóstico se ejecuta automáticamente cada
vez que el equipo es reinicializado.
f) Software de mantenimiento y desarrollo.- Este software comprende un conjunto
de herramientas para el mantenimiento del software existente, tales como:
editores, compiladores, ensambladores, etc.
Pag. 3-23
g) Software para el mantenimiento y generación de base de datos.- Los cambios,
actualizaciones y trabajos de expansión en el sistema de potencia, tienen
asociados orocesos de generación y mantenimiento de base de datos que tienen el
soporte de un software de ingeniería de datos (Data Engineering software).
3.2.3 Módulo de Análisis de Red
El módulo de análisis de red del sistema SPIDER, comprende el siguiente conjunto de
poderosas aplicaciones de monitoreo y análisis de red, que están clasificadas en dos
grupos:
a. Funciones de monitoreo.- Las funciones de monitoreo tienen el propósito de
generar y actualizar un modelo de red del sistema de potencia consistente y
confiable. Las funciones de este grupo son:
Cálculo topológico de Red (Network Topology Calculation).
Chequeo de Razonabilidad (Network Plausibility Check).
* Estimador de Estado (State Estimator).
Pronóstico de Carga en Barras (Bus Load Forecast).
* Modelación Dinámica de Red (Dynamic Network Modeling).
b. Función para Análisis y Seguridad.- Esta función permite evaluar la seguridad
en la operación del sistema de potencia. Esta es el flujo de potencia del operador
(Operator Load Flow).
Funcionalidad del Módulo de Análisis de Red
Las aplicaciones de análisis de red permiten al operador evaluar y comparar los valores
calculados, con aquellos que son adquiridos en el proceso.
Pag. 3-24
Algunos aspectos importantes de la funcionalidad del modulo de análisis de red, son los
siguientes:
a) Función "Valué select".- Para el sistema SPIDER, el sistema de potencia está
representado por un conjunto de objetos que describen sus componentes. Los
atributos de estos objetos, caracterizan el estado del sistema de potencia que
constituyen la base para representar la información en despliegues tabulares y
diagramas unifilares. Los atributos asociados a los objetos (voltajes, cargas,
generación, corrientes, etc.) son denominados como valores del proceso (process
valué).
Los valores del proceso pueden representar tanto a valores medidos como
calculados, sin embargo las mediciones que se adquieren en tiempo real son los
valores por defecto que se muestran en los despliegues. En el caso que no existan
mediciones, o éstas sean temporalmente inválidas, los despliegues muestran los
valores calculados en forma automática.
Existe una función denominada Valué Select, que permite definir la
información que se muestra en los valores del proceso. El tipo de información que
puede mostrarse es la siguiente:
Medición actual.
• Códigos de calidad de las mediciones.
Flujo de potencia estimado y residuos proporcionados por el estimador de
estado.
Flujo de potencia calculado por el flujo de carga.
Cargas pronosticadas1 .
1 ABB, SSC Design Specifications -.NetwprkAnaJysis, Vásterás, 1993, pp.8.Pag. 3-25
b) Lista de nodos.- En la lista de nodos se tiene información de la topología de
subestaciones, voltajes de barra, ángulos de fiase, generación, carga y pérdidas de
potencia activa y reactiva.
c) Coloreo dinámico de red.- El coloreo dinámico presente en despliegues permite
caracterizar la conectividad eléctrica, niveles de voltaje y estado de los
componentes del sistema.
d) Base de datos.- Los resultados de las aplicaciones que se ejecutan en modo de
estudio, se almacenan en una base de datos del mismo tipo. Los resultados de
estas aplicaciones se muestran en forma consistente en los mismos despliegues y
diagramas, asociados a información que proviene desde el sistema de potencia.
e) Supervisión de valores límites.- Funciones como el estimador de estado y flujo de
carga, efectúan supervisión de límites en los valores calculados. Los valores
límites se definen por igual tanto para valores medidos como valores calculados.
f) Base de datos de estudio.- El sistema SPIDER permite el uso en paralelo a la
base de datos en tiempo real, de una base de datos de estudio. Este diseño
asegura que los resultados de las aplicaciones que se ejecutan en modo de
estudio, no interfieran con la información del sistema en tiempo real.
3.2.4 Secuencias de Control de las Aplicaciones
Las funciones que se ejecutan en tiempo real y aquellas que se ejecutan en modo de
estudio, son controladas de tal manera que tengan diferentes tipos de inicializacion:
Ejecución cíclica.
Ejecución como consecuencia de un evento.
Ejecución manual.
Ejecución secuencial.
Pag. 3-26
Es posible que una fusión se inicialize usando una combinación de estas técnicas. Sin
embargo, todas las funciones tienen la opción de inicializarse manualmente mediante
un despliegue que se presenta en línea al operador.
3.2.5 Secuencia de análisis de red en tiempo real
En la operación en tiempo real del sistema de potencia, las aplicaciones trabajan sobre
la base de datos AVANTI. El orden de ejecución se encuentra ilustrado en la figura 3.7.
fr.
— *
1Chequeo de Razona bilí dad
+
EnQroador de catado
1Modelación Dinámica de Red
. >
« *
en tiempo real
«— * arg
Fuente: ABB, SSC Design Specifications • Network Analysis
Figura 3.9: Secuencia del análisis de red en tiempo real
La función del cálculo topológico de red -NTC- (network topology calculation) se ejecuta
automáticamente cuando se produce un evento en el sistema de potencia, que cambie su
topología (p.e abrir un disyuntor), mientras que la función de chequeo de razonabilidad
NPC (network plausibility check) se ejecuta automáticamente en forma cíclica y en
secuencia con la primera función.
El estimador de estado (estáte estimator), se ejecuta en forma cíclica y recalcula el
estado del sistema de potencia, en caso que se haya producido cambios significativos
desde la última vez que se ejecutó. El estimador de estado -SE- se ejecuta
automáticamente en secuencia con las funciones NTC y NPC, después de un evento en
Pag. 3-27
el sistema HP potencia. La función de pronóstico de carga -BLF- (bus load forecast) se
ejecuta automáticamente en forma cíclica en forma horaria.
3.2.6 Secuencia del análisis de red en modo de estudio.
Para evaluar determinadas condiciones de operación del sistema de potencia, el
operador tiene a su disposición un entorno de estudio, donde se pueden ejecutar acciones
sin afectar la operación en tiempo real del sistema. En este entorno, las funciones NTC,
NPC, SE y BLF son aplicadas sobre modelo de estudio definido por el operador.
del proceso
Chequeo de Razona bilí dad
+
Estimador de estado
iestudio
Fuente: ABB, SSC Design Specifications - Network Analysie
Figura 3.10: Secuencia de análisis en modo de estudio
3.2.7 Cálculo Topológico de Red (NPC)
La función del cálculo topológico de red (NPC) efectúa la descripción de la conectividad
de las subestaciones y construye un modelo topológico del sistema de potencia. Esta
función tiene las siguientes características:
Retardo de ejecución después de producido un cambio de estado en el sistema de
potencia.
Cálculo topológico jerárquico en dos fases.
Pag. 3-28
Detección de cambios en la topología y actualización incremental de las
subestaciones.
Cálculo de las admitancias de barras, lineas y transformadores.
Descripción funcional
Funcionalmente el cálculo topológico se ejecuta en dos etapas:
a) Cálculo topológico por subestación, donde la configuración de barras,
seccionadores y disyuntores se combina con la información dinámica de estado,
formándose un número de barras unidas por enlaces. Cada subestación se
representa como una red en miniatura, donde disyuntores y seccionadores
representan enlaces, y las posiciones y secciones de barra son nodos locales.
b) Cálculo topológico a nivel de red, donde la topología se deriva de la configuración
estática de los enlaces, combinada con la conectividad dinámica de las
subestaciones.
Indicaciones
Mediciones
Topología Estática
h
Conecta vida rl
1 '
Topología de red
Modelación di na mica de red Coloreo dinámico
Modelo de red
Moni toreo de seguridad
Fundones de estudio
Fuente: ABB, SSC Design Specifícations - Network Analysis
Figura 3.11: Funcionalidad del cálculo topológico de red
Chequeos de validación
Las indicaciones que definen la topología son chequeadas previa a su validación, para
detectar alguna inconsistencia. Si este es el caso, se genera un evento que advierte esta
inconsistencia.
Pag. 3-29
Comunicación hombre-máquina
La función NTC presenta la conectividad de las subestaciones y la topología de la red, en
diagramas unifilares con coloreo dinámico. La conectividad de las subestaciones se
representan también en una lista de nodos, donde se resume las barras y enlaces
asociados a las subestaciones.
3.2.8 Modelación Dinámica de Red (DNM).
La modelación dinámica de red es una función de aplicación, que combina la
información topológica con la información eléctrica, para determinar el estado y
conectividad del sistema de potencia mediante códigos de colores.
Descripción funcional
La función maneja a los despliegues de las subestaciones mediante coloreo, que
caracteriza los diferentes estados eléctricos de los componentes, así como su
conectividad.
Los datos para la modelación dinámica de red son suministrados por la función del
cálculo topológico de red. Los resultados esta modelación se presentan en diagramas
unifilares. Los símbolos a ser coloreados son: barras, líneas, generadores,
compensadores y elementos de las subestaciones.
La presentación final de la red está basado en los cálculos de conectividad y en la
calidad de los datos que se obtienen del sistema de adquisición, ya que los datos
erróneos también tienen asignados un color específico que caracteriza su inconsistencia.
Pag. 3-30
3.2.9 Chequeo de Razonabilidad (NPC)
Las mediciones que se obtienen mediante el sistema de adquisición de datos pueden
presentar errores considerables. La función del chequeo de razonabilidad de red trabaja
directamente sobre la descripción que realiza la función del cálculo topológico de red,
usando un sistema redundante de mediciones para determinar e identificar los errores
grandes en los datos del proceso. Esta función también asigna códigos de calidad a las
mediciones que pueden ser mostrados en los despliegues mediante la función valué
select.
Descripción funcional
El chequeo de razonabilidad de los valores que provienen desde el proceso, se ejecuta en
tres etapas:
a) En la primera etapa se analizan las ecuaciones de balance de potencia activa y
reactiva en las barras, flujo de potencia activa en las líneas y consistencia de los
voltajes de barra.
Si las ecuaciones de balance de potencia se satisfacen, las mediciones son
codificadas con 0. Por su parte, las mediciones de voltaje se clasifican en tres
grupos: cercana a cero, cercana al valor nominal e indeterminada. Se cuantifica
entonces el número de voltajes de cada clase. Si la mayoría de los voltajes son
consistentes (valor cero o nominal), estas mediciones tienen una clasificación de
1, mientras que los voltajes inconsistentes se clasifican como tipo 5. En otro caso
las mediciones de voltaje tienen una clasificación de 3.
b) En la segunda etapa, las mediciones no clasificadas son sujetas a un análisis de
tendencia, donde se calculan los cambios en la medición desde la última
ejecución. Si todas o ninguna de las mediciones tienen cambios significativos,
Pag. 3-31
c)
estas medición^ son consideradas como consistentes y tienen asignada una
clasificación de 1. Si todas las mediciones tienen cambios significativos o una sola
medición ha cambiado, se asigna a esta medición una clasificación de 4. En
cualquier otro caso las mediciones tienen un valor asignado de 3.
En la tercera etapa, todas la mediciones que no satisfacen las ecuaciones de
balance de potencia, se revisan nuevamente para detectar errores de medición y
codificarlas como de tipo 5, caso contrario se asigna el tipo 3.
Este código de calidad es usado por el estimador de estado, siempre y cuando
tengan una clasificación mejor que la especificada por el operador (p. e. 4).
Modelo de red
Mediciones
Testecuaciones de balance
Testde consistencia
Teet ecuaciones debalance no satisfecha e
Identificación de erroresgrandes
Códigos de calidad Estimador de estado
Fuente: ABB, SSC Design Specifications - Network Analysis
Figura 3.12: Funcionalidad del chequeo de razonabüidad
Comunicación hornbre-máquina
Los códigos de calidad se muestran en despliegues unifilares mediante el uso de la
función valué select. Los códigos de calidad también afectan a los colores con que se
presentan los valores del proceso. Adicionalmente se tiene un conjunto de contadores
estadísticos, que se actualizan en relación a las mediciones no confiables (códigos de
calidad mayores a 3) en despliegues y en un reporte diario del sistema de potencia. La
Pag. 3-32
tabla 3.4 depila los códigos de calidad en los que se clasifican las mediciones en una
escala de O a 6.
Código01
2
34567
Tipo de mediciónBuena, cumple las ecuaciones de balance.Satisfactoria, cumple un diagnóstico de tendencia o un diagnósticoconsistencia de voltaje.
de
Válida, determinada por el sistema de adquisición de datos, pero no es objetode tratamiento alguno de la función NPC.Dudosa.Errónea, determinada por un diagnóstico de tendencia.Mala, detectada por un diagnóstico de las ecuaciones de balance.Inválida, determinada por el sistema de adquisición de datos.Mala, detectada por el estimador de estado.
Fuente: ABB, SSC Design Specifications - Network Analysis
Tabla 3.4: Códigos de las mediciones
3.2.10 Estimador de Estado (SE)
El estimador de estado es una función de aplicación que permite a partir de un conjunto
de mediciones determinar el estado más probable del sistema de potencia. Las
mediciones que ingresan a este algoritmo, deben tener redundancia que permita una
correlación y corrección estadística de las mismas, de tal forma de detectar datos
erróneos y reemplazarlos por valores calculados. En resumen, esta función cumple con
los siguientes objetivos:
• Identificar datos erróneos que han sido enviados al centro de control por las
UTR's.
• Calcular los datos que no se han enviado por alguna razón al centro de control,
por ejemplo: alguna UTR se encuentra inoperable.
• Proporcionar datos para ejecutar funciones asociadas a: flujos de potencia lineas,
análisis de seguridad y pronóstico de demanda.
El estimador de estado integrado en el módulo de análisis de red, tiene las siguientes
características:
Pag. 3-33
Determinación de áreas observables.
Presentación de la observabilidad de la red mediante coloreo dinámico.
Permite ingresar las mediciones de flujos e inyecciones de MW, MVAR y
mediciones de voltaje de barra.
Ofrece procesamiento de los datos erróneos.
Calcula los residuos filtrados, desviaciones y varianzas.
Inicializa el chequeo de los valores límites en un flujo de potencia estimado.
Presenta el flujo de potencia estimado en diagramas unifílares.
Descripción funcional
Esta función de aplicación comprende las siguientes subñmciones:
a) Análisis de observabilidad.- Verifica que exista un número suficiente de
mediciones y una distribución adecuada de las mismas. La observabilidad es una
propiedad de cada nodo dentro de la red, que permite estimar o no el estado del
mismo.
A medida que cambia la topología de red y por tanto las mediciones, la red
observable también cambia y tiene que actualizarse el análisis de observabilidad.
b) Pseudo Mediciones.- Todas las pseudo mediciones tienen un peso común, a
diferencia de otras mediciones tiene pesos individuales. Las pseudo mediciones
son valores que se añaden entre dos grupos de nodos observables para unificarlos
en un solo grupo. Por ejemplo, las cargas pronosticadas en las barras (función
BLF) son pseudo mediciones que aseguran la observabilidad de la red.
c) Cálculo de los mínimos cuadrados ponderados.- El estimador de estado combina
las mediciones en tiempo real con el modelo que genera la función NTC y las
Pag. 3-34
leyes de Ohm y Kirchoff. Las desviaciones entre este modelo y el rea deben ser
minimizadas.
Las siguientes relaciones no lineales son establecidas entre el vector de
mediciones z, el estado del sistema de potencia x (magnitudes de voltaje y
ángulos) y el vector de error de mediciones w.
z = h(x) + w
Donde h(x) representa las leyes de Ohm y Kirchoff de la red. Las barras con
inyecciones de potencia nulas también se incluyen y se modelan como
mediciones virtuales de alta calidad.
Para minimizar la suma de los cuadrados de las desviaciones entre el modelo y
las mediciones, se formula las siguientes ecuaciones matriciales:
min J(x) = [z - h(x)]TW[z - h(x)]
Donde W es la matriz ponderada diagonal cuyos elementos Wü=l/Si2, donde si
representa la desviación estándar anticipada de la medición y. Este problema
no lineal, debe resolver en forma iterativa la siguiente relación:
mw( Az - HAx)rW(Az - HAx)
Donde H es el Jacobiano de las mediciones, y Az=z-h(x) para x=xk en la k-ésima
iteración. La condición óptima de este problema es:
Pag. 3-35
La matriz H^WH no puede ser invertida pero si factorada:
HTWH = RTDR
Donde R e es una matriz diagonal superior con diagonal unitaria
D es una matriz diagonal
Entonces Ax es resuelto por el método de sustitución hacia delante y hacia
atrás1.
d) Procesamiento de datos erróneos.- La detección de datos erróneos en el conjunto
de datos que provienen desde el proceso, se basa en la observación de la función
objeto J y el residuo ponderado mas grande rmax w. La función objeto es
transformada a la siguiente forma:
1/2f = [J-(m-n)]/ [2(m-n)]
Donde m es en número de mediciones y n el número de estados del sistema.
Cuando m»n, J* se tiene a generar una distribución Gaussiana de valor medio
nulo y varianza unitaria.
El resultado es aceptable si J < £, y rmax < £2. Donde % ¡ es una valor que está
en función de propiedades estadísticas, por ejemplo £ ¡=1.65 corresponde a una
probabilidad del 5% de tomar una decisión errónea. ¿j2 es un parámetro
ingresado por el operador (valor normal £2=3).
1 Asea Brown Boveri, SSC Design Specifications - Network Analvsis. Vásterás, 1993, pp. 29,30.Pag. 3-36
Si se detectan ^Rtos erróneos, estos son removidos. La implementación para
eliminar datos erróneos se basa en una eliminación secuencial de los residuos
ponderados más grandes, r, . Los residuos ponderados son definidos como:
Donde W es la matriz diagonal ponderada y r es el vector residual de
mediciones en la solución,
i = z-h(x)
e) Análisis estadísticos.- Después que se ha calculado el estado del sistema de
potencia, se procede a calcular los residuos, desviaciones y varianzas1 .
Monitoreo de la ejecución
El algoritmo del estimador de estado se monitorea por medio del índice de desempeño
Jal. Jal es la suma ponderada de los cuadrados de la diferencia entre los valores
medidos y los correspondientes valores calculados. Las ponderaciones del algoritmo,
corresponden a las varianzas invertidas de cada medición. Finalmente la suma es
dividida por la diferencia entre el número de mediciones y el número de estados del
sistema. El valor esperado de la variable Jal es la unidad.
Comunicación hombre-máquina
Los resultados del estimador se presentan en los despliegues unifilares de las estaciones
de trabajo, así como la información de observabilidad mediante coloreo dinámico. El
flujo de potencia estimado y los residuos de las mediciones se muestran en un
despliegue unifilar mediante el uso de la función valué select. La función de aplicación
1 Asea Brown Boveri, SSC Pesien Specifications - Network Analveis. Vásterás, 1993, pp. 31.Pag. 3-37
también tiene un despliegue de control, donde se resumen las iteraciones, el tiempo de
ejecución, número e ecuaciones, número de nodos, índice de desempeño, etc.
El estimador de estado implementado en el sistema SPIDER tiene capacidad de
manejar hasta 250 barras y 500 elementos de red (líneas y transformadores).
Modelo de red
Mediciones
Análisis de obaervabilidadAreae observables y no
observables
Mínimos cuadrados
Procesamiento de datos erróneos
Cálculo del flujo ríe potenciaPresentación del flujo al operador
Residuos, deviaciones y varianzas
Fuente: ABB, SSC Design Specifícations - Network Analysis
Figura 3.13: Funcionalidad del estimador de estado
3.2.11 Pronóstico de Carga (BLF)
Esta función de aplicación pronostica las inyecciones de potencia activa y reactiva, en
base a un conjunto de parámetros denominados factores de distribución.
Descripción funcional
Esta función de aplicación actualiza los factores de distribución de carga en base al
promedio que se efectúa cada hora de la carga. Un pronóstico total de la carga se
distribuye a las cargas individuales. En tiempo real, las predicciones de carga activa y
reactiva son usadas por el estimador de estado como pseudo mediciones.
Pag. 3-38
La función BLF consiste de las siguientes subfimciones:
a) Actualización de los parámetros de carga.- La función puede usar 10 conjuntos
de parámetros de carga que están almacenados en una base de datos. Cada
conjunto de parámetros contiene el valor de carga activa y reactiva para cada
carga definida en la red, las 24 horas del día.
El operador puede asociar los días con estos conjuntos de parámetros. Por
ejemplo: días laborables, sábados, domingos, días festivos, etc., pueden ser
asignados a uno estos 10 conjuntos. A la medianoche el programa selecciona el
tipo de día y el conjunto de parámetros correspondientes.
b) Predicción de cargas individuales en las barras.- En la ejecución en tiempo real,
las cargas de barra para la hora, se basan en el pronóstico total de la carga del
sistema y en los parámetros de predicción existentes.
Después que se activa la función con información de la hora y tipo de día, se crea
un archivo de trabajo donde se encuentran los parámetros de carga. El operador
puede modificar en este archivo el valor individual de una carga o el nivel de
todas las cargas.
La función de pronóstico individual de cargas también efectúa las siguientes
tareas:
Calcula y monitorea la diferencia entre cada carga pronosticada y su
correspondiente carga estimada. En caso que la diferencia exceda un
valor límite definido, se genera un evento.
Genera estadísticas de los errores de pronóstico de carga almacenadas
por tipo de día.
Pag. 3-39
c) Verificación de la máxima carga del sistema.- Siempre se realiza un chequeo
hora - hora para verificar si la carga interna del sistema alcanza un nuevo límite
máximo.
Comunicación hombre-máquina
Los pronósticos de carga pueden ser presentados en los diagramas unifilares, mediante
el uso de la función valué select o en despliegues tabulares, en los que se incluyen
también los errores de pronóstico. Los parámetros de carga en barra (parámetros del día
tipo) se muestran en un despliegue, donde el operador puede ejecutar las siguientes
acciones:
Modificar los parámetros del pronóstico.
Iniciar/detener la actualización de parámetros.
Flujo de potencia estimadoRegistro de datos
Actualización de factores dedistribución
Pronóstico de carga del sistema Pronóstico de carga en barra
Inicialización de parámetros yfactores de distribución
Cargas en barra pronosticada e
Resultados del pronóstico
Fuente: ABB, SSC Design Specifications - Network Analysis
Figura 3.14: Funcionalidad del pronóstico de carga
3.2.12 Flujo de Carga (OLF)
El programa de flujo de carga es una poderosa herramienta para el análisis interactivo
de las condiciones de operación del sistema de potencia. El OLF se ejecuta en un base de
estudio, donde el operador tiene completa libertad para cambiar las condiciones
Pag. 3-40
operativas del sistema sin interferir en la operación en real del mismo. Esta función de
aplicación tiene las siguientes características:
Selección del algoritmo de ejecución: Newton y desacoplado rápido.
Cambio controlado del algoritmo desacoplado rápido al algoritmo de Newton.
Capacidad para representar los componentes del sistema de potencia.
Verificación de límites en los resultados.
Capacidad para presentar los resultados en despliegues unifilares del sistema.
Descripción Funcional
El flujo de carga esta conformado de los siguientes módulos:
a) Inicialización y configuración de datos.- La función puede ejecutarse sobre datos
almacenados previamente o mediante el uso del estimador de estado. El OLF,
antes de ejecutarse, lleva a cabo una chequeo de consistencia de los datos y es
capaz de detectar inconsistencias en los mismos.
Una vez que el flujo de potencia es calculado, el resultado puede ser usado como
los valores iniciales de un nuevo caso de estudio, para lo cual se procede a grabar
los resultados.
El operador para ejecutar el flujo de carga, tiene la capacidad de ejecutar las
siguientes maniobras:
Apertura/cierre de disyuntores.
Cambio en los valores de carga o de generación
Cambio de los niveles de voltaje en los generadores y transformadores.
Cambio en la posición de los taps de los transformadores.
Pag. 3-41
El operador pue^« especificar si la solución se efectuará con los valores de voltaje
obtenidos de la solución anterior o una condición denominada "//oí start", es decir
cuando todas las magnitudes de voltaje de las barras PQ corresponden a sus
valores nominales y los ángulos de fose nulos (l.OD 0°).
b) Cálculo del flujo de potencia.- El problema del flujo de potencia se formula en
base a ecuaciones de balance para cada barra. Para la ejecución de la función, se
consideran la existencia de tres tipos de barras:
Barra PQ: donde se conocen las inyecciones de potencia activa y reactiva,
mientras que la magnitud de voltaje y el ángulo de fase debe ser
calculado.
Barra PV: donde se conoce la inyección de potencia activa y el valor
absoluto del voltaje. Se desconoce el ángulo de fase y la inyección de
potencia reactiva.
Barra oscilante: en esta barra se conoce el valor absoluto del voltaje y su
ángulo de fase. Para esta barra de referencia debe calcularse las
inyecciones de potencia activa y reactiva.
La solución del flujo de potencia incluye los siguientes valores:
Magnitud del voltaje en barras y su ángulo de fase.
Potencia activa y reactiva en líneas y transformadores.
Posición de taps de transformadores.
Potencia activa y reactiva de inyección en los generadores.
Pérdidas de potencia activa y reactiva en lineas y transformadores.
Flujo de reactivos en reactores y capacitores.
Pag. 3-42
Cuando se concluye el cálculo del flujo de potencia, la función ejecuta supervisión
en los límites de los siguientes valores:
Lineas de transmisión
Flujo de potencia activa
Flujo de potencia reactiva
Flujo de potencia aparente
Corriente
Diferencia del ángulo de fose.
Transformadores
Flujo de potencia activa
Flujo de potencia reactiva
Posición de tap
Flujo de potencia aparente
Corriente
Diferencia del ángulo de fase
Voltaje de barras
Potencia activa v reactiva de los generadores
Invección de compensadores
t Flujo de potenciaestimado
!—
f —
1 metalización
1
V
Cálculo del flujo de Flujo de potenciapotencia * calculado
i '
0 oci—ioión de límitcr fc 1? 1 t
i '
Fuente: ABB, SSC Design Specifications - Network Analysis
Figura 3.15: Funcionalidad del flujo del operador
Pag. 3-43
Capacidad
El OLF del sistema SPIDER tiene capacidad para manejar hasta 250 barras y 500
elementos de red (líneas y transformadores).
Comunicación hombre- máquina
Los resultados del OLF son presentados en los despliegues unifilares, listas de estado y
despliegues específicos. El flujo de potencia calculado se muestra mediante la selección
de la función valué select.
La lista de estado permite presentar la siguiente información:
Límites de VAR alcanzados por los generadores.
Transformadores con taps en posiciones extremas.
Barras con voltajes bajos y altos.
Pag. 3-44
CAPITULO IV
MANUAL DE MANTENIMIENTO DEL SISTEMA CENTRAL
4.1 INTRODUCCIÓN
En el sistema central se encuentran los equipos más importantes del sistema de control,
ya que ellos brindan el soporte funcional al subsistema de adquisición de datos. Es en
este sistema de arquitectura abierta donde se ejecutan las funciones de supervisión y
control. Por esta razón, es fundamental definir un sistema de soporte de mantenimiento
que tenga por objetivo asegurar un alto índice de disponibilidad en los equipos del
sistema central.
En relación al sistema de soporte de mantenimiento, este capítulo tiene por objetivo
describir en detalle: las características de la supervisión que ejecuta el sistema SPIDER
en los equipos del sistema central, los procedimientos de mantenimiento preventivo y
correctivo, el uso de la documentación y el manejo de repuestos. La forma en que se
tratan los diferentes tópicos guardan consistencia con la filosofía de mantenimiento
tratada en el capítulo 2.
ORGANIZACIÓN Y PERSONALDE
MANTENIMIENTO
Figura 4.1: Sistema de Soporte de Mantenimiento
Pag. 4-1
4.2 MANTENIMIENTO RUTINARIO
De acuerdo a las especificaciones proporcionadas por la empresa que instaló el sistema
de control, a ni%el de los equipos del sistema central, la necesidad de efectuar un
mantenimiento rutinario o preventivo es prácticamente nulo. Bajo esta premisa, el
personal de mantenimiento no debería ninguna tarea de este tipo.
Sin embargo, al mantenimiento rutinario en el sistema central, se ha asociado un
conjunto de tareas de mantenimiento supervisorio. Aunque las connotaciones de
estos conceptos son en cierto modo diferentes, este manual trata los procedimientos de
mantenimiento supervisorio, como actividades de mantenimiento rutinario.
El mantenimiento rutinario en el sistema central, comprende un conjunto de
actividades de supervisión de estado mediante módulos del sistema SPIDER y un
conjunto de procedimientos a nivel de sistema operativo. Estas actividades a ser
ejecutadas por personal con formación a nivel de ingeniería, se resumen en los
siguientes puntos:
• Supervisión automática de los equipos, que incluye el monitoreo de fallas y
reconfiguraciones, mediante la información que se genera en las listas de
alarmas y eventos, en el despliegue de configuración del sistema central (Control
System Overview) y en un panel centralizado de alarmas.
• Diagnósticos de desempeño, que muestren las características cualitativas y
cuantitativas de la utilización de los recursos del sistema. Estos diagnósticos se
realizan a nivel de sistema operativo mediante programas de monitoreo,
utilitarios y ejecución de comandos.
Pag. 4-2
• Reinicializaciones y reconfiguraciones de equipos, que permiten "superar" fallas
transitorias en los equipos y manipular los parámetros de configuración en los
mismos.
4.2.1 Información mediante el panel de alarmas
El panel de alarmas ubicado en la sala de control, permite al personal de operación y de
mantenimiento, detectar oportunamente condiciones de falla en varios equipos del
sistema central, de servicios auxiliares y de comunicaciones.
Cada una de las indicaciones de alarma tienen asociadas un led, que se activa ante la
presencia de la falla y que permanece encendido mientras esta condición persista. Las
alarmas de los equipos o dispositivos supervigüados se activan bajo las siguientes
situaciones:
• Tiempo Base.- Indica que no llega al equipos de base de tiempo GREDAS, la
señal exterior de tiempo proveniente del sistema s ate U tal asociado GPS. Bajo
estas circunstancias, se deja de alimentar con la señal de sincronización al
sistema de computadores principales y frontales.
• Señal de supervisión.- Indica que se ha detectado un problema interno en el
equipo de tiempo base GREDAS.
• Línea de comunicaciones n.- Esta alarma indica que el módem de la linea de
comunicaciones n, tiene activa su indicación CTS (clear to send) o CD (carried
detect). La indicación CTS se activa, cuando existe un problema de comunicación
entre el módem y la unidad de conexión DTTC 1005 del computador frontal en
línea, en cambio la indicación CD se activa, si no existe la señal portadora en la
Pag. 4-3
linea de comunicaciones n, debido a un problema en el sistema PLC o de libra
óptica.
Falla CPU A/B.- Esta indicación proviene del módulo de "stall alarm" del
computador principal A/B, y es activa en el caso que el equipo asociado se
encuentra fuera de servicio.
Enlace FOA/FOB.- Indica que existe una falla en el enlace de ñbra óptica A y/o
B, existente entre la subestación santa Rosa (terminales de comunicaciones de
onda portadora PLC) y el edificio del CENACE. Esta indicación se activa con
cualquiera de las diferentes alarmas asociadas a los módulos electrónicos del
sistema de fibra óptica A/B, que se encuentran en la sala de comunicaciones. La
identificación exacta de la falla debe realizarse con una inspección directa del
enlace de fibra óptica involucrado.
Falla ECS (voz PLC).- Indica que existe una falla en la central telefónica
asociada al sistema de comunicaciones PLC, ubicada en el edificio del CENACE.
Temperatura Alta 1 sala de cómputo.- Indica que la temperatura en la sala de
computadores se ha excedido de los 23 grados centígrados, pronosticándose un
mal funcionamiento en el sistema de aire acondicionado o el inicio de un
incendio.
Temperatura Alta 2 sala de cómputo.- Indica que la temperatura en la sala de
computadores ha excedido los 26 grados centígrados, amenazando la correcta
operación de los computadores al excederse sus requerimientos operativos
ambientales.
Alto voltaje 208/120 Vac.- Indica que el voltaje en la barra de los tableros de
aumentación (sala UPS), ha superado en un 10% su valor nominal (208 Vac).
Pag. 4-4
Bajo Voltaje 20» 120 Vac.- Indica que el voltaje en la barra de los tableros de
alimentación (sala UPS), es inferior en más del 10% de su valor nominal (208
Vac).
Falla UPS A/B.- Esta alarma es un resumen de fallas que pueden producirse en
los sistemas ininterrumpibles de energía A y/o B que alimenta la barra de cargas
esenciales, desde la cual se energizan los equipos fundamentales del sistema
central. La identificación exacta de la falla debe realizarse con una inspección
directa de los equipos.
UPS A/B by-pass.- Indica que el UPS A/B está en el modo de operación "by-pass",
es decir, que el suministro de energía es directo desde los terciarios (208/120 Vac)
de los transformadores TI y T2 o generador diesel de emergencia, debido a una
folla en el sistema UPS A y/o B, o a un problema de sobredescarga de las baterías
de respaldos de los equipos.
Grabador Voz.- Indica que el equipo de grabación de voz, ha dejado de registrar
las comunicaciones de voz generadas por los operadores que laboran en la sala de
control.
Falla Grupo Diesel.- Esta indicación es la suma de alarmas asociadas al motor a
diesel y el generador, que se activan en caso de falla o bajo nivel de combustible.
Aire acondicionado m sala de control.- Esta alarma se activa en caso de falla en
el equipo de aire acondicionado m.
Incendio sala de cómputo.- Indica que se ha activado el sistema automático de
extinción de incendios en la sala de computadores principales, al existir una
condición declarada de fuego o de humo concentrado.
Pag. 4-5
TIEMPOPATRÓN
SEÑAL DESUPERVISIÓN
LINEA DECOMUNICACIONES
5
LINEA DECOMUNICACIONES
10
INCENDIOSALA DE
COMPUTO
FALLA ECS(VOZ PLC)
GRABADORVOZ
LINEA DECOMUNICACIONES
1
LINEA DECOMUNICACIONES
6
LINEA DECOMUNICACIONES
11
FALLAUPS A
UPS ABY-PASS
FALLA GRUPODIESEL
LINEA DECOMUNICACIONES
2
LINEA DECOMUNICACIONES
7
FALLACPU A
FALLACPUB
FALLAUPSB
UPSBBY-PASS
FALTACOMBUSTIBLE
TANQUE DERESERVA
FALTACOMBUSTIBLE
TANQUE DIARIO
LINEA DECOMUNICACIONES
3
LINEA DECOMUNICACIONES
8
TEMPERATURAALTA 1 SALA DE
COMPUTO
TEMPERATURAALTA 2 SALA DE
COMPUTO
ALTO VOLTAJE208/120 Vac
BAJO VOLTAJE208/120 Vac
LINEA DECOMUNICACIONES
4
LINEA DECOMUNICACIONES
9
ENLACEF.O.A.
ENLACEF.O.B.
AIREACONDICIONADO ASALA DE COMPUTO
AIREACONDICIONADO BSALA DE COMPUTO
AIREACONDICIONADO CSALA DE COMPUTO
ADÍEACONDICIONADO DSALA DE COMPUTO
Figura 4.2: Panel de Alarmas
4.2.2 Información mediante despliegues, listas de alarmas y eventos
El sistema SPIDER incorpora una función de supervisión automática del estado
operativo de los equipos del sistema central y de los programas en ejecución.
La supervisión opera a nivel de dispositivos individuales y también a nivel de
subsistema. En este contexto, un subsistema es un conjunto de dispositivos
interdependientes, que incluyen configuraciones redundantes, de manera que el
Pag. 4-6
subsistema se presente robusto respecto a la ocurrencia de fallas. El sistema central
tiene los siguientes subsistemas: Subsistema de computadores (computadores
principales y d° mantenimiento), subsistema de comunicación hombre-máquina
(consolas e impresoras) y subsistema de computadores frontales.
Los estados de los dispositivos monitoreados, se presentan en cada una de las estaciones
de trabajo en un despliegue de configuración del sistema de control: "Control System
Overview", listas de eventos y listas de alarmas. Los estados operativos de los equipos
que se generan de la función de supervisión son los siguientes:
• En servicio.- Este dispositivo configurado desde el despliegue "Control System
Overuiew", está designado como disponible para el sistema.
• Fuera de servicio.- Este dispositivo configurado desde el despliegue "Control
System Overview", está designado como no disponible para el sistema. Un equipo
en este estado, no es supervisado.
• Operable.- Son equipos en servicio y que adicionalmente el sistema no ha
detectado en ellos folla alguna.
• Inoperable.- Son equipos en servicio pero en los cuales el sistema ha detectado
alguna falla.
Una unidad puede tener más de un estado simultáneamente. Por ejemplo, un equipo
normalmente se encuentra en servicio y operable al mismo tiempo. La bandera
operable/inoperable es cambiada solamente para aquellos equipos que se encuentran en
servicio. Esto significa que, si un equipo está operable cuando el mismo está fuera de
servicio, este estado de operable se mantendrá indefinidamente.
Pag. 4-7
Los estados de los dispositivos monitoreados, se presentan también en el despliegue de
configuración del sistema de control: "Control System Overview" y son representados
mediante la nomenclatura ilustrada en la figura 4.3.
• Operable
* Inoperable
• En servicio
U Fuera de servicio
Dispositivo
Figura 4.3: Estados en los dispositivos del sistema central
Un cambio en la bandera en servicio/fuera de servicio, resulta en un mensaje de la
lista de eventos. Un estado de inoperable, además del mensaje en la lista de eventos,
genera una alarma persistente que debe ser reconocida en las consolas. El estado
operable, genera únicamente un mensaje en la lista de eventos. Todos los mensajes de
las listas de eventos y de alarmas, registran la información cronológicamente en forma
histórica en equipos de impresión, para propósitos de análisis post-operativo.
El sistema SPIDER, también supervisa la ejecución del software, para detectar fallas en
las siguientes funciones críticas; tiempo de ejecución de los programas, manejo de
eventos y acceso a la base de datos residente en disco. Además los programas verifican
los datos a los que ingresan y los procesos. La detección de un error en datos inicializa
un procesamiento de evento, dependiendo de la severidad del mismo el programa puede
ser abortado. Para eventos de este tipo, el SPIDER genera en tiempo real una lista de
Pag. 4-8
errores de programas (lista de traps), que permiten al personal de mantenimiento
detectar condiciones anormales en el software del sistema.
La información que se registra en las listas de traps, son de particular interés del
personal de mantenimiento de programas. La interpretación y manejo de estos mensajes
requieren de procedimientos especiales. Sin embargo, con fines de información, se indica
a continuación los tipos de error que se pueden generar en estas listas:
• Traps debido a errores en programas:
<date>ERR<proceso><prograina><No secuenciaXEXAXBXO
• Traps generados por inconsistencias en la base de datos:
<date>DBE<procesoXprogramaXNosecuenciaXerrorxf ile><registroxitem>
• Traps generados por problemas en colas de procesos:
<date>QUE<procesoXprogramaXsecuenciaXerrorXno. cola>
• Traps generados por errores de entrada/salida de datos:
<date>IOE<proceso><programa><secuenciaxiostat>
• Traps asociados con el programa de aplicación WS400:
WSE<consoleXproceso><móduloXlinea del proceso: mensaje
Cabe anotarse que algunos de los procedimientos tanto de mantenimiento rutinario y
correctivo se que serán objeto de análisis en las secciones posteriores, requieren del
soporte de la documentación del proyecto. El anexo No. 2 incluye una descripción de la
estructura de la documentación escrita, así como los procedimientos para el uso de
documentación residente en discos compactos.
4.2.3 Información mediante despliegues en sistema operativo
Además de la supervisión de los equipos en tiempo real, que ejecuta el sistema SPIDER,
los sistemas operativos VAX/VMS y ULTRIX soportan la ejecución de diagnósticos,
Pag. 4-9
mediante utilitarios y Amandos que permiten visualizar información del desempeño del
sistema en despliegues de información a este nivel. La revisión continua de esta
información es responsabilidad directa del personal de mantenimiento del sistema
central y de la administración de sistema operativo. Estas actividades están
enmarcadas dentro del alcance de mantenimiento supervisorio - preventivo, ya permiten
detectar condiciones anormales en el funcionamiento de equipos y programas.
Estos procedimientos de diagnósticos presentan por las características de la información
que se genera, cierto grado de complejidad y requieren que sean analizados con bastante
detalle. Para la evaluación de los datos y estadísticas de los despliegues de información
a nivel de sistema operativo, requieren que estos sean contrastados con estándares de
desempeño fijados en función de criterios de ingeniería y de las especificaciones de
diseño del sistema. El anexo No. 3 documenta tanto los procedimientos de diagnóstico,
así como los estándares para su evaluación. A continuación se presenta un resumen de
los aspectos más relevantes que se incluyen en este anexo.
o. Diagnósticos VAX/VMS
Los diagnósticos VAX/VMS ejecutan el análisis de errores mediante el utilitario
ERROR__ LOG, el monitoreo del sistema con el utilitario MONITOR, el análisis
de red con el utilitario NCP (Network control Program). La información que se
genera en base a estos utilitarios y un conjunto específico de comandos, está
asociada a:
0 Errores de dispositivos, cpu, bus de datos, memoria, interrupciones y time
outs.
0 Cambios en el estado de dispositivos.
Pag. 4-10
0 tíventop del sistema: arranques en frió, arranques en caliente, falla (crash)
del sistema y mensajes de presencia (time stamps).
0 Estadísticas de la utilización de los recursos de todo el sistema, tales
como: estados, flujo de información a memoria caché, etc.
0 Estadísticas de la contribución individual de los componentes al sistema,
tales como: discos, procesos, etc.
0 Monitoreo de los recursos de red y diagnostico de sus componentes, así
como información de los nodos locales, nodos remotos, lineas físicas,
circuitos locales, etc.
Adicionalmente para el realizar registro de eventos y el seguimiento de acciones
operativas en equipos del sistema central se disponen de los siguientes archivos
de información complementaria : OPERATOR.LOG y SREPORT.DAT. La figura
4.4 muestra un esquema de las herramientas de sistema operativo para el
diagnóstico del sistema.
Información para la generación de estadísticas Información complementaria
Monitoreo de erroresen dispositivos,
procesos y registro deeventos
4^
ERROR.LOG yset de comandos
i
i
Monitoreo dered
.
NCP
.
i
Monitoreo dedesempeño del
sistema
L
MONITOR
•
i
Registro de eventosen dispositivos yreconfiguraciones
Archivos:OPERATOR.LOGSREPORT.DAT
•
SISTEMA OPERATIVO VAX/VMS
Figura 4.4: Herramientas de diagnóstico VAX/VMS
Pag. 4-11
b. Diagnósticos ULTRIX
Los diagnósticos ULTRIX ejecutan el análisis de errores mediante un utilitario
de reporto de errores denominado uerf (ultrix error report formatter) y la
ejecución de un conjunto de comandos que permiten obtener información de los
sistemas de archivos y tablas residentes en los discos duros, la ejecución de
procesos, los diagnósticos de red y la utilización del microprocesador.
Adicionalmente, en las estaciones de trabajo, existe una ventana denominada
Xconsole que presenta información de los procesos de la aplicación WS400, los
problemas de memoria, la apertura de nuevas ventanas y los mensajes de
software.
Información para la generación de estadísticas Información complementaría
Monitoreo de errores en dispositivos,estado de procesos, registro de
eventos, estadísticas de red y de flujode información
uerf y set decomandos
Información delmanejo de ventanasy procesos asociados
Ventana:XCONSOLE
SISTEMA OPERATIVO ULTRIX
Figura 4.5: Herramientas de diagnóstico ULTRIX
4.2.4 Respaldos de Información
Los computadores integrantes del sistema central contienen información de vital
importancia para la operación del Sistema de Control. Como procedimiento rutinario de
Pag. 4-12
seguridad, se deben obtener respaldos en cinta de los diferentes discos y módulos de
información contenidos en dichos computadores.
La información contenida en los computadores del sistema central para fines de
respaldo, es clasificada como se indica a continuación:
COMPUTADOR BACKUP INFORMACIÓN
SNEM20 System Disk Sistema operativo, configuración del nodo 20.SPIDER Disk Disco del sistema SPIDER completo.
SNEM21 System Disk Sistema operativo, configuración del nodo 21.SPIDER Disk Disco del sistema SPIDER completo.
SNEM28 System Sistema operativo, configuración del nodo 2Código fuente de los programas. DocumentaciónBase de datos fuera de linea.
WSx Total Sistema ULTRIX, configuración de la consola yaplicación WS400.
Fuente: INECEL, Administración de sistema operativo - Respaldos en cinta
Tabla 4.1: Información de los computadores con fines de respaldo
En el caso de las estaciones de trabajo (WSx), se debe realizar el respaldo para cada
consola (snem!4 a snem!9).
Los respaldos deben realizarse periódicamente, en dependencia de la importancia de la
información asociada y de su periodo de vigencia efectiva. En los computadores en los
que se realizan muchos cambios, deberán ser los más frecuentas, en cuanto a respaldos
de información.
Es necesario considerar el tiempo que involucra la extracción de los respaldos de cinta,
pues los procedimientos implican la salida de operación del computador en cuestión. A
continuación se presenta la frecuencia recomendada para la obtención de los respaldos,
y la duración aproximada del procedimiento, para cada caso específico.
Pag. 4-13
COMPUTADOR BACKUP
SNEM20 System DiskSPIDERDisk
SNEM21 System DiskSPIDERDisk
SNEM28 SystemWSx Total
FRECUENCIA
cada 3 mesescada 3 mesescada 3 mesescada 3 mesescada mescada 6 meses
DURACIÓN
40 min.Ih.40 min.Ih.4h.IhSOmin.
Puente: INECEL, Administración de sistema operativo - Respaldos en cinta
Tabla 4.2: Tiempos en la ejecución de respaldos de información
El sistema operativo permite la ejecución de respaldos de información totales e
increméntales. En el sistema se realizan respaldos totales (image backups) con el uso de
unidades de cinta (DAT station TLZ06) conectadas a los computadores mediante
interfaces SCSI. El medio donde residen los respaldos de información son unidades de
cinta de 90 metros, con capacidad de 4 Gbyte.
a. Respaldo de un Computador Principal
La información que se almacena en un respaldo de información de un
computador principal es la siguiente:
• Disco del Sistema, donde se encuentran residentes los archivos del sistema
operativo VAX/VMS. Para realizar el respaldo de la información de este
disco, se recomienda colocar a equipo en el modo de consola, es decir que el
sistema operativo de el soporte únicamente a las tareas de un usuario, sin
conexión lógica a otros nodos de la red. Este procedimiento denominado
standalone backup, asegura que todos los archivos del sistema operativo
sean efectivamente copiados.
• Disco SPIDER, donde se encuentran residentes los módulos del sistema del
mismo nombre. En este disco se encuentran todos los archivos estándar
Pag. 4-14
proporcionados por el suministrador ABB, así como los archivos originales
del desarrollo del Proyecto del Sistema de Supervisión y Control (SSC).
En este disco también se encuentra residente información SPIDER no
relacionada con el sistema de potencia, tales como: la información de
funciones de aplicación, los despliegues, las tablas de símbolos, las
definiciones de la base de datos, la descripción de los formularios para el
ingreso de datos, los archivos ejecutables (runtime images), los archivos de
registro de errores, los reportes de programas, la definición de los colores
para despliegues, etc.
Para la ejecución de los procedimientos de respaldo de información, debe
tomarse en cuenta que los dispositivos integrados a un computador principal
por medio del conector SCSI, tienen asignados nombres lógicos denominados
mnemónicos, según se indica en la tabla 4.3.
Mnemónico Dispositivo
MKA500 Unidad de cinta externaDKAO Unidad de expansiónDKA300 Unidad principalDKA400 Unidad de lectura óptica (CDROM)
Tabla 4.3: Mnemónicos de un computador principal
b. Respaldo del Computador de mantenimiento.
En este computador se encuentran instalados dos unidades de disco duro. En la
primera unidad de tiene residente la base de datos y el Data Engineering,
mientras que en la segunda unidad residen las versiones originales de los
Pag. 4-15
c.
programas proporcionados por ABB, que se encuentran duplicados con el objeto
de realiza- en ellos, modificaciones de software.
Los dispositivos integrados al computador por medio de conectores SCSI, tienen
asignados los siguientes mnemónicos:
Mnemónico
MKA500DKA200DKA300
Dispositivo
Unidad de cinta externaDisco duro 1Disco duro 2
Tabla 4.4: Mnemónicos del computador de mantenimiento
Los respaldos de información de los dos discos duros, deben realizarse por
separado en modo de consola (standalone backup).
Respaldo de una Estación de Trabajo (Consola)
La estructura de archivos bajo el ambiente del sistema operativo ULTRIX, está
distribuida en cada una de las estaciones de trabajo en dos discos duros y tres
particiones. La tabla 4.5 detalla las particiones de las consolas que deben ser
objeto de respaldos de información.
Disco Tipo
Sistema RZ26
Aplicación RZ25
Capacidad Directorios Partición
l.OSGb / pa/usr pg
425 Mb /usr/users pg
Tabla 4.5: Particiones en las estaciones de trabajo
Pag. 4-16
En las consolas del sistema de control (excepto la consola No. 6) se tienen dos
particiones adicionales a las mostradas en la tabla 4.5, las mismas que están
residente? físicamente en unidades de disco duro de los computadores
principales. Estas particiones se reconocen como locales gracias al software NFS
que permite crear un sistema de archivos distribuidos entre los sistemas VMS y
Ultrix. Es anotarse que la información estática de los despliegues residentes en
estas particiones, no son objeto de respaldo alguno en el ambiente de Ultrix.
En el disco asociado al programa de aplicación, se encuentran archivos con
información asociada a las tablas de símbolos, los despliegues de presentación, la
definición de colores, el control del teclado y el código del sistema operativo.
Los dispositivos integrados a cada una de las estaciones de trabajo mediante
conectores SCSI, tienen asignados los mne moni eos indicados en la tabla 4.6.
Mnemónico Dispositivo
rzO Disco del sistemarzl Disco de la aplicacióntz5 Unidad de cinta externarz6 Unidad de lectura óptica (CDROM)
Tabla 4.6: Mnemónicos de una estación de trabajo
EJ anexo No. 4, incluye en su primera parte los procedimientos a detalle para
obtener los respaldos de información de los computadores del sistema central, de
acuerdo a la descripción realizada en esta sección.
Pag. 4-17
4.2.5 Reinicializaciones de equipos
En las secciones anteriores se explicó que la supervisión en el funcionamiento de los
equipos del sistema central, se ejecuta mediante la información de las listas de
eventos/alarmas, las indicaciones del panel de alarmas y los resultados de los
procedimientos de diagnóstico a nivel de sistema operativo. La reiniciaüzación es un
procedimiento que se recomienda ejecutarse cuando se ha detectado una condición
anormal. El alcance de este procedimiento está asociado con aquellas las fallas en el
hardware o en los programas que pueden tener una naturaleza temporal, que debe
ejecutarse en los siguientes casos:
• Cuando existe un error aparente en el hardware del equipo, que provoque un
funcionamiento anormal de un dispositivo asociado.
• En el caso de los computadores que ejecutan VAX/VMS y Ultrix, cuando
determinados procesos asociados a la ejecución de programas tengan un una
bandera de estado que puede desencadenar problemas en el sistema operativo o
en programas de aplicación. En el anexo No. 3, donde se documentan los
procedimientos de monitoreo y diagnóstico del sistema, se indican que los
procesos Z y MWAIT, para los sistemas operativos VAX/VMS y Ultrix
respectivamente, representan condiciones no deseables.
• Cuando se produce un bloqueo en la ejecución de programas.
• En el caso del equipo GREDAS cuando se ha perdido la conexión con la señal que
proviene del receptor GPS o cuando se ha detectado una folla interna en el
equipo.
Para el caso de los computadores que ejecutan VAX/VMS y Ultrix, computadores
frontales y servidores de red, se recomienda que el proceso de reiniciaüzación debe
ejecutarse con secuencias controladas mediante sistema operativo. La opción de utilizar
Pag. 4-18
el apagado/encendido del equipo no es aconsejable y debe ser considerada como una
última alternativa.
Para el caso del equipo de tiempo base GREDAS, no existe un proceso de reinicialización
mediante software, sino más bien es de tipo físico, sin embargo como se indicará
posteriormente deberá registrarse información de configuración, previa a la ejecución de
un proceso de reinicialización.
El anexo No. 5 documenta a detalle los procedimientos paso a paso para reinicializar los
equipos del sistema central.
4.2.6 Configuraciones de Equipos
La configuración de parámetros en los equipos del sistema central es un aspecto muy
importante cuando se ejecutan trabajos de mantenimiento correctivo. Por esta razón es
importante tomar en cuenta cualquier cambio en función de las tareas de
mantenimiento rutinario, de desarrollo y de actualizaciones que se realizan en el
sistema.
La información de configuración a nivel de software se encuentra residente en cada uno
de los respaldos de información. Esta información es la que se transfiere a nuevas
unidades o repuestos mediante los procedimientos de restauración (backin). El anexo
No.l incluye un listado con los parámetros de configuración del sistema de acuerdo a la
información provista por el suministrador.
En las estaciones de trabajo adicionalmente se tienen los denominados parámetros de
entorno. Estas variables de configuración de bajo nivel, no se transfieren al sistema
Pag. 4-19
cuando se ejecutan UT» procedimiento de restauración y deben ser definidas por el
ingeniero de mantenimiento.
Los parámetros de entorno de una estación de trabajo, son definiciones que se realizan
en modo de usuario simple, es decir sin ejecutar el software de conexión a red, y que
especifican acciones, tales como: el tipo de arranque del equipo, la ejecución de
diagnósticos y parada del sistema. Para visualizarlos debe ejecutar una parada
controlada de la estación de trabajo y ejecutar el comando » printenv. La tabla No. 4.7
muestra los parámetros de entorno de las estaciones de trabajo.
boot
WS1 3/rzO/vmunix -a
WS2 3/rzO/vmunix -a
WS3 3/rzO/vmunix -a
WS4 3/rzO/vmuiúx -a
WS5 3/rzO/vmunix -a
testaction
q
q
q
q
q
more
0
0
24
0
24
consolé
1
1
1
1
1
haltaction
h
h
h
h
h
#
3
3
3
3
3
osconsole
0.3
0.3
0.3
0.3
0.3
Tabla 4.7: Parámetros de entorno de las consolas
donde:
boot; Especifica los argumentos del comando boot, que se ejecuta alarranque del equipo.
coTisole: Especifica el slot de la unidad de video, donde se efectúa la in-teracción con el sistema en modo de usuario simple. Normalmenteesta variable debe definirse como 1.
haltaction: Especifica la acción que se ejecuta cuando se presiona el botón haltde la unidad principal (DECstation 5000 modelo 133), de acuerdoa la siguiente asignación:b arranca la consola de acuerdo a los argumentos especificados
en la variable boot,h detiene la operación de la consola y muestra el prompt de con-
gola,r reinicializa la consola.
Pag. 4-20
testaction: Define el tipo de diagnósticos que se ejecutan al arranque delequipo.t especifica un diagnóstico completo del sistema (lento),q especifica un diagnóstico rápido pero menos completo del
sistema.more: Especifica el número máximo de líneas que puede escribirse en la
pantalla. Si el parámetro está definido en cero, el texto rota en lapantalla.
#: Especifica el slot (módulo) de la unidad .principal.osconsole: Es una variable asociada a los parámetros de arranque y
diagnósticos, que no debe cambiarse del valor de 0.3.
Para reajustar el (los) parámetro(s) se utiliza el comando setenv .(pe »setenvboot "3/rzO/vmunix -a"}1.
Los servidores de red del sistema central, son dispositivos que tienen residente software
y programas de operación, y sin embargo por sus características de hardware, estos no
son objeto de respaldos de información. Para visualizar o definir los parámetros internos
de este equipo de acuerdo al listado del anexo No. 1, debe ejecutarse el siguiente
procedimiento básico:
1. Ejecutar un ingreso local o remoto a cualquiera de los computadores principales.
2. Conectarse al servidor serie o paralelo con la ejecución de la siguiente secuencia
de comandos:
• Servidor serie :
$MC NCPNCP>CONNECT NODE SNET37/38J# ACCESSLocal > UsernameLocal > set priviPassword vasteras/system
• Servidor Paralelo:
Stelnet emull/emul2/emul3# ACCESSLocal>
3. Visualizar los parámetros de configuración e identificar aquellos que deben ser
modificados, mediante la ejecución de los siguientes comandos:
1 Digital Equipment Corporation, DECstation SOOOjaodel 100 series - Hardware Operator's Guido(=C.MS/E16). ABB, U.S.A., 1992. pp. 5-10
Pag. 4-21
Local> show port zLocal> show port allLocal> show serverLocal> show server tcpLocal> stty -p xLocal> show service suinm
4. Internamente el servidor tiene incorporado una ayuda de comandos en línea, que
permitirán efectuar los cambios (set command) que sean del caso1 .
4.3 MANTENIMIENTO CORRECTIVO
En la sección 4.2 se han descrito y analizado todas las herramientas para realizar el
mantenimiento rutinario, con la ejecución de funciones de diagnóstico y supervisión a
nivel de los programas de aplicación y a nivel de sistema operativo. Estas funciones son
previas a la ejecución de trabajos de mantenimiento correctivo, para el caso de aquellas
rallas, que no hayan podido superarse con la sola reinicialización o configuración de los
parámetros de los equipos.
El mantenimiento correctivo tiene asociadas el siguiente conjunto de etapas:
• Etapa 1: Etapa de localización de follas.- Localización y aislamiento de la falla, a
través de la información que se genera en las listas de alarmas y eventos, el
panel de alarmas y los diagnósticos mediante sistema operativo (sección 4.2).
• Etapa 2: Etapa de diagnósticos.- Diagnósticos locales de fallas en los equipos,
mediante funciones y procedimientos especiales.
• Etapa 3: Cambio de repuestos.- Reemplazo de equipos y/o tarjetas está en
función de los conceptos de LRU y sub-LRU introducidos en el capítulo II y
detallados en el anexo No.l.
1 Esta referencia a documentación es consistente con los requerimientos FL2B, indicados en la sección2.4.1.
Pag. 4-22
Esta última sección del manual de mantenimiento trata los procedimientos de
mantenimiento correctivo relacionados con las etapas 2 y 3, y está diseñado con
referencias a anexos, a fin de mantener una estructura sencilla.
4.3.1 Diagnósticos y chequeos mediante software
Cada uno de los equipos del sistema central están provistos de funciones de diagnóstico
mediante software que permiten detectar fallas a nivel de hardware del sistema.
En el caso de los computadores que ejecutan los sistemas operativos VAX/VMS y
los diagnósticos se ejecutan en modo de usuario simple, es decir sin cargar el software de
conexión a red, con la ejecución previa de un apagado controlado del equipo. El alcance
de la información de estos programas, permite detectar en la mayoría de los casos fallas
a nivel de tarjetas.
En los servidores de red para realizar un diagnóstico, se tienen funciones que se limitan
a ejecutar el envío de patrones de datos a través de los pórticos de salida de los mismos.
En cambio los computadores frontales y el equipo de tiempo base GREDAS, incorporan
programas de supervisión interna (watchdog) que se ejecutan continuamente. En este
caso la presencia o no de una folla está caracterizada por la interpretación de leds de
diagnósticos ubicados externamente.
Los diagnósticos y chequeos mediante software y funciones específicas, deben ser
ejecutadas por ingenieros de mantenimiento, cuando se tenga la sospecha de errores a
nivel de hardware. Errores que en el caso más crítico involucrará el cambio de la unidad
por su LRU/sub-LRU respectiva. El anexo No. 6, documenta a detalle los procedimientos
para realizar los diagnósticos y chequeos mediante software.
Pag. 4-23
4.3.2 Cambio de equipos y tarjetas
El cambio de equipos o tarjetas en el sistema central, es un procedimiento de
mantenimiento correctivo que se ejecuta cuando se ha detectado una falla a nivel de
hardware mediante los procedimientos de diagnóstico de la sección 4.3.1.
De acuerdo a los requerimientos para el mantenimiento de hardware descritos en el
capítulo 2, los equipos del sistema central están modularizados en unidades
reemplazables en sitio con el objetivo de restablecer rápidamente la operación del equipo
asociado.
En el sistema central, los computadores principales, las estaciones de trabajo, el
computador de mantenimiento, los terminales de programación, los servidores de red y
los periféricos como impresoras y unidades de copiado, tienen asociados como LRU a
otra unidad idéntica completa. Los computadores frontales el equipo de tiempo,
disponen de módulos a nivel de tarjetas y partes para la ejecución del mantenimiento
correctivo. En el anexo No.l se incluye un listado con el detalle de los repuestos del
sistema central, asociado a la descripción de LRUs y sub-LRUs.
Esta sección presenta las siguientes recomendaciones técnicas que deben observarse
para obtener un cambio exitoso de cualquier equipo o tarjeta:
• El cambio de un computador cualquiera que ejecute el sistema operativo
VAX/VMS o Ultrix involucra un procedimiento de restauración con la
información más reciente residente en cinta. El procedimiento de restauración
debe realizarse de tal forma que el computador no se encuentre conectado
físicamente a la red LAN. En el caso del cambio de un computador principal
Pag. 4-24
debe desconéctele físicamente el conector RS232 asociado a la unidad de stall
alarm.
Los cambios de cajas de las expansión que albergan unidades de disco duro y
cpu, deben realizarse tomando en cuenta las definiciones mediante switches que
pueden estar ubicados en la parte frontal o posterior de los equipos.
El cambio de tarjetas debe realizarse tomando en cuenta la ubicación de original
de jumpers de la unidad a cambiar, que definen la configuración del dispositivo.
El cambio de un servidor de red debe complementarse con la configuración
interna de parámetros original.
Culminado cualquier cambio, debe precederse a realizar un diagnóstico del
hardware del equipo (sección 4.3.1).
Pag. 4-25
CAPITULO V
PRUEBAS DEL MANUAL
5.1 INTRODUCCIÓN
Una vez terminado el manual de mantenimiento para el Sistema Central, éste ha
sido objeto de varias pruebas con ingenieros de las Divisiones de Equipos y
Programas y de Operación, con el propósito de evaluar la consistencia, precisión y
claridad de los procedimientos documentados.
La ejecución de las pruebas, se han justificado, pues en base a ellas se han realizado
algunas correcciones de forma, con el fin de facilitar la compresión de algunos tópicos
documentados en el capítulo IV y sus anexos.
Este capítulo presenta una descripción de las pruebas realizadas con el manual, así
como sus resultados y los comentarios planteados y que fueron acogidos para la
ejecución de cambios.
5.2 PRUEBAS CON INGENIEROS DE MANTENIMIENTO
Dentro de la organización del CENACE, el personal de la División de Equipos y
Programas, tiene a su cargo entre otras actividades, la ejecución de las tareas de
mantenimiento del sistema de control. Es por esta razón que se diseñaron las
siguientes pruebas para ser ejecutadas por ingenieros de esta División:
• Diagnóstico y monitoreo del computador principal en línea y el computador de
mantenimiento.
• Diagnostico y monitoreo de la consola de generación.
• Cambio en la partición de los discos duros de la consola de mantenimiento.
Pag. 5-1
Prueba No.l: Diagnósticos de desempeño y monitoreo de los computador
principal en linea y del computador de mantenimiento.
Los diagnósticos de desempeño y monitorteo de estos computadores se ejecutaron
mediante utilitarios y comandos del sistema operativo VAX/VMS. La información
generada fue posteriormente evaluada en base a los estándares de administración y
de mantenimiento, definidos previamente con este propósito en el capítulo IV.
Esta prueba fue ejecutada por un ingeniero que trabaja en el área de
comunicaciones, quién ha trabajado muy poco en el ambiente del sistema operativo
VAX/VMS, mediante una conexión remota desde uno de los terminales VT420
conectados al computador de mantenimiento. El diagnóstico tomó aproximadamente
una hora y se realizó bajo la supervisión de autor de la tesis.
Estos diagnósticos forman parte de un conjunto de rutinas que deben ejecutarse
diariamente y que son vitales a fin de detectar anormalidades en el desempeño del
sistema.
Prueba No.2: Diagnósticos y monitoreo de la consola de generación.
Esta prueba similar a la anterior, se ejecutó en la consola de generación en el
ambiente del sistema operativo ULTRIX. La información generada fue tabulada y
posteriormente evaluada en base a los estándares definidos para las estaciones de
trabajo.
Pag. 5-2
Prueba No.3: Cambio en la partición de los discos de la consola de
mantenimiento
La necesidad de cambiar la partición de los discos duros en la consola de
mantenimiento, fue un requerimiento funcional del área de Programas. Este trabajo
fue aprovechado para ejecutar una prueba con el manual, en vista de que se requería
efectuar procedimientos de respaldo y restauración de la información residente en
los discos duros.
La prueba se ejecutó con un ingeniero que no se encontraba familiarizado con el uso
del sistema operativo ULTRIX, ambiente bajo se realiza todo el procedimiento. Los
puntos más importantes ejecutados secuencialmente fueron los siguientes:
• El respaldo de información (back-up), donde se almacenó toda la información
residente en disco en una cinta de 4 Gbyte de capacidad.
• Se ejecutó un proceso de arranque del sistema mediante una cinta especial. A
continuación se procedió a ejecutar paralelamente la restauración de
información y las definiciones de la nueva configuración de las particiones.
El éxito en la ejecución de la prueba dependió exclusivamente de la precisión con la
que se ejecutaron los comandos documentados en el manual. El tiempo requerido
para este trabajo fue de aproximadamente tres horas y media.
5.3 PRUEBAS CON EL PERSONAL DE OPERACIÓN
El personal de la División de Operación tiene a su cargo en forma ininterrumpida la
operación del Sistema Nacional Interconectado.
Pag. 5-3
En el pasado, ante la ocurrencia de una falla en una de las estaciones de trabajo de
la sala de control, en ausencia del personal de mantenimiento, se procedía a ejecutar
un apagado/encendido del equipo con el fin de solventar un problema. Procedimiento
que no se aseguraba de ninguna manera que el equipo haya superado una posible
falla interna. Por esta razón se diseñó una prueba que fue ejecutada por dos
ingenieros de supervisión y un ingeniero de operación, la misma que consistió en
reinicializar la consola de generación previo de un diagnóstico del hardware del
equipo.
Prueba No. 4: Reinicialización de una estación de trabajo.
Esta prueba se ejecutó en dos sesiones, con un Ingeniero de la consola de generación
y dos Ingenieros Supervisores. Para iniciar el procedimiento, se realizó un ingreso al
sistema bajo la cuenta de superusuario, para ejecutar un apagado controlado de la
estación de trabajo. A continuación mediante el programa de diagnóstico test 100, se
realizó un diagnóstico del estado del hardware del equipo, con una duración
aproximada de 30 minutos.
Terminado el diagnóstico, se procedió a reinicializar el sistema y mediante el
utilitario uerf (ultrix error report formatter), se determinó que el proceso de
arranque del sistema no registró ningún error.
5.4 RESULTADOS OBTENIDOS
Prueba No.l
El cambio en la defunción de las particiones de los discos duros de la consola de
mantenimiento, tomó aproximadamente de tres horas y media, con resultados
satisfactorios.
Pag. 5-4
El resultado ñnal fue favorable gracias a la precisión con la que se ingresaron los
comandos. En e1 sistema operativo ULTRIX, el ingreso de las líneas de comando
debió realizarse tomando en cuenta la discriminación que existe entre las letras
mayúsculas y minúsculas.
En base a este procedimiento, las consolas del CENACE tienen actualmente similar
configuración de particiones, de acuerdo a las siguiente información:
Partición del disco 0:
partition
abcdefgh
bottom
06000000004600000
top
59999459999205085900020508590
size
60000400000205086000015908600
overlap
c,d,e,f,hca,b,d,e,£g,ha,c,e,f,ha,c,d,f,ha,c,d,e,hca,c,d,e,f
Partición del disco 1:
partition
abcdefgh
bottom
010000003000000
top
992999998325260008325260
size
1002999008325270005325270
overlap
c,d,e,f,hca,b,d,e,f,g,ha,c,e,f,ha,c,d,f,ha,c,d,e,hca,c,d,e,f
Recomendaciones de la prueba: Se deben especificar los tiempos que toma la
ejecución de algunos de los comandos de los procedimientos de restauración y
reposición de información.
Pag. 5-5
Prueba No. 2
Los procedimientos de monitoreo y diagnóstico del computador principal en línea y
del computador ¿e mantenimiento, generó la siguiente información:
DiagnósticoDevice Error(show error)
Error log(anal/err/smce=date)
Disk Information(show dev d)
dkaO
dka200
dka300
dka400
Memory resources(show mem/file) _,v ' swapfile
pageñle
Monitor system CPU busy
(mon System) Pagc faull rale
Free lisl size
Procesos Iota k*
Procesos wiit
Network Activity
múltiple collisions
single collisions
data blocks senl
send faiture
recieved failure
SNEM28Device
RTA1RTA2RTA3RTA4RTA5
Entry
StatusM O
X
X
Free
386%
246762
Error
0
0
Reserv
386%
202394
Error
11111
Description
No seregistraronerrores
Free blocks
2608278
115959
Total
386%
250000
0
0
64911
26
0LAN1
59
51
30509
0
0
SNEM20Device
RTAIRTA2
Entry
StatusM O
X
X
Free
21000
230166
Error
0
0
Reserv
21000
29959
Error
11111
Description
No seregistraronerrores
Free blocks
982386
1320813
Total
21000
302600
<10°/0
<10%
66871
101
0
LAN1
10867
10554
5466355
0
0
LAN2
143
122
6865604
0
0
En base a la información tabulada se determinó que los discos duros dkaSOO
(snem28) y dkaO (snem20) no cumplen con los estándares, en vista que la reserva de
los discos debe encontrarse en los computadores en el valor del 50%. En días
Pag. 5-6
posteriores se realizaron trabajos en mantenimiento de archivos y de distribución de
información en los discos duros, con el fin de solventar este evento.
Recomendaciones:
• El manejo de los procedimientos requiere revisar información descriptiva
acerca de todo el sistema central, que se encuentra documentada en el
capítulo IV.
• Debe indicarse en los procedimientos de diagnósticos, la forma de ingresar al
utilitario NCP (Network Control Program) que permite monitorear la
actividad de las redes de área local.
Prueba No.3
La información del diagnóstico y monitoreo de la consola de generación, se resume en
la siguiente tabla:
Diagnóstico
Particiones
Utilitario uerf
Estado de procesos
Swap 8 pace
Estadísticas de memoria
Estadísticas de flujo de información
Actividad de red
Información
rzOa 82rzOg 48rzlg 27snem21 63snem20 60
Se registraron únicamente eventos detipo operacional sin erroresvarios procesos con el estado Z y ZN
used 85724free 264218tiempo usuario 4%tiempo sistema 4%disponiblidad CPU 96%tiempo de usuario 13%tiempo de sistema 12%disponiobildad CPU 75%paquetes de salida 530319errores en paquetes de entrada 0colisiones 76
Pag. 5-7
En base a la información tabulada se determinó que el único inconveniente se
presentó en el estado de algunos procesos: Z y ZN, los mismos que fueron
monitpreados por dos días adicionales, para determinar o no la necesidad de
reinicializar la consola.
La ejecución de la prueba fue exitosa sin que se realice ningún comentario o
recomendación de cambio.
Prueba No 4.
La prueba ejecutada tanto con el ingeniero de la consola de generación y loa
ingenieros supervisores, determinaron condiciones óptimas en los dispositivos
instados en el equipo, esto es: módulos de memoria RAM, CPU, tarjetas de vídeo,
SCSI, etc.
Recomendaciones: El personal que ejecutó la prueba recomendó en lo posible utilizar
los términos en inglés, los mismos que fueron traducidos en los diálogos de ingreso
de comandos.
5.5 BENEFICIOS
El manual de mantenimiento elaborado como parte principal de este trabajo de tesis,
asegura beneficios para el sistema de control en los siguientes aspectos:
• La posibilidad de que el personal de operación vaya familiarizándose con
determinados procedimientos que permitan solventar situaciones de falla en
el sistema de control, fuera de las horas normales de trabajo. Esto asegura
que no sea necesario realizar el traslado de personal de mantenimiento a las
Pag. 5-8
instalaciones *'A Centro de Control, con el consiguiente desembolsos de
recursos económicos.
La autonomía que se ofrece al personal de la División de Equipos y
Programas, para ejecutar tareas de supervisión y monitoreo del sistema de
control.
El mejoramiento de los índices de disponibilidad en los equipos del sistema
central.
Pag. 5-9
CAPITULO VI
CONCLUSIONES Y RECOMENDACIONES
6.1 CONCLUSIONES
• El sistema de control que el INECEL ha instalado en el país, es una
herramienta tecnológica de alto nivel que reaüza la supervisión y control en
tiempo real del Sistema Nacional Interconectado. Dentro de este marco, es
fundamental la ejecución de las tareas mantenimiento en todo el sistema de
control, y en especial en el sistema central, que es donde se centraliza el
procesamiento de toda la información.
• El sistema central presenta un diseño consistente con los denominados
sistemas abiertos. Sistema abierto tanto en hardware como en software, que
da la potencialidad de realizar expansiones y actualizaciones a futuro, sin que
se presenten inconvenientes en el desempeño global del sistema.
• Todas las herramientas, procedimientos y referencias a la documentación que
se incluyen en el manual (capítulo 4), permitirá al personal que tiene a cargo
la operación del sistema de potencia, tomar acciones en los equipos del
sistema central, bajo determinadas condiciones de fallas, las mismas que
deberán solventarse en ausencia del personal de mantenimiento.
• De acuerdo a lo especificado en la filosofía de mantenimiento, las referencias
a la documentación del proyecto que presenta el manual (anexo No.2),
permitirá a los ingenieros de mantenimiento profundizar en tópicos
Pag. 6-1
específicos. Estas referencias son consistentes con los requerimientos
específicos de soporte de mantenimiento FL2B, detallados en el capítulo 2.
El sistema SPIDER no solo cumple con los requerimientos de soporte de
mantenimiento planteados en las especificaciones del proyecto, sino que
complementariamente incorpora varios utilitarios y programas específicos, a
nivel de sistema operativo. En este contexto, el sistema operativo es la
herramienta que permite ejecutar el monitoreo y el diagnóstico a bajo nivel de
los recursos del sistema, que soportan las aplicaciones del Sistema de Manejo
de Energía, con la finalidad de garantizar la calidad, seguridad y elevado
desempeño.
Las actividades de mantenimiento supervisorio a nivel de sistema operativo,
presentan características complejas, por cuanto en el sistema central
coexisten los sistemas operativos VAX/VMS y ULTRIX. La interpretación
consistente y exacta de la información que se genera, permiten al personal de
mantenimiento: detectar condiciones anormales de funcionamiento de
hardware y software, identificar acciones para resolver dichas condiciones
anormales, determinar estándares de desempeño del sistema y facilitar el
mantenimiento preventivo.
Algunos de los estándares definidos para la evaluación de los resultados
generados en la ejecución de los procedimientos de diagnóstico y monitoreo en
sistema operativo, tienen validez para la configuración actual de hardware y
software del sistema. Los cambios y expansiones que se ejecuten en el futuro
determinarán nuevos valores.
Pag. 6-2
• El alcance de la información que se genera de la ejecución de los diagnósticos
del hardware mediante programas especiales, permite que 8e pueda innovar a
futuro la filosofía de mantenimiento en lo relacionado a repuestos. De esta
manera será posible definir repuestos para los computadores del sistema
central, a nivel de sub-LRUs, tales como: módulos de memoria RAM,
controladores de red, discos duros, controladores de vídeo, etc.
• Con los procedimientos de mantenimiento supervisorio será posible
identificar más del 90% de las fallas que puedan presentarse en el hardware
de los equipos, asi como en el desempeño de los sistemas operativos. Mientras
que con los procedimientos de mantenimiento correctivo, más el uso de la
documentación de referencia, se espera manejar adecuadamente más del 80%
de las fallas del sistema central.
• El presente trabajo de tesis tiene una connotación práctica para el personal
que labora en el CENACE. Sin embargo, la tesis incluye tópicos relacionados
a: filosofía de los sistemas de arquitectura abierta, procesamiento de
información en sistemas de tiempo real y sistemas SCADA, que esperan ser
del interés de estudiantes con formación en Ingeniería Eléctrica y Electrónica.
6.2 RECOMENDACIONES
• Para la ejecución de los procedimientos de mantenimiento (capítulo IV) se
recomienda la lectura de los tópicos detallados en los capítulos 2 y 3. Obviar
la lectura de los mismos, puede crear ciertos conflictos en la correcta
interpretación y ejecución de la tareas de mantenimiento.
Pag. 6-3
El personal qn» tenga a cargo las actividades de mantenimiento con el uso de
utilitarios a nivel de sistema operativo, deben tener conocimientos medios en
el manejo de los sistemas operativos VAX/VMS y ULTRIX, así como conceptos
básicos de redes de área local. Por esta razón la lectura de la documentación
del proyecto asociada con estos tópicos.
Culminado cualquier trabajo de mantenimiento correctivo, se recomienda
monitorear el desempeño del sistema mediante sistema operativo. De esta
manera se asegura, un buen índice de disponibilidad post-mantenimiento de
los equipos.
Una vez terminado un trabajo de mantenimiento correctivo, en los equipos
que tengan configuraciones redundantes, se debe ejecutar un intercambio
operativo que coloque en línea al "equipo reparado" para probar la fiabilidad
en la operación del mismo.
Debido a los continuos trabajos de mantenimiento y desarrollo en el software
del sistema, se recomienda cumplir con el programa de respaldos en cinta,
para disminuir el riesgo de pérdida de la información del sistema, ante la
ocurrencia de eventuales daños.
En el caso de los computadores que ejecutan los sistemas operativos
VAX/VMS Y ULTRIX, se recomienda que los procesos de reinicialización se
los efectúe con las rutinas de apagado controlado mediante software. Una
reinicialización ejecutada con el apagado del equipo, tienen el riesgo de
generar daños irreparables en la información.
Pag. 6-4
• Los procedimientos de restauración de la información de los computadores,
deben reaUzarse sin conexión a red. La información y configuración residente
en las unidades de disco duro (en el caso que exista), puede crear graves
daños en la ejecución del sistema, debido a la redundancia en la configuración
de parámetros.
• Cualquier expansión en el sistema central debe tener asociado un análisis del
incremento de la carga en la red LAN. Tomando en cuenta posible incremento
en el tráfico de red y colisiones en paquetes de información.
• Las tareas de mantenimiento rutinario y preventivo detalladas en el capítulo
4, deben complementarse con actividades adicionales como son: la limpieza
periódica de los equipos y la supervisión de las condiciones ambientales de
temperatura y humedad.
• Los trabajos constantes en el sistema, pueden involucrar cambios en la
configuración de los equipos tanto en el hardware y software. Estos cambios
deben registrarse y actualizarse en la documentación del anexo No. 1 (manual
C.MS/D01).
• Cualquier cambio en los módulos electrónicos debe realizarse haciendo uso de
mantas electrostáticas, que eviten posibles daños en estas unidades. Estos
módulos no deben ser objeto de mantenimiento correctivo alguno, ya que la
documentación disponible no describe las tarjetas a nivel circuital.
Pag. 6-5
BIBLIOGRAFÍA
1. Asea Brown Boveri, Central and Aux. Service System - Circuit Diagram(=C.MS/DOr, . ABB, Vásterás, 1995.
2. Asea Brown Boveri, Central and Aux. Service System - Parameter List(=C.MS/D01). ABB, Vásterás, 1995.
3. Asea Brown Boveri, Central Computer System - Westermo Stall Unit(=C.MS/E01). ABB, Vásterás, s/f.
4. Asea Brown Boveri, Central Computer Svstem - Westermo PF-01 dock Adaoter(=C.MS/EOn. ABB, Vásterás, s/f.
5. Asea Brown Boveri, GREDAS Time Base. ABB, Vásterás, s/f.
6. Asea Brown Boveri, SSC Design Scecifications. Vásterás, 1993.
7. Asea Brown Boveri, Course F14 - Remote Terminal Unit RTU400. ABB,Vásterás, s/f.
8. Cisco Systems Inc., Internetworking Technology Terms and Acronvms. Cisco,U.SA., 1992.
9. Digital Equipment Corporation, VAXstation 5000 model 100 series - HardwareOoerator's Guide (=C.MS/E161 DEC, U.S.A., 1992.
10. Digital Equipment Corporation, MicroVAX 3100 model 80 - Troubleshooting andDiagnostic Information (=C.MS/E03). DEC, U.SA., s/f.
11. Digital Equipment Corporation, VAXstation model 90 - Owner's SvstemInstaUation Guide (=C.MS/E02). DEC, U.S.A., s/f.
12. Digital Equipment Corporation, Analvze /Disk Structure Utilitv Manual. DEC,Massachusetts, 1988.
13. Digital Equipment Corporation, VMS Error Loe Utilitv Manual. DEC,Massachusetts, 1988.
14. Digital Equipment Corporation, Introducción to TCP/IP Services for Open/-VMS.DEC, USA, s/f.
15. Digital Equipment Corporation, Monitor Utilitv Manual. DEC, Massachusetts,1988.
16. Digital Equipment Corporation, VMS Network Control Program Manual. DEC,Massachusetts, 1988.
17. Digital Equipment Corporation, VMS Svstem Manaeer's Manual. DEC,Massachusetts, 1989.
18. Emulex Corporation, EMULEX - Perfomance Series TCP/IP-LAT Protocol andCommand Reference. Emulex,U.S.A., 1991.
19. Emulex Corporation, EMULEX - Perfomance 2501 Ethernet Printer ServerHardware Installation Manual. Emulex, U.S.A., 1991.
20. Emulex Corporation, EMULEX - Perfomance 2500 Ethernet Terminal ServerHardware Installation and Configuration Manual (=C.MS/E07). Emulex, U.S.A.,1991.
21. Grijalva S., Pancho G., Administración de Sistema Operativo - Procedimientosde Diagnóstico. INECEL - CENACE, Quito, 1996.
22. Pancho G., Administración de Sistema Operativo - Estándares del Sistema.INECEL - CENACE, Quito, 1996.
23. INECEL, Concurso privado de precios SSC-01-90. INECEL, Quito, 1991.
24. INECEL, Informe de Resultados de Operación del Sistema Eléctrico del INECELEnero- Diciembre de 1995. INECEL - CENACE, Quito, 1996.
25. Paredes A., Pancho G., Curso de Capacitación en el Área de Hardware. INECEL-CENACE, Quito, 1995.
26. Patrick R. D'Amour and Wayne R. Block.IEEE Computer Aplicationa in Power"Modero User Interface Revolutionizes Supervisorv Svstem". U.S.A., 1994.
27. Sheldom Tom, Lan Times - Enciclopedia de Redes, España 1995.
ANEXO I
EQUIPAMIENTO DEL SISTEMA CENTRAL
1.1 DIAGRAMA DE CONFIGURACIÓN DEL SISTEMA CENTRAL
EnuilexP250B
Pag. Al-2
TBI FKA KBB
Monitor
,VRT319
rmtoM Rían?
4000 modelo 90
RAM:80Mb
DBCWANRoulrr
150EmuleíP2BOB
Modera
Pag. A1-3 Pag. Al-5
EmulesP 2501
Pag. A1-4
LAN Trandceiver
Pág.Al-1
SISTEMA DECOMPUTACIÓN
PRINCIPAL
DECatation 5000/133
Controladorda Teclado
DECetation 6000/133
AlarmaAudible Controlador
de Teclado
MicroVAX 3100modelo 60
( VT420 J
TecladoAlfan umé rico
i TecladoI T- • 1; r unción al
MANTENIMIENTO DE SOFTWARE Y PROGRAMACIÓN
.1. •._!_.Teclado
AlfanuméricoTeclado
Funcional
VTÍ20 VT420 VT420 f VT420 )
Unidad deCopiado
Pag. A1-2
Computador Frontal A(FE200)
Unidad de comunicaciónDSCS 160
Unidad de comunicaciónDSCS 151
Unidad de comunicaciónDSCS 151
Unidad de comunicaciónDSCS 151
ADAPTADOR DE PULSOS
SISTEMA DE COMPUTACIÓNPRINCIPAL
M 1 | M
Lazo f 1 Lazo «2
M | | M_
Lazo (31 Lazop2
Computador Frontal B(FE200)
Unidad de comunicaciónDSCS 150
Unidad de comunicaciónDSCS 151
Unidad de comunicaciónDSCS 151
Unidad de comunicaciónDSCS 151
FES | = Front End Switch
~M 1 =Módem
Pag. A1-3
SISTEMA DECOMPUTACIÓN
PRINCIPAL
/ V D U \ color ¡
Pag. Al-4
SISTEMA DECOMPUTACIÓN
PRINCIPAL
Módem
DECWanRouter 150
L
f l
L;
1 color í I rn\nr 1¡Tj DECetation 5000/133 V / V j
1
r — J •¡ Teclado , Teclado ( \ 'i Alfanumérico ' Funcional ! ' ;
Controlador : i . ;
de Teclado 1
Emulex ]\—/~~~-~~^T | P?,508 ^~~~~~^^_
i ___ LA 424 ^
VN
Pag. Al-5
1.2 LISTADO DE REPUESTOS: LRUs Y SUB-LRUs
Repuesto DESCRIPCIÓN
Iru
Sistema de Computación
VAXstation 400 model 90 including:
• 80 Mbyte of primary memory
• SCSI controller
• VR319, full graphic BAV screen
• LK401 alphanumeric keyboard
• LAN interface on mother board
• PMAD, turbo channel LAN interface
• TLZ06, DAT station 4 Mbyte capacity
• RZ26, 1.05 Gbyte disk
• Thickwire Ethernet cables
• 1 RZ58 disk, storage capacity of 1.38 Gbyte, in expansiónbox
Iru Server Emulex Perfomance 2508
Iru DW29 Ethernet adapter
Sub-lru:
FE basic unit including:
• 1 DSRF 170, frame
• 1 DSPC 171N, processor board
• 1 DSSR 122, regulator unit
• 1 DSSB 146, battery backup unit• 1 DSMB 175, memory board
• 1 DSCA 114, asynchronous communication board
• 2 DSTC 120, connection unit
• 1 DSTK 176, cable
• 1 DSBC 170, bus termination board
• 1 DSCS 150, synchronous communication board
• 1 DSTC 190, connection unit
• 1 DSTK 126, cable
Pag. Al-6
Iru
Iru
Iru
Iru
Sub-lru:
Iru
Iru
Iru
Iru
Sistema interfaz hombre-máquína
WS 400 full graphic display generator including:
• DECstation 5000/133
• 32 Mbyte primary memory
• SCSI controller
. 1 RZ25, 426 Mbyte disks
• 1 RZ26L, 1.05 Gbyte disk
• 2 monitor connectors
• 1 DEC mouse
• VRT 19" color monitor with high resolution tube
• 1 MA-12, short haul modem
Parallel server Emulex Perfomance 2501
Shinko CHC-445 Thermo printer
LA424 matrix printer
LG06 maintenance kit including:
• Hammer bank
• Tractors
• Processor board (controller)
• Control panel
• Motor ribbon DR.ASSY.
• Motor ribbon HUB KIT
• Motor ribbon ASSY.LEFT
• Motor ribbon ASSY.RIGHT
DTIH 1031, functional keyboard module
DTIH 1070, keyboard controller
LK401, alphanumeric keyboard
Sistema de mantenimiento
Micro VAX 3100 model 80 including:
• 48 Mbyte of primary memory
• SCSI controller
• DEC 423 channel interface
Pag. Al-7
Iru
• 2 Expansión box for MicroVAX 3100 model 80 including:
RZ58 disk storage capacity of 1.038 Gbyte
TLZ06 DAT station of 4 Gbyte capacity
VT420, text terminal
Sistema de tiempo base
Clock and base time unit spares, including:
Sub-lru: . 1 CPOS99, CPU board
1 UREL148, output board
1 4x8 output board
1 DOC99, front panel
1 PSP99, power supply
1 F200R, frequency measuring board with quartzoscillator
Pag. Al-8
1 É i !
s i 1 J í BE ¡
B
fií
s . * • fe
11 fjlj ijii
c*
H "
y E
J B c
1 i i ]
5 t j i t t í
VH
20 C
ONSO
LÉ T
ERM
INAL
S C C S E GET-
LJP
DIR
EC
TOR
Y C
OftU
N IC
AI I
DN
S S
ET
-UP
ÍDB
AL
DIS
PLA
Y
GEN
ERAL
C
CfW
P
RlN
TER
KE
YBO
ARD
TA
B T
RA
NS
MIT
IDO
RE
CE I
VE
-TR
AN
SM
IT
LE
*OIS
PL
AY
C
IEA
RC
OW
RE
SE
T S
E S
S IO
N
REC
ALL
SAVE
XO
FF
AT
64
6 B
ITS
, N
O P
AR
ITY
1
STO
P B
IT
NO
LO
CAL
EC
HO
ET
UP
-EN
aiS
H
SP
AN
ISH
KEY
BOAR
O
OEF
AULT
D
ATA
LE
AO
S O
Nl Y
O
ISC
OW
EC
T,
2 S
OE
LAY
L
IHIT
EO
TR
AN
SH
IT
HAB
LE
SE
SS
ION
S
OlS
AB
LE
SE
SS
IDN
S
EX
IT
SCR
EEN
AL
ION
N
O A
UTO
A
NS
ICR
BA
CK
A
NS
^RB
AC
K-
NOT
CO
NC
EALE
Q
HO
DE
HH
Iffl
SP
EE
L>
IWO
RÍ
MO
DEH
IO
W S
PEEO
> IG
NORE
IOB
AL
SE
T-U
P
PR
lNT
ER
SE
T-U
P
ON L
INE
S1=C
OW
1 CR
T SA
VER
CO
mi-D
EC
423
70HZ
PR
lNTE
R S
HARE
O
SPEE
D-W
OO
NO
PRl
NTER
TO
HOS
TN
OR
HAt
P
RIN
T HO
OE
MÍF
F
8 B
ITS
. N
O P
AR
ITY
1
STO
P
BIT
PR
INT F
UI
PAG
C
PR
INT
NA
TIO
NA
L O
H. Y
N
O T
ER
MIN
ATO
R
OIS
PLA
Y
SE
T-U
P
80
CO
LUW
S
INTE
RP
RE
T C
ON
TRO
LS
KEYB
OAR
D S
ET-
UP
NO
AJT
O V
ftAP
S
HD
OTH
-2 S
CR
CU
D
ABK
SC
REE
M
CURS
OR
ftO
CK
CU
RSO
R S
TYLE
N
O S
TATU
S D
ISP
LAY
T
VP
ER
UW
ER
K
EY
S
CA
PS
LO
CK
CURS
OR B
l IN
K
6«2ü
PAC
ES
24 t
IN
ES
AC
RE
EN
AU
TO R
EPEA
T K
EY
U IC
K H
IGH
H
AR
GIN
BELL
Off
WR
NIN
CiB
ElL
H
IQH
VE
RTI
CA
L C
OU
PtlN
G
PAG
£ CD
UPL
ING
N
OA
UT
OR
ES
IZE
SC
REE
N
CH
ARAC
TER H
fflE
(»
D
ELE
Tt
LOC
A
COM
PUSE
IG
NORE
A
LT
F1=
HO
LO
Í2-
PR
INT
F3
- S
ET
-UP
.<
AN
O .
> K
ErS
O
KE
Y 'K
EY
F;-
SE
SSIO
N F5
- BR
EAK
CÍN
ER
Al
SE
T-U
P
V U M Ll
r w
4»h.
fc*t
a
HO
O H
DOE .
7B
IT C
ON
TR
ttS
TAB
SE
T-U
P
SER
DEF
IN
EO K
EY
S U
M.O
CKE
D
USE
R
FEAT
UR
ES U
NLO
CKE
O
8-B
IT
CH
ARAC
TER
S
MR
IC
KE
YA
D
NO
Rrt*
CU
RSO
R K
EYS
N
O N
EW L
IN
E
CLE
AR
ALL
TA
BS
>SS
DIC
S
UP
PU
KIN
TA
L
VT
Í20
ID
S
ET
8 C
DIU
W T
AB
S
•CN
A
VA
ILA
BLE
U
POAT
E
-P
M
*\i
PA
RA
UT
ER
L
IST
L . I I J
S
IS
AK
SO
N
"^fíLii-n i
u.
VH
70
CD
N^n
i E
)™*1 •1
*M"ht,™
1"
VIS
¿U
LW
ÍUIL
A
SAN
DST
RO
M
INEC
EL .
EC
UAD
OR
[Wf*
a.n«
*«
.
M*i...-. i ^ -i.»
i "•
*"•*
irt" *
•*,
T- —
AS
AB
B N
etw
ork
Con
trol U
K $2
3t
I«M
L 16
54.1
201
1KSE
60
11-6
55
*•*
Ü«l
TÍO
A B - C 0
1 I 1 ? í 1 1
i 1 I
11
1
B
-\* i!-t
l*i*
s i
»0
|íf.
ilts
É1!*
Mi*
se
"? C
1
1 í $ | 1 í
í E I I
í \.
NA
* :
SERV
ER 1
TYPE
:
Em
ite*
Per
form
ance
2S0
8
NOOE
NA
* :
SNET
37
NOQE
NR
: 27
.337
NODE
ADC
RESS
:
00-0
0- c 9
- 01-
8a-
b3
DEVI
CE
(VK
20)
IVT4
?0)
PRIN
TER
.1(N
OT
USED
) (N
OI
USED
)
CH
ARAC
IER
SIZE
8
8 8
FLO
UC
ON
TRa
: XO
N
XON
XO
NPA
RI1Y
:
NONE
NO
NE
NONE
STOP
BIT
S :
, DY
NAM
IC
QYNA
MIC
DY
NAM
IC
ACCE
SS
: LO
CAL
LOCA
L RE
MOTE
BREA
K:
NONE
NO
NE
LOCA
lBR
OAOC
AST
: EN
ABLE
EN
ABL E
0
ISAB
LED
FORU
ARHS
SUI
TCH
NO
NE
NONE
NO
NED
EFAU
1 PR
OTOC
OL
NONE
NO
NE
NONE
OEÜI
CATE
O SE
RVIC
E:
NONE
NO
NE
NONE
AUTH
ORI
7EDW
OUP
S 0
0 0
(CUR
RENT
) (R
OUP
S :
0
0
0
"
INPU
I SP
EEO
: 96
00
9600
96
00OU
TPUT
SP
EED
: 96
00
9600
96
00M
ODE
MCC
NTRa
:
DIS
ABIE
D
DIS
ABIE
D
OIS
MU
D
LOCA
L SU
I1CH
:
NONE
NO
NE
NONE
NAM
I :
POR
T.1
POR
T.?
PORT
.3S
ES
SIO
NLI
MIT
:
4 4
4TY
PE
: AN
SÍ
ANSÍ
SO
FTCO
PY
ENAB
LEO
AUTO
PROM
T .
AUTO
PROM
T .
INPU
T FL
OU
CHAR
ACTE
RIST
ICS
; IN
PUT
FLO
W
INPU
T FI
OW
C
ON
TRa,
PRIN
TER
.3
8 XON
NONE
DYNA
MIC
REMO
TELO
CAL
D1SA
BIEO
NTM:
NONE
NONC
0 0 9600
9600
DIS
ABIE
D
NONE
PG
RU
SOFT
COPY
tNPU
T FI
OW
CONT
ROL.
CONT
ROL
. CO
NTRt
t .
OUI
PUT
FLOU
O
UIPU
T FL
OU
LOCK
. LO
CK.
CO
NTR
a.C
ON
TRa.
LIN
E-PR
INTE
R PR
INTE
R.
(NO
T US
EDí
8 8
XON
XON
NONE
NO
NEDY
NAM
IC
DYNA
MIC
REMÓ
TE
REf
fiTE
IOCA
L LO
CAL
OIS
ABLE
O
DISA
BLED
NONE
NO
NENO
NE
NONE
NUNE
NO
NE
0
00
0
9600
96
0096
00
9600
DIS
ABIE
D
OIS
ABIE
D
NONE
NO
NEPO
RT.S
PO
RT.
6
SOFT
COPY
SO
FTCO
PY
INPU
T FI
QV
INPU
T FL
QW
CONT
ROL
, CO
NTRt
t .OU
TPUT
FL
DU
OUTP
UT
FLOU
CONT
ROL
, CO
NTRt
t .1
OSS
L
OSS
VE
R IF
ICAT
ION .
VER
IF IC
AT IO
N .
VE
R IF
ICAI
ION .
M
ISSA
GES
NOT
IF IC
AT IO
N .
NOT
IF IC
AT IO
N .
LOSS
LO
SS
LOSS
CO
OES
ttSSA
GE
COTE
S,
rtSSA
GE
CODE
S.
NOT I
F (C
ATIÓ
N.
NOT I
F IC
AT IO
N .
NOT
IF IC
ATIO
N.
AUTO
BAUD
OUTP
UT F
LOW
OU
TPUT
FIO
W
AUTO
PRO
MT.
AUTO
PRO
MT .
AlIT
O P
ROM
T,
VERF
IF IC
AT IO
N,
CONI
RQl .
CO
NTRO
L .
OCO
LOGO
UT O
EIAY
DC
O lO
GQUT
OEI
AY
KD
LOG
OUT
DEtA
Y tO
SSVE
R IF
ICAT
ION
. VF
R IF
ICAT
ION .
_r
MC
L . 1
DSE
RVER
1E M
U EX
P25
08„
M
fe.1
.1»
*tH
»"• *
•*
1 2
1 3
S IS
AKSO
N
ASAN
OS"R
CMIx
tnlc
d fif
dnin
AS
1
NOT
IF IC
AT IO
N .
AUTO
PRO
MT ,
DCDI
OG
OUT
D
flAV
PAR
ArtT
ER 1
IST
INEC
íl .
ECUA
DOR
AB
B
Net
wor
k C
on
tro
l uV
'"" 9
7 íT
4 |
5
TCP.
CONV
TRTÍ
R PR
INTE
R.5
(NO
T US
EO)
ÍNO
T US
EO)
8 8
NONE
X'T
NNO
NE
NUNE
DYNA
MIC
OY
NAM
tC
LOCA
t RE
MOTE
LOCA
t IO
CAL
ENAB
UO
EN
ABLE
ONO
NE
NONE
NONE
NO
NE
NONE
NO
NE
0
00
0
9600
96
0096
00
%00
ENAB
LE
ENAB
LE
NONE
NO
NEPO
RT.
7 PO
RT.8
4 4
SOFT
COPY
SO
FTCO
PY
AUTO
PROH
T .
AUTO
PROH
T .
LOSS
IN
PUT
FLO
WN
OTI
FIC
A) IO
N,
CONT
ROL.
VE
RIF
ICA
RO
N,
LOC
K,H
ESSA
ffS C
OOES
LO
SSIN
PUT
FIO
W
NOT
IF IC
AT IO
N .
CO
NIR
tt rtS
SAH
CO
TES.
AUTO
CONN
ECT
OUTP
UT F
IOW
OUTP
UT
FtD
U
CONT
ROL.
CONT
ROL
VER
IF IC
AT IO
N.
(U, M
IMil
L 16
54
1201
""
Tío
1KSE
60
11-6
55
%I
6
A — B C - D
1
I i i S I 1 i
i I 1
11 I
B».
!¡í
8IS
- a k l^lvi i
je*~
íl!|l
56
ÍÍ
¡i Í!
" 5
S - C
1 I 1 í 1 z t E
í i I 1
S.P
I O
.E R
. N
AK
: SE
RVER
2
TYPE
;
Em
ilex
Per
form
ance
250
8
NODE
HA
* .
SNET
38NO
DE N
R :
27
338
NODE
ADD
RESS
00
-00-
c9-0
1-8a
-bS
DEV
ICE
< VT4
20)
( VT4
20)
PR IN
TER
.2I N
OT
USED
) (N
OT
USEO
)
CHAR
ACTE
R SI
ZE
: 8
8 8
FLOU
CO
NTRa
.
XO
N
XO
N X
ON
PA
RIT
Y
: '
NO
NE
NO
NE
NO
NE
STOP
BIT
S :
DYNA
MIC
DYNA
MIC
OY
NAM
IC
ACCE
SS
: LO
CAL
LOCA
L RE
MIT
EBR
EAK;
NO
NE
NONE
LO
CAI
BROA
OCAS
T :
ENAB
LE
ENAB
LE
0 IS
ABLE
DFO
RUAR
OS S
UITC
H .
NO
NE
NONE
NO
NEO
EFA
LJU
P
RO
TX
OL
: NO
NE
NO
NE
N
ON
E
DEDI
CATE
D SE
RVIC
E :
NONE
NO
NE
NONE
..AU
THQ
RIZE
DCflO
UPS
: 0
0
0
(CUR
REN!
) (S
OUPS
0
0 0
INPU
T SP
EEO
: 96
00
9600
96
00OU
TPUT
SPE
ED
: 96
00
9600
96
00MD
CEM
CO
NTRa
.
DIS
AfllE
D
OIS
ABLE
D O
ISAB
LED
LOCA
L SU
ITCH
NO
NE
NONE
NO
NENA
Kt
: PC
RT.
1 PO
RT_2
PO
RT.3
SESS
IDN
LIM
IT
: A
A 4
TYPE
;
ANSÍ
AN
SÍ
SOFT
CDPY
ENAB
LEO
AUTO
PROM
T ,
AÜTO
PROM
T ,
INPI
JT
FLOU
I
PRIN
TER-
4
8 XON
NL>C
OYNA
MIC
REMO
TELO
CAi
D IS
ABLE
DNO
N£NO
NE
NONE
0 0 9600
9600
OIS
ABLE
O
NONE
PORT
.4; SO
FTCO
PY
INPU
T FL
OUC
HA
RA
CT
ER
IST
ICS
.
INP
LIT
F
LGW
IN
PU
T
FLQ
U
CO
NT
Ra
, C
ON
TR
OL,
CDNT
Ra .
CO
NTRa
,
OJTP
UT F
LOU
OUTP
UT F
LOV
LOCK
. LO
CK.
CO
NTR
a,
CO
NTR
a.
i
PR ÍN
TER
. PR
ÍNTE
R.(N
OT
USEO
) (N
OT
USEO
)
8 6
XON
' XO
NNO
NE
NONE
DYNA
MIC
DY
NAMI
C
REMÓ
TE
REKJ
TELO
CAL
LOCA
LDI
SABL
ED
OIS
ABLE
DNO
NE
NONE
NONE
NO
NE
NONE
NO
NE
0 0
0 0
9600
96
0096
00
9600
OISA
BLED
OI
SABL
EO
NONE
NO
NEPO
RT.5
PO
RT .6
A 4
SOFT
COPY
SO
FTCD
PY
INPU
T FL
OW
IHPU
T FL
OU
CDNT
Ra ,
CO
NTRa
.OU
TPUT
FLO
U OU
TPUT
FLO
UCO
NTRO
L ,
CONT
Ra .
LOSS
LO
SS
VER
IF IC
AT IO
N ,
VER
IF IC
AT IO
N .
LOSS
LO
SSNO
T IF
ICAT
ION
, NO
T IF
ICAT
ION .
LOSS
LOSS
NOT
\t IC
AT I
ON
. NO
T IF
ICAT
ION
.rtS
SAG
E CO
DES
, ht
SSAG
E CO
GES
. NO
T IF
ICAT
ION
. NO
T IF
ICAT
ION
, VE
R IF
ICAT
ION .
VER
IF IC
AT IO
N .
OUTP
UT F
IDU
OU
TFUT
FLO
W
AUTO
PRO
MT,
AUTO
PRO
MT,
CO
NTR
a.
CO
NTR
a,
DCD
LCO
UT D
ELAY
DC
O LO
COJT
DEL
AYVE
R IF
ICAT
ION
, VE
R IF
ICAT
ION,
íimctf «
¿»
M
-r
MCL
. 1 1 J
StKV
lK i
1 AS
BU
ILT
HS
95
17
EMJL
EX P
2508
fe M
I—
»
«M
'» %
-
S IS
AKSO
N
A
SA
NO
STR
ÜM
AS
PAR
AIfT
ER L
IST
INEC
EL .
ECU
ADOR
AB
B
Net
wor
k C
ontr
ol L
K"°
* 9"
sT
, i
. „
TCP.
CONV
ERTE
R PR
INTE
R.5
8 e
XON
XON
NONE
NO
NE
OYNA
MIC
OY
NAM
IC
LOCA
L RE
MOTE
LOCA
L LO
CAL
ENAB
LE
ENAf
iLENO
NE
NONE
NONE
HO
NE
NONE
HO
NEIP
ADO
R 28
.0.1
239
TCP
PORT
NA
tf NO
NETC
P PO
RT N
O 30
030
00
0
9600
96
0096
00
9600
ENAB
LE
DISA
BLE
NONE
HO
NEPO
RT.7
PO
RT.8
4 4
SOFT
COPY
SO
FTCO
PY
AUTO
PROM
T ,
AUTD
PROM
T .
loss
FA
ILOVE
R.NO
T IF
ICAT
ION
. IN
PUT
FLOU
VE
RIF
ICA
! IO
N,
CONT
ROL.
MESS
AGE
COOE
S.
LOCK
.IN
PUT
FLO
U LO
SSC
ON
TRa.
NO
T IF
ICAT
ION
,OU
TPUT
FL
OW
KSSA
CE C
OGES
.CO
NTRa
,
OUTP
UT F
LOU
AUTO
CONN
ECT
CDNT
Ra ,
VE
RIF
ICA
ÍION
.flT
DU
i IT
U I
n W
fli I I
«*"
-**
L 16
54.1
201
""TT
O1K
SE 6
011-
655
, «
T;
I
§ í ? 1 Z i
1 1 1 !
1 i B
i «KM
! m
i 1"
IM
i «ra
tacllo
n,
«t
«•rt
itw
i H
prtn
nito
r* ¡
i)
Mi n
•i!"
níi
t* rtiirn til r
niv
mio
n c
onl
tfoci
wri
M in
n ilric
h,
m-b
c
I i 1 = 1 2 t
1 i 1
íi i
S.P
.I.D
E.R
. N
A*
: SE
RVER
3
TYPE
.
Eiu
lex
Per
forr
ranc
e 25
08
NODE
MAM
;
SNET
39NO
OE N
R :
77.3
39NO
DE A
DORE
SS
: 00
-00-
c9-0
1-B
a-c8
DEVI
CE
( VH
20)
( VT4
?OI
PR IN
TER
.5( N
OT U
SED)
( N
OT U
SED)
CHAR
ACTE
R SI
ZE
• B
8 6
FLOU
CON
TROL
:
XON
XO
N
XGN
PARI
TY
NONE
NO
NE
NONE
STOP
BIT
S :
DYNA
MIC
DY
NAM
IC
DYNA
MIC
ACCE
SS :
LOCA
L LO
CAL
REf
flTE
BREA
K :
NO
NE
NONE
O
ISAB
LEO
BROA
DCAS
T •
LOCA
L LO
CAL
ENAB
LED
FORU
AROS
SW
ITCH
:
NONE
NO
NE
NONE
OEFA
Ul T
PRO
TOCO
L :
NONE
NO
NE
NONE
DEOI
CATE
D SE
RVIC
E NO
NE
NONE
NO
NE
AUTH
ORI
ZEDC
raJP
S :
0
0
0IC
URRE
NTí
GROU
PS
r 0
0 0
INPU
T SP
EED
: 96
00
9600
96
00OU
TPUT
SPE
EO
9600
96
00
9600
MOOE
M CO
NTRa
:
DISA
BLED
DI
SABL
EO
DISA
BLED
LOCA
L SU
ITCH
:
NONE
NO
NE
NQNE
NAT€
:
PDRT
.1
PO
RO
P
OR
OSE
SSIO
NLI
MIT
:
4 4
4TY
PE
: AN
SÍ
ANSÍ
SO
FTCO
PY
ENAB
LED
AUTO
PROM
T .
AUTO
PROM
T .
AUTO
PROM
T ,
CHAR
ACTE
R IS
T IC
S •
INPU
T FL
OW
INPU
T FL
OU
INPU
T FL
OWCO
NTRa
.
CONT
Ra ,
CQNT
Ra .
LOCK
, ID
CK
, LQ
CK,
LOSS
LO
SS
LOSS
I NO
T IF
ICAT
ION .
NOT
IF IC
AT IO
N .
NOT
IF IC
AT 1
0fts
sAff
coas
. rts
sAd
COOE
S, rc
ssAC
t ec
o
PR ÍN
TER
.( N
OT U
SED)
8 XON
NONE
OYNA
MIC
REMO
TENO
NEDI
SABL
EDNO
NENO
NE
NONE
0 0 9600
%00
OISA
BLED
NONE
PORT
.44 SO
FTCO
PY
AUTO
PROH
T ,
PRIN
TER
. PR
ÍNTE
R.
(NO
T US
ED)
(NO
T US
EO)
8 8
XON
XON
NONE
NO
NEOY
NAM
IC
DWAM
IC
REMO
TE
REMO
TENO
NE
NONE
DISA
BLEO
O
ISAB
LED
NONE
NO
NENO
NE
NONE
NONE
NO
NE
0 0
0 0
9600
96
0096
00
9600
DISA
BLED
DI
SABL
ED
NONE
NO
NEPO
RT.5
PO
RT.6
4 4
SOFT
COPY
SO
FTCO
PY
AUTO
PROM
T ,
AUTO
PROM
T ,
INPU
T FI
OW
IN
PUT
FLO
U IN
PUT
FLO
UCO
NTRO
L ,
CONT
Ra .
CO
NTRa
.LO
CK,
LOCK
. LO
CK.
LOSS
LO
SS
LOSS
N ,
NOT
IF IE
AT IO
N .
NOT
IF IC
AT IO
N .
NOT
IF IC
AT IO
N ,
ES,
rtSSA
GE
CODE
S,
MES
SAff
COOE
S.
MES
SACt
COD
ES .
OUTP
UT F
LOU
OUTP
UT F
LOW
OU
TPUT
FL
OU
OUTP
UT
FLOW
CONT
Ra .
CO
NTRa
.
CONT
Ra .
CONT
ROL.
OUTP
UT
FLOW
OU
TPUT
FLO
UCO
NTRa
,
CONT
Rtt .
VfR
IFIC
ATI
ON
, VE
RIF
ICAT
IDN
, VE
R IF
ICAT
ION ,
VER
IF IC
AT IO
N ,
VER
lF IC
ATIO
N.
VER
IF IC
AT IO
N ,
AUTO
BALO
AU
TOBA
IID
AUTC
GAU)
AU
TOBA
UDDC
D LO
GOUT
OEL
AY
DCD
LOGO
UT D
ELAY
OC
D LO
GOUT
DEL
AY
DCD
LOGO
UT D
ELAY
-r
MC
L
.1 D
StH
VtK
J1
A
S M
IIIT
«
95
17
trU
.EX
PftO
Í)ta
Mfb
**
w
r~M
, PA
SCUA
LES
SERV
ER
S IS
AKSO
NM
fi n
^fM
ftt^
if^t
A
SA
NO
STR
OM
T«hnk4
irim
ct
AS
PARA
KTER
L IS
T
INEC
EL .
ECU
ADOR
ABB
Net
wor
k C
ontro
l üK1
""" 9
2 sT
MIM
IC-2
IW
DEM
)(N
OT
USED
) (N
OT
USEO
)
6 B
XON
XON
000
NONE
OYNA
MIC
OYNA
MIC
REMD
TE
REHD
TENO
NE
NONE
OISA
BLED
LO
CAL
NONE
NO
NENO
NE
NONE
NONE
ND
NE
0 0
0 0
1200
96
0012
00
9600
DISA
BLED
DI
SA3L
EO
NONE
ND
NEPO
RT-7
P
OR
O4
4SO
FTCO
PY
SOFT
COPY
AUTO
PROM
T ,
AUTO
PROM
T,IN
PUT
FLOW
IN
PUT
FLO
UCO
NTRa
,
CONT
Ra .
LXK
, IO
CK ,
LOSS
LO
SSNO
T IF
ICAT
ION
. NO
T IF
ICAT
ION .
htSS
AGE
CODE
S.
«SS
Aff
COOE
S.OU
TPUT
FLO
U OU
TPUT
FL
OUCO
NTRa
.
CONT
Ra .
VER
IF IC
AT IO
N,
VER
IF IC
AT I
ON,
AUTO
BALO
AU
TOBA
LCDC
D LO
GOUT
DEL
AY
DCD
LO1Q
UT D
ELAY
KM
L 1
65
4.1
20
11K
SE 6
01
1-6
55
Mfe
rt
M ftM
l
430
-J=
440
S.P
.I.O
.E.R
. N
AÍf
TYPE
:
NOOE
NAK
:
NOOE
NR
:NO
OE A
DORE
SS •
.
PAPA
U E
l SE
RVER
1
Enu
lex
Per
(orn
ante
2S
01
EMUM
00-0
0-C
9-01
-H
li
TY
PE
:
PO
RTN
Att:
IOA
O:
PRO
ÍPT:
CO
NSt
tE P
ORT
:
SEHV
ER O
PTIO
NS,
PASS
VJDR
O I
IM
tT:
INAC
ERU
Y Ilrt
R:
tOAD
CU
P:
TFTP
CU
P F
ILE
:
ENAB
L*ED
CHAR
ACTE
RIST
ICS:
REW
TE
CENT
RONI
CS
POR
1.9
SEIF
IOAD
SERV
tR
HONE
NONE
3 30 NO
tt
HOHI
HS
SA
ffS C
OOE
AUTO
RE I
NIT
BROA
DCAS
1
IOCK
LOO
IN B
ANNE
R
VI
Tt*
= C
.MS
PAPA
U E
l SE
RVfR
1E
rUE
X P
2501
ISAK
SON
AS
PAR
Atf T
ER t
IST
tHEC
El .
ECU
ADOR
ABB
Net
wor
k C
ontro
l UK
«L 1654.1201
1KSE 6011-655
(SO
íM :sí
lili
a:s
S P
I.
D.E
R,
NA
ff
TYPE
:
NOOE
NAW
:
PAR
AllE
L SE
RVER
2
Err
ulex
Per
lorir
ance
250
1
EH
H2
00-0
0-C
9-01
-13-
C1
TYPE
:
POR
TNAt
t:
tQAT
)
PRO
WT:
CONS
OIE
PORT
:
SERV
ER Q
PTIO
NS:
PASS
VORO
L (
HIT
.
(NAC
ER IT
Y T
lfCR
:
LOAD
OLM
5:
TFTP
DLM
3 F
ltE
:
ENAB
LfdC
HAR
ACTE
RtS
TIC
S:
REMÓ
TE
CENT
RONI
CS
POR
T.9
SflF
lflA
D
SERV
ER
NONE
NONE
3 30 NONE
NONE
(f S
SAGE
S CO
OE
AUTO
RE I
NIT
BROA
DCAS
T
IOCK
IOO
IN B
ANNE
R
=C.M
SPA
RALL
El
SERV
ER
2ta
ilTi «itf
iíwhd
<f¿
v
ASAN
OSI
RflH
U/R
E
PARA
MTE
R L
IST
INEC
El .
ECU
ATOR
ABB
N
etw
ork
Con
trol
UK
i r~
^1— «Hl
92 3',
L 1654.1201
1KSE 6011-655
«o
S.P
.I O
E.R
. N
Aff
TYPE
:
NOOE
N
Art
:NO
DE N
R :
NOOt
AO
ORES
S :
PARA
UEL
SERV
ER 3
Err
ulex
Per
form
ance
250
1
EMD1
3
00-0
0-C
9-O
M3
b8
ACCE
SS:
TY
PE
:
PORT
NAtt
:
LOAD
:
PRO
FPT:
CONS
OLÉ
POHT i
SER
VER
CPT
ION
S:
PA
SS
WK
DU
MIT
:
INAC
ERIT
Y T
lftR
:
IOA
DD
UW
;
TFTP
DJW
1 F
UE
:•4
ENAB
LEDC
HARA
CTFR
ISTI
CS:
REMÓ
TE
CENT
RONI
CS
PORT
.9
SE
IHO
AD
SfRV
ER
NONE
NWC
3 30 mt
mi
WS
SA
ttS C
ODE
AUTO
RE I
NIT
BROA
DCAS
TOU
WID
CKtO
GIN
BAN
NER
id.
=C.M
SP
AR
ALU
l SE
RVER
3EM
JLEX
P2S
01
S tS
AKSO
N
A SA
NOST
RÓH
' H/R
E
PAflA
IfTER
LIS
T
IHEC
El.
ECUA
DOR
AB
B N
etw
ork
Con
trol
« 3T
L 1654.1201
1KSE 6011-655
*éíL
510
•OF.1
1.U
13.1
01•t
f.2
1.U
13
.10
1
PROG
RAH:
STAR
T HD
OEAU
TOST
OP
CU
*Df
F UN
E
DR
OE
RIN
G C
OOC
57
3t
0001-R
C/2
13
13
=C.M
SDSPC 171N
CPU BOARD 1
FRONT
ENO
S IS
AKSD
NPA
RAM
IEH I
ISI
IHE
EE
l. [C
UAOO
R
ABB
Net
wor
k C
ontro
l UK
9234
L 1654.1201
1KSE 6011-655
600
bul 601
m L)
LO
-o-3-sD
xOLiJ•s— LO
I»
OO Z £3i
^~l:v"SsII O L-J '
ID
OJ
*U ui put tiMI M t>VJ
l
»0f
11.U
13 1
09
«OF
.21.
U13
.109
4S6 0
O
o— o
1
SI o
o-o
O
O—
0 531
71
o-
A22
A23
*>
oo-o
o
o o o o c— o ^
o-o
O—
0
0—
0
0—
0
•0
O
0—
0
2
SS 124
2 3
o— o
O
0
S20 1 2 3 4 5 6 7
o o t^->—
oO
— 0
0
O
O—
O
O
o^>
o(V
I(V
H
OM 1 1
2
» o
9
O
3
O 0
S4 0—
0
o o
o o
2
íOR
OCRI
NG C
OK
5736
000
1-KG
/B
175
r e
FRO
JI E
NO
S IS
AKSO
N
A
SA
NO
STR
OM
AS
PARW
tTER
IIS
T
INEC
EL.
ECUW
OR
AB
B N
etw
ork
Con
trol
UK92
L 1654.1201
1KSE 6011-655
60 í
109
559-
1109
3S
>IL i
aav
isi i
sv«K
JM
II J
CfU
HI
H081
SONY
S V
NO
SW
SI
ON3
ÍNO
UJH
03
tWSV
>U
V3S
O
S^V
-100
0 IS
/.S
O
t I
E í
5
9 £
1ÍIo
o
o
o
¿u E
tn n
jo»
a ;
a *
" «
Vi
UM
-3
84
r;¡=
1*1
*1
.1»
* Is
^s**
e¡ »
=M
il •»! l'i
•
•DF
.11
.U1
3.1
21
•OF
.21
1113
.121
5TAR
T HO
CE
0=
AUTO
1-
STO
P
2=
CLEA
R
3-
CFÍ
LI
NE
INIT
NOOE
NO
:OF
11
12
1
DF
.11
.12
1
PA
RA
rtTE
RS
NET
IDE
NTI
TY:
FE 1
NET
IO
EN
TITY
: FE
2
57
LAN
1
58 L
AN
2
NOO
t N
O:
FE
.1
NOOE
N
O:
FE
.2
•01
•02
PRO
TOCD
l LE
NtH
T :
512
KB
55
• 1
(LS
D)
56 -
O
(HS
D)
DF
11.1
21
OF
11.1
21
S1
• 3 («D
I
S?
• 9
(LS
D)
OF
21
121
S
5 •
2
(L
SD
)
Df
.21
121
S6
* O
(H
SD
)
OF
21 1
21
S1 •
3
(H
SD
)
DF
21
121
S2
= A
(LS
D)
OA
TALE
NC
TH:
OF
11.1
21
S
3 •
1
NDT
US
ED
: D
F.1
1.1
21
Si
• O
DA
TALE
NG
TH.
DF
21
12
1
S3
•
1
NOT
US
EQ
i D
F 21.1
21
S4
=
O
DR
OER
ING
CÜ
OE
B75
2 0001-F
Y/5
AS
ttJI
LT
Jfi.
95
17
=C.M
SDS
CS
150
CO
tUN
ICA
TIO
N U
NIT
FRON
T EN
D
S
ISAK
SDN
CM
g*
A
SA
MO
STR
OH
AS
PA
Rttt
TE
R L
IST
INEC
EL .
ECU
ADO
R
AB
B N
etw
ork
Con
trol
ux'
9"
L 1654.1201
1KSE 6011-655
60S
í ie
!fi£
- 2
M -
• * ¿
s
NOT
USED
•DF
.11
U13
.125
-
145
.21
U13
125
- 14
5
ADR
* D
F.1
1 /
DF.
2120
-23
U10
.125
24-7
7 U
10.1
2928
-2B
U
10.1
33
QRDE
RING
COD
E57
51 0
001-
KD
/1
ASBU
1LT
=C.M
SDS
CA
151
CO
tUN
ICA
TIO
N U
NIT
FRflN
l EM
J
S IS
AKSO
N
A
SA
ND
STR
OM
AS
PA
RA
rtT
ER I
IS
T
INE
CE
L ,
EC
UW
QR
AB
B
Net
wor
k C
ontr
oIjíV
""1"
gTs
TL
1654.1201
1KSE 6
011-655
606
ru
U)
lnHM*
**e>w
5^í
iír-X
|fX
*la
f
>0000
<t>
1?5-
Oo3
o_
I•JS fN>|
£s
00rn
ONO
i
un
8"
c
$tír
! -Jo
* y
II1
=
B2
o>U~l4>-
O
i11
«~ Ht,
u
OO
-íO*l 's
T
S3J
Í7
í
"*> M D«l litr VHd
:
!
3 5Sí P
a
uj ¡i i
? sf>
S»«t
Cjrt
1
Ío5ü
t* rtIW «11 "flt * Illil MCWWi' wd -1 l"t
liKlaort X »ir« BVI« i.iiMt in>tct uiNr<') teonn*
'
-
r?1 !
~o -*
O^> »0
o of- LM
0 0-0 f * °
O O- > -1 0— <
0 0— 0 0— 0 f O— C
o o-o o o 2 o-O^ 1>K
O 0 Q~*
-* ^ o o o^OO *í C -C
O O £*•<
.sj 0 0 0 g
^ 0 0 0 ^
'"" "
1
~*ooooo
) O
o> o
»
rí1 1
l/>l*J
Ht.
7
»••<
M Cnel i *wr *Mt dM
] .__. .—
fO -»
c cUJ LtJ
Os 00
n co
ANEXO II
DOCUMENTACIÓN SPIDER
2.1 INTRODUCCIÓN
El sistema SPIDER posee una documentación estructurada en dos niveles:a. Nivel de Sistemab. Nivel de Subsistemas
MS Estación maestra (Master Station)SS Sistema de servicios (Service System)RT Sistema remoto ([Remote System)PS Sistema de suministro eléctrico (Power Supply)CO Sistema de comunicaciones (Communication)
2.2 NOMENCLATURA DE LA DOCUMENTACIÓN
La nomenclatura para la identificación de un manual (binder) es la siguiente:= P.SS/Hxx
donde:= P: Denota el tipo del sistema al cual la documentación pertenece. En el caso
del Centro de Control, se utiliza "= C", para denotar el sistema de control.SS: Denota el nivel de subsistema. Por ejemplo "RT" para el sistema remoto.H: Denota el grupo de documentación.xx: Denota el número de manual (binder) dentro del grupo de documentación.
2.3 ESTRUCTURA DE LA DOCUMENTACIÓN
NIVEL DE SISTEMA= C/D Especificación de planta & Equipos (Plant Specification & HW)= C/G Documentación operativa del usuario (User's Doc. Operation)= C/F Mantenimiento (Maintenance)= C/A Descripción (Description)= C/T Pruebas, procedimientos y resultados (Inspection & Test plan)
NIVEL DE SUBSISTEMAEstación Maestra
= C.MS/D Hardware del sistema= C.MS/E Equipos del sistema (Unit HW) [1]= C.MS/H Documentación de actualización (Users documentation
upgrading)= C.MS/B Software EMS & SCADA= C.MS/C Software del sistema sistema
(Descripción de la base de datos en tiempo real/Avanti)= C.MS/VMS Sistema operativo VAX/VMS
Sistema de servicios auxiliares= C.SS/D Documentos de instalación (Installation Doc. HW)= C.SS/E Manuales
Pag. A2-1
Fuente de alimentación= C.SS/D Hardware= C.SS/E Equipos
Sistema remoto= C.RT/D Hardware (por S/E)= C.RT/E Equipos
Sistema de comunicaciones= C.CO/D Hardware= C.CO/E Equipos
2.4 DOCUMENTACIÓN EN MEDIOS DE ALMACENAMIENTOÓPTICO (CD ROM)
2.4.1 Documentación VAX/VMS
En el computador principal B está instalada una unidad de lectura de CD ROMmediante un conector SCSI. El propósito de este dispositivo periférico es presentar enlínea la información de la documentación del sistema operativo VAX/VMS que seencuentra residente en un set de cuatro discos compactos por medio del utilitarioBookreader.
El procedimiento para ingresar a la información es el siguiente:
1. Realizar un ingreso al computador principal bajo la cuenta system.
2. Revisar el nombre lógico asociado a la unidad de lectura: decw$book
$ SH LOG DECWSBOOK*
3. Colocar el disco compacto en la unidad externa. Se debe registrar la etiqueta deldisco compacto.
4. Ejecutar el siguiente comando:
$ MOUNT/SYSTEM SNEM21$DKA400: etiqueta del cd
5. Navegar a través de las siguientes opciones:
SESSION MANAGER
¿APPLICATIONS
IBOOKREADER
iCDROM PROG INFORMATION
¿ONLINE DOCUMENTATION LIBRARY CONTENTS
6. Elegir la opción de disco respectiva.
Para terminar la sesión de lectura o efectuar el cambio de disco compacto, debeefectuarse el siguiente comando:
$ DISMOUNT SNEM21$DKA400
Pag. A2-2
2.4.2 Documentación ULTRLX
En la estación de trabajo No.4 está instalada una unidad de lectura de CD ROM através de un conector SCSI. Mediante este dispositivo periférico se puede presentar enlínea la información de la documentación del sistema operativo ULTRDC que seencuentra residente en un set de dos discos compactos por medio del utilitarioBookreader.
El procedimiento para ingresar a la información es el siguiente:
1. Desde una ventana DECterm, realizar un ingreso como superusuario (root).snem!7> supassword xxxxx#
2. Colocar un disco del set ULTRDÍ Online / Documentation Library en la unidadde lectura externa.
3. Ejecutar el siguiente comando:
# mount -r /dev/rz6c /cdromSe puede verificar el nuevo dispositivo con la ejecución del comando df.
4. Ingresar a través de las siguientes opciones:
SESSION MANAGER
iAPPLICATIONS
4BOOKREADER
Para terminar la sesión de lectura o efectuar el cambio de disco compacto, debeefectuarse el siguiente comando:
# umount /cdrom
Pag. A2-3
ANEXO III
PROCEDIMIENTOS DE DIAGNOSTICO EN SISTEMAOPERATIVO
3.1 INTRODUCCIÓN
El personal del sistema central debe ejecutar en forma continua el monitoreo y eldiagnóstico de los sistemas operativos que soportan las aplicaciones del Sistema deControl, con la finalidad de garantizar la calidad, seguridad y elevado desempeño delsistema.
Los procedimientos de diagnóstico en sistema operativo es un conjunto de rutinasque se ejecutan en forma diaria como parte del mantenimiento rutinario. Lainterpretación consistente y exacta de la información que se genera en el diagnóstico,permite al personal de mantenimiento:
a. Detectar condiciones anormales de funcionamiento de hardware y software.b. Identificar acciones para resolver dichas condiciones anormales.c. Determinar estándares de desempeño del sistema.d. Facilitar el mantenimiento preventivo.
En este anexo se presenta una descripción de la función de diferentes comandos yutilitarios de sistema, los resultados generados al invocar dichos utilitarios y elsignificado de la información generada.
3.2 DIAGNÓSTICOS DE SISTEMA OPERATIVO VAX/VMS
3.2.1 Análisis de Errores en VAX/VMS (Error Log Utility)
3.2.1.1 Descripción
Error Log Utility (ERROR_LOG) es una herramienta de Administración de SistemaOperativo VAX/VMS que reporta en forma selectiva el contenido de uno o variosarchivos de error (error log files). ERROR_LOG soporta la mayoría del hardwarepara VMS, como discos, cintas, CPUs, memorias, y algunos dispositivos decomunicación sincrónica.
El sistema operativo escribe automáticamente mensajes a la última versión delarchivo SYS$ERRORLOG:ERRLOG.SYS, tan pronto como se presentan lossiguientes eventos:a. Errores: errores de dispositivo, timeouts de dispositivos, chequeos de
máquina, errores de bus, errores de memoria, errores de escritura,interrupciones indefinidas de sistema operativo y bugcheks (mensajesasociados a erroes en procesos).
b. Cambios en el estado de volúmenes.c. Eventos del sistema: arranques en frío, arranques en caliente, falla (crash)
del sistema y time stamps (mensajes de presencia del sistema).
Pag. A3-1
3.2.1.2 Comandos para Análisis de Errores
a) $ SHOW ERROR
Objetivo: Presenta el valor del contador acumulativo de errores de los dispositivosdel sistema. VAX/VMS automáticamente registra los errores presentadosen cada uno de los dispositivos y los acumula hasta un nuevo arranquedel sistema operativo. La descripción de los errores de los dispositivos seencuentra en el archivo de error del sistema. Por defecto, SHOW ERRORmuestra únicamente los dispositivos cuyo contador de errores acumuladoes mayor que cero.
Opciones: /FULLLa salida presenta el conteo de errores para todos los dispositivos, inclusoaquellos que tiene un error acumulado nulo.
Ejemplo:
SHOW ERRORDeviceSNEM28$MKA500:SNEM28$RTA1SNEM28$RTA2
Error Count311
Puntos de interés:Interesa monitorear el incremento de los errores en los dispositivos enforma diaria y también mientras/luego de la ejecución de actividadespuntuales en el sistema operativo, como arranques, paradas, obtención derespaldos y realización de procesos de restauración de información. Elnúmero de errores presentados debe compararse con los estándaresfijados. En caso de que el contador no cumpla con los estándares deerrores, se deben tomar acciones para solventar la situación.
b) $ SHOW DEVICE D
Objetivo: Revisa el estado actual de los discos del sistema. El comando permitemostrar el valor del contador de errores de disco, el estado(montado/desmontado) de los discos, y el espacio total, disponible yutilizado del disco.
Opciones: /FULLDespliega información más completa sobre las características y el estadode los discos del sistema, como: proceso propietario del dispositivo,número de cilindros, pistas y sectores, etiqueta, propiedades de lamemoria caché asociada, etc.
Ejemplo:
$ SHOW DEVICE D
Device DeviceÑame StatusSNEM28$DKA200: MountedSNEM28$DKA300: Mounted
Error VolumeCount LabelO WRK2O SYSDSK
Free Trans MntBlocks Count Cnt2608278 1 182806 227 1
Pag. A3-2
Puntos de interés:Interesa en este caso conocer el espacio disponible en el disco. En caso deque este espacio esté saturado por archivos de sistema o de aplicación, ono cumpla los estándares del sistema, se debe proceder a realizarmantenimiento de archivos en el disco correspondiente. Es importanteconocer los estándares de capacidad disponible de disco cuando se van arealizar procedimiento de generación y expansión de la base de datos y dela aplicación, así como cuando se va a dar mantenimiento a archivostemporales, archivos de error o basura del sistema operativo.También es importante asegurar que el estado de los discos (DeviceStatus), se encuentra en su estado normal. Por ejemplo: unidades de discomontadas y unidades de lectura óptica en estado Online.
c) $ ANALIZE/ERROR/SINCE- "fecha"
Objetivo: Se utiliza para analizar el contenido del archivo de errores del sistema.Se despliega información detallada de los mensajes de error presentadosen el sistema operativo, que se encuentran en el archivoSYS$ERRORLOG:ERRLOG.SYS.
Opciones: /BEFORE=dd-mmm-yyyy:hh:mm [filename]Especifica que únicamente aquellos registros cuya fecha sea anterior a laindicada, se presente en la salida estándar.
/BRIEFGeneral el reporte en un formato resumido.
/ENTRY=(START:##[,END:##])Genera un reporte de error que incluye un rango especificado de registrosdel archivo.
/SlNCE=dd-mmm-yyyy:hh:00En el reporte se presenta únicamente los registros cuyas fechas sonposteriores a la especificada.
Ejemplo: Como ejemplo, se describe la salida de un error de memoria.
$ ANALIZE/ERROR/SINCE=YESTERDAY
ERROR SEQUENCEENTRY 7.*****-LOGGED ON SIDE 03003700
MEMORY ERROR, 6-MAR-1988 10:11:14.70KA730 REV#0. MCI# 55.
CSRO
CSR1
CSR2
00166200
18000000
8100000F
ERROR SÍNDROME = 7FCORRECTED ERROR, BIT #31.ARRAY #1. IN ERROR
MEMORY MAPPING ENABLEENABLE "CRD" REPORTING
MEMORY SIZE - 2048 K64 RAMS PRESENT
Pag. A3-3
Puntos de interés:Es de interés el número de entrada (Data Entry) y el tipo de mensaje quecaracteriza o no la existencia y tipo de error.
3.2.2 Monitoreo del Sistema (Monitor Utility)
3.2.2.1 Descripción
El MONITOR Utility es una herramienta que permite obtener información acercadel desempeño del sistema operativo. Este utilitario monitorea la informaciónasociada a estadísticas del sistema de entrada/salida de datos y estadísticas de laadministración de páginas (512 bytes) de información. Dependiendo del calificadorque se especifique en el comando, MONITOR recolecta la información del sistema entiempo real, o de información almacenada previamente en un archivo.
Existen dos tipos de MONITOR, que contiene datos de diferente categoría:a) System Classes, en el cual los datos proveen estadísticas de la utilización de
recursos de todo el sistema (CLUSTER, DECNET, DLOCK, FCP, FILE_SYSTEM_CACHE, IO, LOCK, MSCP.SERVER, PAGE, POOL, STATES,SYSTEM)
b) Component Classes, en el cual los datos proveen estadísticas de la contribuciónindividual de los componentes al sistema. Estas classes son DISCO, MODOS,PROCESOS, RMS (Record Management Services), SCS (System CommunicationServices)
MONITOR soporta los siguientes calificadores para controlar el tipo de despliegue yformato de salida de información:a) Calificadores estadísticos (/ALL, /AVERAGE, /CURRENT, /MÁXIMUM, /MÍNIMUM)
especificando cuales estadísticas aparecen en el despliegue.b) Calificadores de transformación de datos (/(no)PERCENT) que controla si los
datos son expresados en porcentajes,c) /TOP, es usado con los PROCESSES class para producir barras, acompañando a la
información de salida, en la que se indiquen los procesos que requieren mayoresrecursos del sistema.
MONITOR puede mostrar la información de salida en tres modos diferentes:a) /DISPLAY muestra la información en pantalla, la misma que se actualiza en
intervalos definidos por el calificador /VIEWING_TIME.b) /RECORD produce un archivo donde se graba en forma binaria la información.c) /SUMMARY produce un archivo ASCII, que contiene estadísticas resumidas, para
el intervalo de ejecución del MONITOR. El intervalo de ejecución se define conlos calificadores /BEGINNING y /ENDIING
3.2.2.2 Comandos para el monitoreo del sistema
a) $ MONITOR SYSTEM
Objetivo: Monitorear los parámetros más importantes del sistema, tales como:estadísticas de entrada/salida de información, estadísticas del manejo depáginas y tiempo de procesamiento. Este monitoreo se efectúa aintervalos específicos de tiempo y los resultados son mostrados en undespliegue único.
Pag. A3-4
Ejemplo:
$ MON SYSTEMNode: VAX/VMS Monitor Utility 31-JAN-1996 10:00Statistic: SYSTEM STATISTICS
Process States+ CPU Busy (50) LEF: 7 LEFO: O
HIB: 11 HIBO: OCOM: 4 COMO: OPFW: O Other: 1
+ + MWAIT: OCur Top: A38 (34) Total:23
+ Page Fault Rate (25) + + Free List Size (4655)
CPU + +100
MEMORY + + 100 0 + +I**** I |******* I50Q
+ + + Modified List Size+Cur Top: ASSEM_SYS (11)
+ Direct I/O Rate (15) + + Buffered I/O Rate(0)+
+ -
Cur Top: ASSEM_SYS(10) Cur Top: Cerb (0)
Nota: Los datos deben examinarse por el espacio de por lo menos dos minutos.Para terminar el monitoreo se presiona Crtl/c
Puntos de interés:Total. Corresponde al número total de procesos que ejecuta el sistema.MWAIT. Determina el número de procesos que tienen el estado MWAIT.Una potencial causa para que el desempeño del sistema no sea bueno,ocurre cuando un proceso ingresa el estado MWAIT (micellaneousresource wait), debido a que algún recurso como un page file o swap fileno está disponible. Los procesos que se encuentran en este estado sonbloqueados, en cuyo caso se recomienda incrementar el recursocorrespondie nte.Page Fault Rate. Este parámetro determina el movimiento deinformación hacia los archivos image file o paging file.Free page list. Es una parte de la memoria caché que almacena laspáginas cuyo contenido ha sido modificado.CPU busy. Este parámetro caracteriza el tiempo total que el procesador(CPU), se encuentra ejecutando tareas supervisión, ejecución deinstrucciones VAX, programas y rutinas de servicio a interrupciones.
Los valores registrados, deben contrastarse con los estándares, paradeterminar la existencia o no de alguna anormalidad.
Pag. A3-5
b) $ MONITOR PRO/TOPCPU
Objetivo: Este comando inicializa el monitoreo de los procesos que ocupan la mayorcantidad tiempo del CPU. Los valores se muestran en 8 barrashorizontales y están expresadas en unidades de reloj (10 mseg.) porsegundo.
Ejemplo:
$mon pro/topcpuVAX/VMS Monitor UtilityTOP CPU TIME PROCESSES
on node SNEM285_feb-1996 12:30:43
O 25 50 75 100+
TOP_EXT
I I II I II I I
Puntos de Interés:En cada uno de los computadores del sistema de central, los procesos quecorren son diferentes, y por lo tanto, los procesos que requieren la mayorcantidad de recursos del sistema, están en relación con el computador quese analice. En general es de interés monitorear que no existan procesosdesconocidos (ver estándares) que requieran demasiados recursos delsistema. Si este fuera el caso, el personal de mantenimiento del sistemacentral debe investigar la función qué están ejecutando los mismos, paradeterminar la existencia de algún problema.
c) $ SHOW MEM/FILE
Objetivo: Este comando despliega información acerca del uso de los archivospagefile y swapfile definidos en el sistema.
Ejemplo (snem28):
$ SHOW MEM/FILESystem Memory Resources on 5-FEB-1996 12:22:18
Paging File Usage (pages) Free Reservable TotalDISK$SYSDSK: [SYSO. SYSEXE] SWAPFILE. SYS 38696 38696 38696DISK$SYSDSK: [SYSO . SYSEXE] PAGEFILE. SYS 238507 182762 250000
Puntos de interés:La información que se muestra debe caracterizar la existencia de páginasreservadas, libres y totales tanto para swapfile.sys y pagefile.sys. Estosarchivos son áreas de intercambio de información de procesos.
Pag. A3-6
3.2.3 Análisis del Desempeño de Red (NCP)
3.2.3.1 Descripción
NCP (Network Control Program) es el utilitario del sistema que se usa paraconfigurar y controlar redes DECnet-VAX. Mediante este utilitario, el personal delsistema central, puede monitorear los recursos de la red y diagnosticar suscomponentes.
La base de datos de configuración de la red DECnet-VAX, contiene archivos coninformación de los nodos locales, nodos remotos, líneas físicas, circuitos locales, etc.Cada nodo DECnet de la red tiene una base de datos, con información de suscomponentes y parámetros.
NCP provee una ayuda en línea que contiene información de los comandos NCP,parámetros y calificadores, incluyendo ejemplos de tipo general.
3.2.3.2 Comandos para supervisión de Red
a) NCP > SHOW KNOW LINE COUNTER
Objetivo: Este comando reporta las estadísticas de la actividad de la(s) red(es)asociada(s) al nodo, desde donde se ejecuta.
Ejemplo:
$ MC NCP
NCP > SHO KNOW LINE COUNTER
Line = ISA-0
> 6553441343051022361
O242881043855259979
O3631713
65218805
26930054667114613200886
3
Seconds since last zeroedData blocks receivedMulticast blocks receivedReceive failureBytes receivedMulticast bytes receivedData overrunData blocks sentBlocks sent, múltiple collisionsBlocks sent, single collisionsBlocks sent, initially deferredBytes sentMulticast bytes sentsend failure, includingExcessive collisions
Collisions detect check failureUnrecognized frame destinationSystem buffer unavailableUser buffer unavailable
Pag. A3-7
Line = MXE-0
> 6553423102381751299
O6960693708664690532
O110070550961
2514
139410002246
OO39OO
Seconds since last zeroedData blocks receivedMulticast blocks receivedReceive fallareBytes receivedMulticast bytes receivedData overrunData blocks sentBlocks sent, múltiple collisionsBlocks sent, single collisionsBlocks sent, initially deferredBytes sentMulticast bytes sentsend failure, includingCollisions detect check failureUnrecognized frame destinationSystem buffer unavailableUser buffer unavailable
Puntos de interés:Interesa registrar los valores de colisiones simples, colisiones múltiples;conjuntamente con el número de bloques de datos enviados. Estos valorespermitirán cuantificar el porcentaje de colisiones en las redes en funcióndel número de paquetes enviados. Además de las estadísticas acumuladasde errores en el envío y recepción de paquetes de información: sendfailure y receive failure
3.3 DIAGNÓSTICOS DE SISTEMA OPERATIVO ULTRIX
3.3.1 Análisis de Espacio en Particiones
Comando: # df
Objetivo: Este comando muestra la información del sitio donde se encuentranmontados los sistemas de archivos, el espacio de disco libre y que seencuentra usado. Cuando la información presenta una situación anormal,como por ejemplo poco espacio disponible en el disco, se deben tomaracciones correctivas de mantenimiento de discos y particiones.
Ejemplo:
# df
Filesystemnode
/dev/rzOa/dev/rzOg/dev/rzlg
totalkbytes
742930519
313233
kbytesused
208514817122858
kbytes %free used
460212651159052
31%54%44%
Mounted on
/usr/usr/users
Puntos de interés:El espacio total (total kbytes) es aquel que fue creado con el sistema dearchivos. La suma del espacio usado (kbytes used), el espacio libre (kbytesfree) y el espacio de reserva es igual al espacio total. El valor por defectopara el espacio reservado es 10%.
Pag. A3-8
El registro diario del porcentaje usado (% used) en cada una de lasconsolas permite determinar si existe alguna tendencia anormal,originada por ejemplo, por la generación de dumps del sistema. Losvalores referenciales están especificados en la sección de estándares.
3.3.2 Análisis de Errores (uerf)
Descripción:
uerf (ULTRIX Error Report Formatter) es un utilitario para el análisis de los eventosdel sistema. Estos eventos incluyen mensajes de error relacionados con el hardwaredel sistema y el Kernel, así como información de estado, diagnósticos y arranques,uerf administra los siguientes archivos de datos:
/etc/uerf.bin base de datos de información de eventos/etd/uerf.hlp archivo de ayuda en línea/etc/uerf.err archivo de mensajes de errores
Opciones: -c Selecciona el tipo de evento a mostrarseerr Reporta errores de hardware y software,oper Reporta información acerca del estado del sistema, mensajes de
configuración, estados de dispositivos o mensajes de error, timestamps, mensajes de arranque y parada del sistema.
-D Reporta errores en discos duros.-R La información de errores se muestra en forma cronológica inversa,-r Reporta errores para un código de registro determinado. Los códigos
pueden corresponder a:Errores de hardware:
100 chequeos de máquina101 errores de disco102 errores de cinta106 errores en buses111 consolé timeouts200 pande (bugchecks)
Mensajes Informativos250 mensajes informativos
Mensajes operacionales300 arranques301 shutdown310 time change350 información de diagnósticos
-S Presenta un resumen de eventos-t Selecciona errores en un intervalo de tiempo, por ejemplo:
uerf-t s:dd-mmm-yyyy, h:mm:ss e:dd-mmm-yyyy, h:mm:ss
Comando: # uerf -R | more
Objetivo: Muestra un reporte de todos los eventos, registrados en forma cronológicainversa por páginas.
Pag. A3-9
Ejemplo:
# uerf -R
EVENT CLASSOS EVENT TYPE 301SEQUENCE NUMBER 1OPERATING SYSTEMOCCURRED/LOGGED ONSYSTEM ID
PROCESS TYPEMESSAGE
ENTRY 103
OPERATIONAL EVENTSYSTEM SHUTDOWN
ULTRIX 3.2Sat Mar 27 12:29:36X 8 2 0 3 0 2 3 0 H W REV:X30FW REV:X2KN02-BASystem Shutdown
Puntos de interés:Es importante identificar el tipo del evento reportado (informativo,operacional y de errores). Entre los eventos más comunes e importantesestán: keyboard error, cache parity error, clock error, fixed up unalignedbit y panic. Errores de memoria, en discos y otros dispositivos físicos,requiere de la ejecución de un diagnóstico de hardware.
3.3.3 Análisis de Desempeño de Procesos
a) # ps -aex
Objetivo: El comando ps muestra información instantánea de los procesos queactualmente se encuentran presentes en el sistema.
Opciones: -a Muestra los procesos ejecutados desde todos los terminales deusuarios.
-e Muestra el ambiente además de los argumentos del comando.-x Muestra la información de todos los procesos.
Ejemplo:
# ps -aexPID TT STAT TIME
0 ? D 0 :421 ? I 0:073 ? R 1:50
COMMANDsawpper/etc/init -apagedaemon
donde:PID Número de identificación del proceso.TT Terminal de control del proceso.TIME Tiempo del usuario y del sistema.STAT Estado del proceso.
R proceso ejecutándoseT proceso detenidoP proceso está en page waitD proceso está en disk waitS proceso está sleeping por menos de 20 segundosI proceso está inactivo
Pag. A3-10
W proceso está en swapped outZ proceso eliminado pero todavía no removidoN la prioridad del proceso está reducida< la prioridad del proceso ha sido incrementada
(blanco) el proceso está sin un tratamiento especial
Puntos de interés:Es importante verificar que ningún proceso tenga el estado Z, (blanco) ocualquier combinación complementaria. Si esta situación está presente,debe realizarse un seguimiento de la misma por dos o tres días. Si elproblema persiste, debe precederse a reinicializar la consola.
b) # pstat -s
Objetivo: Este comando interpreta el contenido de ciertas tablas del sistema.
Opciones: -s muestra información asociada al swap space.
Ejemplo:
# pstat -s
265528 swap configured98808k reserved virtual address space
89708k used (15448 test, ok smem)175820 free, 1684 wasted, ok missing
avail: 5493*32k 44*lk
Puntos de interés:Interesa registrar el espacio libre y usado. Estos valores deberánevaluarse en función de los estándares.
3.3.4 Análisis de Memoria, Entrada/Salida y Actividad de Red
a) # vmstat x y
Objetivo: Este comando reporta estadísticas de la actividad de procesos, memoriavirtual y disco. El comando analiza el estado de la memoria cada xsegundos, en y ocasiones.
Ejemplo:
# vmstat 5 10
procs faultsr b w in sy es0 0 0 2 7 8 2 3 2 3 90 0 0 2 4 5 2 3 0 3 6
cpu memory page diskus sy id avm fre re at pi po fr1 4 4 3 2 3 2 k 1184 0 0 0 0 01 3 4 4 0 4 0 k 1170 0 0 0 0 0
deOO
Pag. A3-11
Puntos de interés:cpu
b)
Objetivo:
Ejemplo:
memory
# iostat x y
us Tiempo del usuario para procesos de prioridadnormal.
sy Tiempo del sistema,id Tiempo que el cpu está disponible,avm Promedio de disponibilidad de memoria.
Este comando reporta las estadísticas del flujo de información paraterminales, discos y cpu. En comando obtiene las estadísticas cada xsegundos en y ocasiones.
Para discos, se indica el número de bloques de información (512 bytes) ytransacciones que se manejan por segundo. Para el cpu, se detalla elporcentaje de tiempo que el sistema es ocupado en modo de usuario, enmodo de sistema y el tiempo que se encuentra disponible.
# iostat 10 3
rzObps tps
3 OO 3
48 O
bps2
66O
rzl cputps us ni sy id
O 6 O 3 924 5 O 8 87O 1 O 97
Puntos de interés.- Es de interés registrar el promedio de los siguientes valoresus Tiempo del usuario para procesos de prioridad
normal.ni Tiempo del usuario para procesos de baja prioridadsy Tiempo del sistema,id Tiempo que el cpu está disponible.
c) # netstat -i
Objetivo: Este comando reporta el estado de la red, así como información de suestructura. Se muestra una tabla de estadísticas acumuladas depaquetes de datos transferidos, errores y colisiones.
Opciones: -I InO -sMuestra los valores de los contadores de la interfase Ethernet, para lacapa de enlace de red.
Ejemplo:
# netstat -i
Ñame Mtu NetworkInO 1500 LñTInO 1500 138.221loO 1536 loop
ñddressnonesnemlSlocal host
IpktS74907490
0
lerr000
Opkts66576657
6
Oerr111
Coll96960
Pag. A3-12
Puntos de interés:lerr, Opkts, Oerr, CollEstos parámetros permiten monitorear el porcentaje de colisionesacumuladas en función de los paquetes de datos de entrada y salida.
Notas:• La información que se generan de estos diagnósticos es objeto de posterior
análisis, donde se la compara con valores estándares.• Para ejecutar los diagnósticos de VAX/VMS, el usuario debe realizar un ingreso
local o remoto al sistema bajo la cuenta de system, a cada uno de loscomputadores: SNEM20, SNEM21 y SNEM28. El procedimiento de diagnóstico essimilar para los 3 computadores VAX.
• Para ejecutar los diagnósticos ULTRIX, el usuario debe ingresar en forma remotaa cada una de las 6 estaciones de trabajo del sistema, bajo la cuenta root. En lamedida en que no es posible hacer la conexión directa a root, el usuario debeingresar remotamente como spider, y una vez instalado en el nodo remoto, debehacer el ingreso como root.
3.4 DIAGNÓSTICOS ADICIONALES
El sistema operativo VAX/VMS existen dos utilitarios de información adicionales.Estos utilitarios presentan un carácter complementario a los descritos en lassecciones anteriores, con la diferencia que los resultados no son objeto de evaluaciónmediante estándares.
a) ARCHIVO SREPORT.DAT (VAX/VMS)Cuando se producen acciones tales como: el intercambio operativo entre computadores(switchover), el rechazo/aprobación de una base de datos, la generación de un archivo desincronización o el arranque de equipos se genera un archivo denominado SREPORT . DAT,en el directorio SPI$ERRORLOG, donde se registra información para el análisis de dichoseventos.
b) ARCHIVO OPERATOR.LOG (VAX/VMS)El archivo Operator.log (SYS$MANAGER:OPERATOR.LOG) registra eventos del sistema yrequerimientos del usuario enviados al terminal por el administrador decomunicaciones del operador (OPCOM). Por defecto, OPCOM es inicializado alarranque del sistema. El uso de la información que se muestra en este archivo,permite anticipar y prevenir errores de hardware y software y monitorear losrequerimientos de operaciones en unidades de cintas y discos duros, Operator.logreside en el disco del sistema de cada nodo que ejecuta VMS en el directorio[SYSMGR].
Los siguientes tipos de mensajes son los que se muestran en el archivo Operator.log:
• Inicialización del archivo operator.log.• Reporte de estado de los dispositivos asociados al sistema.• Terminales de operador habilitados y no habilitados.• Operaciones de montaje y desmontaje de volúmenes.• Requerimientos y mensajes generados por usuarios.• Cambios en los parámetros de configuración del sistema.• Mensajes asociados a alarmas de seguridad.
Pag. A3-13
• Mensajes de estado He DECnet-VAX
Inicialización de mensajesCuando se ingresa el comando REPLY/LOG el archivo operator.log actual se cierra ysimultáneamente se crea una nueva versión del mismo que es identificada con elsiguiente mensaje.
%OPCOM, dd-mmm-yyyy hh:mm:ss.ce, logfile initialized by operatoroperator-name logfile is SYS$MANAGER:OPERATOR.LOG
Mensajes de estado de dispositivosAlgunos drivers I/O envían mensajes a OPCOM asociados a cambios en el estado delos dispositivos que ellos controlan. Por ejemplo, cuando una impresora es sacada delínea, un mensaje OPCOM se genera a periodos de tiempo definidos hasta que eldispositivo se encuentre en línea nuevamente.
%OPCOM, dd-mmm-yyyy hh:mm:ss.ce, device-name is offline
Los dispositivos asociados a este tipo de mensajes son impresoras en línea yunidades de cintas.
Mensajes de habilitación/deshabilitación de terminalesSe puede definir a un terminal como terminal de operación, ingresando el comandoREPLY/ENABLED desde el terminal deseado. OPCOM confirma el requerimientogenerando un mensaje en el operator.log
%OPCOM, dd-mmm-yyyy hh:mm:ss.cc, operator enabled, operator terminal-name
Mensajes asociados al montaje/desmontaje de dispositivosRespecto a este tipo de mensajes, se pueden generan una amplia gama de losmismos. El siguiente ejemplo ilustra algunos de ellos:
% % % % % % % % % OPCOM, 15-APR-1996 2 2 : 3 3 : 5 4 . 0 7 % % % % % % % % % % % % % %request 1, from user PUBLICPlease mount volume SYSTEM in device DKA300% % % % % % % % % OPCOM, 15-APR-1996 22:33:55.07 % % % % % % % % % % % % % %request 1 was satisfied% % % % % % % % % OPCOM, 15-APR-1996 2 2 : 3 4 : 2 4 . 1 7 % % % % % % % % % % % % % %message from user SYSTEMVolume "SPIDER " mounted, on physical deviees DKA300:
Mensajes de respuesta y requerimientos de usuariosCuando se generan mensajes en el sistema por la ejecución del comando REQUEST(/REPLY o /TO), estos son registrados por OPCOM. A continuación se ilustra nejemplo de este tipo de mensaje:
%OPCOM, dd-mmm-yyyy hh:mm:ss, request fron user user-name_termínal-name:, "message text"
Mensajes del utilitario SYSGENLos usuarios que tengan el privilegio denominado SYSPRV pueden usar el utilitarioSYSGEN para cambiar parámetros del sistema. OPCOM registra estos cambios conel siguiente formato:
%OPCOM, dd-mmm-yyyy hh:mm:ss.cc, message from user user-name%SYSGEN-I-WRITExxx, system-mode system parameters modified by process IDn into file y
Pag. A3-14
Mensajes de alarmas de seguridadLos mensajes que se registran tienen que ver con la siguiente información:• Ejecución del comando SET AUDIT.• Cambios en el archivo de autorización de usuarios del sistema (SYSUAF, System
User Authorization File).• Intentos fallidos/exitosos de ingreso al sistema bajo una determinada cuenta de
usuario.• Fin de sesiones de conexión al sistema.
Los mensajes tienen el siguiente formato:
%%%%%%%%% OPCOM, 15-APR-1996 22:33:54.07 %%%%%%%%%%%%%%Message fron user AUDIT5SERVER on SPIDERSecurity alarm (SECURITY) and security audit (SECURITY) on LASSIE,system id: 1987Auditable event: Attempted file accessEvent time: 15-APR-1996 22:33:54.07PID: 257628Username: WILSONImage ñame: SPIDER$DKAO: [SYSYO.SYSCOMMON] [SYSYEXE ] DIRECTORY.EXEObject ñame: SPIDER$DKAO: [00000] 00000000.DIR;1Object type: fileAccess requested: READStatus: %SYSTEM-F-NOPRIV, no privilege for attempted operation
3.5 ESTÁNDARES DEL SISTEMA
3.5.1 Introducción
Los diagnósticos de Sistema Operativo, ejecutan diariamente un conjunto de rutinascon objetivos de monitoreo y diagnóstico. La información que se genera tiene que serevaluada en función de estándares predefinidos, de tal manera que se pueda detectarcondiciones anormales en el funcionamiento del hardware y/o software del sistema.
Esta sección presenta en forma objetiva los estándares del sistema, que permitiránevaluar cualitativa y cuantitativamente los resultados de los diagnósticos ymonitoreo del sistema. Los estándares han sido definidos tomando en cuenta lossiguientes aspectos:
• Las estadísticas de la información de los diagnósticos generadas durante untiempo apropiado1 .
• Recomendaciones técnicas asociadas al desempeño y uso de recursos delsistema.
• Requerimientos de expansión y reserva especificados para el sistema.
Algunos de los resultados detallados, tienen validez para la configuración actual dehardware y software, ya que, cambios y expansiones en el sistema determinaránnuevos estándares.
1 Estas estadísticas han sido recogidas y tabuladas por el autor de este trabajo de tesis, por un lapso de2 meses.
Pag. A3-15
3.5.2 Estándares en VAX/VMS
Errores en dispositivos
Los errores en los dispositivos que registran los diagnósticos, pueden clasificarse endos tipos:
a. Dispositivos asociados a conexiones de tipo remoto (TTAx, RTAx, PKAx).b. Dispositivos instalados ¡ocalmente en el equipo (MKAx, DKAx).
Los estándares recomendados para los contadores de errores de estos dos tipos dedispositivos son los siguientes:
• Errores en dispositivos no instalados localmente: menor a 3 errores por día.• Errores en dispositivos instalados localmente: no deben existir errores.
Recursos en disco de los computadores VAX
Los recursos en disco duro de los computadores que ejecutan VAX/VMS, debenasegurar una reserva en términos de bloques libres del 50%. El siguiente cuadroresume, la información que debe registrarse normalmente en términos de: espaciototal disponible en discos, valor del contador de errores y estado:
DKAODKA200DKA300DKA400
SNEM20StatusMounted
Mounted
Error0
0
Free blocks> 1349030
>1034930
SNEM21StatusMounted
Mounted
Online
Error0
0
0
Free blocks> 1349030
> 1034930
SNEM28Status
Mounted
Mounted
Error
0
0
Free blocks
>I 349030
> 1349030
Tabla A3.1: Recursos en disco de los computadores VAX
Los valores tabulados, están en función de los requerimientos de expansión y reservade las especificaciones del sistema. La reserva del 50%, es una cantidad de referenciaen la recepción definitiva del proyecto. A futuro, sin embargo existirá una tendenciaa disminuir paulatinamente el espacio libre en discos, debido a las propias tareas demantenimiento y desarrollo.
Existen tareas asociadas al mantenimiento del sistema, como es el proceso degeneración total de base de datos, para lo cual se requiere una disponibilidad debloques libres (en el snem21) de 680000.
Monitoreo del sistema
El monitoreo de los recursos del sistema en condiciones normales, debe registrar lossiguientes valores promedios:
Pag. A3-16
CPU busypage fault ratefree list sizeprocesos totalesniwait
SNEM20<10%
< 5 %
< 2/3 fondo de escala
92 a 116
0
SNEM21< 10 %
< 5 %
< 2/3 fondo de escala
82 a 120
0
SNEM28<IO%
< 5 %
< 2/3 fondo de escala
21 a 29
0
Tabla A3.2: Estándares de Monitoreo en VAX/VMS
Notas:• Cuando existen base de datos de estudio, el número de procesos que se
ejecutan en el computador principal, alcanza un valor cercano a los 140.• En el proceso de arranque de un computador, el número de procesos aumenta
en forma progresiva, mientras se desarrolla la secuencia. Los valores finales,deben estar en concordancia al cuadro anterior.
• Cuando los valores de desempeño del sistema no se enmarcan dentro de losvalores indicados, no implica necesariamente que exista un problema. Encambio, cuando se produce un problema, es muy importante contrastar estosvalores de desempeño con aquellos que se registran en ese instante.
La identificación de los procesos que ocupan mayor cantidad de tiempo del sistema,es una información complementaria, que puede ayudar a identificar condicionesanormales en el funcionamiento del sistema. Los procesos que se ejecutan en loscomputadores principales, deben ser consistentes con la funcionalidad de losmódulos SPIDER. El siguiente cuadro permite identificar los procesos que seejecutan en los computadores principales.
Módulo
ABCDEGHJKLQsT
Descripción
Base de datos en tiempo realIntercambio de datos con el procesoProcesamiento de eventosInterfaz hombre máquinaReportes de informaciónSupervisión del sistema de controlGeneración y mantenimiento de bddEnlace entre computadoresCálculosPlanificación y control de producciónModelación de redAnálisis de seguridad: flujo de cargaProcesamiento de datos históricos.
Computador
on line. standbyon line. standbyon line. standbyon line. standby(i)onlineon line. standbystandbyon line. standbyonlineon line. standbyon line. standby (2)on line. standby (2)online
Notas:
Tabla A3.3: Estándares de monitoreo de procesos
(1) Se ejecutan procesos asociados al interfaz hombre-máquina en elcomputador stand-by, en el caso que una estación de trabajo establezca unaconexión remota con el computador.(2) Procesos asociados a los módulos L y Q se ejecutan en el computadorstandby, cuando existen base de datos de estudio en el sistema.
Pág.A3-17
• El computador de mantenimiento normalmente registra procesos asociados ala conexión de usuarios al sistema, y/o procesos de generación ymantenimiento de base de datos.
Recursos de los archivos pagefile.sys y swapfile.sys
Los estándares para los archivos pagefile.sys y swapfile.sys, en condiciones normalesdebe registrar los siguientes valores:
swapfílepagefile
SNEM20free21000
2 15000 a 270000
reservable21000
25000 a 110000
SNEM21free21000
225000 a 280000
reservable21000
33000 a l 10000
SNEM28free386%
235000 a 245000
reservable38696
185000 a 210000
Tabla A3.4: Recursos de los archivos pagefile y swapfile
Notas:• Cuando están abiertas bases de datos de estudio, el computador principal
standby puede registrar valores negativos del pagefile - reservable.• El swapfile, es un espacio de memoria virtual que actúa como respaldo del
pagefile, es por eso que normalmente sus valores correspondientes sonconstantes.
Análisis de Desempeño de Red (NCP)
Las estadísticas de la actividad de la(s) red(es) asociada(s) a un nodo, deben registrarlos siguientes estándares:
• Los valores de colisiones simples mas colisiones múltiples, respecto al númerototal de paquetes enviados debe ser menor al 3% .
• El valor de send failure debe ser nulo.• El valor de received failure debe ser nulo.
3.5.3 Estándares en ULTRIX
Uso de las particiones en las estaciones de trabajo
El registro diario del porcentaje usado (% used) en cada una de las consolas permitedeterminar si existe alguna tendencia anormal, originada por ejemplo, por lageneración de dumps del sistema, las que se ubican en el directorio default delproceso. El mantenimiento de archivos debería asegurar que el porcentaje usadopara cada una de las particiones debe mantenerse de acuerdo al siguiente cuadro:
snem!4(wsl)sneml5(ws2)snem!6(ws3)sneml7(ws4)sneml8(ws5)sneml9(ws6)
rzOa>64%
>64%>64%>64%>64%>87%
rzOg>44%
>44%
>44%
>44%
>44%
>52%
rzlg>30%>30%>30%>30%>30%>16%
snem20>63%>63%>63%
>63%
>63%
snem21>59%
>59%>59%
>59%
>59%
Tabla A3.5: Uso de las particiones en las estaciones de trabajo
Pag. A3-18
Notas:• El porcentaje de uso de las consolas wsl a ws5 deben tener como referencia a
los valores indicados en la tabla anterior. Sin embargo, si los valores que seregistran difieren, no se considerará como una condición anormal hasta que elporcentaje de uso exceda el 90% (95% se considera un valor crítico). El valormáximo de uso de las particiones es aproximadamente del 115%.
• Los valores asociados a la consola de Pascuales, son ligeramente diferentes sitomamos en cuenta el computador tiene residente los programas delWANrouter 150.
Análisis de desempeño de procesos: Estadísticas del swap space
Para la ejecución de los procesos, es necesario o que exista espacio disponible en elswap space. En condiciones normales, el espacio libre debe ser de 2a 3 veces mayorque el espacio usado. Las consolas del CENACE tienen una configuración de swapspace de 349942 bloques, mientras que la consola remota de Pascuales tiene un valorde 274942 bloques.
Estadísticas del uso de Memoria
Los estándares asociados a la actividad de memoria virtual y cpu, son los siguientes:
• Disponibilidad del CPU (id): mayor al 70%.• Porcentaje de utilización del sistema (sy): menor al 10%.• Porcentaje de utilización de usuarios (us): menor al 20%.• Porcentaje de utilización de la memora (avm): menor al 50%.
Cuando los valores no se enmarcan en los rangos indicados, no implicanecesariamente que exista un problema. En cambio, cuando se produce un problemaen el sistema, es muy importante contrastar estos valores referenciales.
Estadísticas de Entrada/Salida de información
Las estadísticas del flujo de información para el cpu, en términos del porcentaje detiempo que es ocupado en modo de usuario, en modo de sistema y el tiempo que seencuentra disponible, deben encontrarse en los siguientes valores:
• Tiempo del usuario para procesos de prioridad normal (us): menor al 15%.• Tiempo del usuario para procesos de baja prioridad (ni):menor al 15%.• Tiempo del sistema (sy): menor al 15%.• Tiempo que el cpu está disponible (id): mayor al 70%.
Cuando los valores no se enmarcan en los rangos indicados, no implicanecesariamente que exista un problema. En cambio, cuando se produce un problemaen el sistema, es muy importante contrastar los valores de las estadísticas deentrada/salida de información.
Estadísticas de la actividad de la red
Las estadísticas acumuladas de paquetes de datos transferidos, errores y colisiones,deben encontrarse en los siguientes valores.
Pag. A3-19
ANEXO TV
PROCEDIMIENTOS DE RESPALDO Y REPOSICIÓN DEINFORMACIÓN
4.1 PROCEDIMIENTOS DE RESPALDOS DE INFORMACIÓN
4.1.1 Procedimientos en VAX/VMS
Las cintas que son utilizadas en los respaldos de información que se ejecutan enVAX/VMS, requieren de una inicialización, con la ejecución de los siguientes pasos:
1. Realizar un ingreso al computador principal, bajo la cuenta de systern. Paraingresar localmente al equipo, es necesario que no existan ventanas queestablezcan una conexión remota con dicho computador. Para visualizar siexisten usuarios conectados a este nodo se ejecuta el comando:
$ sh users/full
2. Colocar la cinta en la unidad externa y ejecutar los siguientes comandos:
$ ALLOCATE MKA500$ INITIALIZE MKA500: XXXX
donde XXXX: STABAC cinta de arranqueSYSTEM cinta - respaldo del sistema operativoSPIDER cinta - respaldo del disco SPIDER
Respaldo de información en un computador principal
a. Respaldo del disco.del sistema VAX/VMS (System disk).
1. Realizar un ingreso (en caso de ser necesario) bajo la cuenta de system y detenerel sistema SPIDER, mediante la siguiente secuencia de comandos:
$ set h Ousername: spiderpassword:stopexit
2. Ejecutar un ingreso bajo la cuenta de system y ejecutar la secuencia de apagadocontrolado del computador (shutdown).
SPIO > set h Ousername systempassword$ shutdown
En algunos casos, el sistema realiza varias preguntas al usuario, que debenconfirmarse con los valores predefinidos en el sistema (default valúes).
Pag. A4-1
El proceso de apagado controlado (shutdown) se concluye pulsando el botón deparada (halt), ubicado en la parte frontal del computador principal.
3. Arrancar el sistema operativo VAX/VMS.
>» B/EOOOOOOO DKA300:
DKA3 O O: Mnemónico de la unidad del sistema operativo VAX/VMS.
4. Colocar la cinta (inicializada) en la unidad de cinta externa y ejecutar elsiguiente comando:
$BACKUP/IMAGE/VERIFY DKA30Q: MKA500:SYSTEM.BCK/REWIND/LABEL=SYSTEM
El proceso de obtensión del respaldo incluye normalmente mensajes, que indicanque no se han copiado algunos archivos (PAGEFILE.SYS y SWAPFILE.SYS). Elprocedimiento de respaldo termina con un proceso de verificación de archivos yrebobinaje de la cinta.
5. Terminado el proceso de respaldo, se presiona el botón de halt y se arranca elsistema (»> BOOT)
6. Arrancar el grupo de programas SPIDER.
$ set h Ouserñame spiderpasswordstartexit
7. En el menú de la ventana "Session Manager", elegir la opción End Session. paraterminar con la sesión de trabajo.
b. Respaldo del disco con los programas S.P.I.D.E.R.
1. Realizar un ingreso bajo la cuenta de system y detener el sistema SPIDER, conla ejecución de la siguiente secuencia de comandos:
$ set h Ousername: spiderpassword:stopexit
2. Colocar la cinta apropiada en la unidad de cinta y realizar nuevamente uningreso bajo la cuenta de system.
SPIO > set h Ousername: systernpassword: vasteras
3. Ejecutar los siguientes comandos:
$ SET DEF DKAO: <INECEL.SPICOMMON.SPIMGR>@ SPIBACKUP
Pag. A4-2
Media to be backed up: DKAO:Target inedia MKA500: MKA500:
4. Arrancar el grupo de programas SPIDER.
$ set h Ousername spiderpassword spiderstartexit
5. En el menú de la ventana "Session Manager", elegir la opción End Seasion. paraterminar con la sesión de trabajo.
Respaldo de información en el computador de mantenimiento
El respaldo de la información del computador de mantenimiento, debe ejecutarselocalmente mediante el siguiente procedimiento:
1. Verificar que no existan terminales y ventanas de aplicación conectadas al nodo28, con la ejecución del siguiente comando:
$show user/full
2. Realizar un ingreso al computador de mantenimiento bajo la cuentaDE_MANAGER.
3. Detener la base de datos.
set h OUsername oraclePassword$ mdbestop
4. Realizar un ingreso bajo la cuenta system y ejecutar un apagado controlado delcomputador.
set h OUsername systemPassword$ shutdown
El apagado controlado (shutdown) concluye pulsando el botón de parada (halt),ubicado en la parte posterior del computador.
5. Arrancar el sistema operativo VAX/VMS.
>» B / E O O O O O O O DKA300: (DKA200)
6. Colocar la cinta en la unidad externa y ejecutar el siguiente comando:
$BACKUP/IMAGE/VERIFY DKA300: MKA500:SYSTEM.BCK/REWIND/LABEL=SYSTEM
7. Terminado el proceso de respaldo, se presiona el botón de halt y se arranca elsistema (>» BOOT).
Pag. A4-3
8. Arrancar la base de datos.
$ set h Ousername oraclepassword oraclemdbestartexit
4.1.2 Procedimientos en ULTRIX
Respaldo de información de una estación de trabajo
El respaldo de información se ejecuta con el siguiente procedimiento:
1. Cerrar la aplicación WS400, mediante la opción File^Quit, en la esquinasuperior izquierda de la ventana del sistema.
2. Cerrar la ventna Session Manager y en la nueva pantalla ingresar al sistemabajo la cuenta de root:
Mediante el menú de "Aplicaciones", abrir una ventana DECterm (acontinuación, aparece el prompt#).
3. Registrar la siguiente información de configuración de la estación de trabajo, lamisma que deberá tomarse en cuenta en un procedimiento de restauración deinformación.
Particiones de los discos:
# chpt -q /dev/rrzOc
partition bottom
partición del disco O
top size
abcdefgh
# chpt -q
partition
abcdef
06000000004600000
/dev/rrzlc
bottom
01000000
g 300000h 0
59999459999205085900020508590
partición
top
992999998325260008325260
60000400000205086000015908600
del disco 1
size
100299900832527000532527o
overlap
c, d,e, f , hca , b , d , e , f , g , ha , c , e , f , ha, c, d, f , ha, c, d, e, hca,c ,d,e , f
overlap
c, d,e, f , hca , b , d , e , f , g , ha , c , e , f , ha, c, d, f, ha, c ,d,e, hca, c, d, e, f
Pag. A4-4
Información d?1 *ipo de disco:
# file /dev/rrzOc disco del sistema {RZ26}# file /dev/rrzlc disco de la aplicación (RZ25)
El archivo /etc/disktab contiene la información del tipo de disco, número desectores y pistas (tracks). Para salir del archivo se presiona simultanemaente lasteclas Ctlr/C.
# more /etc/disktab
RZ26;
rz26 | rz26 | DEC RZ26%rWinchester:\ns#57:nt#14:nc#257 O: \\\\\\\\\:
ty: tipo de discons: # sectores/pistant: # tracks/cüindronc: # cilindros/discop[a h] tamaño de la partición en sectoresb[a h] tamaño de los bloques de partición en bytesf[a h] tamaño de los fragmentos de partición en bytes
Ubicación e identificación de las particiones:
# df
Filesystem Mounted on
/dev/rzOa //dev/rzOg /usr/dev/rzlg /usr/users/snem20/host_link/inecel /spider/host/snem20/ineO/snem21/host_link/inecel /spider/host/snem21/ineO
4. Ejecutar un apagado controlado del equipo (shutdown).
# shutdown -h now
5. Arrancar el sistema en modo de usuario simple.
» boot 3/rzO/vmunix
Pag. A4-5
6. Colocar cinta para datos en la unidad respectiva y realizar el respaldo deldirectorio raíz (/) montado sobre /dev/rzOa. Este proceso toma hasta 10 minutos.
# mt rew# dump Of /dev/nrmtOh /
7. Realizar el respaldo del directorio /usr montado sobre /dev/rzOg. Este procesotoma aproximadamente 30 minutos.
# dump Of /dev/nrmtOh /usr
8. Realizar el respaldo del directorio /users montado sobre /dev/rzlg. Esteproceso toma aproximadamente 5 minutos.
# dump Of /dev/nrmtOh /usr/users
La etiqueta de la cinta debe registrar el orden de ejecución del respaldo. Enesta misma secuencia se debería efectuar un procedimiento de restauración.
9. Visualizar el contenido del respaldo
# mt rew rebobina la cinta# restore -t muestra el contenido del ler. respaldo.# mt fsf 1 coloca la cinta al final del ler. respaldo.# restore -t muestra el contenido del 2do. respaldo.# mt fsf 2 coloca la cinta al final del 2do. respaldo.# restore -t muestra el contenido del Ser. backup.
10. Arrancar la estación de trabajo con la ejecución del comando: # reboot
4.2 PROCEDIMIENTOS DE RESTAURACIÓN DE INFORMACIÓN
4.2.1 Procedimientos en VAX/VMS
Restauración de la información en un computador principal
La reposición de la información en un computador principal, se realiza localmente en elequipo, con la ejecución del siguiente procedimiento:
a. Reposición de la información del sistema operativo VAX/VMS (system disk)
1. Realizar un ingreso al computador bajo la cuenta de system.
2. Cerrar todas las ventanas que se encuentren conectadas al computador desdecualquiera de las consolas o terminales de programación. Para visualizar losusuarios y procesos conectados a este nodo se ejecuta el comando: sh users/f ull
3. Detener el sistema SPIDER, con la ejecución de la siguiente secuencia decomandos:
$ set h Ousername: spiderpassword:
Pag. A4-6
stopexit
4. Realizar un ingreso al computador bajo la cuenta de system, para ejecutar unapagado controlado del equipo.
SPIO > set h O$ username: system$ password:$ shutdown
La parada concluye concluye pulsando el botón de parada (halt), ubicado en launidad del sistema.
5. Colocar la cinta de arranque del sistema operativo VAX/VMS (STABACKIT) enla estación de cinta y ejecutar el siguiente comando:
»> BOOT MKA500
6. Colocar la cinta que contiene el respaldo más reciente y ejecutar:
$BACKUP/IMAGE/VERIFY MKA500:SYSTEM.BCK/REWIND/LABEL=SYSTEM DKA300:
donde: MKA500 Mnemónico de la unidad de cinta externa.DKA300 Mnemónico del disco del sistema.
Este proceso tiene una duración aproximada de 40 minutos.
7. Arrancar el sistema operativo con la ejecución del siguiente comando.
» boot
8. Arrancar el sistema SPIDER, con la ejecución de la siguiente secuencia decomandos:
$ set h Ousername: spiderpassword:startexit
b. Reposición de la información del disco SPIDER
1. Realizar un ingreso al computador bajo la cuenta de system
2. Detener el sistema SPIDER, con la ejecución de la siguiente secuencia decomandos:
$ set h Ousername: spiderpassword:stopexit
3. Colocar la cinta que tiene el respaldo mas reciente y ejecutar la siguientesecuencia de comandos:
Pag. A4-7
$ MOUNT/FOREIGN MKA500:$ DISMOUNT DKAO:$ MOUNT/FOREIGN DKAO:$ SET DEF DKAO: < INECEL.SPICOMMON.SPIMGR >$ 0SPIRESTORE
Dispositivo destino: DKAODispositivo origen: MKA500
Si el procedimiento SPIRESTORE no se encuentra residente en el disco, seejecuta el siguiente comando:
$BACKUP/IMAGE/VERIFY MKA500:SPIDER.BCK/REWIND/LABEL=SPIDER -DKAO:<000000>
Este procedimiento tiene una duración aproximada de Ih 10 minutos.
4. Arrancar el sistema operativo: » boot
5. Arrancar el sistema SPIDER
$ set h Ousername: spiderpassword:startexit
Restauración de la información del computador de mantenimiento
1. Realizar un ingreso al computador bajo la cuenta de systern.
2. Cerrar todas las ventanas que se encuentren conectadas al computador desdecualquiera de las consolas o terminales de programación. Para visualizar losusuarios y procesos conectados a este nodo se ejecuta el comando: sh users/full
3. Detener la base de datos.
$ set h Ousername oraclepasswordmdbestartexit
4. Realizar un ingreso al computador bajo la cuenta de system, para ejecutar unapagado controlado del equipo.
SPIO > set h O$ username: system$ password:$ shutdown
La parada concluye concluye pulsando el botón de parada (halt), ubicado en laparte posterior de la unidad.
5. Colocar la cinta de arranque del sistema operativo VAX/VMS (STABACKIT) enla estación de cinta y ejecutar el siguiente comando:
>» BOOT MKA500
Pag. A4-8
6. Colocar la cinta que contiene el respaldo más reciente y ejecutar:
$BACKUP/IMAGE/VERIFY MKA500:SYSTEM.BCK/REWIND/LABEL=SYSTEM DKA300:
($BACKUP/IMAGE/VERIFY MKA500:PROGRAM.BCK/REWIND/LABEL=PROGRAM DKA300:}
donde: MKA500 Mnemónico de la unidad de cinta externa.DKA300 Mnemónico del disco del sistema.
7. Arrancar el sistema operativo con el comando: » boot
8. Arrancar la base de datos.
$ set h Ousername oraclepasswordmdbestartexit
4.2.2 Procedimientos en ULTRIX
Reposición de la información de respaldo de una estación de trabajo
La reposición de la información en una estación de trabajo se ejecuta localmente en elequipo, instalando previamente la unidad de cinta externa TLZ06 en el terminal SCSIde equipo y con la ejecución del siguiente procedimiento:
1. Cerrar la aplicación WS400, mediante la opción File^Quit de la esquinasuperior izquierda.
2. Cerrar el Session Manager y realizar un ingreso como root (superuser) alsistema:
login rootpassword
Mediante el menú de "Aplicaciones", abrir una ventana DECterm. Acontinuación, aparece el prompt #.
3. Ejecutar una parada controlada del sistema:
# shutdown -h now
4. Colocar en la unidad de cinta externa, la cinta de etiqueta "ULX V4.3A Runtirne"y ejecutar los siguientes comandos:
» boot 3/tz5
Mientras se ejecuta el arranque, el led verde de la unidad de cinta, se presentailuminado en forma intermitente.
Pag. A4-9
Nota: El arranque también es posible realizarlo desde la unidad de lecturaóptica externa. Para ello se coloca el disco compacto que tiene la etiqueta:ULTRIX and UWS V4.3A / SUPP UNSUPP (RISC) / Includes BOOTUPGRADE y se ejecuta el comando:
» boot 3/rz6
Escoger la opción 3 de siguiente menú:
1) BASIC Installation2) ADVANCED Installation3) System management
5. Crear algunos dispositivos para que el sistema los reconozca.
# cd /dev# MAKEDEV rzO# MAKEDEV rzl# MAKEDEV tz5
# MAKEDEV rz6 (únicamente para el snem 17)
donde: rzO es el disco del sistema operativorzl es el disco de la aplicacióntz5 es la unidad de cinta externa.rz6 es la unidad de lectura óptica.
6. Chequear las particiones del disco y compararlas con aquellas registradaspreviamente en el proceso de backup.
# cd /etc# chpt -q /dev/rrzOc Particiones del disco rzO# chpt -q /dev/rrzlc Particiones del disco rzl
Las particiones deben ser consistentes, caso contrario se debe ajustar losparámetros respectivos para cada una de las particiones:
# chpt -v -pac B S /dev/rrzOc (ó rrzlc)
donde px: es la partición a modificar (pa,pb,pc ... ph)B: es el valor inferior de la partición (bottom)s: es el tamaño de la partición (size)
7. Crear un nuevo sistema de archivos para el directorio raíz (/):
# mkfs /dev/rrzOa 60000 57 14
60000 es el tamaño de la partición pa del disco rrzOa (RZ26), 57 es el número desectores (ns) y 14 el número de pistas (nt) respectivamente.
8. Verificar la creación del sistema de archivos para el directorio raíz.
# /etc/fsck /dev/rrzOa
Pag. A4-10
9. Colocar en la unidad de cinta externa, la unidad de cinta que contiene elrerpaldo de información más actualizado y realizar la reposición de lainformación del directorio raíz con la ejecución de la siguiente secuencia decomandos:
# /etc/mount -v /dev/rzOa /mnt# mt rew# cd /mnt# pwd# restore -vr# cd /# /etc/umount /dev/rzQa# /etc/fsck /dev/rrzOa
10. Especificar que la partición del disco rzOa debe encontrarse en una área dearranque del sistema operativo (bootblock).
# dd if=bootblks of=/dev/rzOa conv=sync# sync# sync# /etc/halt
11. Realizar la reposición de las particiones restantes con la ejecución de la siguientesecuencia de comandos:
» boot 3/rzO/vmunix
# /etc/newfs /dev/rrzOg rz26 reposición de /usr# /etc/fsck /dev/rrzOg# /etc/mount -v /dev/rzOg /usr# cd /usr# mt rew# mt fsf 1# restore -vr
# /etc/newfs /dev/rrzlg rz25 reposición de /usr/users# /etc/fsck /dev/rrzlg# /etc/mount -v /dev/rzlg /usr/users# cd /usr/users.# mt rew# mt fsf 2# restore -vr1
12. Arrancar el sistema.
# reboot
Si la consola no arranca, verificar los parámetros de la variable boot del sistema,con la ejecución del siguiente comando:
» printenvboot = 3/rzO/vmunix -a
En el caso que sea necesario, para reajustar cualquier de los parámetros seutiliza el comando setenv.
» setenv boot "3/rzO/vmunix -a"
1 Asea Brown Boveri, Svstem Backup Guidelines f=C.MS/D01) . ABB, Vásterás, 1995, v.p.
Pag. A4-11
ANEXO V
REINICIALIZACIONES DE EQUIPOS
5.1 REINICIALIZACION DE UN COMPUTADOR PRINCIPAL
La reinicializacion de un computador principal debe seguir el siguiente procedimiento:
1. Realizar un ingreso al computador principal, bajo la cuenta de system. Paraingresar localmente, es necesario que no existan ventanas que establezcan unaconexión remota con el computador. Para visualizar a los usuarios conectados aeste nodo se ejecuta el comando:
$ sh users/full
Asegurarse que el computador se encuentre trabajando en el modo de respaldo(standby). Si es necesario, debe ejecutarse el intercambio operativo (switchover).Antes de proceder al siguiente paso debe asegurarse que los archivos desincronización se hayan transferido. La finalización de este proceso puedeverificarse en la lista de eventos del sistema de control, con el mensaje "file synccomplete".
2. Detener los programas del sistema SPIDER, con la ejecución de la siguientesecuencia de comandos:
$ set h Ousername: spiderpassword:stopexit
3. Ejecutar un apagado controlado del computador.
$ shutdown
El shutdown se concluye pulsando el botón de parada "halt", ubicado en la partefrontal del equipo.
4. Apagar la unidad principal, el monitor (VDU) y las unidades de disco en eseorden, y luego encenderlas en orden inverso. A continuación, se ejecutaautomáticamente un diagnóstico inicial del hardware, que concluye presentadola siguiente información:
KA49-A Vn.n [1]8-00-2B-04-03-12 [2]80 MB [3]
[ 4 ]
OK
Pag. A5-1
donde: [1] Versión del firmware del equipo.[2] Dirección Ethernet del equipo.[3] Capacidad de memoria RAM.[4] Barra de estado que se incrementa a medida que se ejecutan
las pruebas de diagnóstico interno. Si estas son exitosas,concluyen con un OK, sino aparecen una relación de errorexistente1.
En caso que no se muestre el símbolo inicial (prompt) >», se debe presionar elbotón de parada (halt).
Si el equipo presenta algún mensaje de error, debe ejecutarse un diagnósticomediante software (anexo No.6).
5. Arrancar el sistema operativo con el comando: » boot
Si el arranque termina con un bloqueo de pantalla al que no responde el teclado,. se debe presionar simultáneamente las teclas CtrVF2. Si por otro lado se
presentan problemas con el ratón, se debe presionar simultáneamente Crtl/F3.
6. En caso de ser necesario, arrancar el sistema SPIDER.
$ set h Ousername: spiderpassword:startexit
Eventualmente puede ocurrir que uno de los computadores principales, presente unproblema intermitente que provoque la inoperabilidad del mismo. En este caso convieneconfigurar al computador de tal manera que se pueda obtener un archivo de registro dedatos (dump) que permita detectar la falla. El proceso de reinicialización debe entoncesser preparado y ejecutado con el siguiente procedimiento:
a. Proceso de preparación:
1. Colocar al computador en modo de consola, mediante un apagado controlado yentonces definir el tipo de acción de recuperación del equipo en el modo 2, con elcomando: >» set halt 3. La acción de recuperación es una respuestaautomática del sistema después que el equipo se enciende o después que elsistema se recupera de una falla de software. La tabla A5.1 detalla lascaracterísticas de esta definición.
Valor delHalt
1
2
3
Acción derestauración
Re arranque
Reinicialización
Bloqueo
Resultado
Después de una falla el sistema arranca nuevamente
El sistema se reinicializa
El sistema se detiene
Tabla A5.1: Valores de la acción de recuperación
1 Digital Equipment Corporation, VAXstation model 90 - Owner's System Installation Guide (=C.MS/E02).ABB, S/F, v.p.
Pag. A5-2
2. En el ambiente del sistema operativo VAX/VMS ingresar al utilitario sysgen (mesysgen) y definir la bandera de grabado del archivo de datos (savedump -current) en 1, mediante los comandos:
> show savedump> set savedump 1> write current> exit
6. Obtención del archivo de registro de datos (dump)
1. Una vez producida una falla, el computador se encuentra en modo de consola,donde se ingresa la siguiente secuencia de comandos:
? 06 HLT INSTPC=xxxx PCL=xxxxxx
>» set halt 2>» e/n:f rO>» e psl>» d pe f f f f f f f f»> d psl 0 4 1 f O O O O»> c
2. Una vez que arranca el sistema operativo y el grupo de programas SPIDER, debetomarse en cuenta que el dump se encuentra en el archivo sysdump opagefile.sys (directorio SYS$SYSTEM), el mismo que debe ser extraído con elutilitario analize/crash a un archivo adicional. En caso de ser necesario, esteúltimo puede grabarse en una cinta externa (backup) para ser enviado alsuministrador del equipo.
5.2 REINICIALIZACION DEL COMPUTADOR DE MANTENIMIENTO
Para reinicializar el computador de mantenimiento se debe seguir el siguienteprocedimiento:
1. Verificar que no existan terminales y ventanas de aplicación conectadas al nodo28. Para visualizar a los usuarios conectados a este nodo se ejecuta el comando:
$ sh users/full
2. Ingresar un ingreso al computador de mantenimiento bajo la cuentaDEJWANAGER.
3. Detener la base de datos.
set h Ousername oraclepassword$ mdbestop
4. Ingresar en la cuenta de system y ejecutar un apagado controlado.
set h Ousername systempassword$ shutdown
Pag. A5-3
La parada controlada (shutdown) concluye pulsando el botón de parada (halt),ubicado en la parte posterior del equipo.
5. Apagar la unidad principal y las unidades de expansión (contienen discos durosy/o unidades de cinta) en ese orden, y encenderlas nuevamente en orden inverso.El sistema ejecuta un diagnóstico automáticamente luego de encendido. Si no sedetecta ninguna falla, se muestra un despliegue similar al siguiente:
KA45-A VI.O [1]
08-00-2B-1A-OB-BB [2]16MB [3 ]
[4]
OK
donde [1] Versión del firmware de la unidad central.[2] Dirección Ethernet.[3] Capacidad de la memoria RAM.[4] Barra de estado que caracteriza la ejecución del
diagnóstico.
Si por el contrario el programa de diagnóstico detecta un error, el sistemamuestra un despliegue similar al siguiente:
KA45-A VI. O08-00-2B-1A-OB-BB16MB
?? 001 9 NI 0114[1]
donde: [1] Indica el tipo de error. Un doble signo de interrogaciónindica un error severo que evita arranque del sistema. Unsólo signo de interrogación indica un error leve, que noevita el arranque del sistema1 .
Si existe un error leve, éste puede ser ignorado, ya que generalmente es de tipotransitorio. Si por el contrario existe un error severo, debe precederse a realizarun diagnóstico del hardware mediante los programas de software disponible(anexo No.6).
6. En caso de ser necesario, arrancar el sistema operativo: » boot
7. Arrancar la base de datos con la ejecución de la siguiente secuencia de comandos:
1 Digital Equipment Corporation, Micro VAX 3100 model 80 - Troubleshooting and DiaenosticInformation (=C.MS/E03). ABB, U.S.A., S/F, v.p.
Pag. A5-4
$ stc h Ooracle
5.3
mdbestart
Ocasionalmente al termino de la secuencia de arranque, es posible que uno omás de los terminales de programación se encuentren inoperables. En este casose debe imgresar al menú de configuración local (tecla F3) y configurar elprotocolo de comunicaciones RS423.
REINICIALIZACION DE UNA ESTACIÓN DE TRABAJO
La reinicialización de una estación debe seguir el siguiente procedimiento:
1. Cerrar la aplicación WS400 mediante la opción File^Quit, de la esquinasuperior izquierda de la ventana del sistema.
2. Cerrar la ventana Session Manager y mediante la nueva pantalla ingresar alsistema bajo la cuenta de root. Mediante el menú de "Aplications", abrir unaventana DECterm. A continuación aparece el prompt #, donde se procede aejecutar un apagado controlado del computador (shutdown).
# shutdown -r now
A continuación se inicia un proceso de reinicialización que tomaaproximadamente 5 minutos, hasta presentar la nueva ventana de ingreso parausuarios.
5.4 REINICIALIZACIÓN DE UN COMPUTADOR FRONTAL
Existen dos procedimientos para reinicializar un computador frontal. El primerprocedimiento es realizar un arranque en frió, inicializando parcialmente la base dedatos, y el otro es apagando el equipo. En la segunda opción se inicializa totalmente labase de datos y debe ser utilizada como un método más seguro de reinicialización. Lasecuencia que se ejecuta es la siguiente:
Se ejecuta un programa de diagnóstico interno de todaslas tarjetas. En esta estapa se encuentran encendidoslos leds HLT de la tarjeta DSPC171 y MERR DSMB175
Tiempo de duración: 2 minutos.
Se carga el programa de operación desde el computadorprincipal en linea.
Tiempo de duración: 5 minutos.
Se carga la base de datos del computador frontal en sumemoria RAM (opción INIT). Luego de este proceso elcomputador se coloca como operable.
Tiempo de duración: 2 minutos.
Pag. A5-5
La otra opción de reinicialización, es mediante la tarjeta de procesamiento DSPC 171,donde se presiona el botón INIT que inicializa al computador frontal según el modoseleccionado por el selector de arranque (auto, stop, clear, off lino). Una acciónequivalente se realiza mediante un cold star desde el despliegue de información delequipo, que se muestra en cada una de las estaciones de trabajo. La secuencia dearranque se relaciona únicamente con la última etapa del diagrama anterior:
Terminada la secuencia de reinicialización mediante cualquiera de los dosprocedimientos, no debe encontrarse encendido ningún led rojo de las tarjetas. Elprograma de supervisión interna provee una función de monitoreo del equipo medianteleds, según se describe en el anexo No. 6.
5.5 REINICIALIZACIÓN DEL E QUIPO DE TIEMPO BASE
Para reinicializar el equipo de tiempo base GREDAS, debe desconectarse/conectarse laseñal que proviene del receptor GPS. La sincronización del equipo con las señales deposicionamiento satelital tomará alrededor de 30 minutos. Sin embargo previamentedeberá registrarse el valor de la desviación de tiempo, para ser ingresadoposteriormente al final del proceso de reinicialización.
5.6 REINICIALIZACIÓN DE UN SERVIDOR DE RED
5.6.1 Reinicialización de un servidor serie
El servidor puede ser reinicializado de dos formas:
a. Inicialización mediante la interrupción del voltaje de alimentación, sin embargo,se recomienda usar una reinicialización mediante software para proveer unapagado controlado del equipo.
b.. Inicialización mediante software. El comando INITILIZE SERVER ejecutadomediante una conexión remota, reinicializa el servidor de una manera controlada,mediante el siguiente procedimiento:
1. Ejecutar un ingreso local o remoto a cualquiera de los computadoresprincipales.
2. Conectarse al servidor serie o paralelo con la ejecución de la siguientesecuencia de comandos:
$MC NCPNCP>CONNECT NODE SNET37/38
J# ACCESSLocal > UsernameLocal > set priviPassword vasteras/systemLocal> Initialize server
Pag. A5-6
5.6.2 Reinicialización de un servidor paralelo
Para reinicializar un servidor paralelo, se suspende el suministro de voltaje alequipo y luego se lo vuelve a energizar. A continuación se ejecuta un autodiagnósticode los módulos de memoria RAM y ROM, controlador de interrupciones y controladorde red. Este servidor no tiene el software que permita efectuar un proceso dereinicialización controlado.
Pag. A5-7
ANEXO VI
PROCEDIMIENTOS DE DIAGNOSTICO Y CHEQUEOSMEDIANTE SOFTWARE
6.1 PROCEDIMIENTOS DE RESPALDOS DE INFORMACIÓN
6.1.1 Procedimientos en VAX/VMS
Diagnósticos de la VAXstation 4000 modelo 90
Para realizar un diagnóstico del hardware, debe haberse efectuado un apagadocontrolado (shutdown) del equipo, de acuerdo al procedimiento de reinicialización1.
Cuando culmina el apagado controlado, el computador se encuentra trabajando en elmodo de consola, donde es controlado por un subsistema de bajo nivel diferente alsistema operativo.
El programa de autodiagnóstico denominado system exerciser reside en la memoriaROM del computador y es una herramienta que diagnostica el estado de los dispositivostanto internos como externos, excepto el controlador de sonido. Para invocar alprograma se ejecutan los siguientes comandos:
>» u>» TEST 100
Si el diagnóstico no detecta problemas en el hardware de la VAXstation, se muestra undespliegue similar al siguiente:
KA49 Vn.n System Test CU 00 00:02:00.03
2 LCSPX
3 DZ
5 MEM
9 NI
10 SCSI
Si por el contrario el diagnóstico detecta alguna falla, se genera un mensaje codificado,como se ilustra a continuación:
1 Los procedimientos de reinicialización se encuentran documentados en el anexo No.5.Pag. A6-1
KA49 Vn.n System Test CU 00 00:02:00.03
2 LCSPX
3 DZ
5 MEM
9 NI
[1] [2]10
[3]SCSI
[4]130
donde: [1][2]
[3]
[4]
[5]
[6]
[5]0166 O 00:01:06
Indicación de la existencia de error.Número del componente.Mnemónico del componente.Identificación del componente que presenta la falla.Código del error.Tiempo transcurrido.
Número de identificación
001002003004010-019020-029030-039040-047100-170
Dispositivo
Tarjeta del sistemaTecladoRatónMonitorControlador gráficoMódulo de comunicacionesAdaptadores del bus de datosTarjetas de memoriaControlador SCSI100-SCSI id O130 SCSI id 3
Tabla A6.1: Número de identificación y definiciones de los dispositivosde un computador principal
Número de error
0030006201661072
Significado
Falla en el conector posterior de red (loopback)Falla en el tecladoTerminación SCSI no reconocidaFalla en el conector posterior de red(loopback o T conector)
Tabla A6.2: Mensajes de error en un computador principal
Pag. A6-2
Númerodel componente
12345678910111213
Mnemónicodel componente
NVRLCSPXorSP3DDZCACHEMEMFPUITSYSNISCSIAUDCOMMTCA
Componente
RAMCoprocesador gráficoControlador serialMemoria cachéMemoriaUnidad de punto flotanteTemporizadorTarjeta principalInterfáz de redControlador SCSIMódulo de sonidoDisp. de comunicacionesControlador de vídeo
Tabla A6.3: Números de componentes y mnemónicos en un computador principal1
En el caso que se registre un error, debe precederse al cambio de computador comounidad. El mensaje debe ser registrado para enviarlo al suministrador junto con elequipo averiado.
Para realizar el diagnóstico de un componente específico, se identifica el mnemónico delcomponente o dispositivo asociado e ingresar la siguiente línea de comando:
>» TEST xx
donde xx: corresponde al mnemónico del componente.
Si la unidad no presenta falla alguna debe precederse a arrancar el sistema operativo yel sistema SPIDER (» boot ).
Diagnósticos mediante software del computador de mantenimiento
Para realizar un diagnóstico mediante programas específicos del computador demantenimiento, debe haberse efectuado previamente un apagado controlado del equipo,de acuerdo al procedimiento de reinicialización (anexo No.5).
Al efectuar el apagado controlado del computador, éste se encuentra trabajando en modode consola, con el control de un subsistema de bajo nivel. El programa deautodiagnóstico denominado system exerciser residente en memoria ROM, se ejecuta eneste modo y permite determinar el estado del hardware de la unidad. Para invocar alprograma se ingresa el comando: >» TEST 100
1 Fuente de las tres tablas: DEC, VAXstation model 90 - Owner's System Installation Guide, pp. 5-3 a5-5.
Pag. A6-3
Si no se detecta falla alguna, se muestra un despliegue como el ilustrado:
[5] [2]KA47 47 VI.O System Test CU
39101214
[3]O 00:01:29
DZ #NI #SCSI #COMM #ASYNC #
[4] [5] [6]
*** SYT DISPLY SUMY (('l'=Y), ('0'=N)) ? [7]
donde: [1]
[2]
[3]
[4]
[5]
[6]
[7]
Versión del firmware del CPU.Entorno de ejecución de diagnósticos.Duración del diagnóstico.Número del dispositivo.Mnemónico del dispositivo.Barra de estado del diagnóstico.Prompt de ingreso de requerimientos.
Si por el contrario el system exeersiser detecta que un dispositivo presenta una falla, semuestra un despliegue similar al que se indica a continuación:
KA47 47 VI.O System Test CU O 00:01:29
39
1012
[1]•??
DZ #NI #SCSI #COMM #
[2]14
[3]ASYNC 40
[4]0305
[5]O 00:01:26
DISPLY SUMY (('l'=Y), ('0'=N)) ?
donde: [ 1 ]
[2]
[3]
[4]
[5]
Reporte de error. El doble signo ?? caracteriza la existenciade un error de hardware que debe ser corregido antes delarranque del sistema. Un ? indica que existe un error desoftware leve, que no es necesario corregirse antes delarranque del sistema.Número del dispositivo.Mnemónico del dispositivo.Mensaje de error.Tiempo transcurrido en el diagnóstico.
Pag. A6-4
Númsro
13456789101214
Mnemónico
NVRDZCACHEMEMFPUITSYSNISCSICOMMAYNC
Componente
RAM no volátilControlador serialMemoria cachéMemoria RAMUnidad de punto flotanteTemporizador internoTarjeta del CPUInterfaz de redControlador SCSIDisp. de comunicacionesDisp. de com. asincrónico.
Fuente: DEC, MicroVAX 3100 model 80 - Troubleshooting and Diagnostic Information.
Tabla A6.4: Números de componentes y mnemonicos del computador de mantenimiento
Si se ha detectado una falla, conviene ejecutar nuevamente el diagnóstico para eldispositivo que presenta el problema, ingresando el siguiente comando:
>» TEST xx
donde xx: corresponde al número o mnemónico del componente respectivo.
Si el diagnóstico no detecta un error se muestra un despliegue como se ilustra:
>» TEST xx
OK
>»
Si por el contrario se detecta una falla, se muestra:
Por ejemplo si xx = 9
>» TEST 9
?? 00184 FAIL
NI 0172
En este caso debe precederse al cambio del computador de mantenimiento como unidadcompleta.
En algunos casos puede ser útil conocer la información de la configuración del hardwarey de los mensajes de error detectados en los diagnósticos más recientes. Para revisaresta información se ejecuta el comando: >» SHOW CONFIG
Pag. A6-5
Si el sistema no registra estadísticas de errores, se muestra:
KA45-A VI .O08-00-2B-16-44-4848MB[1]DEVNBR
1345
678910
12
14
donde:
[2]DEVNAM
NVRDZCACHEMEM
FPUITSYSNISCSI
COMM
ASYNC
[1]
[2]
[3]
[ 4 ]
[5]
[3]INFO
OKOKOKOK8MB = SY=8MB, SO/1=8MB, S2/3=OMB,OKOKOKOKOK3-RZ23L 6-INITROKDSW41/42 1 CHANNEL V3 . 11-47DHW41/2 VI. 5
Número del dispositivo.Mnemónico del dispositivo.Estado del dispositivo.Configuración de memoria.Identificación de SCSI y nombreconectados.
S4/5=OMB [4]
[5]
de los dispositivos
Si el sistema detecta un error, éste responde con un despliegue de configuración similaral que se ilustra a continuación:
KA45-A V I . O08-00-2B-16-44-4816MB
DEVNBR DEVNAM INFO
1345
678910
12
NVRDZCACHEMEM
FPUITSYSNISCSI3-RZ23LCOMM
OKOKOKOK8MB = SY=8MB, SO/1=8MB, S2/3=OMB, S4/5=OMBOKOKOK?? 001 0104 [1]OK
6-INITROK
14DSW41/42 1 CHANNEL V3.11-47ASYNC DHW41/2 VI. 5
donde: [ l ] Es el dispositivo que registra el error.
Si la unidad no presesenta falla alguna debe precederse al arranque del sistemaoperativo y de la base de datos ( »boot).
Pag. A6-6
6.1.2 Procedimientos en ULTRIX
Diagnósticos mediante software de una estación de trabajo.
Para realizar un diagnóstico del hardware, debe haberse efectuado haberse efectuadopreviamente un apagado controlado del equipo de acuerdo al procedimiento dereinicilización (anexo No.5).
Al efecutar el apagado controlado del computador, éste se encuentra trabajando en modode consola, con el control de un subsystema de bajo nivel. El programa de diagnóstico dehardware, se ejecuta en este modo y permite detectar el estado de todos los dispositivos.Para invocar al programa se ingresa el comando: « test. Este diagnóstico tiene unaduración aproximada de quince minutos.
Si el programa no detecta ningún problema de hardware, se muestra el prompt delmodo de consola «, caso contrario se genera un mensaje de error.
A continuación se ilustra con el siguiente ejemplo, la manera de interpretar un mensajede error que ha sido generado por el programa de autodiagnóstico.
[1] [2] [3] [4]?TFL: 3/ni/promisc
donde: [ l ]
[2]
[3]
[ 4 ]
[5]
[6]
[5] [6](903: LANCE-start timeout.) [ KN02-BA ]
Indica la existencia de una falla. Las fallas son susceptiblesde arreglo cuando el mensaje comienza con TFL.Número del slot donde existe la folla.• Si el slot es 0,1,2 el problema se encuentra en el
controlador de video respectivo.Si el número de slot es el 3, existe un problema en latarjeta base del sistema.
Diagnóstico que detecto la falla (ref. Tabla A6.5).Parte del diagnóstico que encontró el problema. Algunosmensajes no tienen esta información.Detalle general del problema.Identidad del módulo con falla.
cache/*.* Falla en la memoria caché.fpu Falla en el coprocesador matemático.mem Falla en la memoria RAM. Se debe asegurar que todos los módulos de memoria
y conectares se encuentren correctamente colocados. Se ejecuta un chequeo dememoria mediante t 3/mem *. En caso de falla se puede mostrar uno de losdos tipos de mensaje:1. ?TLF: 3/mem (PER, cause=0000001C, DBE=004000c, Bank 1, D16-31,d23-
dlG)Bank 1 es el número del slot de memoria que puede tener un valor de O y 1.SIMM caracteriza el módulo de memoria del slot.
2, ?TLF: 3/mem (@ A04000000=55550055, sb 55555555)Este mensaje indica que un módulo de memoria no está realizando uncorrecto proceso de lectura y/o escritura.
mem/*.* La memoria RAM presenta problemas de acceso para lectura/escritura.
Tabla A6.5: Mensajes de error en una estación de trabajo
Pag. A6-7
mise/hall
misc/kbdmisc/mousemÍ8c/pstemp
misc/wbpartni/cllsnni/commonni/crsni/ctrsni/dmalni/dma2ni/intni/int-lbni/m-cstni/promiscni/regsni/setupni/esarni/ext-lbrtc/*.*scc/*.*tlb/**
Existe Calla en el botón de halt o en el programa asociado a la activación delmismo.El teclado, cable o conectores asociados al mismoetán defectuosos.El mouse, cable o conectores asociados al mismo están defectuosos..Existe un inadecuado flujo de aire a través del sistema de tal manera que latemperatura ha superado los 40 grados centígrados.El módulo del CPU o memoria del sistema presenta una falla.Existe una falla en el controlador de red Ethernet.
Existe una inconsistencia en el chip de dirección Ethernet.Los conectores o terminaciones de red presentan falla.Existe una falla en el manejo de las interrupciones del sistema.Falla en el controlador SCSI de la unidad.Falla en el CPU del equipo.
Fuente: DEC, DECstalion 5000 model 100 series - Hardware Operator's Guide
Tabla A6.5: Mensajes de error en una estación de trabajo (cont.)
En caso de detectarse una falla severa en el equipo, debe precederse al cambio delequipo como unidad. Si la unidad no presenta falla debe precederse al arranque delsistema operativo y del programa de aplicación (»boot).
6.2 FUNCIONES DE DIAGNOSTICO EN UN COMPUTADORFRONTAL
6.2.1 Funciones de autodiagnóstico
Esta sección especifica los procedimientos que deben seguirse para detectar fallas en loscomputadores frontales, a fin de detectar fallas de hardware en las tarjetas electrónicasque lo conforman. El software incorporado internamente en un computador frontaldispone de las siguientes funciones de autodiagnóstico que son activadas al arranque delequipo:
a. Diagnóstico de los módulos de memoria RAM y ROM. En caso de falla en algúnmódulo de memoria, el programa de ejecución del computador frontal se detiene.
Supervisión del bus de direcciones. La ejecución del programa de diagnósticodetermina si más de una tarjeta responde a una misma dirección o no. En casode falla en la definición de direcciones a nivel de tarjetas, el computador frontalaborta su programa de operación.
Supervisión del programa de ejecución, la supervisión es desarrollada en dosniveles:
Pag. A6-8
Alto nivel: un temporizador de control de procesos y tareas se ejecuta almenos cada 100 ms.Bajo nivel: El programa en el más bajo nivel de prioridad es ejecutado almenos cada 15 minutos.
6.2.2 Mensajes del sistema de computadores frontales (System Messages)
Cuando el software SPEDER detecta una inconsistencia en el funcionamiento de uncomputador frontal, se generan mensajes de diagnóstico denominados system messages.Los system messages que se generan pueden clasificarse en tres categorías:
• Categoría O: mensaje considerado como una ayuda para localizar una ralla.
• Categoría 1: mensaje generado cuando ha existido un problema serio en elcomputador frontal, pero que sin embargo continúa su funcionamiento esperandouna inicialización.
• Categoría 2: mensaje generado asociado a un rearranque automático delcomputador frontal. La falla por ejemplo puede ser, el aborte del programa decomunicaciones con el computador principal.
Los mensajes del sistema pueden imprimirse mediante una solicitud desde el desplieguede información del computador frontal respectivo. La información se imprime en unaimpresora matricial del sistema central (LP3), sin que esta salida de impresora seareasignable. No es posible solicitar una impresión dos veces, por tanto se debe verificarcuidadosamente, que la impresora respectiva se encuentre operativa.
Una vez efectuada la impresión, los manuales C.MS/E21 y C.MS/E22 contienen ladescripción de los system messages del sistema de computadores frontales FE200.
6.2.3 Funciones de diagnóstico
Cuando ocurre una falla en uno de los computadores frontales, debe precederse analizarlos registros de eventos del sistema SPIDER, la información de los system messages y elestado de los leds ubicados localmente en el equipo.
Las tarjetas del computador frontal, están provistas de leds que caracterizan el estadode las funciones que se ejecutan y son de utilidad para localizar fallas. En general estosdiodos emisores de luz (leds) tienen el siguiente significado:
LED verde encendido ® estado normalLED amarillo encendido ® señal activaLED rojo encendido ® condición anormal
La tabla A6.6 presenta un resumen con el significado de los leds para cada una de lastarjetas del computador frontal.
Pag. A6-9
Tarjeta I^edJdisplay Significado
DSPC171 PBC amarillo. CPU en comunicación mediante el bus PBC.HLT rojo. CPU detenido al recibir dos interrupcionessucesivas a causa de errores.RUN verde. Indica que el CPU ejecuta su programa internoen forma normal.TO amarillo. (Time Out) Un periférico direccionado no harespondido en el tiempo predeterminado.P- Sistema en modo de ejecución o el CPU ejecuta lasfunciones de monitoreo interno luego de un arranque.LO El computador está cargando su programa de operacióndesde el computador principal en línea.
DSCA 114 F rojo. Indica una falla en la tarjeta.Y amarillo. Indica el ingreso de datos.O amarillo. Indica la salida de datos.C amarillo. Indica la presencia de la señal de carrier.S amarillo. La señal Clear to send está activa.
DSMB 175 MERR rojo. Indica una folla en la memoria.
DSCS 150 F rojo. Indica una falla en la tarjeta.HLDA amarillo. (Hold acknowledge) Indica que se inició unalectura de información.HLT rojo. Indica que el programa de operación interna en latarjeta se ha detenido.STAL rojo. Indica que un temporizador de supervisión se hadesbordado.A1J31 amarillo. Muestra el tráfico entrada/salida deinformación en red LAN.CONSOL amarillo. Indica que el canal en servicio estáenviando o recibiendo información.
DSCA 151 F rojo. Indica una falla en la tarjeta.Y amarillo. Indica el ingreso de datos.O amarillo. Indica la salida de datos.C amarillo. Indica la presencia de la señal de carrier.S amarillo. La señal Clear to send está activa.
DSBC 170 DC OK verde. Voltaje en el bus de datos correcto.INIT-N rojo. El procesador ha sido inicializadoINHIB-N rojo. El procesador se ha detenido. El led seilumina:• inmediatamente después de energizar el computador
frontal,• cuando se ha presionado el botón INIT de la tarjeta
DSPC171,• cuando el software inicializa un rearranque.
Tabla A6.6: Leds de diagnóstico en un computador frontal
Pag. A6-10
Tarjeta Led/dísp/ov Significado
DSTC1005 DC1 OK verde. Voltaje de alimentación desde el FEAadecuado.DC2 OK verde. Voltaje de alimentación desde el FEBadecuado.FE A MASTER. FE A está en línea.FE B MASTER. FE B está en línea.Adicionalmente los siguientes leds amarillos caracterizan elestado actual de las señales de los módems: TD, RD, RTS,CTS, DTR, DSR, DCD, RI.
Fuente: ABB, Course F90 - Front - End 200 / Fault Tracing Instructions
Tabla A6.6: Leds de diagnóstico en un computador frontal (cont.)
En caso de detectarse una falla en alguna de las tarjetas (led F) debe precederse arealizar el cambio del módulo respectivo, tomado en cuenta los procedimientosdocumentados en la sección 4.3.2.
6.3 FUNCIONES DE DIAGNOSTICO EN EL SISTEMA DE TIEMPOBASE-CREDAS
Un estado de falla en el sistema de referencia de tiempo GREDAS es reportadomediante cinco diodos emisores de luz (leds) que se muestran en el panel frontal, y relésmecánicos que envían una señal de alarma al panel de la sala de control.
Las condiciones de error que reportan estos leds se indican a continuación:
a. VCXO ® error en el oscilador
• La desviación de tiempo entre el sistema GREDAS y el GPS es mayor a dosmüisegundos.
b. LJNE ® error en la línea
• La frecuencia en la linea principal de alimentación es menor a 37.5 HZ o 65.35Hz.
• La alimentación de voltaje al transformador del convertidor frecuencia voltajees menor al 20% del valor nominal (110 Vea).
c. GPS ® error en el receptor GPS
• El LED se encuentra apagado si se recibe un mensaje erróneo desde elreceptor GPS.
• El LED debe encontrarse permanentemente encendido si se recibe un mensajede recuperación de tiempo desde el receptor MX4200 GPS vía pórtico serialRS232C.
• El led se enciende/apaga con una frecuencia de 1 HZ si el mensaje queproviene del GPS está presente en la entrada.
Pag. A6-11
d. VIGILANCIA/SUPERVISIÓN WDOG WATCHDOG
Los módulos internos: CPOS99 y DOC99 que corresponden a la tarjeta de CPU ycontroladora de teclado respectivamente, se encuentran equipadas cada una concircuitos de supervisión propios, para detectar fallas internas.
La animación de los dos leds de supervisión/vigilancia en el panel frontal escontrolada por el programa de supervisión interna. Por esta razón el juego deencendido de los leds OK y WDOG, caracteriza la ejecución de la supervisióninterna de hardware y software.
6.4 FUNCIONES DE DIAGNOSTICO EN LOS SERVIDORES DE RED
6.4.1 Diagnóstico de un servidor serie
Los servidores serie Emulex Perfomance 2508, son equipos que mediante 8 pórticosRS232C conectan a las impresoras matriciales a la red. Para realizar un diagnósticodel equipo, se envía un patrón de caracteres de prueba a los pórticos donde se tienenconectadas las impresoras matriciales, coa el siguiente procedimiento:
1. Ejecutar un ingreso local o remoto a cualquiera de los computadores principales.
2. Conectarse al servidor serie como se indica a continuación:
$MC NCPNCP>CONNECT NODE SNET37/38J# ACCESSLocal > UsernartxeLocal > set priviPassword vasteras/systemLocal> test po x
Donde x es el pórtico del servidor serie, identificado de acuerdo a la tabla A6.7.
IDSERVER
SNET 37
SNET38
SNET 39
Pl P2 P3
LP1
LP2
LP5
P4
LP3
LP4
P5
BP
P6
LÁSER
P7
INPUTPASC.
P8
OUTPUTPASC.
Tabla A6.7: Servicios de los pórticos en los servidores serie
Para terminar la conexión se presiona crti/d
Para recibir el patrón de caracteres, la impresora correspondiente debeencontrarse en línea y disponible a recibir cualquier trabajo de impresión. Encaso que no obtenerse un resultado positivo del diagnóstico, debe precederse alcambio del servidor.
Pag. A6-12
6.4.2 Diagnóstico de un servidor paralelo
Los servidores paralelo Emulex Perfomance 2501, son equipos que mediante 1 pórticoparalelo conectan a las unidades de copiado a la red. Para realizar un diagnósticomediante software, se conecta una impresora al pórtico paralelo a fin de recibir losmensajes de error asociados a las fallas en el hardware del equipo, de acuerdo alsiguiente procedimiento:
1. Conectar una impresora al pórtico paralelo del servidor.
2. Energizar el servidor y esperar aproximadamente 40 segundos hasta queculmine el diagnóstico interno de los dispositivos (lea LAN encendido). Si el ledde alarma se enciende, debe reinicializarse el equipo presionando el botónDEFAULT y energizándolo nuevamente.
3. Una vez terminado el diagnóstico inicial, presionar el botón DEFAULT hastaque se tenga una indicación del envío de datos a la impresora. En la informaciónque se obtiene se puede analizar si existe un error interno en el hardware, queprecise un cambio o no del equipo.
Si la prueba no registra error alguno, los leds del servidor muestran lossiguientes estados:
Alarm LED ApagadoLAN LED IntermitentePower LED Encendido
Pag. A6-13
Recommended