68
ORGANIZACIÓN COMPUTACIONAL APUNTES DE LA MATERIA ING. PABLO CHAPA CORTEZ, M.A.N.

Organizacion Computacional

Embed Size (px)

DESCRIPTION

Temario Mayo - Agosto 2015

Citation preview

Page 1: Organizacion Computacional

ORGANIZACIÓN

COMPUTACIONAL APUNTES DE LA MATERIA

ING. PABLO CHAPA CORTEZ, M.A.N.

Page 2: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 1

SESION 1

HISTORIA DE LA COMPUTADORA

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

La máquina analítica

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Primeros ordenadores

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Page 3: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 2

Ordenadores electrónicos

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

Circuitos integrados

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

Page 4: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 3

Del Abaco a la tarjeta perforada

EL ABACO; quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.

LA PASCALINA; El inventor y pintor Leonardo Da Vencí (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623-1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos.

LA LOCURA DE BABBAGE, Charles Babbage (1793-1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias Babbage concibió la idea de una "máquina analítica".

En esencia, ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina analítica de Babbage podía suma r, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecanismos que cubrirían el área de un campo de futbol y necesitaría accionarse por una locomotora. Los escépticos l e pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte.

Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica por varías décadas. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de pro grama secuencia.

LA PRIMERA TARJETA PERFORADA; El telar de tejido, inventado en 1801 por el Francés Joseph-Marie Jackard (1753-1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarje tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido en particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora.

Herman Hollerit (1860-1929) La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de la oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría mas que los mismo

Page 5: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 4

10 años para terminarlo. La oficina de censos comisiono al estadística Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890.

Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 a años y la oficina se ahorró alrededor de $5,000,000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación" Algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del pasajero. Eso le dió a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular.

Hollertih fundó la Tabulating Machine Company y vendió sus productos en todo el mundo. La demanda de sus máquinas se extendió incluso hasta Rusia. El primer censo llevado a cabo en Rusia en 1897, se registró con el Tabulador de Hollerith. En 1911, la Tabulating Machine Company, al unirse con otras Compañías, formó la Computing-Tabulating-Recording-Company. LAS MAQUINAS ELECTROMECANICAS DE CONTABILIDAD (MEC) Los resultados de las máquinas tabuladoras tenían que llevarse al corriente por medios manuales, hasta que en 1919 la Computing-Tabulating-Recording-Company. anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en que las Compañías efectuaban sus operaciones.

Para reflejar mejor el alcance de sus intereses comerciales, en 1924 la Compañía cambió el nombre por el de international Bussines Machines Corporation (IBM) Durante décadas, desde mediados de los cincuentas la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, dirección, etc) el procesamiento de la tarjeta perforada se conoció también como procesamiento de registro unitario. La familia de las máquinas electromecánicas de contabilidad (EAM) el octromechanical accounting machine de dispositivos de tarjeta perforada comprende: la perforadora de tarjetas, el verificador, el reproductor, la perforación sumaria, el intérprete, e l clasificador, el cotejador, el calculador y la máquina de contabilidad. El operador de un cuarto de máquinas en una instalación de tarjetas perforadas tenía un trabajo que demandaba mucho esfuerzo físico. Algunos cuartos de máquinas asemejaban la actividad de una fábrica; las tarjetas perforadas y las salidas impresas se cambiaban de un dispositivo a otro en carros manuales, el ruido que producía eran tan intenso como el de una planta ensambladora de automóviles.

Pioneros de la computación

ATANASOFF Y BERRY Una antigua patente de un dispositivo que mucha gente creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor del computador a digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Com

Page 6: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 5

puter). Un estudiante graduado, Clifford Berry, fue una útil ayuda en la construcción de la computadora ABC.

Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una p laca con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en

1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física."

Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer apuntes que describían los principios de la computadora ABC y verla en persona, el Dr. John W. Mauchly colaboró con J.Presper Eckert, Jr. para desarrollar una máquina que calcul ara tablas de trayectoria para el ejército estadounidense. El producto final, una computadora electrónica completamente operacional a gran escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer), ó Integrador numérico y calculador electrónico.

La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x 12 m y con tenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con un sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9) La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba. La imponente escala y las numerosas aplicaciones generales de la ENIAC señalaron el comienzo de la primera generación de computadoras.

En 1945, John von Neumann, que había trabajado con Eckert y Mauchly en la Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria d e la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la la llamada EDVAC (Eletronic Discrete-Variable Automatic Computer, es decir computadora aut omática electrónica de variable discreta), desarrollada por Von Neumann, Eckert y Mauchly.

Los programas almacenados dieron a las computadoras una flexibilidad y confiabilidad tremendas, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos. Una computadora con capacidad de programa almacenado podría ser utilizada para v arias aplicaciones cargando y ejecutando el programa apropiado. Hasta este punto, los programas y datos

Page 7: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 6

podrían ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras "entienden".

El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las computadoras utilizando medios distintos a los números binarios. En 1952 Grace Murray Hoper una oficial de la Marina de E.U., desarrolló el primer compilador, un programa que puede traducir enunciados parecidos al inglés en un código binario comprensible para la maquina llamado COBOL (COmmon Business-Oriented Languaje).

GENERACIONES DE COMPUTADORAS

PRIMERA GENERACIÓN DE COMPUTADORAS

(de 1951 a 1958) Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápida mente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.

Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una Cia. Privada y construyendo UNIVAC I, que el Comité del censó utilizó para evaluar el de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.

Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.

SEGUNDA GENERACIÓN

(1959-1964) Transistor Compatibilidad limitada El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras

Page 8: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 7

de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podrían almacenarse datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran substancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general.

Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH (siglas).

TERCERA GENERACIÓN

(1964-1971) circuitos integrados Compatibilidad con equipo mayor Multiprogramación Minicomputadora Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas.

Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).

Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de compra r y de operar que las computadoras grandes, las Minicomputadoras se desarrollaron

Page 9: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 8

durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 70.

LA CUARTA GENERACIÓN

(1971 a la fecha)

� Microprocesador

� Chips de memoria.

� Microminiaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de Chips de silicio y la colocación de muchos más componentes en un Chic: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de Chips hizo posible la creación de las computadoras personales. (PC) Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacén en un clip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupara un cuarto completo.

CLASIFICACION DE LAS COMPUTADORAS

Las computadoras pueden ser clasificadas de diversas maneras, pese a la inexistencia de una clasificación formal, es un tema que se toca en varios libros. Una recopilación de las clasificaciones es listada a continuación.

Supercomputadoras:

Una supercomputadora es el tipo de computadora más potente y más rápido que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica. Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, esto para disipar el calor que algunos componentes alcanzan a tener. Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:

1. Búsqueda y estudio de la energía y armas nucleares.

2. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.

3. El estudio y predicción de tornados.

4. El estudio y predicción del clima de cualquier parte del mundo.

5. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo. Etc.

Page 10: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 9

Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año.

Macrocomputadoras:

Las macrocomputadoras son también conocidas como Mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de dólares.

De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. PERO las supercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe. En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables d e los periféricos , y su temperatura tiene que estar controlada.

Minicomputadoras:

En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y esto ayudo a reducir el precio y costos de mantenimiento. Las Minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario. Microcomputadoras o PC´s

Microcomputadoras:

Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chic", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.

El término PC se deriva de que para el año de 1981 , IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas.

Existen otros tipos de microcomputadoras , como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal. En la actualidad existen variados tipos en el diseño de PC´s: Computadoras personales, con el gabinete tipo minitorre, separado del monitor. Computadoras personales portátiles "Laptop" o

Page 11: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 10

"Notebook". Computadoras personales más comunes, con el gabinete horizontal, separado del monitor. Computadoras personales que están en una sola unidad compacta el monitor y el CPU.

Las computadoras "laptops" son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables , pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crystal Display). Estaciones de trabajo o Workstations Las estaciones de trabajo se encuentran entre las Minicomputadoras y las macrocomputadoras (por el procesamiento).

Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesamiento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para: Aplicaciones de ingeniería CAD (Diseño asistido por computadora) CAM (manufactura asistida por computadora) Publicidad Creación de Software en redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local.

SISTEMAS COMPUTACIONAL

Informática proviene del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962. Es el conjunto de muchas técnicas, procesos y máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, pensamiento y comunicación.

Un sistema computacional se compone de recursos humanos, recursos físicos (hardware), y recursos lógicos (software) que trabajan en conjunto para el procesamiento de una información.

Se denomina software o recurso lógico al conjunto de componentes intangibles de una computadora, es decir, a los programas y procedimientos necesarios para hacer posible la realización de una tarea específica.

Se denomina hardware o recurso físico al conjunto de componentes físicos de una computadora. En el mismo se incluyen los dispositivos electrónicos y mecánicos.

EL ORIGEN DE LOS DATOS

Bit es en realidad un acrónimo que significa “dígito binario“. Es la unidad más pequeña posible de información en la informática digital. Las computadoras no usan números decimales para almacenar datos. En los equipos, todos los datos se almacenan en números binarios. Todos se basan en la lógica digital binaria. Cada bit puede tomar solo dos valores característicos 0 ó 1.

Page 12: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 11

El origen del término “dígito binario” se atribuye a John Tukey, un científico que trabajaba en los Laboratorios Bell, y los usó por primera vez en 1947. Un byte es una cadena de 8 bits juntos. Un byte es, por tanto, una unidad de información más grande que el bit. El byte fue utilizado por primera vez por el Dr. Werner Buccholz, un científico que trabajaba en IBM, en 1956.

La computadora convierte todos los datos en bits y bytes a través del sistema alfanumérico y decimal. La capacidad del disco duro de cualquier ordenador se da en giga bytes (abreviado como GB) generalmente. Como podrás deducir Internet es un océano de bits y de bytes. Los chips pueden ser de diferentes tipos, por ejemplo de 32 bits y de 64 bits.

Esto denota la cantidad de datos que pueden ser procesados por los chips. El ancho de banda de Internet se mide en kilobytes (miles de bytes) por segundo, es decir ‘kbps’ o megabytes por segundo (Mbps). Los bits y los bytes se suelen utilizar de manera diferente: los bits se utilizan para detallar velocidades de transmisión, por otra parte, los bytes se utilizan para describir capacidad de almacenamiento.

ASCII es una sigla para "American Standard Code for Information Interchange" (Código Standard Norteamericano para Intercambio de Información). Este código fue propuesto por Robert W. Bemer, buscando crear códigos para caracteres alfa-numéricos (letras, símbolos, números y acentos). De esta forma sería posible que las computadoras de diferentes fabricantes lograran entender los mismos códigos.

El ASCII es un código numérico que representa los caracteres, usando una escala decimal del 0 al 255. Esos números decimales son convertidos por la computadora en números binarios para ser posteriormente procesados. Por lo tanto, cada una de las letras que escribas va a corresponder a uno de estos códigos.

Page 13: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 12

Page 14: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 13

SESION 2

El CPU

La Unidad Central de Procesamiento (del inglés: Central Processing Unit, CPU) o procesador, es el componente principal del ordenador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Las CPU proporcionan la característica fundamental del ordenador digital (la programabilidad) y son uno de los componentes necesarios encontrados en los ordenadores de cualquier tiempo, junto con la memoria principal y los dispositivos de entrada/salida.

Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.

La expresión "unidad central de proceso" es, en términos generales, un dispositivo lógico que pueden ejecutar complejos programas de ordenador. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros ordenadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la Informática por lo menos desde el principio de los años 60. La forma, el diseño y la implementación de las CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar. Las primeras CPU fueron diseñados a la medida como parte de un ordenador más grande, generalmente un ordenador único en su especie. Sin embargo, este costoso método de diseñar las CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos.

Tanto la miniaturización como la estandarización de las CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros. En la actualidad muchas personas llaman CPU al armazón del computador (torre), confundiendo de esta manera a los principiantes en el mundo de la computación.

El EDVAC, uno de los primeros ordenadores de programas almacenados electrónicamente.

Page 15: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 14

Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo. Generalmente, cuando un tubo ha fallado, la CPU tendría que ser diagnosticada para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidos pero menos confiables que los ordenadores electromecánicos, (basados en relés). Los ordenadores de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallos, mientras que los ordenadores de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estas tempranas CPU síncronas corrían en frecuencias de reloj bajas comparadas con los modernos diseños micro electrónicos. Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.

CPU de transistores y de circuitos integrados discretos

La complejidad del diseño de las CPU aumentó junto con facilidad de la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del transistor. Las CPU transistorizadas durante los años 50 y los años 60 no tuvieron que ser construidos con elementos de conmutación abultados, no fiables y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidas CPU más complejas y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales).

Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron miniaturizados en IC. Las CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips individuales,

Page 16: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 15

pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos.

A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de IC individuales necesarios para una CPU completa. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos y luego a miles. En 1964, IBM introdujo su arquitectura de ordenador System/360, que fue usada en una serie de ordenadores que podían ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de los ordenadores electrónicos eran incompatibles entre sí, incluso los hechas por el mismo fabricante.

Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo", ampliamente usado aún en las CPU modernas. La arquitectura System/360 era tan popular que dominó el mercado del mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en los ordenadores modernos, como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro ordenador que sería muy influyente, dirigido a los mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la muy popular línea del PDP-11, que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contenía una CPU integrada únicamente por cuatro circuitos integrados LSI.

Los ordenadores basados en transistores tenían varias ventajas frente a sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, se fueron alcanzando frecuencias de reloj de la CPU de decenas de megahertz. Además, mientras que las CPU de transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de los superordenadores especializados, como los hechos por Cray Inc.

Microprocesadores

Desde la introducción del primer microprocesador, el Intel 4004, en 1971 y del primer microprocesador ampliamente usado, el Intel 8080, en 1974, esta clase de CPU ha desplazado casi totalmente el resto de los métodos de

Page 17: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 16

implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y miniordenadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas arquitecturas de ordenador y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares.

Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo ordenador personal, el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores. Las generaciones previas de CPU fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPU fabricados con un número muy pequeño de IC; usualmente solo uno.

El tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia parásita de las puertas. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios.

Adicionalmente, como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC, la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente.

Esta tendencia ampliamente observada es descrita por la ley de Moore, que ha demostrado hasta la fecha, ser una predicción bastante exacta del crecimiento de la complejidad de los CPUs y otros IC. Mientras que, en los pasados sesenta años han cambiado drásticamente, la complejidad, el tamaño, la construcción y la forma general de la CPU, es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de programa almacenado de von Neumann. A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado.

La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos, como la electromigración y el subumbral de pérdida. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la computación cuántica, así como ampliar el uso de paralelismo y otros métodos que extienden la utilidad del modelo clásico de von Neumann.

Page 18: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 17

Operación del CPU

La operación fundamental de la mayoría de las CPU es ejecutar una secuencia de instrucciones almacenadas llamadas "programa". El programa es representado por una serie de números que se mantienen en una cierta clase de memoria de ordenador. Hay cuatro pasos que casi todos las CPU de arquitectura de von Neumann usan en su operación: fetch, decode, execute, y writeback, (leer, decodificar, ejecutar y escribir).

Interrupciones al Procesador

En el contexto de la informática, una interrupción (del inglés Interrupt Request, también conocida como petición de interrupción) es una señal recibida por el procesador de un ordenador, indicando que debe "interrumpir" el curso de ejecución actual y pasar a ejecutar código específico para tratar esta situación.

Una interrupción es una suspensión temporal de la ejecución de un proceso, para pasar a ejecutar una subrutina de servicio de interrupción, la cual, por lo general, no forma parte del programa, sino que pertenece al sistema operativo o al BIOS). Una vez finalizada dicha subrutina, se reanuda la ejecución del programa.

Las interrupciones surgen de la necesidad que tienen los dispositivos periféricos de enviar información al procesador principal de un sistema informático.

El mecanismo de interrupciones fue la solución que permitió al procesador desentenderse de esta problemática, y delegar en el dispositivo periférico la responsabilidad de comunicarse con él cuando lo necesitara. El procesador, en este caso, no sondea a ningún dispositivo, sino que queda a la espera de que estos le avisen (le "interrumpan") cuando tengan algo que comunicarle (ya sea un evento, una transferencia de información, una condición de error, etc.).

En resumen…

El CPU (Central Proccesor Unit) es el responsable de controlar el flujo de datos (Actividades de Entrada y Salida E/S) y de la ejecución de las instrucciones de los programas sobre los datos. Realiza todos los cálculos (suma, resta, multiplicación, división y compara números y caracteres). Es el "cerebro” de la computadora.

Se divide en 3 Componentes

• Unidad de control : Es en esencia la que gobierna todas las actividades de la computadora, así como el CPU es el cerebro de la computadora, se puede decir que la UC es el núcleo del CPU. Supervisa la ejecución de los programas Coordina y controla al sistema de cómputo, es decir, coordina actividades de E/S Determina que instrucción se debe ejecutar y pone a disposición los datos pedidos por la instrucción. Determina

Page 19: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 18

donde se almacenan los datos y los transfiere desde las posiciones donde están almacenado. Una vez ejecutada la instrucción la Unidad de Control debe determinar donde pondrá el resultado para salida ó para su uso posterior.

• Unidad Aritmético/Lógica : Esta unidad realiza cálculos (suma, resta, multiplicación y división) y operaciones lógicas (comparaciones). Transfiere los datos entre las posiciones de almacenamiento. Tiene un registro muy importante conocido co mo: Acumulador ACC Al realizar operaciones aritméticas y lógicas, la UAL mueve datos entre ella y el almacenamiento. Los datos usados en el procesamiento se transfieren de su posición en el almacenamiento a la UAL. Los datos se manipulan de acuerdo con las instrucciones del programa y regresan al almacenamiento. Debido a que el procesamiento no puede efectuarse en el área de almacenamiento, los datos deben transferirse a la UAL. Para terminar una operación puede suceder que los datos pasen de la UAL al área de almacenamiento varias veces.

• Área de almacenamiento Primario (Memoria) : La memoria da al procesador almacenamiento temporal para programas y datos. Todos los programas y datos deben transferirse a la memoria desde un dispositivo de entrada o desde el almacenamiento secundario (disquete), antes de que los programas puedan ejecutarse o procesarse los datos. Las computadoras usan 2 tipos de memoria primaria: ROM (read only memory), memoria de sólo lectura, en la cual se almacena ciertos programas e información que necesita la computadora las cuales están grabadas permanentemente y no pueden ser modificadas por el programador.

Las instrucciones básicas para arrancar una computadora están grabadas aquí y en algunas notebooks han grabado hojas de cálculo, basic, etc. RAM (Random access memory), memoria de acceso aleatorio, la utiliza el usuario mediante sus programas, y es volátil. La memoria del equipo permite almacenar datos de entrada, instrucciones de los programas que se están ejecutando en ese momento, los dato s resultados del procesamiento y los datos que se preparan para la salida.

Los datos proporcionados a la computadora permanecen en el almacenamiento primario hasta que se utilizan en el procesamiento. Durante el procesamiento, el almacenamiento primario almacena los datos intermedios y finales de todas las operaciones aritméticas y lógicas. El almacenamiento primario debe guardar también las instrucciones de los programas usados en el procesamiento. La memoria está subdividida en celdas individuales cada una de las cuales tiene una capacidad similar para almacenar datos.

Dispositivos I/O

En computación, la entrada y salida o E/S (en inglés input/output o I/O), es la comunicación entre un sistema de procesamiento de información, tal como un ordenador, y el mundo exterior, posiblemente un humano u otro sistema de procesamiento de información.

Page 20: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 19

Los dispositivos de E/S son utilizados por una persona (u otro sistema) para comunicarse con un ordenador. Por ejemplo, un teclado o un ratón puede ser un dispositivo de entrada para un ordenador, mientras que los monitores e impresoras se consideran los dispositivos de salida para un ordenador. Dispositivos para la comunicación entre computadoras, tales como módems y tarjetas de red, por lo general sirven para entrada y salida.

Dispositivos de Entrada

Para ingresar los datos a la computadora, se utilizan diferentes dispositivos, por ejemplo:

• Teclado: Dispositivo de entrada más comunmente utilizado que encontramos en todos los equipos computacionales. El teclado se encuentra compuesto de 3 partes: teclas de función, teclas alfanuméricas y teclas numéricas.

• Mouse: Es el segundo dispositivo de entrada más utilizado. El mouse o ratón es arrastrado a lo largo de una superficie para maniobrar un apuntador en la pantalla del monitor. Fue inventado por Douglas Engelbart y su nombre se deriva por su forma la cual se asemeja a la de un ratón.

• Lápiz óptico: Este dispositivo es muy parecido a una pluma ordinaria, pero conectada a un cordón eléctrico y que requiere de un software especial. Haciendo que la pluma toque el monitor el usuario puede elegir los comandos de las programas.

• Tableta digitalizadora: Es una superficie de dibujo con un medio de señalización que funciona como un lápiz. La tableta convierte los movimientos de este apuntador en datos digitalizados que pueden ser leídos por ciertos paquetes de cómputo . Los tamaños varían desde tamaño carta hasta la cubierta de un escritorio.

• Entrada de voz (reconocimiento de voz): Convierten la emisión vocal de una persona en señales digitales. La mayoría de estos programas tienen que ser "entrenados” para reconocer los comandos que el usuario da verbalmente. El reconocimiento de voz se usa en la profesión médica para permitir a los doctores compilar rápidamente reportes. Más de 300 sistemas Kurzweil Voicemed están instalados actualmente en más de 200 Hospitales en Estados Unidos. Este novedoso sistema de reconocimiento fónico utiliza tecnología de independencia del hablante. Esto significa que una computadora no tiene que ser entrenada para reconocer el lenguaje o tono de voz de una sola persona. Puede reconocer la misma palabra dicha por varios individuos.

• Pantallas sensibles al tacto (Screen Touch): Permiten dar comandos a la computadora tocando ciertas partes de la pantalla. Muy pocos programas de software trabajan con ellas y los usuarios se quejan de que las pantallas están muy lejos del teclado. Su aceptación ha sido muy reducida. Algunas tiendas departamentales emplean este tipo de tecnología para ayudar a los clientes a encontrar los bienes o servicios dentro de la tienda.

Page 21: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 20

• Lectores de código de barras: Son rastreadores que leen las barras verticales que conforman un código. Esto se conoce como Punto de Venta (PDV). Las tiendas de comestibles utilizan el código Universal de Productos (CUP ó UPC). Este código identifica al producto y al mismo tiempo realiza el ticket descuenta de inventario y hará una orden de compra en caso de ser necesario. Algunos lectores están instalados en una superficie física y otros se operan manualmente.

• Scanners : Convierten texto, fotografías a color ó en Blanco y Negro a una forma que puede leer una computadora. Después esta imagen puede ser modificada, impresa y almacenada. Son capaces de digitalizar una página de gráficas en unos segundos y proporcionan una forma rápida, fácil y eficiente de ingresar información impresa en una computadora; también se puede ingresar información si se cuenta con un Software especial llamado OCR (Reconocimiento óptico de caracteres).

Dispositivos de Salida

Los dispositivos de salida de una computadora es el hardware que se encarga de mandar una respuesta hacia el exterior de la computadora, como pueden ser: los monitores, impresoras, sistemas de sonido, módem. etc.

Monitores : El monitor ó pantalla de vídeo, es el dispositivo de salida más común. Hay algunos que forman parte del cuerpo de la computadora y otros están separados de la misma. Existen muchas formas de clasificar los monitores, la básica es en término de sus capacidades de color, pueden ser: Monocromáticos, despliegan sólo 2 colores, uno para el fondo y otro para la superficie. Los colores pueden ser blanco y negro, verde y negro ó ámbar y negro. Escala de Grises, un monitor a escala de grises es un tipo especial de monitor monocromático capaz de desplegar diferentes tonos de grises. Color: Los monitores de color pueden desplegar de 4 hasta 1 millón de colores diferentes.

Conforme ha avanzado la tecnología han surgido los diferentes modelos: TTL, Monocromático, muy pobre resolución, los primeros no tenían capacidad de graficar. CGA, Color Graphics Adapter, desplegaba 4 colores, con muy pobre resolución a comparación de los monitores actuales, hoy en día fuera del mercado. EGA, Enhanced Graphics Adapter, manejaba una mejor resolución que el CGA, de 640x350 pixeles. (los pixeles son los puntos de luz con los que se forman los caracteres y gráficas en el monitor, mientras más pixeles mejor resolución). Desplegaban 64 colores. VGA, Vídeo Graphics Array, los hay monocromáticos y de color. Adecuados para ambiente gráfico por su alta resolución (640x480 pixeles), pueden llegar hasta 256,000 colores ó 64 tonalidades de gris dependiendo de la memoria destinada al dispositivo. PVGA, Super Vídeo Graphics Array, maneja una resolución más alta (1,024x768), el número de colores desplegables varía dependiendo de la memoria, pero puede ser mayor que 1 millón de colores.

UVGA, Ultra Vídeo Graphics Array, Resolución de 1280 x 1024. La calidad de las imágenes que un monitor puede desplegar se define más por las

Page 22: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 21

capacidades de la Tarjeta controladora de vídeo, que por las del monitor mismo. El controlador de vídeo es un dispositivo intermediario entre el CPU y el monitor. El controlador contiene la memoria y otros circuitos electrónicos necesarios para enviar la información al monitor para que la despliegue en la pantalla.

Impresoras : Dispositivo que convierte la salida de la computadora en imágenes impresas. Las impresoras se pueden dividir en 2 tipos: las de impacto y las de no impacto.

• IMPRESORAS DE IMPACTO: Una impresora que utiliza un mecanismo de impresión que hace impactar la imagen del carácter en una cinta y sobre el papel. Las impresoras de línea, de matriz de punto y de rueda de margarita son ejemplos de impresoras de impacto. Impresora de Matriz de puntos, es la impresora más común. Tiene una cabeza de impresión movible con varias puntillas o agujas que al golpear la cinta entintada forman caracteres por medio de puntos en el papel, Mientras mas agujas tenga la cabeza de impresión mejor será la calidad del resultado. Las hay de 10 y 15", las velocidades varían desde: 280 cps hasta 1,066 cps Impresoras de margarita; tiene la misma calidad de una máquina de escribir mediante un disco de impresión que contiene todos los caracteres, están de salida del mercado por lentas. Impresoras de Línea: Son impresoras de alta velocidad que imprimen una línea por vez. Generalmente se conectan a grandes computadoras y a Minicomputadoras. Las impresoras de línea imprimen una línea a la vez desde aproximadamente 100 a 5000 LPM.

• IMPRESORAS SIN IMPACTO: Hacen la impresión por diferentes métodos, pero no utilizan el impacto. Son menos ruidosas y con una calidad de impresión notoriamente mejor a las impresoras de impacto. Los métodos que utilizan son los siguientes: Térmicas: Imprimen de forma similar a la máquina de matriz, pero los caracteres son formados marcando puntos por quemadura de un papel especial. Vel. 80 cps. Los faxes trabajan con este método.

Almacenamiento Secundario

El almacenamiento secundario es un medio de almacenamiento definitivo (no volátil como el de la memoria RAM). El proceso de transferencia de datos a un equipo de cómputo se le llama procedimiento de lectura. El proceso de transferencia de datos desde la computadora hacia el almacenamiento se denomina procedimiento de escritura. En la actualidad se pueden usar principalmente dos tecnologías para almacenar información:

• El almacenamiento Magnético.

• El almacenamiento Óptico.

• El almacenamiento electrónico (memorias Flash)

Page 23: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 22

Dispositivos de almacenamiento magnético:

1. Discos Flexibles

2. Discos Duros

3. Cintas Magnéticas o Cartuchos.

Almacenamiento Óptico:

La necesidad de mayores capacidades de almacenamiento han llevado a los fabricantes de hardware a una búsqueda continua de medios de almacenamiento alternativos y cuando no hay opciones, a mejorar tecnologías disponibles y desarrollar nuevas. Las técnicas de almacenamiento óptico hacen posible el uso de la localización precisa mediante rayos láser.

Leer información de un medio óptico es una tarea relativamente fácil, escribirla es otro asunto. El problema es la dificultad para modificar la superficie de un medio óptico, ya que los medios ópticos perforan físicamente la superficie para reflejar o dispersar la luz del láser.

Los principales dispositivos de almacenamiento óptico son:

1. CD ROM.- CD Read Only Memory

2. DVD.

Page 24: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 23

SESION 3

SOFTWARE:

Definición de Software:

El software es el conjunto de instrucciones que las computadoras emplean para manipular datos. Sin el software, la computadora sería un conjunto de medios sin utilizar. Al cargar los programas en una computadora, la máquina actuará como si recibir a una educación instantánea; de pronto "sabe" cómo pensar y cómo operar. El Software es un conjunto de programas, documentos, procedimientos, y rutinas asociados con la operación de un sistema de cómputo. Distinguiéndose de los componentes físicos llamados hardware.

Comúnmente a los programas de computación se les llama software; el software asegura que el programa o sistema cumpla por completo con sus objetivos, opera con eficiencia, esta adecuadamente documentado, y suficientemente sencillo de operar. Es simplemente el conjunto de instrucciones individuales que se le proporciona al microprocesador para que pueda procesar los datos y generar los resultados esperados. El hardware por si solo no puede hacer nada, pues es necesario que exista el software, que es el conjunto de instrucciones que hacen funcionar al hardware.

Clasificaciones del Software:

El software se clasifica en 4 diferentes Categorías: Sistemas Operativos, Lenguajes de Programación, Software de uso general, Software de Aplicación. (Algunos autores consideran la 3era y 4ta clasificación como una sola).

• Un lenguaje de programación es un lenguaje formal diseñado para expresar procesos que pueden ser llevados a cabo por máquinas como las computadoras. Pueden usarse para crear programas que controlen el comportamiento físico y lógico de una máquina, para expresar algoritmos con precisión, o como modo de comunicación humana. Está formado por un conjunto de símbolos y Reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones. Al proceso por el cual se escribe, se prueba, se depura, se compila (de ser necesario) y se mantiene el código fuente de un programa informático se le llama programación.

• Sistemas Operativos: El sistema operativo es el gestor y organizador de todas las actividades que realiza la computadora. Marca las pautas según las cuales se intercambia información entre la memoria central y la externa, y determina las operaciones elementales que puede realizar el procesador. El sistema operativo, debe ser cargado en la memoria central antes que ninguna otra información. Lenguajes de Programación Mediante los programas se indica a la computadora que tarea debe realizar y cómo efectuarla, pero para ello es preciso introducir estas

Page 25: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 24

órdenes en un lenguaje que el sistema pueda entender. En principio, el ordenador sólo entiende las instrucciones en código máquina, es decir, el específico de la computadora. Sin embargo, a partir de éstos se elaboran los llamados lenguajes de alto y bajo nivel.

• Software de Uso General: El software para uso general ofrece la estructura para un gran número de aplicaciones empresariales, científicas y personales. El software de hoja de cálculo, de diseño asistido por computadoras (CAD), de procesamiento de texto, de manejo de Bases de Datos, pertenece a esta categoría. La mayoría de software para uso general se vende como paquete; es decir, con software y documentación orientada al usuario (manuales de referencia, plantillas de teclado y demás).

• Software de aplicaciones : El software de aplicación esta diseñado y escrito para realizar tareas específicas personales,,empresariales o científicas como el procesamiento de nóminas, la administración de los recursos humanos o el control de inventarios. Todas éstas aplicaciones procesan datos (recepción de materiales) y generan información (registros de nómina). para el usuario. Sistemas Operativos Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco. Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.

Cuando enciendes una computadora, lo primero que ésta hace es llevar a cabo un autodiagnóstico llamado autoprueba de encendido (Power On Self Test, POST). Durante la POST, la computadora indentifica su memoria, sus discos, su teclado, su sistema de vídeo y cualquier otro dispositivo conectado a ella. Lo siguiente que la computadora hace es buscar un SO para arrancar (boot).

Una vez que la computadora ha puesto en marcha su SO, mantiene al menos parte de éste en su memoria en todo momento. Mientras la computadora esté encendida, el SO tiene 4 tareas principales.

1. Proporcionar ya sea una interfaz de línea de comando o una interfaz gráfica al usuario, para que este último se pueda comunicar con la computadora. Interfaz de línea de comando: tú introduces palabras y símbolos desde el teclado de la computadora, ejemplo, el MS-DOS. Interfaz gráfica del Usuario (GUI), seleccionas las acciones mediante el uso de un Mouse para pulsar sobre figuras llamadas iconos o seleccionar opciones de los menús.

2. Administrar los dispositivos de hardware en la computadora. Cuando corren los programas, necesitan utilizar la memoria, el monitor, las unidades de disco, los puertos de Entrada/Salida (impresoras, módems, etc). El SO sirve de intermediario entre los programas y el hardware.

3. Administrar y mantener los sistemas de archivo de disco · Los SO agrupan la información dentro de compartimientos lógicos para

Page 26: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 25

almacenarlos en el disco. Estos grupos de información son llamados archivos. Los archivos pueden contener instrucciones de programas o información creada por el usuario. El SO mantiene una lista de los archivos en un disco, y nos proporciona las herramientas necesarias para organizar y manipular estos archivos.

4. Apoyar a otros programas.

5. Otra de las funciones importantes del SO es proporcionar servicios a otros programas. Estos servicios son similares a aquellos que el SO proporciona directamente a los usuarios. Por ejemplo, listar los archivos, grabarlos a disco, eliminar archivos, revisar espacio disponible, etc. Cuando los programadores escriben programas de computadora, incluyen en sus programas instrucciones que solicitan los servicios del SO. Estas instrucciones son conocidas como "llamadas del sistema"

El Kernel y el Shell:

Las funciones centrales de un SO son controladas por el núcleo (kernel) mientras que la interfaz del usuario es controlada por el entorno (shell). Por ejemplo, la parte más importante del DOS es un programa con el nombre "COMMAND.COM" Este programa ti ene dos partes. El kernel, que se mantiene en memoria en todo momento, contiene el código máquina de bajo nivel para manejar la administración de hardware para otros programas que necesitan estos servicios, y para la segunda parte del COMMAND.COM el s hell, el cual es el interprete de comandos.

Las funciones de bajo nivel del SO y las funciones de interpretación de comandos están separadas, de tal forma que puedes mantener el kernel DOS corriendo, pero utilizar una interfaz de usuario diferente. Esto es exactamente lo que sucede cuando carga s Microsoft Windows, el cual toma el lugar del shell, reemplazando la interfaz de línea de comandos con una interfaz gráfica del usuario. Existen muchos shells diferentes en el mercado, ejemplo: NDOS (Norton DOS), XTG, PCTOOLS, o inclusive el mismo SO MS-DOS a partir de la versión 5.0 incluyó un Shell llamado DOS SHELL.

Categorías de Sistemas Operativos MULTITAREA:

El término multitarea se refiere a la capacidad del SO para correr más de un programa al mismo tiempo. Existen dos esquemas que los programas de sistemas operativos utilizan para desarrollar SO multitarea.

El primero requiere de la cooperación entre el SO y los programas de aplicación. Los programas son escritos de tal manera que periódicamente inspeccionan con el SO para ver si cualquier otro programa necesita a la CPU, si este es el caso, entonces dejan el control del CPU al siguiente programa, a este método se le llama multitarea cooperativa y es el método utilizado por el SO de las computadoras de Machintosh y DOS corriendo Windows de Microsoft.

El segundo método es el llamada multitarea con asignación de prioridades. Con este esquema el SO mantiene una lista de procesos (programas) que están

Page 27: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 26

corriendo. Cuando se inicia cada proceso en la lista el SO le asigna una prioridad. En cualquier momento el SO puede intervenir y modificar la prioridad de un proceso organizando en forma efectiva la lista de prioridad, el SO también mantiene el control de la cantidad de tiempo que utiliza con cualquier proceso antes de ir al siguiente. Con multitarea de asignación de prioridades el SO puede sustituir en cualquier momento el proceso que esta corriendo y reasignar el tiempo a una tarea de mas prioridad. Unix OS-2 y Windows NT emplean este tipo de multitarea.

Multiusuario:

Un SO multiusuario permite a mas de un solo usuario accesar una computadora. Claro que, para llevarse esto a cabo, el SO también debe ser capaz de efectuar multitareas. Unix es el Sistema Operativo Multiusuario más utilizado. Debido a que Unix fue originalmente diseñado para correr en una minicomputadora, era multiusuario y multitarea desde su concepción.

Actualmente se producen versiones de Unix para PC tales como The Santa Cruz Corporation Microport, Esix, IBM,y Sunsoft. Apple también produce una versión de Unix para la Machintosh llamada: A/UX.Unix , Unix proporciona tres maneras de permitir a múltiples personas utilizar la misma PC al mismo tiempo.

1. Mediante Módems.

2. Mediante conexión de terminales a través de puertos seriales

3. Mediante Redes.

Multiproceso :

Las computadoras que tienen más de un CPU son llamadas multiproceso. Un sistema operativo multiproceso coordina las operaciones de las computadoras multiprocesadoras. Ya que cada CPU en una computadora de multiproceso puede estar ejecutando una instrucción, el otro procesador queda liberado para procesar otras instrucciones simultáneamente. Al usar una computadora con capacidades de multiproceso incrementamos su velocidad de respuesta y procesos.

Casi todas las computadoras que tienen capacidad de multiproceso ofrecen una gran ventaja. Los primeros Sistemas Operativos Multiproceso realizaban lo que se conoce como: Multiproceso asimétrico: Una CPU principal retiene el control global de la computadora, así como el de los otros procesadores. Esto fue un primer paso hacia el multiproceso pero no fue la dirección ideal a seguir ya que la CPU principal podía convertirse en un cuello de botella. Multiproceso simétrico: En un sistema multiproceso simétrico, no existe una CPU controladora única. La barrera a vencer al implementar el multiproceso simétrico es que los SO tienen que ser rediseñados o diseñados desde el principio para trabajar en u n ambiente multiproceso.

Las extensiones de Unix, que soportan multiproceso asimétrico ya están disponibles y las extensiones simétricas se están haciendo disponibles. Windows NT de Microsoft soporta multiproceso simétrico.

Page 28: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 27

¿Qué es el “HUMANWARE”?

El concepto “HUMANWARE” le usamos para resaltar la importancia del “lado Humano” de la interacción entre los principales actores involucrados en los procesos de reestructuración, reingeniería y modernización empresarial para garantizar el éxito incorporación de nuevas tecnologías en hardware o software y demás servicios requeridos, de un lado entre productores, proveedores con su equipo de mercadeo, ventas, educación y servicios de apoyo y del otro lado con empresas compradoras de soluciones en informática y telecomunicaciones a través de las áreas funcionales del negocio, tales como Sistemas, servicio al cliente, finanzas, producción, RRHH, etc... y usuarios primarios o finales.

Page 29: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 28

SESION 4

Sistemas Numéricos

Los sistemas de numeración son conjuntos de dígitos usados para representar cantidades, así se tienen los sistemas de numeración decimal, binario, octal, hexadecimal, romano, etc. Los cuatro primeros se caracterizan por tener una base (número de dígitos diferentes: diez, dos, ocho, dieciseis respectivamente) mientras que el sistema romano no posee base y resulta más complicado su manejo tanto con números, así como en las operaciones básicas.

Los sistemas de numeración que poseen una base tienen la característica de cumplir con la notación posicional, es decir, la posición de cada número le da un valor o peso, así el primer dígito de derecha a izquierda después del punto decimal, tiene un valor igual a b veces el valor del dígito, y así el dígito tiene en la posición n un valor igual a: (bn) * A

dónde: b = valor de la base del sistema n = número del dígito o posición del mismo (de derecha a izquierda comenzando en cero)

A = dígito.

El sistema numérico decimal

El sistema de numeración decimal es el más usado, tiene como base el número 10, o sea que posee 10 dígitos (o símbolos) diferentes (0, 1, 2, 3, 4, 5, 6, 7, 8, 9). El sistema de numeración decimal fue desarrollado por los hindúes, posteriormente lo introducen los árabes en Europa, donde recibe el nombre de sistema de numeración decimal o arábigo. Si se aplica la notación posicional al sistema de numeración decimal entonces el dígito número n tiene el valor: (10n)* A Ejemplo.- 235 = (102 x 2) + (101 x 3) + (100 x 5) = 200 + 30 + 5

Sistema Binario

El sistema de numeración más simple que usa la notación posicional es el sistema de numeración binario. Este sistema, como su nombre lo indica, usa solamente dos dígitos (0,1).

Por su simplicidad y por poseer únicamente dos dígitos diferentes, el sistema de numeración binario se usa en computación para el manejo de datos e

Page 30: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 29

información. Normalmente al dígito cero se le asocia con cero voltios, apagado, desenergizado, inhibido (de la computadora) y el dígito 1 se asocia con +5, +12 volts, encendido, energizado (de la computadora) con el cual se forma la lógica positiva.

A la representación de un dígito binario se le llama bit (de la contracción binary digit) y al conjunto de 8 bits se le llama byte, así por ejemplo: 110 contiene 3 bits, 1001 contiene 4 y 1 contiene 1 bit. Como el sistema binario usa la notación posicional entonces el valor de cada dígito depende de la posición que tiene en el número, así por ejemplo el número 110101b es:

1*(20) + 0*(21) + 1*(22) + 0*(23) + 1*(24) + 1*(25) = 1+ 0 + 4 + 0 + 16 + 32 = 53d

La computadora está diseñada sobre la base de numeración binaria (base 2). Por eso este caso particular merece mención aparte. Siguiendo las reglas generales para cualquier base expuestas antes, tendremos que:

Existen dos dígitos (0 o 1) en cada posición del número.

Numerando de derecha a izquierda los dígitos de un número, empezando por cero, el valor decimal de la posición es 2n.

Por ejemplo,11012 (en base 2) quiere decir:

1*(23) + 1*(22) + 0*(21) + 1*(20) = 8 + 4 + 0 + 1 = 1310

Sistema Octal

El sistema de numeración octal es también muy usado en la computación por tener una base que es potencia exacta de 2 o de la numeración binaria. Esta característica hace que la conversión a binario o viceversa sea bastante simple. El sistema octal usa 8 dígitos (0,1,2,3,4,5,6,7) y tienen el mismo valor que en el sistema de numeración decimal. Como el sistema de numeración octal usa la notación posicional entonces para el número 3452.32q tenemos:

2*(80) + 5*(81) + 4*(82) + 3*(83) + 3*(8-1) + 2*(8-2) = 2 + 40 + 4*64 + 64 + 3*512 + 3*0.125 + 2*0.015625 = 2 + 40 + 256 + 1536 + 0.375 + 0.03125 = 1834 + .40625d 1834.40625d El subíndice q indica número octal, se usa la letra q para evitar confusión entre la letra o y el número 0.

Page 31: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 30

Sistema Hexadecimal

Un gran problema con el sistema binario es la verbosidad. Para representar el valor 20210 se requieren ocho dígitos binarios, la versión decimal sólo requiere de tres dígitos y por lo tanto los números se representan en forma mucho más compacta con respecto al sistema numérico binario. Desafortunadamente las computadoras trabajan en sistema binario y aunque es posible hacer la conversión entre decimal y binario, ya vimos que no es precisamente una tarea cómoda. El sistema de numeración hexadecimal, o sea de base 16, resuelve este problema (es común abreviar hexadecimal como hex aunque hex significa base seis y no base dieciséis). El sistema hexadecimal es compacto y nos proporciona un mecanismo sencillo de conversión hacia el formato binario, debido a esto, la mayoría del equipo de cómputo actual utiliza el sistema numérico hexadecimal. Como la base del sistema hexadecimal es 16, cada dígito a la izquierda del punto hexadecimal representa tantas veces un valor sucesivo potencia de 16, por ejemplo, el número 123416 es igual a:

(1*163) + (2*162) + (3*161) + (4*160)

4096 + 512 + 48 + 4 = 466010

Cada dígito hexadecimal puede representar uno de dieciséis valores entre 0 y 15. Como sólo tenemos diez dígitos decimales, necesitamos inventar seis dígitos adicionales para representar los valores entre 10 y 15. En lugar de crear nuevos símbolos para estos dígitos, utilizamos las letras A a la F. La conversión entre hexadecimal y binario es sencilla, considere la siguiente tabla:

Binario Hexadecimal Decimal

0000 0 0 0001 1 1 0010 2 2 0011 3 3 0100 4 4 0101 5 5 0110 6 6 0111 7 7 1000 8 8 1001 9 9 1010 A 10 1011 B 11 1100 C 12 1101 D 13 1110 E 14 1111 F 15

Esta tabla contiene toda la información necesaria para convertir de binario a hexadecimal y viceversa. Para convertir un número hexadecimal en binario, simplemente sustituya los correspondientes cuatro bits para cada dígito hexadecimal, por ejemplo, para convertir 0ABCDh en un valor binario:

Page 32: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 31

0 A B C D (Hexadecimal)

0000 1010 1011 1100 1101 (Binario)

Por comodidad, todos los valores numéricos los empezaremos con un dígito decimal; los valores hexadecimales terminan con la letra h y los valores binarios terminan con la letra b. La conversión de formato binario a hexadecimal es casi igual de fácil, en primer lugar necesitamos asegurar que la cantidad de dígitos en el valor binario es múltiplo de 4, en caso contrario agregaremos ceros a la izquierda del valor, por ejemplo el número binario 1011001010, la primera etapa es agregarle dos ceros a la izquierda para que contenga doce ceros: 001011001010. La siguiente etapa es separar el valor binario en grupos de cuatro bits, así: 0010 1100 1010. Finalmente buscamos en la tabla de arriba los correspondientes valores hexadecimales dando como resultado, 2CA, y siguiendo la convención establecida: 02CAh. Conversiones entre distintos sistemas numéricos Binario, Octal o Hexadecimal a Decimal se utilizará el formato (bn) * A

dónde: b = valor de la base del sistema (2, 8 o 16) n = número o posición del digito (de derecha a izquierda comenzando en cero)

A = dígito. Ejemplos 110110012 = (27

* 1) + (26 * 1) + (25

* 0) + (24* 1) + (23 * 1) + (22

* 0) + (21 * 0) + (20

* 1) = 128 + 64 + 0 + 16 + 8 + 0 + 0 + 1 = 21710

3518 = (82 * 3) + (81

* 5) + (80 * 1) = 192 + 40 + 1 = 23310

A7C16 = (162 * 10) + (161

* 7) + (160 * 12) = 2560 + 112 + 12 = 268410

Ejercicios: 100101012= _______10

001110012 = ______10

6238 = ______10 7418 = ______10

Page 33: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 32

D7B16 = _________10 8EF216 = _________10

Decimal a Binario se utilizara un método inverso llamado Potencias descendentes de dos y resta:

1. Prepara una "tabla de la base de 2" ordenando de derecha a izquierda, en una lista, las potencias de dos. Empieza con 20, cuyo resultado es "1". Incrementa el exponente en uno para cada potencia. Tras los primeros 10 elementos, la lista debería verse más o menos así: 512, 256, 128, 64, 32, 16, 8, 4, 2, 1

2. Calcula cuál es la potencia más alta que cabe en el número que deseas convertir a binario. Para este ejemplo, convertiremos el número 15610 a binario. ¿Cuál es la potencia de dos más alta que cabe en 156? Comprobamos que 128 cabe, así que escribimos un 1 a la izquierda, que será nuestro primer dígito binario, y restamos 128 a nuestro número decimal, el 156. Ahora tenemos 28. (1)

3. Pasa a la siguiente potencia de dos. ¿Cabe 64 en 28? No, así que escribimos un 0 a la derecha: es el siguiente dígito binario. (10)

4. ¿32 cabe en 28? No, así que escribimos un 0. (100) 5. ¿16 cabe en 28? Sí, entonces escribimos un 1 y restamos 16 de 28.

Ahora tenemos 12. (1001) 6. ¿8 cabe en 12? Sí, entonces escribimos un 1 y restamos 8 de 12.

Tenemos 4. (10011) 7. ¿Cabe 4 (potencia de dos) en 4 (base de 10)? Sí, así que escribimos un

1 y restamos 4 de 4. Nos quedamos con 0. (100111) 8. ¿Cabe 2 en 0? No, entonces escribimos un 0. (1001110) 9. ¿Cabe 1 en 0? No, entonces escribimos un 0. (10011100) 10. Une los dígitos binarios para obtener tu resultado final. Como ya no hay

más potencias de dos para continuar, hemos terminado. Deberías haber obtenido el número 10011100. Este es el número binario equivalente al 156 decimal. O, escrito con las bases en subíndice: 15610 = 100111002

Ejercicios: 23110= ________________2

13610 = _______________2

Page 34: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 33

Binario a Octal y Octal a Binario se utilizara un método llamado comúnmente 421

• Consiste en colocar los dígitos 4 2 1 y considerarlos bits (como si fueran focos – 1= encendido, 0 = apagado - )

• Entonces debemos tomar el numero octal y separar los 3 dígitos (ejemplo.- 3628)

• Como tercer paso tomamos cada digito y colocamos los bits en “1” (encendido) para que la suma corresponda al digito octal (ejemplo.- 3 = 0+2+18 = 0112, 6 = 4+2+08 = 110, 1 = 0+0+18 = 001)

• Como último paso juntamos los bits en el mismo orden y el resultado sería todos los bits juntos. (3628 = 0111100012)

• E inversamente tomaríamos un numero binario (ejemplo.- 0101011112) y

lo separamos en grupos de 3 bits comenzando de derecha a izquierda ( 010 – 101 – 111 )…. ** En caso de que el último grupo de la izquierda le falten 1 o 2 bits se complementan con 0.

• Una vez agrupados de 3 en 3, tomamos los bits 4 2 1 y obtenemos su valor en octal. (010 = 2, 101 = 5, 111 = 7)

• Y por último unimos los dígitos octales (0101011112 = 2578) Ejercicios: 1011000102= ________8

100101010012= ________8

Page 35: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 34

1738= ______________2

62418= ________________2

Binario a Hexadecimal y Hexadecimal a Binario se utilizara un método llamado comúnmente 8421 que es exactamente igual que el anterior pero con 4 bits y los dígitos mayores a 9 se representan con las letras A,B,C,D,E,F. Ejemplo.- A52C16 = A = 1010 5 = 0101 2 = 0010 C= 1100 = 10100101001011002

10010100101112 = 0001-0010-1001-0111 ** se agregaron 3 ceros a la izquierda para completar. = 0001 = 1 0010 = 2 1001 = 9 0111 = 7 = 129716 Ejercicios: 10110110102= ________16

1001110110012= ________16

F7B16= ________________2

62D116= ___________________2

Page 36: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 35

SESION 5 Ejercicio Integrador.- Completa la siguiente tabla.

BINARIO DECIMAL OCTAL HEXADECIMAL

1011100102 21610 4268 5E316 Operaciones con sistemas numéricos

Suma de números binarios

La tabla de sumar para números binarios es la siguiente:

+1 + 0 1 0 1 1 0

Las posibles combinaciones al sumar dos bits son:

0 + 0 = 0 0 + 1 = 1 1 + 0 = 1 1 + 1 = 0 >> 1

Note que al sumar 1 + 1 es 102, es decir, llevamos 1 a la siguiente posición de la izquierda (acarreo). Esto es equivalente, en el sistema decimal a sumar 9 + 1, que da 10: cero en la posición que estamos sumando y un 1 de acarreo a la siguiente posición.

Ejemplo

1 10011000 +00010101 ——————————— 10101101 Se puede convertir la operación binaria en una operación decimal, resolver la decimal, y después transformar el resultado en un (número) binario. Operamos como en el sistema decimal: comenzamos a sumar desde la derecha, en nuestro ejemplo, 1 + 1 = 10, entonces escribimos 0 en la fila del resultado y llevamos 1 (este "1" se llama acarreo o arrastre). A continuación se suma el

Page 37: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 36

acarreo a la siguiente columna: 1 + 0 + 0 = 1, y seguimos hasta terminar todas la columnas (exactamente como en decimal).

Suma de números hexadecimales

9 + 7 = 16 (16 - 16 nos llevamos 1 y es = 10 ) En este caso la respuesta obtenida, 16, no está entre el 0 y el 15, por lo que tenemos que restarle 16. Por lo tanto, la respuesta obtenida será 10 (sistema hexadecimal). Hay que tener cuidado de utilizar correctamente las letras, ya que operar a la vez con letras y números puede crear confusiones. A + 6 = 16 (16 - 16 = 0 y nos llevamos 1) Ocurre lo mismo que en el ejemplo anterior. A + A = 20 ( 20 – 16 = 4 y nos llevamos 1) La respuesta es 20 y no está entre el 0 y el 15, por lo que tenemos que restarle 16. Por lo tanto, la respuesta obtenida será 14 (sistema hexadecimal). Hay que tener cuidado de utilizar correctamente las letras, ya que operar a la vez con letras y números puede crear confusiones. F + E = 29 ( 29 – 16 = D y nos llevamos 1) La respuesta es 29 y no está entre el 0 y el 15, por lo que tenemos que restarle 16. Por lo tanto, la respuesta obtenida será 1D (sistema hexadecimal). Hay que tener cuidado de utilizar correctamente las letras, ya que operar a la vez con letras y números puede crear confusiones. A + 2 = 12 (12 corresponde a C) 1 1

A5F16 + 3D716 E3616

Suma de números octales

1 + 7 = 8 (8 - 8 nos llevamos 1 y es = 10 ) En este caso la respuesta obtenida, 8, no está entre el 0 y el 7, por lo que tenemos que restarle 8. Por lo tanto, la respuesta obtenida será 10 (sistema hexadecimal). Hay que tener cuidado de utilizar correctamente las letras, ya que operar a la vez con letras y números puede crear confusiones. 5 + 6 = 13 (11 - 8 = 3 y nos llevamos 1)

Page 38: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 37

Ocurre lo mismo que en el ejemplo anterior. 7 + 7 = 16 ( 14 – 8 = 6 y nos llevamos 1) La respuesta es 14 y no está entre el 0 y el 7, por lo que tenemos que restarle 8. Por lo tanto, la respuesta obtenida será 16 (sistema octal). Hay que tener cuidado de utilizar correctamente las letras, ya que operar a la vez con letras y números puede crear confusiones. 6 + 4 = 12 (10 – 8 = 2 y nos llevamos 1) La respuesta es 10 y no está entre el 0 y el 7, por lo que tenemos que restarle 8. Por lo tanto, la respuesta obtenida será 12 (sistema octal). Hay que tener cuidado de utilizar correctamente las letras, ya que operar a la vez con letras y números puede crear confusiones. 4 + 2 = 6 (sin ajuste alguno porque no se pasa de 7) 11

2648 + 3758 6618

Algebra Booleana

Introducción

Las álgebras booleanas, estudiadas por primera vez en detalle por George Boole, constituyen un área de las matemáticas que ha pasado a ocupar un lugar prominente con el advenimiento de la computadora digital. Son usadas ampliamente en el diseño de circuitos de distribución y computadoras, y sus aplicaciones van en aumento en muchas otras áreas. En el nivel de lógica digital de una computadora, lo que comúnmente se llama hardware, y que está formado por los componentes electrónicos de la máquina, se trabaja con diferencias de tensión, las cuales generan funciones que son calculadas por los circuitos que forman el nivel. Éstas funciones, en la etapa de diseña del hardware, son interpretadas como funciones de boole.

En el presente trabajo se intenta dar una definición de lo que es un álgebra de boole; se tratan las funciones booleanas, haciendo una correlación con las fórmulas proposicionales. Asimismo, se plantean dos formas canónicas de las funciones booleanas, que son útiles para varios propósitos, tales como el de determinar si dos expresiones representan o no la misma función. Pero para otros propósitos son a menudo engorrosas, por tener más operaciones que las necesarias. Particularmente, cuando estamos construyendo los circuitos electrónicos con que implementar funciones booleanas, el problema de determinar una expresión mínima para una función es a menudo crucial. No resultan de la misma eficiencia en dinero y tiempo, principalmente, dos funciones las cuales calculan lo mismo pero donde una tiene menos variables y

Page 39: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 38

lo hace en menor tiempo. Como solución a este problema, se plantea un método de simplificación, que hace uso de unos diagramas especiales llamados mapas o diagramas de Karnaugh, y el cual tiene la limitación de poder trabajar adecuadamente sólo con pocas variables.

Se realizan estas presentaciones con el fin de demostrar la afinidad existente entre el álgebra de boole y la lógica proposicional, y con el objeto de cimentar el procedimiento de simplificación presentado en la lógica de proposiciones.

Álgebra Booleana

El álgebra booleana es un sistema matemático deductivo centrado en los valores cero y uno (falso y verdadero). Un operador binario " º " definido en éste juego de valores acepta un par de entradas y produce un solo valor booleano, por ejemplo, el operador booleano AND acepta dos entradas booleanas y produce una sola salida booleana.

Para cualquier sistema algebraico existen una serie de postulados iniciales, de aquí se pueden deducir reglas adicionales, teoremas y otras propiedades del sistema, el álgebra booleana a menudo emplea los siguientes postulados:

Cerrado. El sistema booleano se considera cerrado con respecto a un operador binario si para cada par de valores booleanos se produce un solo resultado booleano.

Conmutativo. Se dice que un operador binario " º " es conmutativo si A º B = B º A para todos los posibles valores de A y B.

Asociativo. Se dice que un operador binario " º " es asociativo si (A º B) º C = A º (B º C) para todos los valores booleanos A, B, y C.

Distributivo. Dos operadores binarios " º " y " % " son distributivos si A º (B % C) = (A º B) % (A º C) para todos los valores booleanos A, B, y C.

Identidad. Un valor booleano I se dice que es un elemento de identidad con respecto a un operador binario " º " si A º I = A.

Inverso. Un valor booleano I es un elemento inverso con respecto a un operador booleano " º " si A º I = B, y B es diferente de A, es decir, B es el valor opuesto de A.

Para nuestros propósitos basaremos el álgebra booleana en el siguiente juego de operadores y valores:

- Los dos posibles valores en el sistema booleano son cero y uno, a menudo llamaremos a éstos valores respectivamente como falso y verdadero.

- El símbolo · representa la operación lógica AND. Cuando se utilicen nombres de variables de una sola letra se eliminará el símbolo ·, por lo

Page 40: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 39

tanto AB representa la operación lógica AND entre las variables A y B, a esto también le llamamos el producto entre A y B.

- El símbolo "+" representa la operación lógica OR, decimos que A+B es la operación lógica OR entre A y B, también llamada la suma de A y B.

- El complemento lógico, negación ó NOT es un operador unitario, en éste texto utilizaremos el símbolo " ' " para denotar la negación lógica, por ejemplo, A' denota la operación lógica NOT de A.

- Si varios operadores diferentes aparecen en una sola expresión booleana, el resultado de la expresión depende de la procedencia de los operadores, la cual es de mayor a menor, paréntesis, operador lógico NOT, operador lógico AND y operador lógico OR. Tanto el operador lógico AND como el OR son asociativos por la izquierda. Si dos operadores con la misma procedencia están adyacentes, entonces se evalúan de izquierda a derecha. El operador lógico NOT es asociativo por la derecha.

Compuertas Lógicas

Una puerta lógica, o compuerta lógica, es un dispositivo electrónico con una función booleana. Suman, multiplican, niegan o afirman, incluyen o excluyen según sus propiedades lógicas. Se pueden aplicar a tecnología electrónica, eléctrica, mecánica, hidráulica y neumática. Son circuitos de conmutación integrados en un chip.

Claude Elwood Shannon experimentaba con relés o interruptores electromagnéticos para conseguir las condiciones de cada compuerta lógica, por ejemplo, para la función booleana Y (AND) colocaba interruptores en circuito serie, ya que con uno solo de éstos que tuviera la condición «abierto», la salida de la compuerta Y sería = 0, mientras que para la implementación de una compuerta O (OR), la conexión de los interruptores tiene una configuración en circuito paralelo.

Page 41: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 40

La tecnología microelectrónica actual permite la elevada integración de transistores actuando como conmutadores en redes lógicas dentro de un pequeño circuito integrado. El chip de la CPU es una de las máximas expresiones de este avance tecnológico.

En nanotecnología se está desarrollando el uso de una compuerta lógica molecular, que haga posible la miniaturización de circuitos.

Page 42: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 41

Page 43: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 42

Page 44: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 43

Page 45: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 44

SESION 6 Los circuitos combinatorios son aquellos formados por 2 o más compuertas y transforman un conjunto de entradas en un conjunto de salidas de acuerdo a la lógica de cada una de las compuertas utilizadas, Las salidas se actualizan después de cualquier cambio en las entradas. Circuitos combinatorios de 2 entradas Son circuitos formados por 2 o más compuertas lógicas alimentadas por 2 entradas.

Para este tipo de circuitos la tabla de verdad resultante dependerá de cada tabla de verdad individual de cada compuerta. ** Es importante señalar que el número de combinaciones (renglones) de la tabla de verdad depende del número de entradas y no del número de compuertas lógicas del circuito. (2n = Numero de combinaciones)

2 entradas = 22 = 4 combinaciones 3 entradas = 23 = 8 combinaciones 4 entradas = 24 = 16 combinaciones 5 entradas = 25 = 32 combinaciones 6 entradas = 26 = 64 combinaciones

La forma de obtener la salida se debe alimentar a cada entrada de acuerdo a la tabla de verdad, y luego se debe analizar cada etapa del circuito, y así sucesivamente. Ejemplo.- Para el siguiente circuito se alimenta A=0,

B=0, para el AND la salida es cero (de acuerdo a su tabla de verdad) y esta alimenta la entrada del OR y por consiguiente la salida final es 0. Para el caso de A=1, B=0, en el AND la salida sigue siendo 0, pero al tener una entrada en el OR con B=1, la salida final es 1. Y así sucesivamente.

Page 46: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 45

Analiza los siguientes circuitos:

Obtén las tablas de verdad de los siguientes circuitos:

A B X

0 0

0 1

1 0

1 1

A B X

0 0

0 1

1 0

1 1

Page 47: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 46

Teoremas del Algebra de Boole

Los diversos teoremas booleanos nos pueden servir para simplificar las expresiones y los circuitos lógicos. El grupo de teoremas se muestra en la imagen anterior. En cada teorema, x es una variable lógica que puede ser un 0 o un 1.

El teorema (1) enuncia que, si cualquier variable se opera con AND con un 0, el resultado tiene que ser cero. Esto es fácil de recordar porque la operación AND es como la multiplicación ordinaria, en la que cualquier número que se multiplica por 0 es 0. La salida de una compuerta AND será cero siempre que cualquier entrada sea 0, independientemente del nivel de la otra entrada.

El teorema (2) también evidente por su comparación con la multiplicación ordinaria.

El teorema (3) se puede demostrar ensayando cada caso. Si x = 0, entonces 0 • 0 = 0; si x = 1, entonces 1-1 = 1. Así x • x = x.

El teorema (4) se puede probar en la misma forma. Sin embargo, también puede razonarse que en cualquier momento, x o su inversa x, tiene que estar en el nivel 0, de modo que su producto AND siempre tiene que ser 0.

El teorema (5) es directo ya que 0, sumado a cualquier número, no altera su valor en la suma común o en la adición OR.

El teorema (6) afirma que, si cualquier variable se opera con OR con 1, el resultado siempre será 1. Verificamos esto con ambos valores de x: 0 + 1 - 1 y 1 + 1 = 1. De manera equivalente, podemos recordar que la salida de una compuerta OR será 1 cuando cualquier entrada sea 1, sin importar qué valor tenga la otra.

Page 48: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 47

El teorema (7) puede demostrarse verificando los dos valores de x: 0 + 0 = 0 y l + 1 = 1.

El teorema (8) se puede probar en forma similar, o simplemente se puede razonar que en cualquier instante x o x tiene que estar en el nivel 1, de manera que siempre operemos con OR un 0 y un 1, que siempre da como resultado 1.

Teoremas con Múltiples Variables

Los siguientes teoremas implican más de una variable:

x + y = y + x

x • y = y • x

x + (y + z) = (x + y) + z = x + y + z

x(yz) = (xy)z = xyz

x(y + z) = xy + xz

(w + x)(y + z) = wy + xy + wz + xz

x + xy - x

x + xy = x + y

Todos estos teoremas booleanos pueden ser de utilidad para simplificar una expresión lógica, es decir, para reducir el número de términos de la expresión. Cuando se hace esto, la expresión reducida producirá un circuito menos complejo que el que la expresión original habría generado. Recuerda que un AND representa una multiplicación y un OR una suma. El NOT se representa con la variable negada. Problemas de los Teoremas del Algebra Booleana x y + x y' = x (y + y') = x (1) = x

(x + y)(x + y') = x + x y' + y x +y y' = x + x y' + y x + 0 = x (1 + y' + y) = x (1 + (y' + y)) = x (1 + 1) = x (1) = x

Page 49: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 48

x y z + x' y + x y z' = y (x z + x' + x z') = y (x' + x z + x z') = y (x' + (x z + x z')) = y (x' + (x (z + z')) = y (x' + (x (1)) = y (x' + x) = y (1) = y

z x + z x' y = z (x + x' y)

(A + B)'(A' +B')' = (A' B')(A'' B'') = (A' B') (A B) = A' A + A' B + B' A + B' B = 0 + A' B + B' A + 0 = A' B + B' A ----------> XOR

y (w z' + w z) + x y = y w (z' + z) + x y = y w (1) + x y = y w + x y = y (w + x)

Simplificación de circuitos combinatorios con teoremas de Boole Primero tenemos que obtener la Ecuación Canónica del Circuito Ejemplo.-

(A + B)'(A' +B')' = (A' B')(A'' B'') = (A' B') (A B) = A' A + A' B + B' A + B' B = 0 + A' B + B' A + 0 = A' B + B' A ----------> XOR

(A + B)(A’ + B) = A A’ + A’ B + B A +B B = 0 + A’ B + B A + B = B (1 + (A' + A)) = A (1 + 1) = A (1) = A

Page 50: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 49

SESION 7 Simplificación de circuitos combinatorios con teoremas de Boole … CONTINUACIÓN. =(A · B · C · D) + (A · B · C · D) + (A · B · C · D) +(A · B · C · D) + (A · B · C · D) + (A · B · C · D)+ (A · B · C · D) + (A · B · C · D) + (A · B · C · D) +(A · B · C · D) = (A · B + A · B + A · B + A · B) · (C · D) +(A · B + A · B + A · B + A · B) · (C · D) +(A + A) · (B · C · D) = (A + A) · (B + B) · (C · D + C · D) + (B · C · D) = D + (B · C · D) = D + (B · C)

X = (A’ +AB) +(B’(C+D)) X = (A’+A)(A’ + B) + (B’(C + D)) X = (A’ + B) + (B’C + B’D) X = A’ + B + B’C + B’D X = A’ + (B+B’)(B+C) + B’D X = A’ + B + C + B’D X = A’ + (B+B’)(B+ D) + C X = A’ + B + C + D

Simplifica las siguientes ecuaciones utilizando los teoremas de Boole. X = (AB+B’)BC

X =((A+B)’ · C)’ + (C D)’ + B)’)’

Desarrollo del Protolab En esta sección se explicara la forma de fabricar el protolab que será utilizado para comprobar los circuitos combinatorios de forma física con compuertas reales.

Page 51: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 50

Material: PROTOBOARD

CIRCUITOS (COMPUERTAS)

• 7400

• 7402

• 7404

• 7408

• 7432

• 7486

12 RESISTENCIAS 330 Ohms

7 LEDS DE 5V (NO INFRARROJOS)

6 MICRO INTERRUPTORES

FUENTE DE PODER DE 5 V

TABLA DE MADERA TRIPLAY DE 3 MM (8.5” X 11”)

50 CMS CABLE UTP- 5

CAUTIN Y SOLDADURA

Por debajo del protolab todos los interruptores deben soldarse en paralelo y en uno de los polos la resistencia, de la siguiente manera:

+ 5V

Page 52: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 51

Como segundo paso se suelda la resistencia al polo positivo (+) del LED (la patita más larga). Y por último un cable UTP al polo negativo (-) (patita más corta). Este cable se pasa a la parte superior de la tabla a través de un orificio muy delgado. Después de armar todo el material el Protolab queda de la siguiente manera:

LEDS

INTERRUPTORES

CABLES UTP

En la parte inferior de la tabla se inserta un LED también soldando una Resistencia y

dos cables (pero sin interruptor)

Page 53: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 52

SESION 8 Continuaremos con el armado del Protolab….

El LED de la parte inferior es la salida del circuito y esta se debe insertar el cable (-) a l línea AZUL y el cable (+) con su respectiva resistencia soldada a la salida del circuito que se está probando. Una vez fabricado el protolab se procederá a probar cada compuerta lógica con su respectiva tabla de verdad.

Page 54: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 53

Para cada circuito integrado se debe obtener diagrama del mismo. Ejemplo.-

Aquí podemos observar como internamente se tienen 4 compuertas lógicas y lo que representa cada “patita”del C.I. Lo que debemos hacer es tomar el cable del Interruptor 1 y lo consideramos la entrada A y el segundo cable del interruptor la entrada B. Ambos cables los insertamos en las “patitas” 1 y 2 de acuerdo a este mapa del 7432 (cada C.I. tiene su propio mapa y se debe cuidar el sentido de las compuertas y el

valor de cada “patita”). Para la salida (patita 3) se debe insertar el cable de la salida (LED inferior), y luego se procede a comprobar la tabla de verdad del 7432 (OR). ES IMPORTANTE SEÑALAR QUE POR CADA ENTRADA (A,B,C,D, etc) se

deben aterrizar (-) con una resistencia.

Un ejemplo de cómo se debe implementar el circuito en el Protolab seria de la siguiente manera.

(-)(-)

Switch A

Switch B

Page 55: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 54

Circuitos Combinatorios de 3 entradas

Con las mismas bases de los circuitos de 2 entradas, en estos casos solo se agrega la entrada C y se procede normalmente a obtener la tabla de verdad (recordar que el número de combinaciones depende del número de entradas, así que 23 = 8 combinaciones (renglones) de la tabla de verdad para A B C)

Ejercicios: Obtener la tabla de verdad de los siguientes circuitos.

*** Existe un truco para “llenar” los bits de A,B,C,D, etc de la tabla de verdad y así obtener todas las combinaciones posibles: (1) la primer columna de izquierda a derecha (no Z) ya sea B, C, D, etc., se debe llenar 0,1,0,1,0,1…. En forma descendente (comenzar en cero). (2) La segunda columna de izquierda a derecha se debe llenar 0,0,1,1,0,0,1,1 …. (3) la

tercer columna 0,0,0,0,1,1,1,1,0,0,0,0,1,1,1,1 y (4) así sucesivamente siempre aumentando el doble (8 ceros, 8 unos) y luego el doble (16 ceros, 16 unos).

Miniterminos y Maxiterminos A partir de la tabla de verdad de un circuito combinatorio, en la salida se pueden observar cuando el resultado es 1 (minitermino) y cuando es 0 (maxitermino). Los miniterminos son los 1’s de la salida de la tabla de verdad y se expresan como una suma de productos y los miniterminos son los 0’s de la tabla de verdad y se representan como un producto de sumas.

Page 56: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 55

Ejemplo.-

A B C Z

0 0 0 0 <- Maxitermino (A'+B'+C')

0 0 1 1 <- Minitermino (A'B'C)

0 1 0 0 <- Maxitermino (A'+B+C') Miniterminos.- (A'B'C) + (AB'C') + (ABC') + (ABC)

0 1 1 0 <- Maxitermino (A'+B+C)

1 0 0 1 <- Minitermino (AB'C') Maxiterminos.- (A'+B'+C')(A'+B+C')(A'+B+C)(A+B'+C)

1 0 1 0 <- Maxitermino (A+B'+C)

1 1 0 1 <- Minitermino (ABC')

1 1 1 1 <- Minitermino (ABC)

Ejercicios: Obtener los miniterminos y maxiterminos de los siguientes circuitos.

Page 57: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 56

SESION 9 Trabajo en el Protolab con circuitos de 3 entradas Ejercicios: Implementar los siguientes circuitos y comprobar su tabla de verdad.

Page 58: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 57

Mapas de Karnaugh de Circuitos de 3 entradas

Un mapa de Karnaugh (también conocido como tabla de Karnaugh o diagrama de Veitch, abreviado como Mapa-K o Mapa-KV) es un diagrama utilizado para la simplificación de funciones algebraicas Booleanas. El mapa de Karnaugh fue inventado en 1950 por Maurice Karnaugh, un físico y matemático de los laboratorios Bell.

Los mapas de Karnaugh reducen la necesidad de hacer cálculos extensos para la simplificación de expresiones booleanas, aprovechando la capacidad del cerebro humano para el reconocimiento de patrones y otras formas de expresión analítica, permitiendo así identificar y eliminar condiciones muy inmensas. Consiste en la utilización de los miniterminos de la tabla de verdad y colocarlos en un mapa de Karnaugh para su análisis y simplificación. Los mapas de Karnaugh son tablas de filas y columnas y su tamaño depende del número de entradas (A,B,C,D,E,F)

La forma de armar los mapas de Karnaugh es tomar los miniterminos y colocar cada uno en la celda correspondiente de acuerdo a las entradas. Ejemplo.-

El siguiente paso es tomar los miniterminos en el Mapa de Karnaugh y hacer conjuntos múltiples de 2,4,8,16.

El último paso consiste en analizar el conjunto (en este ejemplo tenemos 2, uno rojo y otro azul), y eliminamos aquella entrada (A,B,C) que cambie. Por ejemplo en el conjunto rojo un minitermino tiene el valor A’B’C y el otro AB’C, y cómo podemos observar A tiene 2 valores por consiguiente se elimina y solo queda

B’C. En el conjunto azul un minitermino tiene el valor A’B’C’ y el otro A’B’C, y cómo podemos observar C tiene 2 valores se elimina y solo queda A’B’, Como resultado la función simplificada queda B’C + A’B’ Y si aplicamos Teoremas al final nos queda: B’(C+A) Y el circuito resultante queda de la siguiente manera.

Page 59: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 58

Ejercicios: Obtener el mapa de karnaugh, la ecuación simplificada y el circuito equivalente de las siguientes tablas de verdad.

A B C Z

0 0 0 1

0 0 1 1

0 1 0 0

0 1 1 0

1 0 0 0

1 0 1 0

1 1 0 1

1 1 1 1

A B C Z

0 0 0 0

0 0 1 0

0 1 0 1

0 1 1 1

1 0 0 0

1 0 1 0

1 1 0 1

1 1 1 1

A B C Z

0 0 0 0

0 0 1 1

0 1 0 0

0 1 1 1

1 0 0 1

1 0 1 0

1 1 0 1

1 1 1 0

A B C Z

0 0 0 1

0 0 1 1

0 1 0 1

0 1 1 1

1 0 0 0

1 0 1 1

1 1 0 1

1 1 1 0

Recordar que las conjuntos pueden ser de 8,4,2 miniterminos (comenzando con el mayor número posible). En caso de ser 4 u 8 miniterminos también se eliminan aquellas entradas (A,B,C,D) que cambien su valor dentro del conjunto.

Page 60: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 59

SESION 10

Mapas de Karnaugh de Circuitos de 4 entradas Obtener el mapa de Karnaugh, la ecuación simplificada y el circuito equivalente de las siguientes tablas de verdad. (Utiliza un mapa de 4x4)

Page 61: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 60

SESION 11

Trabajo con el Protolab con Circuitos de 4 entradas Comprobar la tabla de verdad de los siguientes circuitos.

Page 62: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 61

Mapas de karnaugh de 5 circuitos de entradas Para los circuitos de 5 entradas (A,B,C,D,E) se utilizara un formato diferente de tabla de verdad y de mapa de karnaugh. Para no utilizar una tabla de 32 combinaciones (renglones) lo cual haría muy complicado su visualización, se procederá a utilizar un formato de 16 renglones pero con 2 salidas (que en realidad es una sola salida pero los primeros 16 cuando A=0 y los siguientes 16 cuando A=1) Y en los mapas de karnaugh se utilizaran también 2 matrices de 4x4 , una para A=0 y otra para A=1.

En la figura se puede observar cómo se toman los miniterminos y como se acomodan en los mapas correspondientes. Solo que se deben considerar que pueden existir miniterminos en la misma posición en ambos mapas y por tal motivo pueden formar una malla de más elementos (de color rojo). La única condición es que la malla sea de 4,8,16,32 elementos. Los que resta es analizar cada malla considerando que si un elemento se

encuentra en los dos mapas este se elimina ya que cambia su valor (A=0 y A=1). Para la malla de color rojo A se encuentra en ambos mapas y se elimina, y por su posición también se elimina C y E, así que esa malla queda BD. La malla verde también se elimina A y E, así que el resultado es B’C’D La malla azul queda ABC Y la malla naranja queda A’B’CD’ Por tal motivo tenemos 4 mallas y ya simplificando la función queda:

BD + B’C’D + ABC + A’B’CD’

A=1 A=0

B C D E Z Z

0 0 0 0 0 0 A=0

0 0 0 1 0 0 00 01 11 10

0 0 1 0 1 1 00 1 1

0 0 1 1 1 1 BC 01 1 1

0 1 0 0 1 0 11 1 1

0 1 0 1 1 0 10 1 1

0 1 1 0 0 0

0 1 1 1 0 0

1 0 0 0 0 0 A=1

1 0 0 1 0 0 00 01 11 10

1 0 1 0 1 1 00 1 1

1 0 1 1 1 1 BC 01

1 1 0 0 0 1 11 1 1 1 1

1 1 0 1 0 1 10 1 1

1 1 1 0 1 1

1 1 1 1 1 1

DE

DE

Page 63: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 62

Obtener el mapa de Karnaugh, la ecuación simplificada y el circuito equivalente de las siguientes tablas de verdad.

A=1 A=0

B C D E Z Z

0 0 0 0 1 1

0 0 0 1 1 1

0 0 1 0 0 0

0 0 1 1 0 0

0 1 0 0 1 0

0 1 0 1 1 0

0 1 1 0 0 1

0 1 1 1 0 1

1 0 0 0 0 1

1 0 0 1 0 1

1 0 1 0 1 0

1 0 1 1 1 0

1 1 0 0 1 1

1 1 0 1 1 1

1 1 1 0 0 1

1 1 1 1 0 1

A=1 A=0

B C D E Z Z

0 0 0 0 1 1

0 0 0 1 1 1

0 0 1 0 1 0

0 0 1 1 1 0

0 1 0 0 0 0

0 1 0 1 0 0

0 1 1 0 0 0

0 1 1 1 0 0

1 0 0 0 0 1

1 0 0 1 0 1

1 0 1 0 1 1

1 0 1 1 1 1

1 1 0 0 0 0

1 1 0 1 0 0

1 1 1 0 1 1

1 1 1 1 1 1

Page 64: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 63

SESION 12

Trabajo con el Protolab con Circuitos de 5 entradas Comprobar la tabla de verdad de los siguientes circuitos.

Page 65: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 64

Mapas de karnaugh de 6 circuitos de entradas Para los circuitos de 6 entradas (A,B,C,D,E,F) se utilizará un formato diferente de tabla de verdad y de mapa de karnaugh. Para no utilizar una tabla de 64 combinaciones (renglones) lo cual haría muy complicado su visualización, se procederá a utilizar un formato de 16 renglones pero con 4 salidas (que en realidad es una sola salida pero los primeros 16 cuando A=0 y B=0, otra para cuando A=0 y B=1, otra para cuando A=1 y B=0, y otra para cuando A=1 y B=1). Y en los mapas de karnaugh se utilizaran también 4 matrices de 4x4 para todas las combinaciones de A y B.

En la figura se puede observar cómo se toman los miniterminos y como se acomodan en los mapas correspondientes. Solo que se deben considerar que pueden existir miniterminos en la misma posición en todos los mapas y por tal motivo pueden formar una malla de más elementos (de color naranja). La única condición es que la malla sea de 4,8,16,32 elementos. Los que resta es analizar cada malla considerando que si un elemento se encuentra en los dos mapas este se elimina ya que cambia su valor (A=0, A=1, B=0, B=1). Para la malla de color naranja A,B se encuentra en todas los mapas y se eliminan, y por su posición también se elimina D y F, así que esa malla queda CE. La malla roja también se elimina B y también E, F así que el resultado es ACD La malla verde se elimina A y también E,F así que el resultado es BCD’ La malla azul queda B’C’E’

La malla amarilla queda A’B’C’D’ La malla negra queda ABC’D’E Por tal motivo tenemos 6 mallas y ya simplificando la función queda:

CE + ACD + BCD’ + B’C’E’ + A’B’C’D’ + ABC’D’E

Page 66: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 65

Obtener el mapa de Karnaugh, la ecuación simplificada y el circuito equivalente de las siguientes tablas de verdad.

Page 67: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 66

SESION 13

Trabajo con el Protolab con Circuitos de 6 entradas Comprobar la tabla de verdad de los siguientes circuitos.

Page 68: Organizacion Computacional

ORGANIZACIÓN COMPUTACIONAL

UNIVERSIDAD DEL NORTE # 67