85
qwertyuiopasdfghjklzxcvbnmq wertyuiopasdfghjklzxcvbnmqw ertyuiopasdfghjklzxcvbnmqwer tyuiopasdfghjklzxcvbnmqwerty uiopasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyuiop asdfghjklzxcvbnmqwertyuiopas dfghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdfgh jklzxcvbnmqwertyuiopasdfghjkl zxcvbnmqwertyuiopasdfghjklzx cvbnmqwertyuiopasdfghjklzxcv bnmqwertyuiopasdfghjklzxcvbn mqwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnmq wertyuiopasdfghjklzxcvbnmqw ertyuiopasdfghjklzxcvbnmrtyui opasdfghjklzxcvbnmqwertyuiop asdfghjklzxcvbnmqwertyuiopas dfghjklzxcvbnmqwertyuiopasdf Historia de la Computación Alicia quiñones polo [Seleccione la fecha] CEVCOH D.G.I

Historia de la Computación-informática

Embed Size (px)

Citation preview

Page 1: Historia de la Computación-informática

qwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdf

Historia de la Computación

Alicia quiñones polo

[Seleccione la fecha]

CEVCOH D.G.I

Page 2: Historia de la Computación-informática

Índice HISTORIA DE LA COMPUTACIÓN ARQUITECTURA DE UNA COMPUTADORA SOFTWARE DATOS SISTEMAS OPERATIVOS REDES INTERNET CONCLUSIÓN BIBLIOGRAFÍA INTRODUCCIÓN Al presentar este trabajo esperamos que le sea de interés y le ayude a profundizar en todos los temas que a continuación se van a desarrollar. A la espera de que este trabajo llene las expectativas creadas y le sirva de base para futuras referencias en temas de tanta relevancia e importancia en estos días de la alta y avanzada tecnología. TEMA I HISTORIA DE LA COMPUTACIÓN 1.1 RESEÑA HISTÓRICA Todo comenzó con máquinas destinadas a manejar números, es así como nos remitimos a el Ábaco, inventado por los babilonios allá por el año 1000 A.C.. Utilizado sobre todo por los chinos para la realización de operaciones sencillas, esta formado por una tablilla con una serie de cuentas que sirven para efectuar sumas y restas. Justo antes de morir en 1617, el matemático escocés John Napier (mejor conocido por su invención de logaritmos) desarrolló un juego de palitos para calcular a las que llamó "Napier Bones." Así llamados porque se tallaron las ramitas de hueso o marfil, los "bones" incorporaron el sistema logarítmico. Los Huesos de Napier tuvieron una influencia fuerte en el desarrollo de la regla deslizante (cinco años más tarde) y máquinas calculadoras subsecuentes que contaron con logaritmos. En 1621 la primera regla deslizante fue inventada por el del matemático inglés William Oughtred. La regla deslizante (llamó "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Uno de los primeros aparatos de la informática analógica, la regla deslizante se usó normalmente (en un orden lineal) hasta que a comienzos de 1970, cuando calculadoras portátiles comenzaron a ser más popular. En 1623 la primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacia rodar cilindros en un albergue grande. Se comisionó un Reloj Calcualdor para Johannes Kepler, el matemático famoso, pero fue destruido por fuego antes de que se terminara. Uno de los antepasados mas directos de la computadora actual, fue creada por el científico francés Blaise Pasca en el siglo XVII(1642). A sus 18 años, Pascal invento su primera maquina calculadora, capaz de sumar y restar ; y todo ello a base de engarzar múltiples ruedas dentadas. En 1666 la primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de una serie de ruedas, cada representaba, dieses, cientos, etc.

Page 3: Historia de la Computación-informática

Un alfiler del acero movía los diales para ejecutar las calculaciones. A diferencia de la Pascalina, el aparato no tenía avanzó automático de en columnas. Años mas tarde, en 1673, Gottfied Von Leibnitz perfecciono los estudios de Pascal, y llego a construir una maquina que no solo sumaba y restaba, sino que también multiplicaba, dividía e incluso calculaba raíces cuadradas. En 1769 el Jugador de Ajedrez Autómata fue inventado por Barón Empellen, un noble húngaro. El aparato y sus secretos se le dieron a Johann Nepomuk Maelzel, un inventor de instrumentos musicales, quien recorrió Europa y los Estados Unidos con el aparato, a finales de 1700 y temprano 1800. Pretendió ser una máquina pura, el Autómata incluía un jugador de ajedrez "robótico". El Automatón era una sensación dondequiera que iba, pero muchas comentaristas, incluso el Edgar Allen Poe famoso, ha escrito críticas detalladas diciendo que ese era una "máquina pura." En cambio, generalmente, siempre se creyó que el aparato fue operado por un humano oculto en el armario debajo del tablero de ajedrez. El Autómata se destruyó en un incendio en 1856. Se inventó la primera máquina lógica en 1777 por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas. En 1790 Joseph-Marie Jacquard(1572-1834) utilizo tarjetas perforadas para controlar un telar. El "Jacquard Loom" se inventó en 1804 por Joseph-Marie Jacquard. Inspirado por instrumentos musicales que se programaban usando papel agujereados, la máquina se parecía a una atadura del telar que podría controlar automáticamente de dibujos usando una línea tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba formar la base de muchos aparatos de la informática e idiomas de la programación. La primera calculadora de producción masiva se distribuyó, empezando en 1820, por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el "aritmómetro" de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetro se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862. 1.2 PIONEROS DE LA INFORMATICA Blaise Pascal, Gottfied Von Leibnitz, Charles Babbage, Augusta Byron Herman Hollerith, James Powers, Alan Turing, Konrad Zuse, John Von Neumann, Chuck Peddle, Linus Trovlas, Bill Gates 1.3 DEFINICIONES DE COMPUTADORA Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de salida. Dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información. Es un calculador electrónico de elevada potencia equipado de memorias de gran capacidad y aparatos periféricos, que permite solucionar con gran rapidez y sin intervención humana, durante el desarrollo del proceso problemas lógicos y aritméticos muy complejos.

Page 4: Historia de la Computación-informática

1.4 LA PRIMERA COMPUTADORA Fue en 1830, cuando se establecieron los principios de funcionamiento de las modernas computadoras. Su paternidad se debe al matemático ingles Charles Babbage, quien tras lanzar en 1822 la denominada maquina diferencial- con nada menos que 96 ruedas dentadas y 24 ejes, se lanzo en pos de su proyecto mas relevante:la máquina analítica(1833). La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedicó al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores. 1.5 TIPOS DE COMPUTADORAS 1. Análoga La computadora análoga es la que acepta y procesa señales continuas, tales como: fluctuaciones de voltaje o frecuencias. Ejemplo: El termostato es la computadora análoga más sencilla. 2. Digital La computadora digital es la que acepta y procesa datos que han sido convertidos al sistema binario. La mayoría de las computadoras son digitales. 3. Híbrida La computadora híbrida es una computadora digital que procesa señales análogas que han sido convertidas a forma digital. Es utilizada para control de procesos y en robótica. 4. Propósito especial La computadora de propósito especial está dedicada a un solo propósito o tarea. Pueden ser usadas para producir informes del tiempo, monitorear desastres naturales, hacer lecturas de gasolina y como medidor eléctrico. Ejemplo: carros de control remoto, horno microoondas, relojes digitales, cámaras, procesador de palabras, etc. 5. Propósito general La computadora de propósito general se programa para una variedad de tareas o aplicaciones. Son utilizadas para realizar cálculos matemáticos, estadísticos, contabilidad comercial, control de inventario, nómina, preparación de inventario, etc. Ejemplo: "mainframes" o minicomputadoras. Categorías de las computadoras Supercomputadora La supercomputadora es lo máximo en computadora, es la más rápida y, por lo tanto, la más cara. Cuesta millones de dólares y se hacen de dos a tres al año. Procesan billones de instrucciones por segundo. Son utilizadas para trabajos científicos, particularmente para crear modelos matemáticos del mundo real, llamados simulación.

Page 5: Historia de la Computación-informática

"Mainframe" Los "mainframe" son computadoras grandes, ligeras, capaces de utilizar cientos de dispositivos de entrada y salida. Procesan millones de instrucciones por segundo. Su velocidad operacional y capacidad de procesar hacen que los grandes negocios, el gobierno, los bancos, las universidades, los hospitales, compañías de seguros, líneas aéreas, etc. confién en ellas. Su principal función es procesar grandes cantidades de datos rápidamente. Estos datos están accesibles a los usuarios del "mainframe" o a los usuarios de las microcomputadoras cuyos terminales están conectados al "mainframe". Su costo fluctúa entre varios cientos de miles de dólares hasta el millón. Requieren de un sistema especial para controlar la temperatura y la humedad. También requieren de un personal profesional especializado para procesar los datos y darle el mantenimiento. Minicomputadora La minicomputadora se desarrolló en la década de 1960 para llevar a cabo tareas especializadas, tales como el manejo de datos de comunicación. Son más pequeñas, más baratas y más fáciles de mantener e instalar que los "mainframes". Su costo está entre los cincuenta mil hasta varios cientos de miles. Usadas por negocios, colegios y agencias gubernamentales. Su mercado ha ido disminuyendo desde que surgieron las microcomputadoras. Microcomputadora La microcomputadora es conocida como computadora personal o PC. Es la más pequeña, gracias a los microprocesadores, más barata y más popular en el mercado. Su costo fluctúa entre varios cientos de dólares hasta varios miles de dólares. Puede funcionar como unidad independiente o estar en red con otras microcomputadoras o como un terminal de un "mainframe" para expandir sus capacidades. Puede ejecutar las mismas operaciones y usar los mismos programas que muchas computadoras superiores, aunque en menor capacidad. Ejemplos: MITS Altair, Macintosh, serie Apple II, IBM PC, Dell, Compaq, Gateway, etc. 1.6 GENERACIONES DE COMPUTADORAS Primera Generación En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características: Estas máquinas estaban construidas por medio de tubos de vacío. Eran programadas en lenguaje de máquina. En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos. En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines). Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957. Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.

Page 6: Historia de la Computación-informática

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales. Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105. Segunda Generación Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. Las características de la segunda generación son las siguientes: · Están construidas con circuitos de transistores. · Se programan en nuevos lenguajes llamados lenguajes de alto nivel. En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejores circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario. Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315. Tercera generación Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3 Las características de esta generación fueron las siguientes:

Su fabricación electrónica esta basada en circuitos integrados.

Su manejo es por medio de los lenguajes de control de los sistemas operativos. La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).

Page 7: Historia de la Computación-informática

El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida. En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces. A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos. A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones. Cuarta Generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo. En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes. Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft). No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria.

Page 8: Historia de la Computación-informática

Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo. Quinta Generación En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.

Manejo de lenguaje natural y sistemas de inteligencia artificial. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. TEMA 2 ARQUITECTURA DE UNA COMPUTADORA 2.1 Concepto de Hardware. Podemos denominar al hardware como todo el conjunto físico de la computadora, lo cual incluye el CPU (el cual contiene todas las tarjetas de procesamiento, ya sean de sonidos, gráficos, módem, unidades de discos, procesador, memoria RAM, etc.), el monitor, bocinas, escáner, impresora, mouse, teclado, micrófono, entre otros. El Hardware es la unión de componentes físicos capaces de realizar la comunicación entre el usuario y el software. (De manera análoga, el software o sistema operativo es el traductor entre la maquina y el hombre, convirtiendo las señales digitales o análogas en lenguaje humano). Todo sistema de cómputo tiene componentes de hardware dedicados a estas funciones: 1. Unidad de entrada 2. Unidad de salida 3. Unidad central de procesamiento. 4. Memoria y dispositivos de almacenamiento. 2.2 Unidad Central de Procesamiento. Una unidad central de procesamiento (UCP) es donde ocurre el procesamiento de datos. Se le conoce como el cerebro de la computadora. En las microcomputadoras la CPU se encuentra en un chip llamado microprocesador. La CPU consiste de dos componentes básicos: unidad de control y unidad de aritmética y lógica. 2.3 Unidad de control La función de la unidad de control es coordinar todas las actividades de la computadora. Todos los recursos de la computadora son administrados por la unidad de control. Esta unidad contiene las instrucciones de la CPU para llevar a cabo comandos. En resumen, la unidad de control es la que supervisa, controla las demás partes de la computadora y regula el trabajo que debe realizar, o sea, selecciona, verifica e interpreta las instrucciones del programa y después verifica que se ejecuten. 2.4 Unidad de aritmética lógica – ALU

Page 9: Historia de la Computación-informática

En la unidad de aritmética lógica (ALU) es donde ocurre el procesamiento real de los datos. Se realizan todos los cálculos y todas las comparaciones y genera los resultados. Cuando la unidad de control encuentra una instrucción de aritmética o de lógica, le envía el control a la unidad de aritmética lógica. La ALU contiene una memoria construida directamente en la CPU que se usa para guardar los datos que se están procesando por la instrucción actual. 2.5 Unidad de entrada Son todos los elementos que permiten la unión del usuario con la unidad de procesamiento central y la memoria.: Entre estos tenemos. Teclado: Dispositivos de entrada que traducen los datos a una forma que la computadora pueda interpretar, para luego procesarlos y almacenarlos, los hay de forma: Teclado alfanumérico y para perfoverificación Mouse y Joysticks: Dispositivos que convierten el movimiento físico en señales eléctricas binarias y que la misma sea repetida en el monitor. Escáner o digitalizador de imágenes: Están concebidos para interpretar caracteres, combinación de caracteres, dibujos gráficos escritos a mano o en maquinas o impresoras y traducirlos al lenguaje que la computadora entiende. Dispositivos ópticos: entre estos tenemos, Lector de marcas o rastreador de marca óptica, Digitalizador de imágenes (scanner), Cámara digital: Digitalizador de audio: entre estos tenemos, Micrófonos 2.6 Unidad de salida Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es el monitor, impresora, módem. Monitor: sirve como dispositivo de salida para recibir mensajes del computador. Impresora: seguro Una impresora permite obtener una copia dura o física de cualquier información que pueda aparecer en pantalla. Hay dos grupos básicos que son: impresora de Impacto y no impacto o de página. Módem: , dispositivo que sirve para enlaza dos ordenadores transformando las señales digitales. 2.7 Concepto de Memoria La memoria, es una de las partes mas importantes de las computadoras. Cualquier usuario desea agregarle mas memoria a su computadora. Para definirla, diremos que es la capacidad de la PC en retener datos o información de manera permanente o temporal. Memoria hay de dos tipos, la memoria RAM y memoria ROM, a continuación se explican: 2.8 Tipos De Memorias. Memoria ROM (del inglés Read Only Memory, memoria de sólo lectura). Es una memoria de sólo lectura, de dimensiones más pequeñas que el microprocesador. Si se levanta la capa protectora de los circuitos integrados, se encuentra información sobre el tipo de memoria ROM, y el tamaño máximo de información que puede contener. La ROM BIOS (Basic Input/Output System, sistema básico de entrada/salida) traduce todas las órdenes a código máquina, para que la computadora pueda entenderlas. 2.9 Dispositivos Y Periféricos

Page 10: Historia de la Computación-informática

Los periféricos son los dispositivos externos conectados a la computadora que permiten a este recibir los datos de entrada, permitir la información de salida y almacenar los datos. Se pueden clasificar de tres formas, de entrada, de almacenamiento, que son a la vez de entrada y salida y finalmente los de salida. 2.10 Dispositivo de almacenamiento Es todo aparato que se utilice para grabar los datos de la computadora de forma permanente o temporal. Una unidad de disco, junto con los discos que graba, es un dispositivo de almacenamiento. A veces se dice que una computadora tiene dispositivos de almacenamiento primarios (o principales) y secundarios (o auxiliares). Cuando se hace esta distinción, el dispositivo de almacenamiento primario es la memoria de acceso aleatorio (RAM) de la computadora, un dispositivo de almacenamiento permanente pero cuyo contenido es temporal. El almacenamiento secundario incluye los dispositivos de almacenamiento más permanentes, como unidades de disco y de cinta. TEMA 3 SOFTWARE 3.1 Concepto de Software El Software es un conjunto de programas, documentos, procedimientos, y rutinas asociadas con la operación de un sistema de cómputo. Distinguiéndose de los componentes físicos llamados hardware. Comúnmente a los programas de computación se les llama software; el software asegura que el programa o sistema cumpla por completo con sus objetivos, opera con eficiencia, esta adecuadamente documentado, y suficientemente sencillo de operar. Es simplemente el conjunto de instrucciones individuales que se le proporciona al microprocesador para que pueda procesar los datos y generar los resultados esperados. El hardware por si solo no puede hacer nada, pues es necesario que exista el software, que es el conjunto de instrucciones que hacen funcionar al hardware. 3.2 Sistema Operativo Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente. 3.3 Tipos de Sistemas Operativos. Actualmente los sistemas operativos se clasifican en tres clasificaciones: sistemas operativos por su estructura (visión interna), sistemas operativos por los servicios que ofrecen y sistemas operativos por la forma en que ofrecen sus servicios (visión externa). Sistemas Operativos por Servicios(Visión Externa). Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final. Por Número de Usuarios: Sistema Operativo Monousuario. Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón. En otras palabras los sistemas monousuarios son aquellos que nada más puede atender a un

Page 11: Historia de la Computación-informática

solo usuario, gracias a las limitaciones creadas por el hardware, los programas o el tipo de aplicación que se este ejecutando. Sistema Operativo Multiusuario. Los sistemas operativos multiusuarios son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente. En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing). Por el Número de Tareas: Sistema Operativo Monotarea. Los sistemas monotarea son aquellos que sólo permiten una tarea a la vez por usuario. Puede darse el caso de un sistema multiusuario y monotarea, en el cual se admiten varios usuarios al mismo tiempo pero cada uno de ellos puede estar haciendo solo una tarea a la vez. Los sistemas operativos monotareas son más primitivos y, solo pueden manejar un proceso en cada momento o que solo puede ejecutar las tareas de una en una. Sistema Operativo Multitarea. Un sistema operativo multitarea es aquél que le permite al usuario estar realizando varias labores al mismo tiempo. Es el modo de funcionamiento disponible en algunos sistemas operativos, mediante el cual una computadora procesa varias tareas al mismo tiempo. Existen varios tipos de multitareas. La conmutación de contextos (context Switching) es un tipo muy simple de multitarea en el que dos o más aplicaciones se cargan al mismo tiempo, pero en el que solo se esta procesando la aplicación que se encuentra en primer plano (la que ve el usuario. En la multitarea cooperativa, la que se utiliza en el sistema operativo Macintosh, las tareas en segundo plano reciben tiempo de procesado durante los tiempos muertos de la tarea que se encuentra en primer plano, y siempre que esta aplicación lo permita. En los sistemas multitarea de tiempo compartido, como OS/2, cada tarea recibe la atención del microprocesador durante una fracción de segundo. Un sistema operativo multitarea puede estar editando el código fuente de un programa durante su depuración mientras compila otro programa, a la vez que está recibiendo correo electrónico en un proceso en background. Es común encontrar en ellos interfaces gráficas orientadas al uso de menús y el ratón, lo cual permite un rápido intercambio entre las tareas para el usuario, mejorando su productividad. Un sistema operativo multitarea se distingue por su capacidad para soportar la ejecución concurrente de dos o más procesos activos. La multitarea se implementa generalmente manteniendo el código y los datos de varios procesos simultáneamente en memoria y multiplexando el procesador y los dispositivos de E/S entre ellos. La multitarea suele asociarse con soporte hardware y software para protección de memoria con el fin de evitar que procesos corrompan el espacio de direcciones y el comportamiento de otros procesos residentes. Por el Número de Procesadores: Sistema Operativo de Uniproceso. Un sistema operativo uniproceso es aquél que es capaz de manejar solamente un procesador de la computadora, de manera que si la computadora tuviese más de uno le sería inútil. El ejemplo más típico de este tipo de sistemas es el DOS y MacOS.

Page 12: Historia de la Computación-informática

Sistema Operativo de Multiproceso.Un sistema operativo multiproceso se refiere al número de procesadores del sistema, que es más de uno y éste es capaz de usarlos todos para distribuir su carga de trabajo. Generalmente estos sistemas trabajan de dos formas: simétrica o asimétricamente. Asimétrica. Cuando se trabaja de manera asimétrica, el sistema operativo selecciona a uno de los procesadores el cual jugará el papel de procesador maestro y servirá como pivote para distribuir la carga a los demás procesadores, que reciben el nombre de esclavos. Simétrica. Cuando se trabaja de manera simétrica, los procesos o partes de ellos (threads) son enviados indistintamente a cual quiera de los procesadores disponibles, teniendo, teóricamente, una mejor distribución y equilibrio en la carga de trabajo bajo este esquema. Se dice que un thread es la parte activa en memoria y corriendo de un proceso, lo cual puede consistir de un área de memoria, un conjunto de registros con valores específicos, la pila y otros valores de contexto. Un aspecto importante a considerar en estos sistemas es la forma de crear aplicaciones para aprovechar los varios procesadores. Existen aplicaciones que fueron hechas para correr en sistemas monoproceso que no toman ninguna ventaja a menos que el sistema operativo o el compilador detecte secciones de código paralelizable, los cuales son ejecutados al mismo tiempo en procesadores diferentes. Por otro lado, el programador puede modificar sus algoritmos y aprovechar por sí mismo esta facilidad, pero esta última opción las más de las veces es costosa en horas hombre y muy tediosa, obligando al programador a ocupar tanto o más tiempo a la paralelización que a elaborar el algoritmo inicial. 4. Sistemas Operativos por su Estructura (Visión Interna). Según, se deben observar dos tipos de requisitos cuando se construye un sistema operativo, los cuales son: Requisitos de usuario: Sistema fácil de usar y de aprender, seguro, rápido y adecuado al uso al que se le quiere destinar. Requisitos del software: Donde se engloban aspectos como el mantenimiento, forma de operación, restricciones de uso, eficiencia, tolerancia frente a los errores y flexibilidad. A continuación se describen las distintas estructuras que presentan los actuales sistemas operativos para satisfacer las necesidades que de ellos se quieren obtener. Estructura Monolítica.Es la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Las características fundamentales de este tipo de estructura son:

Construcción del programa final a base de módulos compilados separadamente que se unen a través del ligador.

Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede provocar mucho acoplamiento.

Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de los recursos de la computadora, como memoria, disco, etc.

3.4 Programas De Aplicaciones Los programas de aplicación son un conjunto de programas que indican a la computadora cómo analizar tareas específicas para el usuario. La aplicación es el objeto para el cual se usa la computadora. La computadora obtiene instrucciones a partir del programa de aplicación. El programa de aplicación lo escribe un programador de aplicación, y trabaja bajo la dirección del sistema operativo de la computadora. 3.5 Tipos De Programas De Aplicaciones

Page 13: Historia de la Computación-informática

Los programas de aplicación se dividen en paquetes de software (edicion de texto, almacenamiento y gestion de datos, realización de calculos generar informes, comunicación con otros ordenadores, enviar y reciver correo etc.) y aplicaciones específicas (facturación, contabilidad, nominas etc.) Ejemplos de programas de aplicación: Procesador de palabras Simplifica la tarea de escribir, editar e imprimir un documento. También mejora la producción personal permitiendo la duplicación de un documento sin rescribirlo, o recuperar el documento sin tener que ir sobre una tonelada de papeles para encontrarlo. El usuario puede ver la carta en la pantalla, leerla, corregirla y cambiarla antes de mandarla a imprimir. Puede guardar la carta en un disco y recuperarla más tarde para hacerle leves cambios o usarla de nuevo en el futuro. También puede cotejar y corregir la gramática y sugerir sinónimos. Ahorra mucho tiempo. Ejemplos: Word, Wordperfect, Word Star. Hoja electrónica Es una hoja de cálculo que permite la manipulación de datos arreglados en filas y columnas. Una celda puede contener texto, un número o una fórmula que establece una relación con otras celdas. Cada vez que se cambia el contenido de una celda, la hoja electrónica libera de lo tedioso de hacer recálculos a mano, ahorrando una gran cantidad de tiempo. Tipos de aplicaciones: inventario, registro de datos, balanceo de chequera, planificación de producto, requerimientos de materiales y labores, producción del informe del tiempo, presupuesto, adquisición y búsqueda de bienes raíces, análisis de bienes raíces y mercadeo. Los paquetes complejos de hojas electrónicas pueden hacer comparaciones de lógica como "if-then-else" o pruebas de "less than/greater than". Estas operaciones se utilizan en tareas como el cálculo de nóminas. Ejemplos: Excel, Lotus 123. 3.6 Lenguajes de Programación Los computadores interpretan (comprenden) un lenguaje muy simple llamado lenguaje de máquina. Cada instrucción del lenguaje de máquina es elemental. Un programa escrito en lenguaje de máquina necesita muchas instruccciones para hacer cosas simples (es decir, es difícil de escribir) y sólo funciona en un computador del mismo tipo. Los lenguajes de programación de alto nivel constituyen un paso evolutivo y pretenden brindar cierto nivel de abstracción e independencia del computador. 3.7 Programas Los programas de computadora son simples largas listas de instrucciones para la computadora a ejecutar, tal vez con tablas de datos. Muchos programas de computadora contienen millones de instrucciones, y muchas de esas instrucciones son ejecutadas repetidamente. Una típica PC moderna (en el años 2003) puede ejecutar alrededor de 2-3 billones de instrucciones por segundo. Las computadoras no hacen beneficio de su extraordinaria capacidades por la habilidad de ejecutar complejas instrucciones. Preferiblemente, estas hacen millones de simples instrucciones ordenadas por gente inteligente, "programadores" [programmers]. Buenos programadores desarrollan juegos de instrucciones para hacer tareas comunes (por instancia, dibujar un punto en pantalla) y entonces haces esos juegos de instrucciones disponibles a otros programadores. TEMA 4 DATOS 4.1 Almacenamiento de datos Las unidades de almacenamiento son dispositivos periféricos del sistema, que actúan como medio de soporte para la grabación de los programas de usuario, y de los datos y ficheros que son manejados por las aplicaciones que se ejecutan en estos sistemas.

Page 14: Historia de la Computación-informática

Las unidades de almacenamiento masivo de información objeto de esta guía se utilizan en todos los entornos informáticos existentes: entornos centralizados de mainframes, entornos distribuidos cliente-servidor, entornos monopuesto de sobremesa, entornos monopuesto portátiles, etc. 4.2 Concepto de Datos e información Dato Unidad mínima que compone cualquier información. Información Agrupación de datos con el objetivo de que lograr un significado específico más allá de cada uno de éstos. Un ejemplo 2, 0, 0 y 1 son datos; y 2001 es una información. La información ha sido siempre un recurso muy valioso, sobretodo hoy más aun por el desarrollo y la expansión de las Tecnologías de la Información y de las Comunicaciones. 4.3 Sistemas Númericos Los sistemas de numeración son conjuntos de digitos usados para representar cantidades, asi se tiene los sistemas de numerción Decimal, Binario, Octal. Hexadecimal, Romano, etc. Los cuatro primeros se caracterizan por tener una base (numero de digitos diferentes: diez, dos, ocho y diesciseis respectivamente). El sistema de numeracion binario es el mas importante en los sistemas digitales, en el sistema decimal la importancia radica en que se utiliza universalmente para representar cantidades fuera de un sistema digital. Esto significa que habra situaciones en las cuales los valores decimales tengan que convertirse en valores binarios antes de que se introduzcan en el sistema digital. 4.4 Concepto de Bit, Byte y Campos. Bit (Dígito Binario) Unidad mínima de almacenamiento de la información cuyo valor puede ser 0 ó 1; o bien verdadero o falso. Byte Conjunto de 8 bits el cual suele representar un valor asignado a un carácter. 4.5 Concepto de Registro Los registros del procesador se emplean para controlar instrucciones en ejecución, manejar direccionamiento de memoria y proporcionar capacidad aritmética. Los registros son espacios físicos dentro del microprocesador con capacidad de 4 bits hasta 64 bits dependiendo del microprocesador que se emplee. Los registros son direccionables por medio de una viñeta, que es una dirección de memoria. Los bits, por conveniencia, se numeran de derecha a izquierda (15,14,13…. 3,2,1,0), los registros están divididos en seis grupos los cuales tienen un fin especifico 4.6 Concepto de Archivos Los archivos, bien sean generales o históricos, tienen la enorme tarea de almacenar y organizar cantidades ingentes de información de forma tal que puedan ser recuperadas por sus usuarios potenciales. La preservación y prestación de servicios conduce a la necesidad de la restauración y reprografía. En el pasado su carácter de custodios los obligó a trabajar en tecnologías como el microfilm, que hoy resultan demasiado onerosas y limitadas. Actualmente, la digitalización y organización de la información computarizada se convierte en un imperativo. Afortunadamente la teleinformática moderna ha abierto una gran cantidad de posibilidades para el manejo electrónico de archivos, para almacenar y preservar la información, para agilizar y hacer eficiente la búsqueda y recuperación de información, el manejo de índices e imágenes facsimilares de documentos. Las limitaciones físicas de los viejos archivos da paso al concepto de archivos virtuales que pueden prestar servicios seguros, confiables y eficientes a través de

Page 15: Historia de la Computación-informática

Internet, sin que importen las consideraciones geográficas. Los investigadores y usuarios en general de los archivos ya no tienen que trasladarse físicamente. Ahora la información es la que viaja a sus usuarios. TEMA 5 SISTEMAS OPERATIVOS 5.1 Introducción a los sistemas operativos Desde su creación, las computadoras digitales han utilizado un sistema de codificación de instrucciones en sistema de numeración binaria, es decir con los 0S. Esto se debe a que los circuitos integrados funcionan con este principio, es decir, hay corriente o no hay corriente. En el origen de la historia de las computadoras (hace unos cuarenta años), los sistemas operativos no existían y la introducción de un programa para ser ejecutado se convertía en un increíble esfuerzo que solo podía ser llevado a cabo por muy pocos expertos. Esto hacia que las computadoras fueran muy complicadas de usar y que se requiriera tener altos conocimientos técnicos para operarlas. Era tan complejo su manejo, que en algunos casos el resultado llegaba a ser desastroso. Además, el tiempo requerido para introducir un programa en aquellas grandes máquinas de lento proceso superaba por mucho el de ejecución y resultaba poco provechosa la utilización de computadoras para resolución de problemas prácticos. Se buscaron medios más elaborados para manipular la computadora, pero que a su vez simplificaran la labor del operador o el usuario. Es entonces cuando surge la idea de crear un medio para que el usuario pueda operar la computadora con un entorno, lenguaje y operación bien definido para hacer un verdadero uso y explotación de esta. Surgen los sistemas operativos. Un sistema operativo es el encargado de brindar al usuario una forma amigable y sencilla de operar, interpretar, codificar y emitir las ordenes al procesador central para que este realice las tareas necesarias y especificas para completar una orden. El sistema operativo, es el instrumento indispensable para hacer de la computadora un objeto útil. Bajo este nombre se agrupan todos aquellos programas que permiten a los usuarios la utilización de este enredo de cables y circuitos, que de otra manera serian difíciles de controlar. Un sistema operativo se define como un conjunto de procedimientos manuales y automáticos, que permiten a un grupo de usuarios compartir una instalación de computadora eficazmente. Interfaz de Línea de Comandos. La forma de interfaz entre el sistema operativo y el usuario en la que este escribe los comandos utilizando un lenguaje de comandos especial. Los sistemas con interfaces de líneas de comandos se consideran más difíciles de aprender y utilizar que los de las interfaces gráficas. Sin embargo, los sistemas basados en comandos son por lo general programables, lo que les otorga una flexibilidad que no tienen los sistemas basados en gráficos carentes de una interfaz de programación. Interfaz Gráfica del Usuario. Es el tipo de visualización que permite al usuario elegir comandos, iniciar programas y ver listas de archivos y otras opciones utilizando las representaciones visuales (iconos) y las listas de elementos del menú. Las selecciones pueden activarse bien a través del teclado o con el Mouse. Para los autores de aplicaciones, las interfaces gráficas de usuario ofrecen un entorno que se encarga de la comunicación con el ordenador o computadora. Esto hace que el programador pueda concentrarse en la funcionalidad, ya que no esta sujeto a los detalles de la visualización ni a la entrada a través del Mouse o el teclado. También permite a los programadores crear programas que realicen de la misma forma las tareas más frecuentes, como guardar un archivo, porque la interfaz proporciona mecanismos estándar de control como ventanas y

Page 16: Historia de la Computación-informática

cuadros de diálogo. Otra ventaja es que las aplicaciones escritas para una interfaz gráfica de usuario son independientes de los dispositivos: a medida que la interfaz cambia para permitir el uso de nuevos dispositivos de entrada y salida, como un monitor de pantalla grande o un dispositivo óptico de almacenamiento, las aplicaciones pueden utilizarlos sin necesidad de cambios. 5.2 Funciones de los Sistemas Operativos. 1. Interpreta los comandos que permiten al usuario comunicarse con el ordenador. 2. Coordina y manipula el hardware de la computadora, como la memoria, las impresoras, las unidades de disco, el teclado o el Mouse. 3. Organiza los archivos en diversos dispositivos de almacenamiento, como discos flexibles, discos duros, discos compactos o cintas magnéticas. 4. Gestiona los errores de hardware y la pérdida de datos. 5. Servir de base para la creación del software logrando que equipos de marcas distintas funcionen de manera análoga, salvando las diferencias existentes entre ambos. 6. Configura el entorno para el uso del software y los periféricos; dependiendo del tipo de máquina que se emplea, debe establecerse en forma lógica la disposición y características del equipo. Como por ejemplo, una microcomputadora tiene físicamente dos unidades de disco, puede simular el uso de otras unidades de disco, que pueden ser virtuales utilizando parte de la memoria principal para tal fin. En caso de estar conectado a una red, el sistema operativo se convierte en la plataforma de trabajo de los usuarios y es este quien controla los elementos o recursos que comparten. De igual forma, provee de protección a la información que almacena. 5.3 Categoría de los Sistemas Operativos. Sistema Operativo Multitareas. Es el modo de funcionamiento disponible en algunos sistemas operativos, mediante el cual una computadora procesa varias tareas al mismo tiempo. Existen varios tipos de multitareas. La conmutación de contextos (context Switching) es un tipo muy simple de multitarea en el que dos o más aplicaciones se cargan al mismo tiempo, pero en el que solo se esta procesando la aplicación que se encuentra en primer plano (la que ve el usuario). Para activar otra tarea que se encuentre en segundo plano, el usuario debe traer al primer plano la ventana o pantalla que contenga esa aplicación. En la multitarea cooperativa, la que se utiliza en el sistema operativo Macintosh, las tareas en segundo plano reciben tiempo de procesado durante los tiempos muertos de la tarea que se encuentra en primer plano (por ejemplo, cuando esta aplicación esta esperando información del usuario), y siempre que esta aplicación lo permita. En los sistemas multitarea de tiempo compartido, como OS/2, cada tarea recibe la atención del microprocesador durante una fracción de segundo. Para mantener el sistema en orden, cada tarea recibe un nivel de prioridad o se procesa en orden secuencial. Dado que el sentido temporal del usuario es mucho más lento que la velocidad de procesamiento del ordenador, las operaciones de multitarea en tiempo compartido parecen ser simultáneas. Sistema Operativo Monotareas. Los sistemas operativos monotareas son más primitivos y es todo lo contrario al visto anteriormente, es decir, solo pueden manejar un proceso en cada momento o que solo puede ejecutar las tareas de una en una. Por ejemplo cuando la computadora esta imprimiendo un documento, no puede iniciar otro proceso ni responder a nuevas instrucciones hasta que se termine la impresión. Sistema Operativo Monousuario. Los sistemas monousuarios son aquellos que nada más puede atender a un solo usuario, gracias a las limitaciones creadas por el hardware, los programas o el tipo de aplicación que se este ejecutando. Estos tipos de sistemas son muy simples, porque todos los dispositivos de entrada, salida y control dependen de la tarea que se esta utilizando, esto quiere decir, que las instrucciones que

Page 17: Historia de la Computación-informática

se dan, son procesadas de inmediato; ya que existe un solo usuario. Y están orientados principalmente por los microcomputadores. Sistema Operativo Multiusuario. Es todo lo contrario a monousuario; y en esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing). Secuencia por Lotes. La secuencia por lotes o procesamiento por lotes en microcomputadoras, es la ejecución de una lista de comandos del sistema operativo uno tras otro sin intervención del usuario. En los ordenadores más grandes el proceso de recogida de programas y de conjuntos de datos de los usuarios, la ejecución de uno o unos pocos cada vez y la entrega de los recursos a los usuarios. Procesamiento por lotes también puede referirse al proceso de almacenar transacciones durante un cierto lapso antes de su envío a un archivo maestro, por lo general una operación separada que se efectúa durante la noche. Los sistemas operativos por lotes (batch), en los que los programas eran tratados por grupos (lote) en ves de individualmente. La función de estos sistemas operativos consistía en cargar en memoria un programa de la cinta y ejecutarlo. Al final este, se realizaba el salto a una dirección de memoria desde donde reasumía el control del sistema operativo que cargaba el siguiente programa y lo ejecutaba. De esta manera el tiempo entre un trabajo y el otro disminuía considerablemente. Tiempo Real. Un sistema operativo en tiempo real procesa las instrucciones recibidas al instante, y una vez que han sido procesadas muestra el resultado. Este tipo tiene relación con los sistemas operativos monousuarios, ya que existe un solo operador y no necesita compartir el procesador entre varias solicitudes. Su característica principal es dar respuestas rápidas; por ejemplo en un caso de peligro se necesitarían respuestas inmediatas para evitar una catástrofe. Tiempo Compartido. El tiempo compartido en ordenadores o computadoras consiste en el uso de un sistema por más de una persona al mismo tiempo. El tiempo compartido ejecuta programas separados de forma concurrente, intercambiando porciones de tiempo asignadas a cada programa (usuario). En este aspecto, es similar a la capacidad de multitareas que es común en la mayoría de los microordenadores o las microcomputadoras. Sin embargo el tiempo compartido se asocia generalmente con el acceso de varios usuarios a computadoras más grandes y a organizaciones de servicios, mientras que la multitarea relacionada con las microcomputadoras implica la realización de múltiples tareas por un solo usuario. 5.4 Los Sistemas Operativos más Populares de las PC. Los sistemas operativos empleados normalmente son UNIX, Macintosh OS, MS-DOS, OS/2, Windows 95 y Windows NT. MS-DOS. El significado de estas letras es el de Microsoft Disk Operating System. Microsoft es el nombre de la compañía que diseño este sistema operativo, e IBM la compañía que lo hizo estándar al adoptarlo en sus microordenadores.

Page 18: Historia de la Computación-informática

Este sistema operativo emplea discos flexibles con una organización determinada. Los discos se pueden grabar por una o por dos caras y la información se organiza en 40 pistas de 8 ó 9 sectores de un tamaño de 512 caracteres, reservándose el sistema para la propia información del disco, que puede ser disco removible o disco duro, teniendo en el segundo más capacidad pero similar estructura. Los nombres de los ficheros en MS-DOS, para los que se emplean tanto letras como números, se componen de dos partes: el nombre del fichero y la extensión, estando ambos datos separados por un punto. Las diferentes unidades de disco son identificadas por el MS-DOS a través de una letra seguida de dos puntos. Los tipos de extensión más habituales son como aparecería la memoria cargada con ellos; es decir, que pueden cargar directamente a memoria sin el auxilio del sistema operativo. Los de extensión .EXE precisan que el cargador del DOS los coloque en memoria, lo que significa que el sistema operativo debe estar en memoria. Los del tipo .BAT son los compuestos de comandos que se ejecutan secuencial mente. El sistema operativo tiene varios componentes que son: 1. Rutinas de control, que funcionan con el programa IBM.DOS, y se encargan de las operaciones de entrada / salida. 2. Procesador de comandos, también llamado COMMAND.COM, que procesa los dos tipos de comandos de que dispone el DOS; es decir, los residentes en memoria o internos, y los no residentes o externos, que residen en el disco del sistema operativo. 3. Rutinas de servicios accesibles desde el programa control. También existe la posibilidad de subdividir el disco en subdirectorios que permiten un empleo más ágil de toda la información. MS-DOS esta lejos de ser el sistema operativo ideal, ya que, de momento, se trata de un sistema monotarea, pero aunque esto se resolviera, seguiría presentando problemas de diseño que provocan que el comportamiento de la máquina sea poco fiable. A pesar de estas desventajas y de que existen otros sistemas operativos en el mundo de la microinformática, hay que tener siempre presente la enorme cantidad de software que se ha desarrollado para DOS y que conviene aprovechar en lo posible. OS/2. Desarrollado inicialmente por Microsoft Corporation e International Business Machines (IBM), después de que Intel introdujera al mercado su procesador 80286. Pero la sociedad no duro mucho ya que IBM veía a Windows como una amenaza para el SO/2. Pero IBM continúo desarrollando este sistema operativo. El OS/2 al principio fue muy parecido al MS-DOS, tiene una línea de comando, pero la diferencia que existe con el DOS es el intérprete de comandos, el cual es un programa separado del kernel del sistema operativo y aparece únicamente cuando se hace clic en uno de los iconos "OS/2 prompt" dentro del Workplace Shell. Otra diferencia es que este sí en un sistema operativo multitarea. En el OS/2 muchos de los comandos son idénticos a los de su contra parte pero tiene más comandos debido a que es más grande, completo y moderno. El ambiente gráfico es el Workplace Shell (WS), es el equivalente a un administrador del área de trabajo para el WS. Macintosh OS. El sistema operativo constituye la interfaz entre las aplicaciones y el hardware del Macintosh El administrador de memoria obtiene y libera memoria en forma automática para las apli-caciones y el sistema operativo. Esta memoria se encuentra normalmente en un área llama-da cúmulo. El código de procedimientos de una aplicación también ocupa espacio en el cúmulo. Ahora se presenta una lista de los principales componentes del sistema operativo.

Page 19: Historia de la Computación-informática

1. El cargador de segmentos carga los programas por ejecutar. Una aplicación se puede cargar completa o bien puede dividirse en segundos individuales que se pueden cargar de manera dinámica conforme se necesiten. 2. El administrador de eventos del sistema operativo informa de la ocurrencia de diversos eventos de bajo nivel, como la presión de un botón del Mouse o el tecleo. En condiciones normales, el administrador de eventos de la caja de herramientas transfiere estos eventos a las aplicaciones. 3. El administrador de archivos se encarga de la entrada / salida de archivos; el administrador de dispositivos se encarga de la entrada / salida de dispositivos. 4. Los manejadores de dispositivos son programas con los cuales los diversos tipos de dispositivos pueden presentar interfaces uniformes de entrada / salida a las aplicaciones. Tres manejadores de dispositivo están integrados al sistema operativo en ROM: el manejador de disco se encarga del acceso a la información en discos, el manejador de sonido controla los generadores de sonido, y el manejador en serie envía y recibe datos a través de los puertos seriales (estableciendo así la comunicación con dispositivos periféricos en serie como impresoras y módems). 5. Con el manejador de impresoras las aplicaciones pueden imprimir datos en diversas impresoras. 6. Con el administrador de AppleTalk las aplicaciones pueden transmitir y recibir información en una red de comunicaciones AppleTalk. 7. El Administrador de retrazado vertical programa las actividades por realizar durante las interrupciones de retrazado vertical que ocurren 60 veces cada segundo cuando se refresca la pantalla de vídeo. 8. El manejador de errores del sistema toma el control cuando ocurre un error fatal del sistema y exhibe un cuadro de error apropiado. 9. Los programas de utilidad general del sistema operativo ofrecen diversas funciones útiles como la obtención de la fecha y la hora, la comparación de cadenas de caracteres y muchas más. 10. El paquete de iniciación es llamado por el paquete de archivos estándar para iniciar y nombrar discos; se aplica con más frecuencia cuando el usuario inserta un disco al que no se le han asignado valores iniciales. 11. El paquete de aritmética de punto flotante ofrece aritmética de doble precisión. El paquete de funciones trascendentales ofrece un generador de números aleatorios, así como funciones trigonométricas, logarítmicas, exponenciales y financieras. Los compiladores de Macintosh generan en forma automática llamadas a estos paquetes para realizar manipulaciones numéricas. UNIX. Es un sistema operativo multiusuario que incorpora multitarea. Fue desarrollado originalmente por Ken Thompson y Dennis Ritchie en los laboratorios de AT&T Bell en 1969 para su uso en mini computadoras. El sistema operativo UNIX tiene diversas variantes y se considera potente, más transportable e independiente de equipos concretos que otros sistemas operativos porque esta escrito en lenguaje C. El UNIX esta disponible en varias formas, entre las que se cuenta AIX, una versión de UNIX adaptada por IBM (para su uso en estaciones de trabajo basadas en RISC), A/ux (versión gráfica para equipos Apple Macintosh) y Mach (un sistema operativo reescrito, pero esencialmente compatible con UNIX, para las computadoras NeXT). El UNIX y sus clones permiten múltiples tareas y múltiples usuarios. Su sistema de archivos proporciona un método sencillo de organizar archivos y permite la protección de archivos. Sin embargo, las instrucciones del UNIX no son intuitivas. Este sistema ofrece una serie de utilidades muy interesantes, como las siguientes: 1. Inclusión de compiladores e intérpretes de lenguaje. 2. Existencia de programas de interfase con el usuario, como ventanas, menús, etc. 3. Muchas facilidades a la hora de organización de ficheros. 4. Inclusión de lenguajes de interrogación. 5. Facilidades gráficas.

Page 20: Historia de la Computación-informática

6. Programas de edición de textos. SCO SCO es el proveedor mundial líder en sistemas operativos para servidores Unix, y uno de los principales proveedores de software de integración de clientes que integra PCs Windows y otros clientes con servidores UNIX de los principales fabricantes. Los servidores de aplicaciones críticas de negocios de SCO corren las operaciones críticas diarias de una gran gama de organizaciones comerciales, financieras, de telecomunicaciones, y gobierno, así como también departamentos corporativos y pequeñas y medianas empresas de todo tipo. SCO vende y brinda soporte de sus productos a través de una red mundial de distribuidores, resellers, integradores de sistemas, y OEMs. Características 1. Brinda acceso a impresoras y archivos compartidos desde PCs corriendo Windows ® 95, Windows NT ™ , Windows 3.1, Windows para trabajo en Grupos, OS/2 ®, y MS-DOS ® 2. SCO TermLite, el emulador de terminal, incluye soporte para SCO ANSI y VT320 sobre TCP/IP o NetBEUI 3. Herramientas de administración de redes y monitoreo poderosas y fáciles de usar junto con otros utilitarios pueden ser accedidos en forma remota 4. Incluye la capa de protocolo NetBEUI para pequeñas redes; corre en sistemas SCO OpenServer Host Versión 5, así como también en sistemas SCO OpenServer Enterprise Versión 5 5. Las herramientas del servidor NT permiten la administración de los recursos compartidos en un servidor utilizando sistema UNIX desde una PC corriendo Windows 6. Configuración automática de capas de conectividad, incluyendo NetBIOS sobre TCP/IP, y NetBEUI 7. Totalmente adherido al estándar emergente denominado CIFS. Solaris Características: Entre las características de Solaris tenemos: PORTABILIDAD: El software conformado por una ABI aplicación de interfaces binaria (Application Binary Interface) ejecuta con un Shrink-wrapped (Contracción envuelta) el software en todos los sistemas vendidos con la misma arquitectura del microprocesador. Esto obliga a los desarrolladores de aplicaciones a reducir el costo del desarrollo del software y traer productos al mercado rápidamente, y obliga a los usuarios a actualizar el hardware mientras retienen sus aplicaciones de software y minimizan sus costos de conversión.ESCALABILIDAD: Las aplicaciones se usan con más frecuencia en el sobre tiempo, y requiere sistemas más poderosos para soportarlos. Para operar en un ambiente creciente, el software debe ser capaz de ejecutar en un rango de ancho poderosos y debe ser capaz de tomar ventajas del poder adicional que se está procesando.INTEROPERATIBIDAD: La computación del ambiente heterogéneo es una realidad hoy. Los usuarios compran de muchos vendedores para implementar la solución que necesitan. La estandarización y una clara interface son criterios para un ambiente heterogéneo, permitiendo a los usuarios desarrollar estrategias para comunicarse por medio de su red. El sistema operativo de Solaris puede interoperar con unos sistemas muy populares hoy en el mercado, y aplicaciones que se ejecutan en UNIX se pueden comunicar fácilmente.COMPATIBILIDAD: La tecnología de la computación continua avanzando rápidamente, pero necesita permanecer en el ámbito competitivo para minimizar sus costos y maximizar sus ingresos. Microsoft Windows NT. Microsoft no solo se ha dedicado a escribir software para PCs de escritorio sino también para poderosas estaciones de trabajo y servidores de red y bases de datos. El sistema operativo Windows NT de Microsoft, lanzado al mercado el 24 de Mayo de 1993, es un SO para redes que brinda poder, velocidad y nuevas características; además de las características tradicionales. Es un SO de 32 bits, y que puede trabajar en procesadores 386, 486 y Pentium. Además de ser multitarea, multilectura y multiprocesador ofrece una interfaz gráfica. Y trae

Page 21: Historia de la Computación-informática

todo el software necesario para trabajar en redes, permitiendo ser un cliente de la red o un servidor. Microsoft Windows 95. Es un entorno multitarea dotado de una interfaz gráfica de usuario, que a diferencia de las versiones anteriores, Windows 95 no necesita del MS-DOS para ser ejecutado, ya que es un sistema operativo. Este SO esta basado en menús desplegables, ventanas en pantalla y un dispositivo señalador llamado Mouse. Una de las características principales de Windows 95 es que los nombres de los archivos no están restringidos a ocho caracteres y tres de la extensión, pueden tener hasta 256 caracteres para tener una descripción completa del contenido del archivo. Además posee Plug and Play, una tecnología conjuntamente desarrollada por los fabricantes de PCs, con la cual un usuario puede fácilmente instalar o conectar dispositivos permitiendo al sistema automáticamente alojar los recursos del hardware sin la intervención de usuario. Microsoft Windows 98 Este Windows soporta todos los tipos de Hardware, incluyendo a los estándares más recientes como el DVD-ROM y la capacidad para ver televisión en la PC. También ofrece características plug and play, lo cual significa que si usted instala un dispositivo de HARWARE plug and play, como módem interno, operativo si computadora carece de la potencia, la velocidad y memoria necesarias para beneficiarse de sus características. Windows 98, el siguiente escalón en la familia de sistemas operativos Windows de escritorio. De cierta forma es la continuación que podía esperar de Windows 95. Como era obvio predecir, esta nueva versión continúa soportando 32 bits en su total dimensión aunque todavía se debe esperar para que se incorpore toda la funcionalidad de seguridad presente en los 32 bits y que hoy es una característica de la familia NT. Desde el punto de vista usuario común, Windows 98 no trae nada nuevo. Microsoft no ha hecho cambios relativamente importantes en la interfaz, por lo que, si un usuario sabe usar Windows 95, también sabe usar Windows 98. Windows 98: Nueva versión del sistema operativo Windows. Podría decirse que es una compilación de características. Muchas de ellas ya se encontraban en Internet Explorer 4.0 (al ser instalado con la actualización d escritorio) en Windows 95 OSR-2. Permite soporte técnico para el FAST32 (al igual que Windows 95 ORS-2) y el Active Desktop (de IE 4). Windows 2000 Windows 2000 Professional es rápido. Más rápido que Windows 98. Con 64 MB de memoria, Windows 2000 se ejecuta un promedio de un 25% más rápido que Windows 98. Y no se relentiza con cargas pesadas. Los usuarios pueden ejecutar más programas y hacer más tareas al mismo tiempo porque Windows 2000 está basado totalmente en una arquitectura de 32 bits. Agregándole más memoria, Windows 2000 se hace más rápido aún. Soporta hasta 4 GB de RAM y hasta dos procesadores simétricos. Por desgracia, alcanzar ese nivel de rendimiento con Windows 98, incluso con más memoria, en imposible. Interfaz mejorado Windows 2000 Professional mejora el familiar interfaz de Windows al reducir los amontonamientos en el escritorio (elimina los elementos innecesarios), simplificar el menú de

Page 22: Historia de la Computación-informática

inicio (introduce una nueva funcionalidad inteligente que adapta el menú de inicio a su manera de trabajo, mostrando sólo las aplicaciones que utiliza más frecuentemente). Windows 2000 Professional funciona perfectamente con sus equipos actuales. La infraestructura de sistemas operativos de su compañía es muy buena, y funciona con Windows 2000 Server, Windows NT Server, Novell NetWare o UNIX. Además, el soporte construido para compartir recursos de ordenador a ordenador (peer-to-peer) con Windows 9x y Windows NT Workstation permite a Windows 2000 Professional interoperar con las versiones anteriores de Windows. Un sistema Windows más seguro. Windows 2000 Professional es muy seguro en todos los niveles. Basado en el sistema de seguridad integrado en todos los sistemas operativos Windows NT, permite a los usuarios y administradores seleccionar el nivel apropiado de protección para su información y aplicaciones, para intercambiar o almacenar información en ordenadores independientes, en la red, en una intranet o en Internet. Con su Sistema de Archivos Encriptados (EFS), Windows 2000 protege perfectamente los datos de su disco duro. Con el soporte para Kerberos, Windows 2000 protege su red corporativa o intranet. Kerberos protege los datos al rastrear y verificar la actividad de cada usuario en una red. Windows 2000 Professional protege incluso las comunicaciones más secretas a través de una red pública con su soporte para Claves Públicas, el L2TP (Layer 2 Tunneling Protocol) y las Tarjetas Inteligentes. Las tarjetas inteligentes son nuevos dispositivos que proporcionan más seguridad, pues en lugar de confiar solamente en un factor para autentificar a un usuario, piden una combinación de credenciales (tales como un nombre de usuario y una contraseña). Administración de escritorio simplificada Windows 2000 Professional facilita la vida de los administradores. Varios asistentes y detectores de problema ayudan a los usuarios finales a ejecutar tareas rutinarias o difíciles, reduciendo el tiempo que los administradores deben pasar ayudándoles y reduciendo el número de llamadas a soporte técnico. Windows 2000 Professional otorga a los administradores más control sobre los desktops individuales. Windows 2000 ofrece un soporte multilingüe sin precedentes, permitiendo a los usuarios crear y visualizar documentos en el idioma utilizado en cerca de 120 áreas internacionales. Windows Millenium Windows Me soporta y comparte el mismo código que Win98, el cual fue una mejora del sistema operativo Win95. Este se venderá como una opción OEM (Original equipament manufacturer), es decir, presentados en PC’s. Iconos MI PC: El icono a cambiado y también la forma de ver los discos duros, ya que ahora están "debajo de MI PC" en el árbol que muestra el explorador de Windows. Entorno de RED es ahora > mis sitios de RED. MENU BUSCAR: Se le ha modificado la interfaz, para seguir haciendo el mismo trabajo, aunque de forma más amigable que antes.

Page 23: Historia de la Computación-informática

LA BARRA DE TAREAS: aparte de encontrarla en el menú de inicio también la encontramos en dentro del panel de control. Ahora nos permite configurar todos aquellos viejos trucos con un solo clic de ratón para, por ejemplo: 1. Mostrar menú contextual. 2. Mover y cambiar tamaño de la barra. 3. Desplazar programas. Con el WINDOWS MILLENIUN podemos decir adios al (MS-DOS), ya que no estarán disponibles las opciones de arranque "Solo Símbolo del Sistema" y "Reiniciar en modo MS-DOS". Los archivos de configuración "config.sys" y "autoexe.bat" no se ejecutan, existan o no; solo tienen sentido durante la instalación de Windows; después dará igual su contenido. (NOTA: No funcionará ningún programa MS-DOS, que necesite insertar parámetros en el archivo config.sys. debe tener muy en cuenta que Windows Me Millenium Edition ya no es compatible 100% con aplicaciones diseñadas para el MS-DOS.) System Restore El sistema a petición nuestra crea "Checkpoints", según actuemos: · En el inicio de cada día o de vez en cuando · Cada vez que instalemos aplicaciones usando setup, install e instalar (si tiene otro nombre no funciona el System Restore, por lo que podríamos probar renombrar el archivo de instalación). El sistema creará un checkpoint antes de instalar cualquier dispositivo nuevo que ofrece a: · Instalar nuevos driver. · Tocar la configuración de Windows. Y mediante un solo clic en "PC Restore", recuperamos el estado de nuestra PC a un día y hora concretos, evitando de esta manera reinstalaciones y pérdidas de tiempo, volviendo al día en que la PC funcionaba al 100%, con solo pulsar un botón. Nos mostrará un calendario y dentro de él, en cada día, los puntos en que podemos recuperar la situación. Hay que resaltar que al restaurar el sistema de una fecha anterior a la actual, se restaura todo tal y como estaba ese día excepto los archivos .doc, .bmp, .pdf, email, historial del navegador, Favoritos y todo el contenido de la Carpeta Mis Documentos, por los que usar esta opción nos obligará a estar atentos a otros contenidos que actualmente no guardes en Mis Documentos, para que los traslades ahí. Esta opción consume mucho espacio de disco (aunque podemos configurar todas sus opciones) pero nos dará mucha más estabilidad. Windows XP Este ofrece un reforzó Menú de salida. El menú de salida ahora puede agrupar sus más frecuentes arribos y aplicaciones Enfoco de tarea este plan permite que vea sus opciones del Windows como asociado con su tarea presente. Compañero de búsqueda científica: recupera la información de la búsqueda de la tarea que estemos usando en ese momento. Esto es nuevo Ahora se puede: 1. Impresiones del orden directamente del Internet. 2. Eslabón directamente a cámaras mago del explorador. 3. Imágenes de la vista en Slideshow. 4. Publique cuadros al Internet. 5. Cuadros de empresas por distribución del e-mail más fácil.

Page 24: Historia de la Computación-informática

6. Perfecciona la impresión, pinta y hacer el mejor trabajo de fotografías. También se puede examinar una sola imagen del explorador del Flastbed. Pone al día Downloaded de Windows, también se puede aplicar a todo usuario en una computadora. Windows se pone al día se integra ahora con la ayuda de y el centro de apoyo en Windows XP Edición del Hogar. El gerente del aparato también investigará Windows. Internet Conexión: protege su computadora de instrucción, cuando se conecta al Internet. Ahora puede descansar seguro ya que el Windows XP no permite ataques no deseados en Internet. Gracias al motor reforzado de Windows 2000, Windows XP adquiere un nuevo y mejorado aspecto y amplía la experiencia de la informática general. Windows XP presenta una nueva imagen que falicitará en gran medida su utilización por parte de cualquier tipo de usuario de PC mejorando sus capacidades. El nuevo diseño gráfico hará más sencillas las tareas informáticas, y aportará una nueva visión del ya conocido deskop, porque consiste en la actualización más significativa de la interfaz de Windows desde Windows 95. Un Windows XP PC Listo, debe encontrar los requisitos del hardware siguientes: 1.- Preinstaló con Microsoft Windows 2000 Profesional o Microsoft sistema operativo de la Edición del Milenio de Windows. 2.- Despliegues de "el Diseñó 2000 por Windows" o el logotipo en la PC o cuaderno. 3.- Tener un mínimo de 128 MB de RAM Windows XP, computadoras listas encuentran los requisitos del hardware mínimos para correr el Windows XP Profesional y Windows XP, sistemas operativos de la Edición del Hogar. Chóferes del hardware, si necesario, está disponible del fabricante del equipo original (OEM) en el descargo de Windows XP. Pantalla de bienvenida / acceso: Windows facilita la creación de cuentas individuales para los usuarios de su ordenador, lo que significa que cada vez que acceda al sistema tendrá su propio entorno personalizado. Y si su familia comparte un ordenador, Windows XP le permite ir de un usuario a otro de forma rápida sin necesidad de apagar o reiniciar ningún programa. Menú de inicio: La ya conocida interfaz de Windows ha sido mejorada para facilitar aun más su utilización. TEMA 6 REDES 6.1 Definición de Red (Network) Sistema de comunicación de datos que conecta entre sí sistemas informáticos situados en lugares más o menos próximos. Puede estar compuesta por diferentes combinaciones de diversos tipos de redes 6.2 Tipos de Redes LOCAL AREA NETWORKS (LAN) Red de tipo local que conecta típicamente microcomputadoras, su amplitud no va mas allá de un edificio. METROPOLITAN AREA NETWORKS (MAN)

Page 25: Historia de la Computación-informática

Red que conecta típicamente diferentes tipos de computadoras, su amplitud no va mas allá de una ciudad, municipio o mezcla de ambos. WIDE AREA NETWORKS (WAN) Red que conecta típicamente diferentes tipos de computadoras, su amplitud va mas allá de una ciudad, municipio, país, continente. Ejemplo: World Wide Web PRIVATE BRANCH EXCHANGE (PBX) Red que conecta típicamente línea de teléfonos digitales, a las que se pueden conectar computadoras usando un módem digital/digital. 6.3 Elementos de una red Una red de computadoras consta tanto de hardware como de software. En el hardware se incluyen: estaciones de trabajo, servidores, tarjeta de interfaz de red, cableado y equipo de conectividad. En el software se encuentra el sistema operativo de red (Network Operating System, NOS). Estaciones de trabajo Cada computadora conectada a la red conserva la capacidad de funcionar de manera independiente, realizando sus propios procesos. Servidores Son aquellas computadoras capaces de compartir sus recursos con otras. Tarjeta de Interfaz de Red Para comunicarse con el resto de la red, cada computadora debe tener instalada una tarjeta de interfaz de red (Network Interface Card, NIC). Cableado La LAN debe tener un sistema de cableado que conecte las estaciones de trabajo individuales con los servidores de archivos y otros periféricos. Equipo de conectividad Por lo general, para redes pequeñas, la longitud del cable no es limitante para su desempeño; pero si la red crece, tal vez llegue a necesitarse una mayor extensión de la longitud de cable o exceder la cantidad de nodos especificada. 6.4 Arquitectura Cliente Servidor Es un modelo de computación en el que el procesamiento requerido para ejecutar una aplicación o conjunto de aplicaciones relacionadas se divide entre dos o más procesos que cooperan entre sí " [21]. Usualmente la mayoría del trabajo pesado se hace en el proceso llamado servidor y el (los) proceso(s) cliente(s) sólo se ocupa de la interacción con el usuario (aunque esto puede variar) 6.5 Protocolos de comunicaciones Los protocolos de comunicaciones permiten que máquinas situadas en distintos puntos puedan comunicarse. Pero en todo esto surge un problema, la incompatibilidad entre distintos protocolos impedía la comunicación. Por eso se creó el modelo de referencia OSI: Se propuso en 1983 por OSI(Organization Standart Internacional), para intentar estandarizar un conjunto de protocolos. El modelo OSI no es una arquitectura: no define los servicios y protocolos exactos para cada nivel, sólo aquello de lo que cada nivel debe ocuparse. TEMA 7 INTERNET 7.1 Definición de internet Internet es una red informática, realmente se trata de un conjunto de ordenadores conectados entre sí intercambiándose información.

Page 26: Historia de la Computación-informática

El rápido y ascendente crecimiento de Internet ha conseguido que esta red haya pasado a llamarse “La Red” o “la red de redes”, debido a la existencia de ordenadores conectados a la misma en todo el mundo. La principal diferencia entre Internet y cualquier otra red informática reside en que esta no pertenece a ningún país, ni organismo oficial, ni a una empresa determinada, es decir, se trata de una red libre ya que cualquier persona puede acceder a ella desde cualquier punto del planeta, de la misma forma que no existe ningún tipo de restricción para toda la información que circula por la misma. Solamente existen unos organismos internacionales repartidos por todo el mundo y organizados de forma jerárquica. Estos organismos no tienen ningún afán de lucro, y son los encargados de regular el crecimiento de Internet y garantizar el buen funcionamiento de la Red. Probablemente la característica más llamativa de Internet es que puede tener acceso a cualquier parte del mundo por el precio de una llamada local, es decir, la distancia de la misma no es proporcional al coste de la comunicación establecida, esto es debido a que a que cada tramo de red se gestiona sus propios gastos y no son repercutidos directamente al usuario. 7.2 Comercio Electrónico El comercio electrónico se puede definir, en un sentido amplio, como cualquier forma de transacción o intercambio de información comercial basada en la transmisión de datos sobre redes de comunicación como Internet. En este sentido, el concepto de comercio electrónico no sólo incluye la compra y venta electrónica de bienes, información o servicios, sino también el uso de la Red para actividades anteriores o posteriores a la venta, como son: Publicidad Búsqueda de información sobre productos, proveedores, etc. Negociación entre comprador y vendedor sobre precio, condiciones de entrega, etc. Atención al cliente antes y después de la venta Dar cumplimiento a trámites administrativos relacionados con la actividad comercial

Colaboración entre empresas con negocios comunes (a largo plazo o sólo de forma coyuntural) Estas actividades no tienen necesariamente que estar presentes en todos los escenarios de comercio electrónico

En el comercio electrónico participan como actores principales las empresas, los consumidores y las administraciones públicas. Así se distinguen normalmente tres tipos básicos de comercio electrónico. Entre empresas o B2B (business to business) Entre empresa y consumidor o B2C (business to consumers) Entre empresa y administración o B2A (business to administrations)

Las empresas intervienen como usuarias (compradoras o vendedoras) y como

proveedoras de herramientas o servicios de soporte para el comercio electrónico: proveedores de servicios de certificación de claves públicas, instituciones financieras, etc. Por su parte, las administraciones públicas, actúan como agentes reguladores y promotores del comercio electrónico y como usuarias del mismo (por ejemplo en los procedimientos de contratación pública o de compras por la Administración).

En un sentido amplio, los consumidores participarían en dos formas adicionales de comercio electrónico además del B2C: por una parte, el comercio electrónico directo entre consumidores (venta directa entre particulares) y, por otra, las transacciones económicas entre ciudadano y administración (pago de prestaciones sociales, pago de impuestos, etc.)

La mención a Internet en la definición que abre esta sección se justifica porque, si bien las actividades de comercio electrónico entre empresas, por ejemplo mediante los sistemas de Intercambio Electrónico de Documentos, existen desde hace más de una década y son anteriores al uso comercial de Internet, ha definitiva, ha provocado el actual crecimiento explosivo del comercio electrónico en todas sus formas. CONCLUSIÓN

Page 27: Historia de la Computación-informática

Al realizar este trabajo pudimos comprender el porque de las cosas en el área de la informática, como son los datos tan interesantes de la historia de la computadora hasta la culminación con el Internet lo cual es un sueño hecho realidad que tantas personas desearon ver y no pudieron es por esto que nosotros damos gracias a Dios por vivir en esta era y esperamos que al igual que nosotros valoramos la importancia que tiene la informática todas las personas de esta generación y las venideras puedan apreciarlo. BIBLIOGRAFÍA www.altavista.com www.google.com www.msn.com www.wanadoo.com www.baluma.com www.redsegura.com

Historia de la Computación

(Historia de la informática)

http://www.monografias.com/trabajos4/histcompu/histcompu.shtml

INDICE

TEMA

PAGINA

INDICE 2

INTRODUCCION

3

A) UNA PEQUEÑA HISTORIA 6

*LA PREHISTORIA DE LA ERA DE LA COMPUTADOCION

8

A) EL HOMBRE PRIMITIVO Y SU CONTABILIDAD INDEPENDIENTE

8

B) LAS PRIMERAS MAQUINAS DE CACULAR

9

C) EL ABACO 9

Page 28: Historia de la Computación-informática

*SIGLO XIV A XIX EPOCA DE GRANDES INVENTOS

10

A) JONH NAPIER (1550 - 1617) INVENTOR DE LOS LOGARITMOS

10

B) BLAISEL PASCAL (1623-1662) LA PASCALINA

11

C) GOTTFRIED WIHEIM LEIBNIG (1646-1716)INVENTOR DEL SISTEMA BINARIO

12

D) LA CONDESA ADA BYRINO (1815-1851) LA PRIMERA PROGRAMADORA DE HISTORIA

14

F) JOSEPH MARIE JOCQUARD (1752-1834)LAS PLANTILLAS PERFORADAS

14

* 1939-1958 LA PRIMAERA GENERACION DE COMPUTACION

17

A) JOHN LOUIS NEWMANN (1903-1957)

17

B) KONRAD ZUSE (1910-1957)EL PRIMER PROTOTIPO DE COMPUTADORA DIGITAL

18

C) ALAN M. TURING Y LA COLLOSUS

20

D) LA MARK I DE IBM EN 1944

20

E) GRACE HOOPER (1906-1992) LA MARK I DE IBM EN 1944

21

F) 1946 ENIAC ELECTRONIC NUMERICAL INTEGRATOR ANO COMPUTER

22

G) 1951 UNIVAC (UNIVERSIDAD AUTOMATIC COMPUTER) DE JONH MAUCHY Y I

PREPER ECKERT 23

Page 29: Historia de la Computación-informática

*1959-1964 LAS SEGUNDA GENERACION DE LAS COMPUTADORAS

26

A) LOS TRANSITORES

26

B) 1958 LOS CIRCUITOS INTEGRADOS

27

19641971 LA TERCERA GENERACION DE COMPUTADORAS

30

A) EN ABRIL DE 1964 IBM PRESENTO SU GENERACION DE COMPUTADORAS IBM 360

30

* 1971-1981 LA CUATA GENERACION DE COMPUTADORAS

32

A) 1971 EN MICROPROCESADOR INTRL 4004

32

B) LA KEN BAK I PRIMERA PC

32

C) 1973 LOS DISCOS WINCHISTER

33

D) 1974 8080 EL PRIMER CPU DE INTEL

33

E) 1975 LA ALFAN 8800 POR MICRO INTRUMENTATION TELEMETRY SYSTEMAS

34

F) 1975 FUNDACION DE MICROSOLF 34

G) 1975 CM/P, EL PRIMER SISTEMA OPERATIVO ESTANDAR

35

H) HECHOS NOTABLES

36

I) 1976 LOS DOS ESTEVEN Y LA APPLE COMPUTER

36

Page 30: Historia de la Computación-informática

J) 1977 LA TRS DE TANDY RADIO SHACK

37

K) 1978 EL MICROPROCESADOR INTEL 8086

37

*LAS NOVEDADES DE 1996 41

A) CHORRO SERVICIAL

43

B) ABRAN PASO ALO VISUAL 43

C) ALMACENES GIGANTES

44

D) LOS TOPPNS ALEMANES 45

E) HAL EN PRIMER LUGAR

46

F) COMPUTADORA DE MALETA

47

G) NUEVAS ARQUITECTURA 49

H) NUEVO COMPUTADOR

50

I) MARS

50

J) MAQUINA NEURONAL

51

K) COSAS QUE PIENSAN

52

*GLOSARIO 56

*CONCLUCIONES

70

Page 31: Historia de la Computación-informática

*BIBLIOGRAFIA

71

Page 32: Historia de la Computación-informática

Historia de la Computación

HISTORIA DE LA INFORMATICA

INTRODUCCIÓN

Las computadoras no han nacido en los últimos años, en realidad el hombre siempre buscó

tener dispositivos que le ayudaran a efectuar cálculos precisos y rápidos; una breve reseña

histórica nos permitirá, comprender cómo llegamos a las computadoras actuales.

Los chinos hace más de 3000 años a. C. desarrollaron el ABACO, con éste realizaban cálculos

rápidos y complejos. Éste instrumento tenia un marco de madera cables horizontales con

bolas agujereadas que corrían de izquierda a derecha, como muestra la figura. En el siglo

X'VII, el creciente interés, en Europa, por las nuevas ciencias, tales como la astronomía y la

navegación, impulsó alas mentes creativas a simplificar los cálculos. Habría costado años a

los primeros científicos calcular la vasta cantidad de datos numéricos cuyos patrones estaban

intentando descubrir. En 1614, el escocés John Napier anunció su descubrimiento de los

logaritmos, permitiendo que los resultados de complicadas multiplicaciones se redujeran a un

proceso de simple suma. Muy poco después, en los años 20 del mismo siglo, se inventó la

regla de cálculo, basada en los principios matemáticos descubiertos por Napier.

PASCAL en 1642 crea una máquina mecánica de sumar, parecida a los cuenta kilómetros que

utilizan en la actualidad los automóviles. Pero ésta tenia algunos problemas con las sumas

largas; pero en 1671 LEIBNITZ le agregó la posibilidad de: restar, sumar, multiplicar y dividir.

Su máquina estaba formada Sobre ruedas dentadas, cada una de estas ruedas tenía diez

dientes, éstos correspondían a los números de 0 al 9. Siendo el sistema de tal tipo que el paso

de 9 a 0 daba lugar a un salto de la rueda.

Los conceptos de esta máquina se utilizaron mucho tiempo, pero éstas calculadoras exigían

intervención del operador, ya que éste debía escribir cada resultado parcial en una hoja de

papel. Esto era sumamente largo y por lo tanto produce a errores en los informes

Otra evolución en esta historia fue la que realizó BABBAGE, éste diseño y desarrollo la

primera computadora de uso general. Fue un genio pero la Época no lo ayudó para poder

terminar de construirla. Llamo a su descubrimiento "Máquina de las diferencias". En 1833

concibió una segunda máquina que le Llevó 20 años. Esta era capaz de realizar una suma en

segundos y necesitaba un mínimo tiempo de atención del operador. A esta segunda máquina

la llamó "Analítica". Leibniz aplicó la lógica y la materializó en su exitosa maquina de calcular.

En 1804, Joseph Jacquard empezó a utilizar un telar que se servia de tarjetas perforadas para

controlar la creación de complejos diseños textiles, (La misma técnica se utilizaría

posteriormente en pianolas y organillos, que empleaban" Tarjetas perforadas para copiar

música de piano, tanto clásica como popular.

La primer operación de procesamiento de datos fue Lograda en 1890 por HERNAN

HOLLERICH. Éste desarrolló un sistema mecánico para calcular y agrupar datos de censos. El

Page 33: Historia de la Computación-informática

nuevo sistema se basaba en tarjetas perforadas. Lo utilizaron en el censo de población en

Estados Unidos en donde se logró por primera vez, que los resultados fueran conocidos a los

dos años y medio, mientras que el censo anterior se tardó siete años para conocer estos

datos.

La primera mujer programadora fue ADA AUGUSTA BYRON (1815 - 1852) se interesó por los

descubrimientos de BABBAGE a quién ayudó en los estudios de esta gran filosofía.

En 1930, el norteamericano Vannevar Bush diseñó en el MIT (Massachusetts Institute of

Technology) el analizador diferencial, marcando el inicio de nuestra era de computadoras; el

"analizador" era una máquina electrónica que media grados de cambio en un modelo. La

maquina ocupaba la mayor parte de una gran sala, Para analizar un nuevo problema,un grupo

de ingenieros debía cambiar las proporciones, y só1o aparecían, tras dos o tres días, con las

manos cubiertas de aceite. Aun la capacidad de la máquina para. Resolver complicados

cálculos sobrepasaba cualquier invento anterior.

En 1936, el científico independiente Alan Turing, de Gran Bretaña, captó la atención de los

científicos con un trabajo que sobre un estudio sobre los números y las computadoras,

propuso, soluciones a problemas hasta entonces no resueltos.' '';

La primera computadora totalmente electrónica fue la ENIAC (Electric Numeric Integrator And

Calculator), fue construida en 1943 y 1945 por JOHN MANCHI y J. PROPER ECKUT. Podía

multiplicar 10.000 veces más rápido que la máquina de AIKEN, pero ten/a sus problemas.

Como estaba construida con casi 18,000 válvulas era enorme la energía que consumía y el

calor que producía. Esto hacia que las válvulas se quemaran rápidamente y que las casa de

alrededor tuvieran cortes de luz.

La Segunda Guerra Mundial vio a Alemania y a los otros países occidentales en competencia

por desarrollar una mayor velocidad de cálculo, junto a un aumento de la capacidad de trabajo,

para así lograr decodificar los mensajes enemigos. 'En respuesta a su presión 'EE.UU,

desarrolló en Harvard el enorme computador Mark I, con una altura de 2,5 m, inspirado por las

ideas de Babbage, y el Mark I se dedicó a problemas balísticos de la Marina. En Alemania, se

estaba comprobando las aerodinámicas proyectadas en el computador .

El primer intento de sobreponerse alas limitaciones de velocidad y errores fue de HOWARD

AIKEN. Trabajó con ingenieros de I.B.M, crearon una calculadora automática Llamada MARK I

(en 1944). Luego sé construyó MARK II. (Estas máquinas no pudieron satisfacer las

necesidades de ese momento ya que eran millones los datos para guardar y resolver, aunque

sirvieron de base para que cuando se crearan las válvulas al vacío comenzara la computación

electrónica.

Tres científicos de los laboratorios Bell, William Bardeen y Walter Bratt, inventaron el

transistor, recibiendo el premio novel de Física en 1956.

A continuación se desarrolló el circuito integrado o "IC" que pronto recibiría el sobrenombre de

"chip". Se atribuye el mérito de este invento a Robert Noyce. La fabricación del microchip 6,45

Page 34: Historia de la Computación-informática

mm2 (la décima parte de una pulgada cuadra da), pronto fue seguida por la Capacidad de

integrar hasta 10 transistores miniaturizados y eventualmente 1.000 piezas varias en el mismo

espacio. Alrededor de 1971, el microprocesador había sido desarrollado por la nueva

compañía de Noyce, Intel. Esta novedad colocó en un finito microchip los circuitos para todas

las funciones usuales de un computador. Fueron integrados ahora en el chip en una serie de

delgadísimas capas. Esto hizo que la computación fuera más rápida y más flexible, al tiempo

que los circuitos mejorados permitieron al computador realizar varias tareas al mismo tiempo y

reservar memoria con mayor eficacia. La contribución de estos inventos ha sido incalculable

en cuanto a la disponibilidad de Computadoras personales de difícil uso. Los Usuarios dan por

hecho rápidas y fiables respuestas a sus comandos, y un gran almacenamiento de memoria,

tanto en términos de memoria de trabajo RAM como en espacio de almacenamiento en disco

duro para trabajos terminados. Los pioneros cuentan cómo en los años 60, cuando utilizaban

sistemas centrales, estaban limitados a 4 K de memoria de trabajo, aproximadamente 1.5

páginas escritas. Escribiendo programas, tenían que mantener las líneas de instrucciones

cortas; sus comandos. Eran enviados por dispositivos de memoria que só1o podían retener

una cantidad limitada de información antes de que se perdiera.

Una pequeña historia

Del mismo modo que su TV, la vídeo o la cámara, su PC trabaja en compatibilidad con alguna

norma estándar. Las normas mas conocidas en el mundo de las computadoras personales son

dos: IBM y Machintosh, la primera impuesta por la Empresa homónima conocida como, el

gigante. Azul y la segunda por la Empresa APPLE. Esta última, fue pionera en desarrollar

bastante de la tecnología que después adoptó IBM, pero la política de APPLE fue hasta hace

poco, tener un producto caro y dirigido a un mercado especifico como el del diseño gráfico,

sólo había software para Machintosh referido alas artes gratificas, por esto IBM, a pesar de su

abismal diferencia tecnológica, logró imponerse en el resto de los ámbitos, aunque no por

mérito de su fabricante. Otras empresas se lanzaron a fabricar computadoras. E1 problema

era el Sistema Operativo. La computadora, como dijimos, es un conjunto de piezas que

muestra resultados acordes con el software que le ponemos. Cuando una computadora

arranca, necesita de un programa base para comenzar a operarla, un software que contenga

los pasos básicos le permita copiar y ejecutar los programas que compró. Este software básico

o de arranque se llama Sistema Operativo. La PC que lanzó IBM (años 1979/1980), venia con

un sistema operativo propio denominado por esa empresa como OS, (iniciales de Operative

System) ocupaba varios disquetes y tenia un costo adicional elevadísimo; obviamente la PC

no funcionaba sin ~1. Los fabricantes que querían incursionar en el mercado debían comprar a

IBM el OS. Estas computadoras fabricadas por terceros fueron llamadas, compatibles, ya que

su hardware era capaz de ejecutar el OS de IBM. La computadora era más barata que la

original, y el sistema OS, parecía desproporcionadamente caro. Frente a esto, un joven

americano emprendedor y tenaz, se encerró en su habitación con una PC y no salió de ella

hasta haber obtenido como resultado un sistema operativo compatible con el de IBM. Lo llamó

DOS, siglas de Disk Operative System, porque además, entraba en un solo disquete. Ese

Page 35: Historia de la Computación-informática

joven es hoy el dueño de la empresa más grande del mundo dedicada al desarrollo de

software, y marca el rumbo al mercado informático; se llama Bill Gates y su empresa,

Microsoft. Las computadoras fabricadas por terceros, es decir. No por IBM, se extendieron

rápidamente, su costo era hasta tres veces menores que la original del gigante azul, y por

supuesto, el sistema operativo era el DOS de Bill Gates. En la jerga, sé comenzó a llamar alas

PC'S, clones, o sea. Copias. IBM perdió el control muy pronto. E1 rumbo de la tecnología era

marcado ahora por la empresa INTEL, que fabricaba los microprocesadores. El corazón. El

cerebro de la PC. Lanzando uno nuevo aproximadamente cada año. De inmediato Bill Gates

con su flamante empresa Microsoft, desarrollaba programas para aprovechar al máximo las

capacidades de éste. Pronto queda claro que los lideres son INTEL y Microsoft, IBM, dueño de

la idea, había perdido toda influencia sobre el tema. Hoy las computadoras de IBM llevan

procesadores INTEL y ejecutan programas de Microsoft. Durante este periodo, surgieron las

líneas de procesadores 286, 386 y 486. Desde hace unos años, las cosas se dieron vuelta y

Microsoft pasó a desarrollar software que exigía demasiado a los procesadores de INTEL, por

lo que éste se veía obligado a apurar los tiempos de lanzamiento de nuevos modelos.

Aprovechando esta situación, por 1993, IBM, APPLE y Motorola intentan quebrar el liderazgo

INTEL-Microsoft, y lanzan el Power PC, un procesador que prometía hacer estragos, pero solo

1o utilizan APPLE en sus computadoras personales e IBM en su línea de servidores AS400.

Simultáneamente otros fabricantes de procesadores tomaron impulso. Estas circunstancias

impulsaron a INTEL a crear un procesador distinto. (Los anteriores eran continuas mejoras al

286 mas poderoso, así nació el Pentium.) Microsoft tiene una inesperada compañera que

también demanda mas tecnología en el hardware: INTERNET. Digamos que, por culpa de

Internet, INTEL creó el MMX. En realidad es un Pentium con mejoras que optimiza la ejecución

de video y sonido multimedia en la PC. Luego nacen los modelos Pentium Pro, Pentium II y

Pentium III. La evolución de la informática afecta a todos los aspectos de la vida, la

computadora hoy tiene muchas aplicaciones. Por ejemplo cuando vamos a un hospital

encontramos en la recepción una computadora informándonos dónde se encuentra la sección

que buscamos (sí es pediatría, internación o rayos). Además, si necesitamos una ecografía

observamos una computadora que registra todos los datos que él medica desea. De la misma

forma que en nuestro ejemplo, podríamos señalar otras aplicaciones en diferentes áreas

Ejemplo: MEDICINA. v TOMOGRAFiA COMPUTADA, v HISTORIAS CLINICAS EN BASES

DE DATOS v BRAZOS ROBOT QUE REEMPLAZAN AL HOMBRE

Page 36: Historia de la Computación-informática

LA PREHISTORIA DE LA ERA DE LA COMPUTACION

El hombre primitivo y su contabilidad incipiente

Desde que el hombre primitivo se convirtió en "homo sapiens sapiens" se inclinó por las

estadísticas y las expresó en la forma de artes gráficas, creando una incipiente modalidad de

cálculo. Graficaba la cantidad de animales que habían cerca a su coto de caza y los guerreros

de otros grupos nómades enemigos.

Una muestra muy conocida y evidente la constituye los restos arqueológicos, de arte rupestre,

hallados en las famosas cuevas de Altamira en España, donde se conservan prácticamente

intactas, pinturas de bizontes y caballos, entre otras, con una calidad artística digna de

tiempos contemporáneos.

Page 37: Historia de la Computación-informática

Las primera máquinas de calcular

Los primeros vestigios de cálculo realizado por medios artesanalmente

mecánicos, por decirlo de algún modo, se

remontan a 3000 años antes de Cristo

(AC).

Los Babilonios que habitaron en la antigua

Mesopotania, empleaban unas pequeñas

bolas hechas de semillas o pequeñas piedras, a

manera de "cuentas" y que eran agrupadas en

carriles de caña. Más aún, en 1800 AC un

matemático babilonio inventó los algoritmos que le

permitieron resolver problemas de cálculo numérico

Algoritmo: conjunto ordenado de operaciones propias de un cálculo.

El intercambio comercial y las conquistas bélicas entre los pueblos del mundo antiguo,

permitieron que el invento de los Babilonios, se transmitiesen a otros grupos culturales a

través del tiempo, permitiendo de este modo que con los aportes respectivos, se mejorasen

sus diseños.

El Abaco

Fueron los egipcios quienes 500 años AC inventaron el primer dispositivo para calcular,

basado en bolillas atravezadas por alambres. Posteriormente, a principios del segundo siglo

DC, los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja,

poniéndole por nombre Saun-pan. El Abaco permite realizar sumar, restar, multiplicar y dividir.

La palabra Abaco proviene del griego ABAX que significa una tabla o carpeta cubierta de

polvo. Este dispositivo en la forma moderna en que la conocemos, realmente apareció en el

siglo 13 DC y fué sujeto de varios cambios y evoluciones en su técnica de calcular.

Actualmente está compuesto por 10 columnas con 2 bolillas en la parte superior 5 en la parte

inferior.

Los Japoneses copiaron el abaco chino y lo re-diseñaron totalmente a 20 columnas con 1

bolilla en la parte superior y 10 en la inferior, denominándolo Soroban

Como caso anecdótico cabe relatar que en 1946, un contador japonés de nombre Kiyoshu

Matzukai, quien era un experto en el uso del Abaco, se enfrentó en un concurso contra una

computadora de la época durante dos dias completos, resultando como ganador indiscutible el

ciudadano japonés.

Page 38: Historia de la Computación-informática

Actualmente el antiguo ábaco se emplea como método de

enseñanza en las escuelas de los países orientales, aunque

es usado regularmente en muchos de lugares del mundo,

particularmente en los pequeños negocios de los barrios

chinos (Chinatowns) en los Estados Unidos de América y

Canadá.

Transcurrirían muchísimos siglos antes de que se ocurriera una innovación trascendental y ello

sucedió entre los siglos VII y IX, cuando surgiera el sistema numérico arábigo, el mismo que

empezó a difundirse lenta pero exitosamente en toda Europa.

SIGLOS XIV ALXIX EPOCA DE GRANDES INVENTOS

Trancurrieron 1300 años antes de que se inventase algún dispositivo vinculado al cálculo y es

sólo entre los siglos XIV al XIX que se suceden una serie de eventos e importantes aportes, tal

como veremos a continuación.

Jonh Napier (1550-1617) Inventor de los logaritmos

En 1550, en el pequeño pueblo de Tower of Merchiston, Inglaterra nace John Napier,

considerado como uno de los estudiosos matemáticos más destacados de la historia universal,

catalogado con Arquímedes, Isaac Newton o Albert Einsten.

A la temprana edad de 13 años ingresó al Saint Salvador College, donde estudió por espacio

de 2 años. Luego viajó por toda Europa, principalmente a Francia y Holanda donde continuó

sus estudios e investigaciones entre 1566 y 1571. En vida recibió honrosamente el seudónimo

de "la maravilla de Merchiston", debido a su reconocida genialidad y visión imaginativa en

diversos campos.

La principal contribución de John Napier, es sin lugar a dudas la invención de los logaritmos,

que son un exponente al cual hay que elevar un número o base para que iguale a un número

dado.

Con relación al cálculo publicó una obra titulada "RABDOLOGIAE", que era un pequeño

tratado sobre la forma de ejecutar multiplicaciones. En su apéndice explicaba un método para

multiplicar y dividir usando varillas y placas metálicas que puesto en la práctica se convirtió en

la precursora de las modernas calculadoras de bolsillo de hoy en dia, pese a que este rústico

sistema era inseguro debido a que las varillas no podían ser manejadas con versatibilidad.

Este invento irónicamente conocido como los "huesos de Napier".

Abundan las historias sobre sus experimentos sobrenaturales y hay evidencias de que

practicaba la adivinación. Su vida estuvo rodeada de misterio y falleció en Abril de 1617.

Merchiston, el lugar de su nacimiento es ahora el centro de la famosa Universidad de Napier.

Page 39: Historia de la Computación-informática

Blaise Pascal (1623-1662) La Pascalina

Nació en Clermont-Ferrand, Francia, el 19 de Junio de 1623. Hijo de un recaudador de

impuestos y miembro de la alta burguesía, el jóven Blaise Pascal no tuvo una instrucción

formal y fue educado por su padre. Su juventud transcurrió entre los salones de la nobleza y

los círculos científicos de la sociedad francesa de la época.

Cuando apenas contaba con 19 años Blaise Pascal empezó a construir una complicada

máquina de sumar y restar, la cual fue concluida 3 años más tarde. En 1649 gracias a un

decreto real obtuvo el monopolio para la fabricación y producción de su máquina de calcular

conocida como la PASCALINA que realizaba operaciones de hasta 8 dígitos.

En 1646 Blaise Pascal empezó sus experimentos barométricos, los cuales continuó durante 8

años. En 1654 completó un trabajo dedicado a las leyes de la hidrostática y a la demostración

y descripción de los efectos del peso del aire.

Terminado estos experimentos realizó estudios de aritmética, destacando en el análisis y

cálculo de probabilidades. Blaise Pascal inventó la prensa hidráulica y es considerado el padre

y creador de la HIDROSTATICA.

Este jóven científico falleció en 1662 en la ciudad de París a la temprana edad de 39 años.

Gottfried Wilhelm Leibniz (1646-1716) inventor del Sistema Binario

Gottfried Leibniz nació el 1o de Julio de 1646 en Leipzig, Alemania. Realizó estudios de Leyes

en la universidad de su ciudad natal y en 1675 estableció los fundamentos para el cálculo

integral y diferencial.

En 1676 publicó su "Nuevo Método para lo Máximo y Mínimo", una exposición de cálculo

diferencial. Fué filósofo, matemático y logístico. En 1670, Leibniz mejora la máquina inventada

por Blaise Pascal, al agregarle capacidades de multiplicación, división y raíz cúbica.

En 1979 crea y presenta el modo aritmético binario, basado en "ceros" y "unos", lo cual serviría

unos siglos más tarde para estandarizar la simbología utilizada para procesar la información

en las computadoras modernas.

Page 40: Historia de la Computación-informática

Charles Babbage (1792-1871) La máquina diferencial y la analítica

Charles Babbage nació el 26 de Diciembre de 1792 en Londres, algunos afirman

que fue en 1971, y era hijo de un rico banquero inglés. Desde muy jóven se inclinó

por los estudios de matemáticas y fue su propio instructor de Algebra, de cuyos

estudios e investigación fue un terrible apasionado.

Después de ingresar al Trinity College de Cambridge, en 1811, descubrió que estaba mucho

más adelantado en sus conocimientos de matemáticas que sus propios tutores.

Conjuntamente con Hershel, Peacock y otros fundó la Sociedad Analítica con el objeto de

promover las matemáticas continentales. En 1816 fue elegido miembro de la Royal

Society y fue uno de los promotores de la formación de la Sociedad Real de Astronomía,

fundada en 1820.

A partir de 1820, Charles Babbage despertó un enorme interés sobre las máquinas de

calcular. Con la ayuda de la condesa Ada Byron, hija del poeta

Lord Byron, desarrolla el concepto de 2 calculadoras mecánicas

o "máquinas de números".

La primera de ellas, llamada la Máquina Diferencial era un

dispositivo de 6 dígitos que resolvía ecuaciones polinómicas por

el método diferencial. La segunda, denominada Máquina

Analítica, que tampoco fue terminada, fué diseñada como un

dispositivo de cómputo general.

Ambos equipos eran totalmente mecánicos, usaban ejes,

engranajes y poleas para poder ejecutar los cálculos. Por este motivo los diseños funcionaban

en teoría pero en la práctica las maquinarias y herramientas de fabricación de la época eran

imprecisas y no pudieron construir las piezas con la necesaria exactitud.

Dispositivo de entrada de la información: tarjetas metálicas perforadas en miles de

combinaciones.

Procesador: dispositivo con cientos de ejes verticales y miles de piñones.

Unidad de control: dispositivo en forma de barril con filamentos y ejes (como cuerdas de

piano).

Dispositivo de salida: Plantillas diseñadas para ser utilizadas en una prensa de imprenta.

En lo que respecta a Babbage y Ada Byron sus proyectos quedaron frustrados. Sin embargo,

los planos y modelos de ambas máquinas sirvieron como puntos referenciales de muchos de

los conceptos de computación aplicados hoy en día y para muchos, Charles Babbage es

considerado el padre de las computadoras.

A pesar de sus muchos logros y aportes a la ciencia, a través de su vida, la frustración de no

poder llegar a construir exitosamente sus máquinas de calcular, principlamente por la falta de

Page 41: Historia de la Computación-informática

apoyo del gobierno, convirtió a Babagge en un hombre resentido y amargado hasta el dia de

su muerte ocurrida en Londres el 18 de Octubre de 1871.

La condesa Ada Byron (1815-1851) La primera programadora de la historia

Augusta Ada Byron, también llamada Lady Lovelace, fué uno de los personajes más

pintorescos de la historia de la computación. Nació en Londres, el 10 de Diciembre de 1815

siendo hija del ilustre poeta inglés Lord Byron. Apenas 5 semanas después de nacida su

madre Lady Byron, se separó de su esposo y obtuvo la custodia de su hija, encargándose de

su crianza y educación por cuanto a ella le aterrorizaba la idea de que su hija acabase

convirtiéndose en un poeta como su padre.

Lady Lovelace tuvo vocaciones de analista y metafísica y a los 17 años influenciada por Mary

Somerville realizó sus estudios de matemáticas. Fue en una cena que escuchó y se interesó

sobre las ideas de Charles Babbage acerca de una nueva máquina de calcular. Ella intuyó que

un proyecto de esa envergadura podría convertirse en una realidad y fue una de las pocas

personas que creyó en la "universabilidad de las ideas", preconizada por Charles Babbage y

decidió colaborar con él.

Ada Byron, es considerada la primera programadora de la era de la computación, ya que fué

ella quien se hizo cargo del análisis y desarrollo de todo el trabajo del inventor y la

programación de los cálculos a procesarse.

De quebrantable salud y muy enfermiza, al igual que su padre, Lord Byron, Lady Lovelace

falleció siendo muy jóven, a la edad de 36 años.

En la década de los 80 el Departamento de Defensa de los Estados Unidos de América

desarrolló un lenguaje de programación en honor a la condesa, al cual nombró ADA.

Joseph Marie Jacquard (1752 - 1834) Las plantillas perforadas

Nació el 7de Julio de 1752 en la ciudad de Lyon, Francia, y aunque fué hijo de un modesto

obrero textil tuvo grandes aspiraciones para su futuro.

En 1801 y ya convertido en inventor e industrial textil Joseph Marie Jacquard dio un

fundamental aporte al proceso de las máquinas programables al modificar una maquinaria

textil, inventada por Vaucanson, a la cual implementó un sistema de plantillas o moldes

metálicos perforados, unidas por correas, que permitían programar las puntadas del tejido

logrando obtener una diversidad de tramas y figuras.

Page 42: Historia de la Computación-informática

Fue tan grande el interés despertado por el invento de Jacquard, que el propio Napoleón

Bonaparte se quedó muy asombrado cuando en 1805 asistió a una exibición industrial

celebrado en Lyon, para posteriormente condecorarlo con la medalla de La Legión de Honor y

un premio de 50 francos por cada Telar que fuese comercializado durante el período de 6

años.

A partir del invento de Jacquard empezaron a proliferar, poniéndose muy de moda las

máquinas y equipos programados por sistemas perforados, tales como los pianos mecánicos,

conocidos como pianolas, muñecos y otros novedosos juguetes mecánicos.

Herman Hollerith (1860-1929) El Censo de 1890 en los Estados Unidos

Nacido en Buffalo, New York, el 29 de Febrero de 1860 e hijo de unos inmigrantes alemanes

realizó estudios en el City College de New York a la edad de 15 años y se graduó de Ingeniero

de Minas, con altas distinciones, en la Columbia School of Mines, a la edad de 19 años.

Su primer empleo lo obtuvo en la Oficina de Censos en 1880. Posteriormente enseñó

ingeniería mecánica en el Instituto Tecnológico de Massashusetts (MIT) y luego trabajó para la

Oficina de Patentes del gobierno norteamericano.

Hollerith empezó a trabajar con el sistema de máquinas tabuladoras durante sus dias en el

MIT, logrando su primera patente en 1884.

Desarrolló una prensa manual que detectaba los orificios en las tarjetas perforadas, tenía un

alambre que pasaba a través de los huecos dentro de una copa de mercurio debajo de la

tarjeta, cerrando de este modo el circuito eléctrico. Este proceso disparaba unos contadores

mecánicos y ordenaba los recipientes de las tarjetas, tabulando así en forma apropiada la

información.

En 1880 se celebró un censo de población nacional en los Estados Unidos y tuvieron que

transcurrir 7 largos años antes de que toda la información quedase procesada por el Buró de

Censos, debido a que los datos levantados eran tabulados en papel. Por consiguiente se

estimó que el próximo censo a celebrarse en 1890 tardaría unos 10 o 12 años en procesarse y

Page 43: Historia de la Computación-informática

poder obtener los resultados finales. Es por ello que el gobierno norteamericano convocó a

una licitación para un sistema de procesamiento de datos que proporcionase resultados más

rápidos.

Herman Hollerith, que trabajaba como empleado del buró de Censos, propuso su sistema

basado en tarjetas perforadas que si bien esto no era una invención, puesto en práctica

constituyó el primer intento exitoso de automatizar el procesamiento de ingentes volúmenes de

información.

Las máquinas de Hollerith

clasificaron, ordenaban y enumeraban las tarjetas perforadas que contenían los datos de las

personas censadas, logrando una rápida emisión de reportes, a partir de los 6 meses. Los

resultados finales del censo de 1890 se obtuvieron en el tiempo record de 2 años y medio.

Herman Hollerith en 1896 fundó la TABULATING MACHINE COMPANY que luego se convirtió

en la Computer Tabulating Machine (CTR).

Hollerith se retiró en 1921 y en 1924 CTR cambió su nombre por el de International Business

Machines Corporation (IBM), que años más tarde se convertiría en el gigante de la

computación.

Herman Hollerith falleció el 17 de Noviembre de 1929.

1939 - 1958 LA PRIMERA GENERACION DE COMPUTADORAS

La Segunda Guerra Mundial impulsó el desarrollo de dispositivos de cómputo cuyos diseños

habían empezado alrededor de 1933. Aunque algunos hechos trascendentales, ocurrieron en

forma simultánea.

John Louis von Neumann (1903-1957)

Este científico matemático ocupa un lugar privilegiado en la historia de la computación debido

a sus múltiples e importantísimos aportes a las computadoras de la primera generación. Nació

Page 44: Historia de la Computación-informática

el 28 de Diciembre de 1903 en Budapest, Hungria, llegando a ser uno de los

más brillantes matemáticos de la era de la computación.

Von Neumann fue un niño prodigio que a la edad de 6 años podía dividir

mentalmente cifras de 8 dígitos. Recibió una temprana educación en su ciudad natal, bajo el

tutelaje del matemático M. Fekete conjuntamente con el cual publicó su primer trabajo a la

edad de 18 años. En 1921 ingresó a la facultad de Química de la Universidad de Budapest

pero decidió continuar sus estudios en Berlin y Zurich, graduándose de Ingeniero Químico en

1925.

Inmediatamente después de graduado volvió a sus investigaciones y estudios de las

matemáticas de las cuales fue un apasionado, logrando un doctorado en 1928. Rápidamente

ganó una reputación como un excelente matemático y en 1930 fue invitado a visitar la

Universidad de Princeton (USA) y al ser fundado el Instituto de Estudios Avanzados en 1933,

Von Neumman fue elegido como uno de sus únicos 6 profesores matemáticos, actividad que

desempeñó hasta el resto de su vida.

A través de los años desempeñó muchas cátedras en universidades de prestigio en todo el

mundo, tales como Harvard, Pensilvania, Princeton, Roma, Amsterdam, etc. En 1956 fue

elgido miembro honorario de la Academia de Ciencias Exactas en Lima, Perú.

A través de los años desempeñó muchas cátedras en universidades de prestigio en todo el

mundo, tales como Harvard, Pensilvania, Princeton, Roma, Amsterdam, etc. En 1956 fue

elgido miembro honorario de la Academia de Ciencias Exactas en Lima, Perú.

Durante la segunda guerra mundial fueron aprovechados sus conocimientos en hidrodinámica,

balística, meteorología, teoría de juegos y estadísticas. En 1944 contribuyó en forma directa en

los diseños de fabricación de computadoras de esa generación, asesorando a Eckert y John

Machly, creadores de la ENIAC y que construyeran además la UNIVAC en 1950. Durante esa

década trabajó como consultor para la IBM colaborando con Howard Aiken para la

construcción de la computadora Mark I de Harvard.

John Von Neumann falleció el 8 de Feberero de 1957 en Washington DC.

Konrad Zuse (1910-1957) El primer prototipo de computadora digital

Durante 1936 y 1939 el ingeniero alemán Konrad Zuse construyó la primera computadora

electromecánica binaria programable, la cual hacía uso de relés eléctricos para automatizar los

procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas al cual llamó Z1, el mismo

que nunca llegó a funcionar a cabalidad debido a la falta de perfeccionamiento en sus

elementos mecánicos.

En 1940 Zuse terminó su modelo Z2, el cual fue la primera computadora electro-mecánica

completamente funcional del mundo. Al año siguiente, en 1941, fabricó su modelo Z3 al cual le

desarrolló un programa de control que hacía uso de los dígitos binarios.

Page 45: Historia de la Computación-informática

Sin embargo esta computadora fue destruida en 1944 a causa de la guerra. Entre 1945 y 1946

creó el "Plankalkül" (Plan de Cálculos), el primer lenguaje de programación de la historia y

predecesor de los lenguajes modernos de programación algorítmica.

Konrad Zuse nació en Berlin el 22 de Junio de 1910. Estudió ingeniería civil en el Instituto

Politécnico de Berlin, graduándose en 1933, trabajó en la industria aeronáutica pero años más

tarde se retiró para dedicarse a las tareas de "inventor", labor que desarrolló en el dormitorio

de un departamento desocupado, de propiedad de sus padres.

En 1949 formó la fundación ZUSE KG dedicada al desarrollo de programas de control para

computadoras electro mecánicas. En 1956 esta fundación fue adquirida por la empresa

Siemens.

A lo largo de su vida Konrad Zuze fue motivo de muchos honores, falleciendo en Hünfeld,

Alemania el 18 de Diciembre de 1995.

1939 Atanasoff-Berry y la ABC

La Atanasoff-Berry Computer o ABC empezó a ser concebida por el profesor de física John

Vincent Atanasoff a partir de 1933, formulando la idea de usar el sistema de números binarios

para su funcionamiento. Al buscar un ayudante para cumplir con su inovativo propósito, le fué

recomendado por un colega, el joven y brillante recién graduado en ingeniería mecánica de

nombre Clifford Berry.

Entre los años de 1937 y 1942, contando con la ayuda de Berry, diseño y construyó en el

sótano de su laboratorio en la Universidad del Estado de Iowa su famoso prototipo a un costo

de 1,460 dólares, el mismo que estaba compuesto de tubos al vacío, capacitores y un tambor

rotatorio para el manejo de los elementos de la memoria, así como un sistema lógico para su

operatividad. Esta computadora fue usada para resolver ecuaciones matemáticas complejas.

La Atanasoff

Berry Computer usaba relés, núcleos magnéticos para la memoria y tubos de vidrio al vacío

(radio tubos) y condensadores (capacitores) para el almacenamiento de la memoria y el

procesamiento de los datos.

La Atanasoff-Berry computer o ABC terminada de construirse en 1942 en el Iowa State

College fué la primera computadora electrónica digital, aunque sin buenos resultados y nunca

fué mejorada. Desafortunadamente sus inventores jamás la patentaron y por aquel entonces

surgieron problemas sobre la propiedad intelectual de la misma, en cuyas divergencias

participó la IBM.

Page 46: Historia de la Computación-informática

Aunque existen serias dudas sobre si

la ABC (Atanasoff-Berry Computer)

fué completamente operativa, el

hecho es que John W. Mauchly visitó

a Atanasoff en 1941 y observó muy de

cerca su impresionante máquinaria y

tuvo la oportunidad de revisar su

tecnología. Existe una gran

controversia respecto a que Mauchly

copió muchas de las ideas y conceptos del profesor Atanasoff, para posteriormente entre los

aõs de 1943 a 1946 contruyera la computadora ENIAC.

1941 Alan M.

Turing y la

Collosus

La Collosus usaba miles de válvulas y 2,400 bombas de vidrio al vacío, así como un scanner

que podía leer 5,000 caracteres por cinta de papel.

La MARK I de IBM en 1944

Mark I, es la primera computadora construída por la IBM a gran escala, desarrollada en

cooperación con la Universidad de Harvard.

Page 47: Historia de la Computación-informática

La

Calcul

adora

Autom

ática

de Control Secuencial de la Mark I es la primera máquina

capaz de ejecutar largas operaciones en forma automática.

Medía 15 metros de largo, 2.40 m. de altura y pesaba 5

toneladas.

La Mark I usaba relés electromecánicos para resolver

problemas de suma en menos de un segundo, 6 segundos

para multiplicación y el doble de tiempo para la división.

Muchísimo mas lenta que una calculadora de bolsillo del presente.

Grace Hooper (1906-1992) la MARK I de IBM en 1944

Nada menos que una brillante mujer, la almirante Grace Hooper, conocida como "Amazing

Grace" (la fascinante Grace), una excelente oficial de la Marina de Guerra de los Estados

Unidos, entre los años 1940 y 1950 se convirtió en pionera y propulsora de la programación en

computadoras.

Como innovativa y pensadora fundamentalista, la almirante Hooper creyó firmemente en que

las computadoras podían servir para aplicaciones de negocios más allá del uso primordial que

se le daban a estos equipos en los campos científicos y militar.

Ella creó el lenguaje Flowmatic, con el cual desarrolló muchas aplicaciones y en 1951 produjo

el primer compilador, denominado A-0 (Math Matic). En 1960 presentó su primera versión del

lenguaje COBOL (Common Business-Oriented Language).

Grace se graduó en matemáticas y física en el Vassar College. Completó su maestría y

doctorado en la Universidad de Yale..

Durante la Segunda Guerra Mundial se unió a la Marina de Guerra de los Estados Unidos,

habiendo trabajado en el Bureau of Ordenance Computation.

Paradójicamente recibió entre muchos reconocimientos y condecoraciones, el título de

Hombre del Año en Ciencia de la Computación, otorgado por la Data Processing Managment

Association. También fué la primera mujer nombrada miembro distinguido de British Computer

Society y fué la primera y única mujer nombrada con el grado de Almirante de la Marina de

Guerra de su pais. Grace Hooper falleció en 1992.

1946 ENIAC Electronic Numerical Integrator and Computer

Page 48: Historia de la Computación-informática

Otra de

las más

famosas

computadoras de la época fué la ENIAC que contaba con 17,468 tubos

de vidrio al vacío, similares a los radio-tubos, y que fuera empleada por el

ejército exclusivamente para cálculos balísticos, o de la trayectoria de los

misiles.

Fué construída en 1946 en la Universidad de Pensylvania por John

Mauchly y J. Presper Eckert. Medía 2.40 de ancho por 30 metros de largo

y pesaba 80 toneladas.

La ENIAC podía resolver 5,000 sumas y 360 multiplicaciones por

segundo, pero su programación era terriblemente tediosa y debía

cambiársele de tubos contínuamente.

1949 EDVAC (Electronic Discrete variable Automatic Computer)

La computadora EDVAC, construida en la Universidad de Manchester, en 1949 fué el primer

equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos

que tenían que ser intercambiados o reconfigurados cada vez que se usaban.

Esta computadora fué también construída por John Maucly y J. Prespert Eckert, quienes

empezaron a trabajar en ella 2 años antes que la ENIAC empezara a operar. La idea era tener

el programa alamacenado en la computadora y esto fué posible gracias a que la EDVAC tenía

una mayor capacidad de almacenamiento de memoria.

La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal modo

que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros (0) y

unos (1). Esto era indispensable ya que en lugar de usar decimales la EDVAC empleaba

números binarios.

En realidad EDVAC fué la primera verdadera computadora electrónica digital de la historia, tal

como se le concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas

más completas.

1951 UNIVAC (Universal Automatic Computer) de John Mauchly y J. Presper Eckert

Page 49: Historia de la Computación-informática

Todas los equipos

mencionados y que

pertenecen a la primera

generación de

computadoras entre los

años

1940 y 1958, se

caracterizaron por usar entre sus componentes relés, bobinas

y tubos de vidrio al vacio.

A fines de esta generación, entre 1951 y 1958 Mauchly y Eckert

construyeron la famosa serie UNIVAC, la misma que fué diseñada con propósitos de

uso general y universal pues ya podía procesar problemas alfanuméricos y de datos.

Las tarjetas perforadas todavía conformaban el mayor recurso de alimentación de datos y toda

la programación era muy compleja pues se realizaba en lenguaje de máquina.

En esta generación proliferante de inventos no podemos dejar de mencionar los siguientes

inventos:

1948: IBM lanza la primera calculadora electrónica denominándola simplemente IBM 604

1948: IBM construye la SSEC (Selective Sequence Electronic Calculator) con 12,000 tubos de

vidrio al vacío y 21,000 relés electromecánicos.

La SSEC es 250 veces más rápida que la Mark I, pero muchísimo menos poderosa que las

computadoras modernas de escritorio o las portátiles notebooks.

1948: El Transistor es inventado por William Bradford Shockley con John Bardeen y Walter H.

Brattain.

Jack Forrester inventa la memoria de núcleo de acero. Estos núcleos de almacenamiento

sirven como la tecnología básica detrás de cada computadora hasta los años 70s. Los

diminutos núcleos de acero pueden ser magnetizados como contadores de reloj, para

representar bits de información, la cual puede ser invocada en millonésimas de segundo.

Fueron patentados en 1956.

1950: Maurice V. Wilkes de la Universidad de Cambridge emplea el lenguaje assembler en

EDSAC.

1950: Remington-Rand adquiere la Eckert-Mauchly Computer Corp.

1951: Se forma the Computer Society.

1951: Wang Laboratories, Inc. es fundado por An Wang, en Boston.

1951: La primera computadora con ventilador es operada en el MIT. Fué diseñada por Jay

Forrester y Ken Olsen.

Page 50: Historia de la Computación-informática

1952: IBM introduce el modelo 701, su primera computadora electrónica con programa de

almacenamiento.

Antes de que los mecanismos de cintas magnéticas se convirtiesen en un estándar para el

almacenamiento de la información, IBM presentó un sistema que que consistía en una

columna con una cámara de aire, la servía para controlar la rápida aceleración o

desaceleración de la cinta.

Con la IBM 701, los carriles de las cintas de almacenamiento soportaban 100 caracteres por

pulgada, o el equivalente de 12,500 tarjetas perforada, por cada carril.

En 1953 la IBM 726 introdujo la primera cinta magnética, con una densidad de 100 caracteres

por pulgada a una velocidad de 75 pulgadas por segundo.

1952: Remington-Rand adquiere Engineering Research Associates (ERA).

1952: RCA desarrolla la BIZMAC con memoria de núcleo de acero y tambor magnético para

soportar base de datos.

1952: El departamento de Justicia de los Estados Unidos enjuicia a la IBM por monopolizar las

tarjetas perforadas, en la industria de la contabilidad computarizada.

1953: Burroughs Corp. instala la Universal Digital Electronic Computer (UDEC) en la

Universidad del Estado de Wayne.

1953: La primera impresora de alta velocidad es desarrollada por Remington-Rand para su

uso en la Univac.

1954: El lenguaje FORTRAN es creado por John Backus en IBM, pero Harlan Herrick

desarrolla el primer programa en FORTRAN.

1954: Gene Amdahl desarrolla el primer sistema operativo, usado en la IBM 704.

1955: Remington-Rand surge con el Sperry Gyroscope para conformar Sperry-Rand.

1956: El gobierno de Estados Unidos enjuicia a IBM y lo obliga a vender así como alquilar

equipos bajo la modalidad de Leasing.

1956: A. Newell, D. Shaw and F. Simon inventan el IPL (Information Processing Language.)

1956: El concepto de Inteligencia Artificial es acuñado por John McCarthy.

1957: Control Data Corporation es formado por William C. Norris y un grupo de ingenieros de

Sperry-Rand.

1957: Digital Equipment Corporation es fundada por Ken Olsen.

1958: ALGOL, inicialmente llamado IAL (International Algebraic Language), es presentado en

Zurich.

1958: Las primeras computadoras electrónicas son fabricadas en japón por la NEC: la NEC-

1101 y NEC -1102.

Page 51: Historia de la Computación-informática

1958: Frank Rosenblatt construye el Perceptron Mark I,

usando un dispositivo de salida CRT (monitor de tubos de

rayos catódicos).

1958: El lenguaje LISP es desarrollado para la IBM 704 en el MIT, bajo el mando de

John McCarthy.

1958: Seymour Cray construye el CDC 1604, para Control Data Corp., el primer super

computador totalmente transistorizado.

1958: Jack Kilby de Texas Instruments frabrica el primer circuito integrado.

1959 - 1964 LA SEGUNDA GENERACION DE COMPUTADORAS

1948 Los transistores

Allá por 1945 la máxima limitación de los componentes de las computadoras eran la causa de

su lenta velocidad de procesamiento.

Los relés electro-mecánicos, la pobre disipación de calor de los amplificadores basados en

tubos de vacío, motivaron a Mervin Kelly, por ese entonces Director de Investigación de los

Laboratorios Bell, a conformar un grupo de investigadores que pudiesen concebir unos semi-

conductores.

El grupo fue conformado en 1946 por varios investigadores, entre los que destacaron John

Bardeen, Walter Brattain y William Shockley quienes en 1948 inventaron el primer Transistor,

sin presagiar que estaban a punto de lograr uno de los mayores descubrimientos de la era de

la computación.

En 1947, estos 3 científicos de la Bell, perteneciente a AT&T en New Jersey empezaron a

experimentar con un tipo de semiconductor llamado "germanio", un elemento blanco grisáseo,

que poseía un un lustre brillante metálico y una estructura cristalina, con un molde de la

estructira de un diamante.

Fueron John Bardeen, Walter

Brattain y William Shockley quienes conociendo las propiedades del silicón hallado en las

piedras de cuarzo, finalmente concibieron el Transistor. Sus componentes originales fueron

muy simples. Cada uno de ellos estaba soldado encima de una tabla de circuitos que servía

para conectar a otros componentes individuales.

Un transistor contiene un material semi-conductor que puede cambiar su estado eléctrico

cuando es pulsado. En su estado normal el semi-conductor no es conductivo, pero cuando se

Page 52: Historia de la Computación-informática

le aplica un voltaje se convierte en conductivo y la corriente leéctrica fluye a

través de éste. En las computadoras, funcionan como un swicht electrónico o

puente.

1958 Los Circuitos Integrados

La computación empezó a tomar el interés de los científicos y estudiosos a partir del invento

de los Transistores y no se pueden dejar de mencionar los siguientes hechos cronológicos:

Fue en 1958 que Jack Kilby y Robert Noycea, de la Texas Instrument, inventaron los

circuitos integrados, que eran un conjunto de transistores interconectados con

resistencias, dentro de un solo chip. Fue a partir de este hecho que las computadoras

empezaron a fabricarse de menor tamaño, más veloces y a menor costo ya que la

cantidad de transistores colocados en un solo chip fué aumentando en forma

exponencial. Vale decir de un puñado de ellos a decenas de milllones en tan sólo uno

de ellos.

Bajo el principio de que un impulso eléctrico viaje a menos distancia, más rápido llegará a su

destino. A menor dimensión de los elementos, mas veloces son sus impulsos. Hoy día la

velocidad es medida en billones o trillones de segundo.

1959: COBOL es definido en la Conferencia de Sistemas de Lenguajes de Datos (Codasyl),

basado en el Flow-Matic de Grace Hooper.

1959: IBM introduce el modelo 1401. Más de 10,000 unidades serían vendidas.

1959: IBM despacha su primera computadora transistorizada o de segunda generación. Desde

los modelos 1620 hasta el 1790.

1960: Benjamin Curley construye la primera minicomputadora, la PDP-1, en Digital Equipment

Corporation.

1960: Control Data Corporation entrega su primer producto, una enorme computadora

científica llamada la CDC 1604.

1960: DEC ships the first small computer, the PDP-1.

1960: Aparece en el mercado el primer disco remobible.

1961: La multiprogramación corre en la computadora IBM Stretch (de estiración). Varios

conceptos pioneros se aplican, incluyendo un nuevo tipo de tarjeta de circuitos y transistores,

con un caracter de 8 bits, llamado byte. La IBM Strech es 75 veces más rápida que los

modelos de tubos al vacío, pero resulta en un fracaso comercial. Permaneció operativa hasta

1971.

A pesar de que podía ejecutar 100 billones de operaciones por día, no cumple con las

prdicciones de los ingenieros de la IBM, lo cual obliga a Thomas Watson Jr. a reducir el precio

a casi la mitad. Sin embargo, muchas de sus innovaciones formarían parte de la existosa serie

IBM 360.

Page 53: Historia de la Computación-informática

1962: IBM presenta su modelo modelo 1311 usando los primeros

discos remobibles y que por muchísimos años se convertirían en un

estándar de la industria de la computación. La portabilidad de la

información empezó a ser posible gracias a esta nueva tecnología,

la cual fué empleada por los otros líderes del hardware, tales como

Digital Equipment, Control Data y la NEC de Japón, entre otros grandes fabricantes de

computadoras.

Cada paquete de discos (disk pack) podía guardar mas de 2 millones de caracteres de

información, (2 Megabytes de ahora), lo cual promovió la generación de lenguajes de

programción y sus respectivas aplicaciones, ya que los usuarios podían intercambiar los

paquetes de discos con facilidad.

1962: Por primera vez en la historia la IBM reporta ganacias anuales de 1 billón de dólares.

Ross Perot nació en Texarkana, Texas in 1930. Después de trabajar en IBM en 1962 funda

EDS (Electronic Data Systems), una empresa de servicios para computadoras. Durante la

toma de rehenes en Irán en 1979, organizó una exitosa operación para rescatar a dos de sus

empleados de una prisión. Vendió EDS a la General Motors en 1984, se diserfició en

inmobiliarias, gas y aceite y más tarde empezó una nueva empresa de servicios de

computadoras.

Ross Perot nació en Texarkana, Texas in 1930. Después de trabajar en IBM en 1962 funda

EDS (Electronic Data Systems), una empresa de servicios para computadoras.

Durante la toma de rehenes en Irán en 1979, organizó una exitosa operación para

rescatar a dos de sus empleados de una prisión. Vendió EDS a la General Motors en

1984, se diserfició en inmobiliarias, gas y aceite y más tarde empezó una nueva

empresa de servicios de computadoras.

En 1992 postuló a la presidencia de los Estados Unidos, como independiente, sin

resultados positivos..

1963: DEC entrega la primera minicomputadora modelo PDP-5.

1963: Tandy adquiere Radio Shack, con sus 9 tiendas.

1964: IBM anuncia el lanzamiento de su Systema 360, la primera familia de computadoras

compatibles.

Fué el principio del uso de lenguajes amigables con comandos en inglés, tales como

FORTRAN y COBOL, hasta ahora en uso, obviamente en versiones mucho más avanzadas. A

pesar de ello hasta 1964 no se crearon equipos que se pudiesen nombrar como destacables.

En 1964 John Kemeny y Thomas Kurtz desarrollaron la primera versión del popular lenguaje

BASIC en el Dartmouth College y que permitió hacer más facil la programación de las

computadoras emergentes.

Page 54: Historia de la Computación-informática

1964 - 1971 LA TERCERA GENERACION DE COMPUTADORAS

Si bien los circuitos integrados fueron inventados en 1958, tuvieron que transcurrir algunos

años más para que las grandes compañias `los dispositivos que permitiesen desarrollar

verdaderas computadoras, mas completos y veloces.

En Abril de 1964 IBM presenta su generación de computadores IBM 360

Estos equipos, a pesar de que no fueron los únicos que se fabricaron en esta generación, la

simbolizan debido a su enorme aceptación en el mercado de las grande instituciones estatales

y privadas de todo el mundo.

Las IBM 360 estaban basadas en circuitos integrados, la alimentación de la información era

realizada por medio de tarjetas perforadas, previamente tabuladas y su almacenamiento se

hacía en cintas magnéticas. IBM lanzó muchos modelos de esta serie como la IBM 360

20/30/40/50/65/67/75/85/90/195. Su sistema operativo simplemente se llama OS (Operating

System) y los lenguajes que manejaron fueron el FORTRAN, ALGOL y COBOL:.

1964: Control Data Corporation introduce la CDC 6000, que emplea palabras de 60-bits y

procesamiento de datos en paralelo. Luego vino la CDC 6600, una de las más poderosas

computadoras por varios años. Fué diseñada por Seymour Cray.

Page 55: Historia de la Computación-informática

1964: BASIC (Beginners All-

purpose Symbolic Instruction Language) es creado por Tom

Kurtz y John Kemeny de Dartmouth.

1964: Honeywell presenta su modelo H-200 para competir

con los sistemas IBM 1400.

1964: NCR introduce la 315/100.

1965: Digital Equipment despachas su primera minicomputadora la PDP-8.

1966: Honeywell adquiere Computer Control Company, un fabricante de minicomputadoras.

1966: Scientific Data Systems (SDS) introduce su modelo Sigma 7.

1966: Texas Instruments lanza su primera calculadora de bolsillo de estado sólido.

1967: DEC introduce la computadora PDP-10.

1967: A.H. Bobeck de los laboratorios Bell Laboratories desarrolla la memoria burbuja.

1967: Burroughs despacha el modelo B3200.

1967: El primer número de Computerworld es publicado.

1968: Univac presenta su computadora modelo 9400.

1968: Integrated Electronics (Intel) Corp. es fundada por Gordon Moore y Robert Noyce.

1969: El compilador PASCAL es escrito po Nicklaus Wirth e instalado en la CDC 6400.

1970: DEC lanza su primera minicomputadora de 16 bits. La PDP-11/20.

1970: Data General despacha la SuperNova.

1970: Honeywell adquiere la división de computadoras de General Electric.

1970: Xerox Data Systems introduce la CF-16A.

1970: IBM despacha su primer sistema System 370, computadora de cuarta generación. En

1971 se presentan los modelos 370/135 hasta el modelo 370/195.

Ese mismo año IBM desarrolla e introduce los loppy disks son introducidos para cargar el

microcódigo de la IBM 370.

1971: Intel Corporation presenta el primer microprocesador, el 4004.

1971 - 1981 LA CUARTA GENERACION DE COMPUTADORAS

1971 El microprocesador Intel 4004

En 1969, la empresa japonesa Busicom solicitó a Intel que le fabricase un chip para un modelo

nuevo de calculadora de escritorio, con cinta impresora, que deseaba producir masivamente.

Page 56: Historia de la Computación-informática

Un equipo liderado por Marcial Edward "Ted" Hoff,

quien fue uno de sus primeros empleados desde

1986, desarrolló y terminó de fabricar en Marzo de

1971 un microprocesador, pero para uso general, al

cual denominaron el chip 4000.

Ted Hoff se proyectó a diseñar un microprocesador

de capacidades o prestaciones mas completas que las solicitadas por la empresa japonesa,

realizando el mismo esfuerzo, con la posibilidad de usos futuros. Luego de sus predecesores,

Intel fabricó los modelos 4001, 4002, 4003 y 4004.

Este chip de 4 bits, contenía 23,000 transistores que procesaban 108 kHz o 0.06

MIPS. Contaba con 46 instrucciones y 4k de espacio de almacenamiento.

Posteriormente Intel lanzó el modelo 4004 al cual le agregó 14 instrucciones más y

que tenía una capacidad de 8k de almacenamiento.

Intel vendió el microchip a la empresa japonesa, pero después le recompró los

derechos de propiedad intelectual por US $ 60,000, pues se dió cuenta que si bien el chip

4004 había sido fabricado para operar como cerebro de una calculadora, su versatibilidad

como microprocesador de uso general le permitía ser tan poderoso como el ENIAC.

1971 La Kenbak I, primera PC

Durante 1985 el Museo de Computación de Boston realizó un concurso con el objeto de

registrar la historia de la computación. El museo estuvo publicitando este evento en todos los

Estados Unidos, solicitando al público su contribución personal y como resultado de 316

muestras remitidas y ante la enorme sorpresa de todos, un modelo descontinuado y olvidado

resultó haber sido la primera Computadora Personal, que inclusive precedió a la Altair.

La Kenbak 1, fué fabricada en 1971 por John

Blankenbaker de la Kenbak Corporation de Los Angeles, vale decir 4 años antes que la Altair

fuese lanzada al mercado. Esta PC fue dirigido al mercado educacional y contaba con apenas

256 bytes (no kilobytes) de memoria Ram y su programación se realizaba por medio de

palanquillas (switches).

Solamente se comercializaron 40 equipos al costo de 750 dólares.

1973 Los discos Winchister

1973: Los discos duros Winchester son introducidos por IBM en los modelos 3340. Estos

dispositivos de almacenameinto se convierten en el estándar de la industria. Provisto de un

Page 57: Historia de la Computación-informática

pequeño cabezal de lectura/escritura con un sistema de aire que le

permite movilizarse muy cerca de la superficie del disco de una

película de 18 millonésimas de pulgada de ancho.

El 3340 duplica la densidad de los discos IBM cercano a los 1.7 millones de bits per pulgada

cuadrada.

1974 8080, el primer CPU de Intel

La verdadera industria de la computación, en todos los aspectos, empezó en 1974 cuando

Intel Corporation presentó su CPU (Unidad Central de Procesos) compuesto por un microchip

de circuito integrado denominado 8080.

Este contenía 4,500 transistores y podía manejar 64k de memoria aleatoria o RAM a través de

un bus de datos de 8 bits. El 8080 fué el cerebro de la primera computadora personal Mits

Altair, la cual promovió un gran interés en hogares y pequeños negocios a partir de 1975.

1975 La Altair 8800 producida por Micro Instrumentation Telemetry Systems

La primera computadora personal comercial

fue la Altair 8800 fabricada por la empresa MITS en 1975, diseñada por Ed Roberts y Bill

Yates.

El primer modelo de estas computadoras no contaba con monitor ni teclado, tan sólo con luces

LED y pequeñas palancas o switches para facilitar la programación. La información era

almacenada en cassettes de las radio grabadoras y era visualizada en los aparatos de

televisión.

Su costo era de $395.00 con una memoria de 256 bytes.

1975 Fundación de Microsoft

En 1975 William Henry Gates y Paul Allen forman Microsoft, en la ciudad de Albuquerque,

Nuevo México, debido a que la sede de la MITS estaba en esa ciudad. Microsoft fué el

proveedor de la versión del lenguaje BASIC para la computadora personal MITS Altair.

Un par de años antes estos dos amigos de la Universidad de Harvard habían fundado TRAF-

O-DATA una pequeña empresa que se encargó de desarrollar un software para la

administración del tráfico en la ciudad de Seattle. William Gates estudió Economía pero

abandonó sus estudios para incursionar en el desarrollo de software y los negocios.

Page 58: Historia de la Computación-informática

Podemos elegir a 1977 como el año del despegue de la computación personal con la

aparición en el mercado de varios modelos de este tipo de máquinas. Estuvieron a la

venta equipos tales como: Commodore (la cual utilizaba un televisor como monitor), un

modelo de Radio Shack, Atari y por supuesto la de mayor éxito la Apple II de Woznizk

y Jobs. Junto con estas máquinas aparece uno de los primeros sistemas operativos el

CP/M diseñado por la Digital Research.

1975 CM/P, el primer sistema operativo estándar

Gary Kildall y John Torode fundan en 1975 la Digital Research que ingresa exitosamente al

mercado con su sistema operativo CPM. (Control Program for Microcomputers) escrito por

Gary Kildall para las computadoras basadas en el microchip 8080 y las Z80 y que fuera muy

popular en los finales de la década de los 70, pero con la aparición del MS-DOS virtualmente

desapareció del mercado.

Gary Kildall fué el creador del CP/M, primer sistema operativo estándar de la industria. Su vida

está llena de anécdotas y colorido que forman parte del folclore, que unidos a sus inventos lo

hacen ocupar un sitial de privilegio en la era de la computación.

Siendo estudiante de secundaria, en su ciudad natal Seattle, estado de Washington, deseó

convertirse en profesor de matemáticas y apenas concluido sus estudios llegó a enseñar en el

Kildall College of Nautical Knowledge, de propiedad de su familia y que fuera fundado por su

abuelo en 1924.

Luego ingresó a la Universidad de Chicago y muy pronto se casó con su novia de la

secundaria Dorothy McEwen, lo cual lo transformó en un estudiante aplicado, dejando atrás los

años de rendimiento mediocre en sus notas estudios, los carros de carrera y las travesuras de

la adolescencia.

Estando en la facultad de matemáticas se interesó por las computadoras y al terminar su

bachillerato decidió obtener una maestría en Ciencias de la Computación. Sin embargo ocurrió

un incidente. Fué enrolado en la reserva de la Marina de Guerra de su país y se le dió a

escoger entre ir a pelear en la guerra de Vietnam o dictar clases en la Naval Postgraduate

School in Monterey, estado de California.

La respuesta a la propuesta de la Marina de Guerra fué obvia y viajó a California. Fué en

Monterrey que Gary creó el CP/M, cuyas siglas inicialmente se dieron para el Control Program

Monitor, para posteriormente cambiarlo a Computer Program Monitor. Por el contrario de

cualquier sistema operativo desarrollado antes o después, el CP/M no fué el resultado de

investigación y desarrollo de un equipo de ingenieros sino la inventiva y el trabajo de un sólo

hombre. Aunque su sistema operativo resultó ser un buen producto, por muchas razones

técnicas el CP/M fué lanzado al mercado apenas un año antes de la aparición de las primeras

micro computadoras comerciales.

Page 59: Historia de la Computación-informática

Gary Kildall falleció en 1994, debido a un trágico accidente automovilístico.

Hechos notables

La primera generación de computadoras personales, o

microcomputadoras, como fueran renombradas

porteriormente, usaron chips tales como el 8008, 8080,

Zilog Z80 y el Motorola 6800.

El primer número de la revista BYTE es publicado y

meses después la cadena de tiendas BYTE SHOP COMPUTER empieza a crecer

ráudamente. En 1976 IMSAI había comenzado a despachar las primeras

computadoras en serie. La revista del Dr. DOBBS comienza a editarse y se celebra la primera

conferencia mundial de ALTAIR.

Bill Gates escribe su Carta abierta a los hobistas, la cual habla de la pirateria de software (su

versión de lenguaje Basic es copiado ilegalmente por la mayoria de usuarios).

1976 Los dos Steven y la Apple Computer

Steven

Wozniak y Steven Jobs fueron amigos desde la escuela secundaria y ambos se habían

interesado mucho en electrónica y eran considerados por sus compañeros como personas

controvertidas. Después de su graduación se mantuvieron en contacto y ambos consiguieron

empleos en corporaciones de Silicon Valley. (Wozniak trabajó en Hewlett-Packard y Jobs en

Atari).

Wozniak se había dedicado un buen tiempo al diseño de computadoras y finalmente en 1976,

construyó la que se convertiría en la Apple I. Steven Jobs con una visión futurista presionó a

Wozniak para tratar de vender los equipos recién inventados y el 1o de Abril de 1976 nació

Apple Computer.

A pesar de la gran novedad que causó su presentación, no fué muy aceptada. En 1977, con el

lanzamiento de la Apple II la compañia recién empezó a imponerse en el mercado

norteamericano.

Al siguiente año lanzaron la Apple Disk II, la primera disquetera y en 1980 la compañia

fundada por Jobs y Wozniak ya contaba con varios miles de empleados. Emerge una forma de

distribución masiva de software, a precios mas acequibles

1977 La TRS-80 de Tandy/Radio Shack

Page 60: Historia de la Computación-informática

El primer modelo de esta computadora fué vendido el 3 de Agosto de 1977 por la suma de US

$ 599.95 con 4k de memoria, pero muy pronto subió a 16k con el modelo de Nivel II y al cual

se le agregó un teclado y posibilidad de expansión de memoria a 32 k. El microprocesador

empleado fué el Z-80 de 1.77 Mhz, con sistema operativo BASIC grabado en un chip de 12k

de memoria ROM. Se le podía agregar perifericos tales como un televisor de 12", casetera o

un diskdrive de 89 o 102k, impresora con conexión RS-232 y hasta un

sintetizador de voz. Esta computadora fué una

de las más

populares de la época.

1978 el microprocesador Intel 8086

En 1978 se produce un evento importante, la fabricación del microprocesador Intel 8086 el

cual provocó una demanda masiva y motivó a la IBM a crear su flamante División de

Computadoras Personales.

El éxito de ventas alcanzado, hizo que Intel comenzara a figurar en el ranking de las 500

empresas más grandes del mundo, tal como lo publicara la revista FORTUNE 500 de Malcom

Forbes, "la empresa No. 1 de las Exitosas de los Negocios de los 70s"

Un microprocesador de la misma familia el 8088, utilizaría la IBM en su primera PC.

En el mes de Julio de ese mismo año la revista Radio Electronics publica un interesante

artículo, con diagramas y planos enseñando a construir la computadora Mark 8, basada en el

microprocesador 8088 y a la que simplemente denominan "Su mini computadora personal".

Muchas personas en los Estados Unidos fabricaron computadoras personales en sus propios

hogares, lo cual incentivó aún más su uso.

Steven Jobs visita los Laboratorios SPARC de la Xerox y obtiene ideas para desarrollar la

Macintosh. MicroPro, una de las primeras grandes casas de software de la época lanza su

pocesador de textos WORDSTAR. El sistema operativo de la época es el CPM-86.

La hoja de cáculos VisiCalc se convierte en software promotor de ventas de las computadoras

personales provocando una verdadera revolución y record de ventas. VisiCalc resuelve en

forma muy sencilla los problemas matemáticos de los usuarios. De allí su nombre 'Visual

Page 61: Historia de la Computación-informática

Calculator'. Muchísimas computadoras Apple se vendieron con el único propósito de correr el

VisiCalc. Empieza la revolución del software.

Todos estos grandes éxitos despertaron en la IBM la ambición de ingresar al mercado de las

computadoras personales y participar en las suculentas ganacias que obtenian empresas

como Apple, Tandy/Radio Shack, Commodore y hasta Spectrum de Inglaterra.

Caben mencionar los siguientes hechos cronológicos:

1971: Computer Automation introduce la Alpha-16.

1971: IBM presenta las computadoras mainframes 370/135 y 370/195.

1971: NCR preenta el modelo Century 50.

1971: Sperry-Rand toma la línea de computadoras de la RCA.

1972: La primera calculadora de bolsillo es fabricada por Jack Kilby, Jerry Merryman, y Jim

VanTassel de Texas Instruments.

1972: Gary Kildall escribe el PL/1, primer lenguaje de programación para el microprocesador

Intel 4004.

1973: IBM enfrenta un juicio de Control Data, tremnado por vender el Service Bureau

Corporation (SBC) a Control Data.

1973: El lenguje PROLOG es desarrollado por Alain Comerauer en la Universidad de

Marslla-Luminy, Francia.

1974: Zilog es formada para fabricar microprocesadores.

1975: Se forma el Homebrew Computer Club, considerado el primer grupo de usuarios

de computadoras personales.

1976: Commodore International construye la Pet 2001 con nuevo microprocesador 6502. La

Pet fué la primera computadora personal con una pantalla incorporada, con 4k de memoria

Ram, expandible a 32 K y un programa BASIC en memoria ROM (Read Only memory).

Los programas se almacenaban en cassettes y su precio de venta fué de US $ 595 para el

modelo de 4k y US $ 795 para el de 8k. Posteriormenta Commodore International comparía la

MOS Technology, que fabricaba los chips 6502.

1976: NEC System 800 y 900 de propósito general son presentados.

1977: DEC introduce su primera superminicomputadora de 32 bits, la VAX-11/780.

1978: Se celebra la primera feria de COMDEX.

1979: El lenguaje Ada es desarrollado por un equipo dirigido por Jean Ichbiah en CII-

Honeywell Bull (Francia).

Page 62: Historia de la Computación-informática

1980: Commodore Inc.

presenta la VIC-20, un modelo

de computadora personal muy barata, dirigida a los principiantes y hobbistas.

Usaba el microprocesador 6502 con una memoria de apenas 5k de Ram. El sistema estaba

diseñado para ser conectado a un televisor y los programas se almacenaban en una casetera,

la cual debía ser conectada a la VIC-20.

1980: Control Data Corporation introduce el supercomputador Cyber 205.

1981: La Commodore 64 reemplazó a la VIC-20 y se vendió al igual que su predecesora, a

muy bajo precio. Este modelo empleó un microprocesador ligeramente mejorado al 6502 y que

costaba US $ 20 al por mayor.

La Commodore 64 usó el chip 6510 que permitía una capacidad de procesamiento de 64k y

podía integrarse a un diskdrive fabricado por la misma empresa, para ejecutar los programas y

el almacenamiento de la información..

( http://members.es.tripod.de/kelsen/marco.html )

En 1984, la compañía Apple lanzó una máquina que introduciría nuevamente una revolución:

el Macintosh. Éste era el sucesor de un modelo llamado "Lisa" -pero que no tuvo aceptación

debido a su costo y escasa capacidad- en que se introducía por primera vez el concepto de

interfaz gráfica, la analogía del "escritorio" y un nuevo periférico: el "mouse" o ratón, como

herramienta para controlar al computador.

Existen además supercomputadores que en vez de funcionar a base de un sólo

microprocesador utilizan miles de éstos, pudiendo así hacer un enorme número de

operaciones simultáneas, llegando a los doscientos millones por segundo.

El primer modelo fue desarrollado por Cray y comercializado hacia 1984. Realizaba 80

millones de operaciones por segundo.

En 1986, Floating Point Systems, compañía competidora de la Cray Research, lanzó su "T-

40.000", con 16.384 microprocesadores coordinados por "transputadores", el cual es capaz de

procesar a una velocidad de 262 millones de operaciones en punto flotante por segundo

(Mflops). Hoy, algunos supercomputadores ocupan hasta 65.000 microprocesadores.

En 1991, un equipo de investigadores de IBM desarrolló el aparato más pequeño jamás

creado por el hombre: un interruptor que mide el tamaño de un átomo. Es capaz de controlar el

flujo de corriente eléctrica desplazando un átomo de xenón entre dos diminutos electrodos.

Esta proeza es de suma importancia para el desarrollo futuro de computadores enanos ya que

los componentes con dos posibles estados constituyen la base de los procesadores.

Este mismo año, Digital Equipment (DEC) lanzó al mercado una familia de computadores

basados en arquitecturas de paralelismo masivo: las máquinas van en un rango desde los

Page 63: Historia de la Computación-informática

1.024 hasta los 16.384 microprocesadores que trabajan en forma paralela. En su configuración

máxima (por un costo de unos 1.500.000 dólares) son capaces de realizar 26 mil millones de

instrucciones básicas por segundo (26.000 MIPS).

La firma NCR exhibió en Chile su nuevo microcomputador sin teclado, lanzado en diciembre

de 1991 en los Estados Unidos. Se trata del "Notepad NCR 3125" que consiste en una caja del

tamaño de una hoja carta y de 3 cm de espesor y un lápiz inalámbrico especial. Pesa menos

de 2 kg, por lo cual puede ser usado fácilmente como si fuese un bloc de apuntes. Tiene una

pantalla sensible a los pulsos electrónicos enviados por el lápiz. Así, el usuario accede al

computador mediante símbolos, gráficos y escritura manual. Funciona con software de

procesamiento de textos y bases de datos, gráfica, fax y comunicación con otro comptador por

teléfono.

En 1993 mediante la utilización de un laser de luz azul, científicos de IBM han logrado grabar y

leer datos en un disco óptico a una densidad de 2,5 Gigabits (2.500 millones de bits) por

pulgada cuadrada y a una velocidad de 2 millones de bits por segundo, lo cual constituye un

nuevo récord. Con esta densidad se podría almacenar 6.500 Mb en discos de 5,25" de doble

cara. Esta tecnología podría comercializarse dentro de 3 a 5 años.

En noviembre de 1994, Nintendo anunció el primer juego de "realidad virtual" (gráfica

tridimensional por la cual el usuario puede desplazarse de modo ficticio), el "Virtual Boy", con

un costo de 199 dólares. (El primer proyecto de este tipo le había costado 200.000 dólares a la

NASA). Meses después, Sony lanzó por 200 dólares su "Playstation", una "estación" de juego

con una capacidad 1.000MIPS (millones de instrucciones por segundo), mientras el

procesador Intel -de muchos computadores- a esa fecha sólo permitía 100MIPS.

Las novedades de 1996

EXPLOTA la ciudad de Hannover. Alberga a 500 mil habitantes y al recinto ferial más

imponente de Alemania. Recibe a 600 mil forasteros en la CeBIT '96, la gran exhibición de

informática y comunicaciones del mundo.

Junto a 9 mil periodistas de todo el mundo, Siglo XXI participó en los 7 días feriales.

Lo más importante: la inteligencia, el software de los fierros. Hangares y hangares de humanos

concentrando su experiencia. Programas para restaurantes, coleccionistas de estampillas,

sastrerías, carpinteros, cirujanos, campañas electorales, para trabajar desde casa, para hablar

por teléfono.

Muchos paquetes de software envueltos en celofán y brillos. Los publicistas recurren a todo:

laptops ante escenas lascivas; cajas de Novell entre torrejas de tomate, hojas de lechuga y

trozos de pan; mouses en sillas de playa. Mucha conversa, cerveza y tarjeta. Así marcha el

negocio.

Page 64: Historia de la Computación-informática

En un pabellón enorme, como un aeropuerto internacional, mil habitáculos con creadores de

ideas geniales. Todas, a disposición de quien quiera distribuirlas, comprarlas, aprovecharlas.

En otra nave, tan grande como una catedral, investigadores universitarios muestran sus

trabajos. P ej, el Dr H. Müller de la U de Dortmund, que creó un software para reconocer la

postura de la mano, quiere reemplazar con él al guante alambrado que se usa en realidad

virtual. Lo bautizó Zyklop. «En 1997 presentaremos electrodomésticos como un

videograbador, un equipo de audio, un abrepuertas, que obedezcan a gestos. El sistema

ofrecerá libertad y nuevas posibilidades a los ancianos y los minusválidos».

A propósito, el Dr Herbert W. Franke, de la U de Munich, avanza en un programa que lee la

información del computador para los ciegos, pero no como robot, sino que con entonación.

-No nos basamos en las sílabas, sino que en el sonido de las consonantes y las vocales y en

las intenciones. Es un asunto complejo. Por ahora, funciona en alemán; tiene que mejorar.

Más allá, una escuela de medicina demuestra una neurocirugía hecha desde otra ciudad; el

paciente es plástico. El talento universitario supura generosidad, ingenio y futuro. Por ahí irá la

cosa.

Y en los pabellones más comerciales, los grandes de programas de computación se baten a

duelo o anuncian alianzas.

Lo más impactante en software es el trabajo de un programador audaz que ya vendió su

producto a Pro Sieben, canal de TV que está cambiando la pantalla alemana.

CHORRO SERVICIAL

Aparecen los primeros computadores- Internet, el Pippen, japonés, como consola de juegos,

enchufado a la red para obtener su información. Todavía no se vende. El teclado es opcional,

para los que quieran pedir más datos. Es Apple. Los de la manzana también ofrecen un nuevo

Newton, la tableta sin teclado que ahora sí reconoce mejor la escritura y que trae más

programas para sus probables usuarios: trabajadores móviles, pequeños empresarios,

médicos, diseñadores. Se enchufa a un celular y listo.

La operación móvil cunde. En Alemania ya resolvieron lo que nuestro subsecretario de

Telecomunicaciones estudia tanto: la comunicación PCS (sistema de comunicación personal

de formato digital). Allá, el matrimonio de comunicaciones e informática anda tan bien como

acá el lomo con la palta.

Así, puede aparecer el portentoso Nokia 9000, un teléfono por su frontis, que por atrás se

destapa y deja ver una pantalla y un teclado. Total: conexión celular con la oficina, con la base

de datos, con el computador central, con el correo electrónico, con la Internet ... literalmente en

el bolsillo. Todavía con pantalla en blanco y verde, a US$2.000.

Page 65: Historia de la Computación-informática

Aumenta tanto el uso de líneas telefónicas para transmitir datos, que en Europa estiman que el

10% de la gente con celular para el año 2000 usará su conexión sólo para datos, no para voz.

Y las tentaciones abundan. Hewlett Packard, también aliada con Nokia, muestra su OmniGo

700, 2 cajitas para disparar planillas de cálculo, faxes, correo desde cualquier lugar:

matrimonio de computación y comunicación. En Chile esta joyita HP no funcionará, claro,

mientras no tengamos PCS.

ABRAN PASO A LO VISUAL

Por la vista entra: videoconferencias desde el computador portátil, por celular; Sony divide una

pantalla en 4 para que sendos ejecutivos puedan discutir al mismo tiempo; excitante fidelidad

en reproducción, la impresión con chorros de tinta da origen a un arte de precisión: las nuevas

impresoras Epson, Canon, Hewlett Packard, Apple, más que duplican la fidelidad de sus

predecesoras, a precios convenientes.

En ese rubro, algo nuevo. Citizen se aparta de los chorros de tinta y presenta su nueva

impresora ¡de tinta sólida! Usa una pasta que consigue muy buenos resultados1 y aumenta la

cantidad de colores aplicables según el gusto del autor y la disponibilidad de los fabricantes.

Hasta dorados y plateados vimos aplicar sobre un papel satinado tamaño carta. Un

atrevimiento que puede traer oro. Y por doquier, cámaras fotográficas digitales. ¿Qué son?

Algo que debe preocupar a Kodak, porque no ocupan rollo. La Minolta, p ej, tiene 3 CCDs o

placas que registran los colores primarios. La foto resultante muestra 1.528 pixeles en la

horizontal y 1.146 en la vertical. Se meten en un computador, y de ahí, cualquier cosa puede

ocurrir. Naturalmente, la cámara se puede borrar y está lista para tomar nuevas fotos. A este

nivel, todavía vale 2 o 3 veces una Minolta tradicional.

Más económicas, las Polaroid, Sony, Chinon y Fuji compiten en este territorio donde ya

estaban Kodak y Apple. Pero las nuevas cámaras dan importantes saltos en resolución y

precio. Aunque, como nos dijo Mr R. Campbell, de Sony, «reconocemos que la calidad de la

película química es inalcanzable... todavía.»

Para registrar lo visual, bajan de precio los escaners. Entre todas las soluciones, destacó uno

que ya está en Chile, el que Compaq incluyó sobre el teclado de su computador Deskpro

M21002.

ALMACENES GIGANTES

Lo visual obliga a aumentar las capacidades de las redes que comunican a los computadores,

y presiona sobre la capacidad de almacenaje.

En CeBIT estiman que cada año la información digitalizada en el mundo se duplica.

Page 66: Historia de la Computación-informática

Por suerte los discos duros más rápidos, más capaces, más pequeños y más baratos alegran

el corazón del computador sobrecargado. Pero hay más. Iomega cantó victorias en CeBIT por

haber colocado ya más de un millón de discos Zip, económico sistema capaz de almacenar

hasta 100 megabytes.

3M le salió al paso (Siglo XXI 287) con un disco para 120 Mb con mayor velocidad de

transferencia de información y que alega valer menos que el Zip por megabyte.

De esta batalla por almacenar más sólo podemos ganar. Irrumpen los grabadores de CD-

ROMs. El más barato, de HP, vale US$1.300. Sony ofrece uno ya no de doble velocidad sino

de 8 veces la original. Y aparecen los prototipos de CD-ROMs regrabables. Para fines de siglo

tendremos CDs en capas, para almacenar más de 5 gigabytes de información. Los

necesitaremos.

LOS TOPPINS ALEMANES

Para un programa infantil de TV, Olaf Schrim ya vendió su Vierte Art, un sistema que corre en

un Silicon Graphics y que reconoce expresiones faciales o movimientos corporales.

El canal de TV Pro Sieben transmite desde hace 15 días el nuevo programa Brainy. Un mimo

se mueve en una sala lejos del estudio principal. Está alambrado, cada movimiento de

músculo se transmite al computador que lo comunica a un modelo virtual, el personaje Brainy,

que repite en tiempo real y al aire, los movimientos del mimo.

En CeBIT, Schrim mostró su reproductor facial. Una cámara captaba los movimientos de 37

puntos reflectantes en el rostro de un actor y los comunicaba a un Silicon Graphics. Este luego

los aplicaba en una cara de un político, p ej Konrad Adenauer, que así cobraba vida. Lo visual

cunde; lo visto en CeBIT importa.

Extracto del artículo de Nicolás Luco: "LA GRAN FERIA", Siglo XXI (El Mercurio), n.289,

18/4/1996.

¿Una supercomputadora por 1.000 dólares?

Por MARK BROWNSTEIN

(IDG) -- Dentro de 18 meses y por sólo 1.000 dólares podrá tener en su escritorio el

equivalente actual a una supercomputadora. La unidad de proceso central (CPU), elemento

clave en los ordenadores personales de hoy, podría ser un componente innecesario en las

computadoras de alto rendimiento del mañana.

Page 67: Historia de la Computación-informática

La nueva máquina será capaz de procesar 100.000 millones de instrucciones por segundo,

según Kent Gilson, técnico de la empresa Star Bridge Systems. Representantes de la

compañía debatieron esta semana sus planes para una nueva computadora personal de altas

prestaciones, mientras anunciaban la HAL-300GrW1, una "hipercomputadora" que se dice es

60.000 veces más rápida que un procesador Pentium a 350 megahertzios, y varias veces más

veloz que la Pacific Blue, la supercomputadora de IBM (la prueba utilizada para medir el

desempeño de HAL fue diferente a la empleada para probar la Pacific Blue, por lo que es difícil

comparar los dos aparatos).

El nuevo ordenador de 1.000 dólares cumplirá muchas de las funciones de una

supercomputadora, como reconocimiento de voz, lenguaje natural de procesamiento y

presentaciones holográficas, añadió. Además, Gilson dice, este super-ordenador "podrá utilizar

aplicaciones de PC con un emulador".

HAL en primer lugar

Aunque Gilson asegura que el hardware para tales computadoras personales ya está

preparado, y que Star Bridge Systems ya ha completado el lenguaje de programación, llamado

Viva, los esfuerzos de la compañía se centran en primer lugar en su línea de

hipercomputadoras de altas prestaciones HAL.

El HAL-300GrW1 tiene un precio de unos 26 millones de dólares, por lo que no hace falta una

hipercomputadora para entender por qué Star Bridge Systems ha decidido dedicar su atención

a la línea HAL.

"Somos una empresa pequeña. Si saliéramos al mercado con un ordenador personal, no

podríamos vender suficiente (para financiarnos), pero podemos vender centenares al año de la

gama alta", explica Gilson.

En la terminología informática actual, la arquitectura que ha desarrollado Star Bridge Systems

es un "multiprocesador asimétrico, masivamente paralelo, ultra-acoplado". Se basa en un tipo

de procesador conocido como FPGA, señala Gilson.

Los chips FPGA pueden programarse sobre la marcha, por lo que su configuración puede

cambiarse para llevar a cabo la tarea particular de cada momento con mayor eficiencia.

Además, pueden ser cambiados miles de veces por segundo, por lo que, en esencia, un FPGA

puede convertirse en una CPU especialmente diseñada para realizar una tarea precisa justo

cuando necesite la nueva arquitectura de proceso.

La unidad de proceso central (CPU) tradicional, como contraste, tiene una serie de

instrucciones fijas grabadas en silicio. Las instrucciones de programación se escriben para

trabajar en función de esa serie de instrucciones, y están limitadas por las capacidades

incorporadas al procesador.

Supercomputadora de maleta

Page 68: Historia de la Computación-informática

En una sesión de promoción, Gilson presumió de lo que llama "HAL Junior", un

modelo que cabe en una maleta y realiza 640.000 millones de instrucciones

por segundo.

La compañía ha delineado una serie de sistemas cuyo desempeño va desde la

HAL-10GrW1, capaz de llevar a cabo 10.000 millones de operaciones de coma

flotante por segundo, hasta la HAL-100TrW1, que realiza 100 billones de

operaciones de coma flotante por segundo.

La compañía también vende productos de proceso de señales (conmutadores y routers)

basados en su tecnología HAL. Estos dispositivos están diseñados para supercomputadoras

científicas y telecomunicaciones.

Entretanto, representantes de Star Bridge Systems dialogan con grandes compañías que han

expresado su interés en HAL, y que indudablemente se preguntan si el sistema puede ofrecer

las prestaciones prometidas.

"Al final, la informática reconfigurable (un término acuñado por Gilson que se refiere a la

tecnología en la que se basa la hipercomputadora) invadirá todos los sistemas de información

porque es más rápida, más barata y mejor", predijo Gilson.

Copyright 1999 Cable News Network, Inc.

El futuro del computador personal

Según la División de Investigación y Desarrollo de Apple Computer, el computador personal de

los próximos años bien podría ser una combinación de aparato de video, televisor, radio,

video-teléfono y fax junto con la capacidad (aumentada) del microcomputador de hoy. De

hecho, la Apple exhibe desde hace varios años un video que muestra distintos aspectos y

funciones de esta máquina (por ahora al estado de maqueta) que ha llamado "Knowledge

Navigator" (navegante del conocimiento), poniendo así el énfasis en su capacidad de

administrar comunicaciones y manejar documentos "hipermediales" (es decir multimediales

con formato de hipertexto), como los que hoy viajan por la World Wide Web. Es evidente que

lo que conocemos hoy, con la expansión de Internet y el desarrollo de las redes, confirma una

intuición que surgió hace una decena de años. La transformación en las redes y los servicios

telefónicos así como en los servicios de TV-Cable auguran cada vez con mayor probabilidad el

desarrollo de una suerte de "compunicación" (computación unida íntimamente a comunicación)

y la creación de un aparato integrado para todos los servicios implicados.

La -¿frustrada?- "Quinta Generación"

Aunque no existe formalmente una "cuarta generación" de computadores, mucho se habló, en

la década de los 80, de proyectos de "quinta generación". Ello corresponde a una batalla

Page 69: Historia de la Computación-informática

tecnológica para desarrollar los primeros computadores capaces de interactuar

"inteligentemente" con el ser humano.

Todo empezó en 1981, durante una "Conferencia Internacional de Sistemas de Computación

de Quinta Generación" celebrada en Tokio, donde Japón dió a conocer un gigantesco

programa para el desarrollo de una nueva tecnología, en que participarían el gobierno, las

universidades y las empresas más avanzadas y poderosas. Se fijó como meta producir en el

plazo de 10 años máquinas capaces de realizar mil millones de inferencias lógicas por

segundo (LIPS). La LIPS es una nueva unidad de medida de velocidad, referida a una

habilidad de la inteligencia artificial: la del razonamiento lógico. Una LIPS, a su vez, requiere

de 100 a 1000 operaciones del sistema anterior de medición (IPS: instrucciones por segundo),

por lo cual estaríamos ante máquinas capaces de más de cien mil millones de operaciones

básicas por segundo.

Aunque Europa y Estados Unidos recogieron el guante y pusieron también a sus expertos a

trabajar en programas semejantes ("Programa Estratégico de Computación y Supervivencia"

en Estados Unidos y "Programa Estratégico Europeo para la Investigación en Tecnología de la

Información - ESPRIT" en Europa).

Pero hasta hoy, no se han visto los resultados esperados ni han nacido los "computadores

inteligentes" con los cuales se esperaba contar en 1992, aunque se hayan gastado centenares

de miles de dólares. El proyecto japonés de Quinta Generación se considera ahora fracasado,

pero ha sido reemplazado por un proyecto de "Sexta Generación" cuyo propósito es lograr

capacidades computacionales semejantes a las del cerebro

humano hacia el año 2002. La fecha no parece muy realista,

a pesar de que los investigadores de este país han

avanzado mucho en la investigación de nuevas

arquitecturas como las redes neuronales y los biochips (ver

abajo).

Las necesidades de los usuarios y los descubrimientos

parecen, por ahora, llevar por otros derroteros: nadie se

esperaba el éxito de Internet y el crecimiento explosivo de la

World Wide Web . La idea de que una red podría tener o

generar algún tipo de inteligencia propia ("La inteligencia está en la red" dicen algunos) está

empezando a tomar cuerpo y a orientar otro tipo de investigación.

Nuevas arquitecturas

Transputer

El "transputer" parece ser el primer componente electrónico que permitiría a las máquinas

lograr el ansiado paralelismo masivo en sus operaciones. Equivaldría a lo que es actualmente

el transistor para las máquinas electrónicas en general, o sea un componente básico que

Page 70: Historia de la Computación-informática

puede ser fabricado en forma masiva y económica. El primero fue creado por la firma inglesia

Inmos y presentado en la Feria Internacional de Componentes de 1983 en París.

Cada transputer reúne en un mismo chip varias unidades de cálculo, una memoria (2Kb en el

primer modelo fabricado) y mútiples conexiones que permiten un intercambio rápido con otros

transputers (4 en el primer modelo) y que pueden operar todos en forma simultánea. Se

obtuvo así una velocidad secuencial de 10 Mips (diez millones de instrucciones por segundo),

ampliamente sobrepasada en los modelos subsiguientes.

Para su uso ha sido construído especialmente un lenguaje de alto nivel orientado al

aprovechamiento del paralelismo, el OCCAM, aunque puede ser programado como un

procesador normal con lenguajes existentes (Pascal, Fortran, C, Prolog, etc.). El concepto de

base del Occam - y del procesamiento mediante transputers - consiste en considerar

entidades que intercambian información con su entorno, formado de otras entidades del mismo

tipo, a través de canales unidireccionales que las unen 2 a 2. Estas entidades pueden ser

conjuntos de instrucciones, procesos o representa-ciones de procesos, pudiendo constituirse

diversos niveles de complejidad en forma modular.

Computador celular

El computador celular se basa en la idea de los mecanismos de reproducción de las células

vivas. Fue concebido por John von Neumann, al igual que la estructura de los computadores

actuales, y perfeccionado por Edgar Codd y Christopher Langton.

Para entender su estructura y funcionamiento, conviene imaginar una hoja cuadriculada donde

cada pequeño cuadro corresponde a una mínima máquina procesadora ("célula") que "se

informa" del estado de sus vecinas y reacciona de acuerdo a esta información. Todas las

células son estructuralmente idénticas y operan de la misma manera.

Para operar, se fija el estado inicial de cada célula (de entre un número a determinar) y se

determina una "regla de transición" común para todas. Luego se pone en marcho un reloj que

sincroniza los cambios de estado: a cada "top" del reloj, todas las células cambian de estado

conforme al estado de sus vecinas.

Una de las características de este tipo de estructura y modo de operación es la posibilidad de

diseñar configuraciones iniciales que se autorreproducen (de ahí el nombre de "autómatas

autorreproductores" que se da también a esta arquitectura) o reglas que lleven a la

reproducción del diseño original, lo cual constituye un instrumento de alta importancia en física

teórica y modelización matemática.

El primer circuito simulador de autómata celular fue construído en 1981 en el MIT (Instituto

Tecnológico de Massachusetts). Su versión comercial puede ser conectada a un IBM-PC,

dándole la potencia de un supercomputador. En 1985 se inició la comercialización de un chip

de arquitectura celular (el "GAPP") que contenía 72 procesadores (células). Todos ellos

Page 71: Historia de la Computación-informática

reciben y ejecutan simultáneamente una instrucción recibida de un controlador externo, pero

modifican su estado en función del estado de sus 4 vecinos inmediatos.

MaRS

Una vía de desarrollo diferente es la de las "MAQUINAS DE REDUCCION SIMBOLICA"

("MaRS"), cuyos procesadores en vez de estar basados en el procesamiento numérico están

diseñados para manipular símbolos (como nombres de objetos o conceptos) y

relaciones entre símbolos. Responden en forma directa a las exigencias de la

inteligencia artificial y están destinadas a facilitar el procesamiento de

conocimientos.

Como lo hemos señalado, los computadores actuales son en esencia máquinas

destinadas al cálculo (matemático y lógico). Su capacidad en el campo de la lógica

booleana permite aplicaciones no matemáticas pero no se logran resultados tan

buenos (rápidos) como con números, debido a su complejidad. Las máquinas de

reducción están diseñadas para procesar más eficientemente programas funcionales o

declarativos como los escritos en lenguaje Lisp o Prolog.

El procesamiento simbólico se caracteriza por una gran variabilidad en la organización de los

datos y en una baja previsibilidad del comportamiento de un programa. Se requiere un muy

alto dinamismo en el uso de la memoria durante los procesos. Se descubrió que los principios

de la lógica combinatoria permiten resolver a la vez este problema y facilitar la ejecución de

programas funcionales. Se puede entender la "reducción simbólica" como el mecanismo por el

cual se reemplaza una fórmula por su resultado, una vez calculado. La ejecución de un

programa en una máquina MaRS sigue este principio con facilidad por cuanto su procesador

funciona sobre la base de operadores combinatorios. Y es muy fácil recortar un programa en

"trozos", reducidos simultáneamente por procesadores paralelos, lo cual permite acelerar aún

más el procesamiento.

La fabricación de un prototipo estaba prevista para 1989. Quedan por hacerse muchas

pruebas y estudiar las posibilidades de sistemas modulares complejos (con varios núcleos

MaRS entrelazados). Pero se ha descubierto desde entonces que aún tenemos que aprender

mucho acerca de cómo programar en forma simbólica.

Máquina neuronal

La arquitectura neuronal intenta imitar de más cerca la estructura del cerebro y su forma de

operar. Una máquina neuronal, se compone de elementos equivalentes a las neuronas y que

imitan sus conexiones en r ed. En cuanto a la forma de operar, imita el proceso de aprendizaje

relacionado con el cambio de estado de las conexiones entre las neuronas. De este modo, una

máquina neuronal no se programa en la forma tradicional, sino que se ajusta progresivamente

en función del uso (proceso de aprendizaje).

Page 72: Historia de la Computación-informática

La compañía Fujitsu fabricó en 1988 el primer chip neuronal, con 32 neuronas (1024

conexiones). Por su parte, la Universidad de California (San Diego) anunció la fabricación de

un prototipo electroóptico, mientas los laboratorios Bell, de la ATT, anunciaron un circuito con

256 neuronas y hasta 32.000 sinapsis.

Un típico procesamiento y aprendizaje neuronal consiste en introducir repetidamente un texto

a través de un scanner, hasta que la máquina sea capaz de reconocer todas las letras, incluso

cuando algunas de ellas no son perfectamente nítidas (traduciendo así una imagen en una

secuencia de caracteres de texto, en forma mucho más eficiente y exacta que con un

computador tradicional).

Nuevos componentes

La miniaturización de los componentes electrónicos ha permitido aumentar la velocidad de

operación al acortar las distancias. Pero está llegando a un punto (el nivel molecular) en que

ya no es posible aumentar la velocidad por la vía de la miniaturización.

Computador óptico

Para evitar las dificultades que presentan los microcircuitos electrónicos hay un camino obvio:

abandonar la electrónica. La luz (fotones) se desplaza mucho más rápido que los pulsos

eléctricos (electrones), sin peligros de interferencia y sin necesidad de conductos aislantes (lo

cual facilita los procesos paralelos). Así, la superioridad de la óptica es indiscutible. Por ello se

han realizado ingentes esfuerzos para construir componentes que cumplieran las mismas

funciones que los dispositivos que permiten el procesamiento electrónico, utilizando nuevos

materiales que reaccionan de diversas maneras según la intensidad de luz que los afecte. Han

sido pioneros Gibbs, MacCall y Venkatesan, de los laboratorios Bell (logrando construir el

primer componente de funcionamiento binario -o "biestable óptico"- en 1976). Se espera contar

con computadores ópticos completos en el 2030.

Computador molecular

Un grupo de investigadores de la Universidad de California (UCLA) y de los Laboratorios de

Hewlett-Packard ha descubierto una forma de fabricación de una puerta lógica a partir de un

tipo determinado de molécula. Agrupando unos pocos cables e interruptores, se unen un grupo

de moléculas que trabajan de la misma forma que un procesador de silicio, pero en una escala

molecular. De este modo, se puede conseguir el poder computacional de 100 estaciones de

trabajo con el tamaño de un grano de arena.

Con estos chips se podrían fabricar desde supercomputadoras del tamaño de un reloj de

pulsera hasta instrumentos biomédicos que se introducirían en el cuerpo humano para ayudar

al diagnóstico de enfermedades.

Page 73: Historia de la Computación-informática

Los primeros prototipos podrían estar listos en unos cuantos años y modelos

comerciales que combinen la tecnología actual con la nueva podrían aparecer

antes del 2010, cuando -según se estima- los procesadores de silicio podrían

estar llegando a su límite de potencia.

Computador cuántico

El computador cuántico ha sido definido como un tipo de computador que utiliza la habilidad de

los sistemas cuánticos, tales como conjuntos de átomos que se encuentran en el mismo

estado a la vez. En teoría esta súper imposición permite a este tipo de computador hacer

muchos diferentes cálculos al mismo tiempo. Esta capacidad permite desarrollar complejas

ecuaciones, como factorizar integrales, a velocidades que no lo pueden permitir el computador

convencional.

En un computador cuántico la información no es almacenada en hileras de ceros y unos, como

en el computador convencional, sino en series de estados mecánicos-cuánticos: tramas

direcccionales de electrones, por ejemplo, u orientacion de polarización en fotones. En 1985,

David Deutsch de la Universidad de Oxford señaló que las leyes de la física cuántica permitía

a las partículas estar en más de un estado al mismo tiempo, haciendo ello posible que cada

partícula de la CPU de un computador cuántico almacenara más de un bit de información.

Investigadores de la Universidad de Notre-Dame (Indiana) confirmaron recientemente (1999)

que se pueden manipular los electrones individualmente para construir circuitos elementales

que gasten cantidades ínfimas de energía. Su trabajo abre el camino al mismo tiempo a la

fabricación de nuevos componentes (chips) capaces de funcionar a velocidades de 10 a 100

veces mayores que las actuales.

La base del nuevo sistema es el llamado "pozo cuántico", una trampa infinitesimal en la cual se

puede encerrar un electrón. Los científicos han creado un célula cuadrada con cuatro pozos

cuánticos, en la cual han introducido un par de electrones. Las fuerzas de repulsión provocan

el desplazamiento de los electrones que encuentran su equilibrio cuando se ubican en los

extremos de una diagonal. Así, una representará el estado 0 y la otra el estado 1, por lo cual

una célula registrará un bit de información. Basta desplazar a un electrón para que el otro se

acomode en la posición de equilibrio, y así cambiará del valor 0 a 1 o inversamente. (En los

transistores actuales, hay que desplazar miles de electrones).

Los investigadores ya construyeron chips con múltiples células, capaces de ser utilizados para

realizar las operaciones de lógica básicas en los computadores. Falta aún llegar a construir

chips más complejos, capaces de contener y procesar todo lo que requiere un computador

moderno. Y falta también poder obtener los mismos resultados a "temperatura ambiente", ya

que el principal defecto actual del sistema es que requiere una temperatura próxima del 0

absoluto.

(Fuente: Le Monde, 28.4.1999)

Page 74: Historia de la Computación-informática

Biochip

En opinión de Minsky (uno de los creadores de la Inteligencia Artificial) y de los expertos del

Santa Fe Institute (centro de estudio de la vida artificial), después del 2010 podría desaparecer

paulatinamente la frontera entre lo natural y lo artificial, lo físico y lo biológico.

Steen Rasmunsen (del Santa Fe Institute) está convencido de que la vida artificial pronto

nacerá en los computadores a partir de experiencias bioquímicas, donde se mezclaría

biotecnología e informática. Esto permitiría -entre otras cosas- crear insectos artificiales (medio

robots, medio insectos) y el implante de chips en el ser humano, quizás hacia el 2050 . . . ¿con

qué consecuencias?

"En la oficina del científico Masuo Aizawa, del Intituto de Tecnología de Tokio, nada llama

demasiado la atención, excepto una placa de vidrio que flota en un recipiente lleno de un

líquido transparente. Se trata de un chip que parece salpicado con barro. Pero las apariencias

engañan. Los grumos alargados del chip de Aizawa no son manchas, sino ¡células neurales

vivas!, criadas en el precursor de un circuito electrónico-biológico: el primer paso hacia la

construcción neurona por neurona, de un cerebro semiartificial.

Cree que puede ser más fácil utilizar células vivas para construir máquinas inteligentes que

imitar las funciones de éstas con tecnología de semiconductores, como se ha hecho

tradicionalmente.

En el futuro, se podría utilizar el chip neuronal de Aizawa como interfaz entre la prótesis y el

sistema nervioso de pacientes que hubieran perdido una extremidad.

Si continúa el uso de células vivas en sistemas eléctricos, en los próximos años casi con toda

seguridad ocurrirá el advenimiento de dispositivos computacionales que, aunque

rudimentarios, serán completamente bioquímicos." (Carolina Gasic, Siglo XXI 297, junio 96, El

Mercurio).

"Cosas que piensan"

Un proyecto de N.Negroponte en el MIT

"Uno de los trabajos del Media Lab, uno de mis trabajos, es hacer que el laboratorio no pare

de hacer locuras. Desgraciadamente, hemos pasado de estar locos a ser el establishment

demasiado rápido. Y ser el establishment no tiene gracia, no tiene ninguna gracia. Pero ser un

loco es muy divertido, sobre todo si tienes razón. Y por esto hemos intentado volver a

determinadas áreas, y hemos emprendido una nueva iniciativa acerca de la cual os quiero

hablar muy brevemente porque tiene que ver con multimedia, pero en un contexto diferente. Lo

llamamos "Things that Think" (Cosas que piensan). Lo que "Things that Think" hace es intentar

mezclar átomos y bits de maneras diversas, incrustándolos en objetos comunes,

procesándolos no tan solo para que piensen, sino también para que se interconecten. Un

ejemplo de esto es una cosa que construimos con Nike: un ordenador en el talón de una

zapatilla de deporte. Mientras haces footing cargas el ordenador de energía, que si no se

Page 75: Historia de la Computación-informática

perdería por el asfalto o por la moqueta. Así te puedes quedar con la energía y tener un

ordenador en tu zapatilla muy cargado. Los estudiantes han descubierto recientemente una

forma de utilizar el propio cuerpo humano como medio de transmisión. No es que te cableen

sino que hacen pasar por tu cuerpo 100.000 bits por segundo. Esto quiere decir que si me

vuelvo a poner el reloj puedo comunicarme con la zapatilla a 100.000 bits por segundo. Me

convierto en una especie de cuerpo de red local, una especie de informática prêt-à-porter.

Ahora, lo que es más interesante es que cuando yo me acerco y nos damos la mano podemos

intercambiar 100.000 bits por segundo. Pensad un momento que extraordinario sería esto.

Ahora estamos en el [evento] Millia edición tres o cuatro, pero quizás en el Millia número diez

todo el mundo se dará la mano, volverá a su habitación e imprimirá las tarjetas de

presentación a través de la zapatilla. Y esto es el tipo de cosas que pensamos hacer."

(Extracto de la Conferencia inaugural de Nicholas Negroponte en MILLIA 96, TVC, Televisió de

Catalunya, Programas Informativos.)

( http://www.puc.cl/curso_dist/cbc/index.html )

Page 76: Historia de la Computación-informática

GLOSARIO

Ancho de banda:

Cantidad de bits que se pueden transmitir por segundo a través de un determinado canal.

Aplicaciones interactivas:

Herramientas computacionales en las que el usuario tiene un papel activo, es decir ingresa

datos, toma decisiones o responde consultas.

ASCII (American Standard Code for Information Interchange):

Sistema de codificación americano estándar de los impulsos correspondientes a las teclas

(letras, números y comandos), para el intercambio de datos.

Base de datos:

Lugar donde se almacena información computacional (Archivo especialmente estructurado

para su actualización y consulta electrónica). Permite buscar, ordenar y realizar múltiples

operaciones sobre dichos datos.

Baud:

Unidad de medida de la velocidad de transmisión de un bit en un canal de comunicación.

BBS (Bulletin Board Systems):

Sistema de boletines, parecido al correo electrónico, donde los mensajes pueden ser leídos

por todos los abonados de una red local o amplia. También pueden ser consultados por

modem (teléfono) para quienes no están conectados a una red, según condiciones fijadas por

el dueño del Boletín.

Bit:

Unidad de medida binaria de la información (vale 0 o 1).

Bitmap:

Formato basado en "mapa de puntos". Es uno de los formatos posibles para la conservación

de imágenes, usado para fotografías y gráfica analógica (como caricaturas y pinturas). Se

opone a vectorial o "Bezier", que utiliza coordenadas geométricas y fórmulas trigonométricas.

Browser:

"visualizador": aplicació utilizada para revisar los contenidos de una base de datos o de

directorios de hiperarchivos (como es el caso de las pánas de Web .

Bug:

Page 77: Historia de la Computación-informática

Error en un programa.

Bus:

Camino (cableado) que recorren los pulsos dentro del computador.

Byte:

Bloque de 8 bits; es lo necesario para codificar un carácter en el código ASCII.

Cableado Ethernet:

Es un tipo de red de comunicación que transmite a una velocidad estándar de 10 Mb/s (mega

bits por segundo).

Carácter:

Número, letra o símbolo (introducido inicialmente a través del teclado).

Chip:

Pequeñísima placa de silicona con multitud de circuitos electrónicos.

Circuito integrado:

Circuito eleéctrico que contiene decenas o miles de componentes electrónico, agrupados en

un bloque indivisible en el proceso de fabricación. Es la parte medular de un "chip".

Clave de acceso o contraseña:

Ver password.

Compatibilidad:

Son compatibles los comptadores capaces de realizar los mismos programas.

Compilador:

Programa que traduce los programas fuente en lenguaje de máquina, para que ésta los

ejecute en forma expedita.

Concentrador:

Elemento que divide la información de un canal de datos en dos o más canales que

transportan, cada uno, dicha información.

Conectividad:

Disposición de los equipos computacionales para conectarse entre sí.

Correo electrónico (e-mail):

Sistema de envío y recepción de correspondencia privada (Todos los usuarios tienen una

clave de acceso -password- que asegura la confidencialidad). A los mensajes escritos y

enviados con la aplicación correspondiente es posible agregar archivos de otros tipos, que son

transmitidos en formatos diferentes.

Page 78: Historia de la Computación-informática

CPU:

Unidad Central de Proceso: circuito que gobierna el funcionamiento del computador.

Encapsulado:

Un encapsulado es un documento o una aplicación protegida total o parcialmente contra la

lectura o el uso indebido. Para acceder a todo el contenido se requiere algún tipo de

autorización (clave de acceso o decriptado). Es muy común en los programas de demostración

("demos"), donde la "cápsula" impide algunas funciones claves (como "Guardar") o bloquea el

uso después de cierto tiempo.

Para producir un encapsulado, se utiliza un programa que "envuelve" el documento o la

aplicación de tal modo que no sea accesible en su forma original. Es probable que esta técnica

se use cada vez más frecuentemente en Internet, para proteger las comunicaciones de la

piratería.

Enrutador (router):

Elemento de red que realiza la función de asignar direcciones a paquetes de datos entre dos

redes o subredes.

Estación:

Corresponde a un elemento computacional de trabajo, por ejemplo un PC, un Mac, una

impresora, etc.

Estándar SQL (Structured Query Lenguaje):

Lenguaje creado por IBM para el manejo de bases de datos relacionales; es usado por la

mayoría de los programas comerciales de administración de bases de datos.

Fibra óptica:

Medio de transmisión de datos que en vez de transmitir una señal eléctrica transmite un haz

de luz. Es más rápido que el cable común (cobre) y alcanza mayores distancias sin pérdida de

señal.

Foro:

Semejante a los "Grupos de interés" (News Groups).

FPU (Floating point Unit):

Unidad de punto flotante: es un procesador aritmético con la función específica de facilitar los

cálculos que requieren decimales. (Se agrega habitualmente a un procesador que no tiene tal

capacidad).

FreeWare:

Aplicaciones (programas) disponibles sin costo para cualquier utilizador potencial.

FTP (File Transfer Protocol):

Page 79: Historia de la Computación-informática

Sistema de transferencia de archivos; permite enviar y recibir archivos de cualquier formato.

Existen servidores de FTP que conservan aplicaciones de dominio público ("FreeWare") que

los interesados pueden traer a su computador.

Grupo de interés:

Ver "News Group"

Hardware:

Componente sólido.

Hexadecimal:

Código pasado en 16 dígitos (de 0 a 9 y luego de A a F), por lo cual 2 dígitos hexadecimales

forman 1 byte. Se utiliza para la programación de bajo nivel.

Hiperarchivo:

Archivo de documentos que mantienen múltiples vínculos entre sí.

Hub:

Ver Concentrador.

Interfaz:

Elemento mediador, medio de interacción (por ejemplo entre un equipo físico y el usuario del

mismo), definido por características físicas del contacto, características de las señales

intercambiadas y significado de las mismas.

Kb (kilobyte):

1024 bytes.

Lenguaje de programación:

Lenguaje que se utiliza para redactar programas de computación.

Línea:

Conjunto de hilos conductores por donde pasa algún tipo de información.

Mail:

ver "Correo electrónico"

Modem (Modulador-demodulador):

Aparato que transforma la señal digital (binaria) del computador en la señal modulada que

requieren las líneas telefónicas convencionales (en inversamente). De este modo pueden

comunicarse dos computadores por medio del teléfono.

News Group:

Page 80: Historia de la Computación-informática

Tipo de BBS sin restricción de acceso: los mensajes pueden ser leídos por todos los que están

conectados a una red amplia (como Internet). Se organizan por temas, los cuales determinan

"grupos de interés". Un lector elige los temas de su agrado (esto se llama "suscribirse"), puede

leer todos los mensajes que el servidor conserva en relación a estos temas y puede contestar

o agregar mensajes si lo desea. Se usa tanto para fines recreativos como de intercambio entre

investigadores. Existen miles de grupos abiertos. (Ver UseNet)

Password (Clave de acceso):

Palabra o número secreto que permite acceso confidencial a una máquina, una red, un

servicio o un conjunto de datos.

Periférico:

Aparato anexo, que facilita la entrada o salida de datos, o su conservación externa.

Pixel:

Punto básico de la pantalla que el computador puede encender o apagar, para formar figuras

(letras o dibujos).

Plotter:

Trazador; impresora gráfica que dibuja imágenes con plumas de tinta. Los trazadores

requieren datos gráficos en formato vectorial (o sea, basados en coordenadas geométricas)

PostScript:

Lenguaje de descripción de p´ginas creado por Adobe Systems para controlar las impresoras

laser. Los comandos PostScript (ps) se adjuntan al texto que se envía y son traducidos por un

intérprete que está en la ROM de la impresora. Su principal función consiste en manipular el

tamaño de todo lo que se imprima (espacios, tipos e ilustraciones) para una óptima

reproducción. Opera con un sistema de definición de tipografía que evita almacenar modelos

de múltiples tamaños.

Privilegios de acceso:

Posibilidad de ver y modificar archivos en un disco compartido o un servidor de archivos en

una red. Los privilegios tienen una jerarquía (desde "sólo ver los nombres" y "sólo leer" hasta

"modificar" y "borrar") y es el propietario de la unidad compartida que determina quienes tienen

acceso y en qué nivel, para lo cual puede exigir a los "clientes" que estén registrados y se

identifiquen con una contraseña (clave de acceso).

Procesador:

Chip que contiene todo lo necesario para que el computador pueda realizar sus funciones.

Programa:

Serie de instrucciones que define las operaciones que ha de realizar el computador.

Programación de bajo nivel:

Page 81: Historia de la Computación-informática

Programa redactado en código hexadecimal (el cual se "truduce" en un sólo y rápido paso -

automático- al código binario de la máquina. Se opone a la programación de "alto nivel" que

utiliza palabras más cercanas al lenguaje ordinario pero requiere etapas más complejas de

traducción para que la máquina pueda operar.

Protocolo:

En comunicación de datos, es el "lenguaje" o estándar por medio del cual se entienden

diferentes equipos computacionales.

Puerto:

Salida o entrada (enchufe) a la cual se conecta un cable de periférico o de red.

RAM (Random Access Memory):

Memoria de acceso directo, donde es almacenada la información que se introduce en el

computador; se borra cada vez que se apaga el comptador.

Red AppleShare:

Red que utiliza un cable telefónico como medio de comunicación entre computadores

Macintosh.

Red de tipo LAN (Area Local de trabajo):

Red entre oficinas o departamentos unidos en un radio no superior a unos 2 km.

Red de tipo WAN (Area Amplia de trabajo):

Red entre instituciones u oficinas establecidas a gran distancia unas de otras.

Red Ethernet:

Ver Cableado Ethernet.

Repetidor:

Elemento que se utiliza para extender segmentos de una red mas allá del largo permitido por

el cable.

Resolución:

Número de pixels que el computador controla simultáneamente en el pantalla (Mientras mayor

es la resolución de pantalla, más detalles puede tener un gráfico y más trabajo se requiere del

procesador).

Robot

ROM (Read Only Memory):

Memoria sólo de lectura; contiene las instrucciones básicas que permiten al computador

funcionar (las que se imprimen en la fábrica y son permanentes).

Shareware:

Page 82: Historia de la Computación-informática

Aplicaciones (programas) disponibles a bajo costo para cualquier utilizador potencial (Se debe

enviar el pago al autor cuando se decide usar en forma regular).

Sistema operativo:

Software básico necesario para el funcionamiento de un computador.

Software:

Programas que utilizan los computadores.

Spooler:

Espacio de memoria donde se guarda transitoriamente una serie de datos requeridos por un

periféico más lento que la CPU, de tal modo que ésta se vea liberada para realizar nuevas

tareas.Su principal uso consiste en recibir la información que se desea imprimir y enviarla a la

impresora a medida que ésta la pueda recibir (lo cual se llama a veces "impresión

subordinada")

Subrutina:

Parte de un programa que realiza una función específica; puede ser "activada" desde distintos

puntos de un programa, en repetidas oportunidades.

TCP/IP:

Protocolo de control de transferencia de datos establecido en 1982 como estándar de Internet.

Terminal:

Aparato que permite comunicarse con la unidad central de un computador que puede estar a

gran distancia (Se trata generalmente de un teclado unido a un monitor -pantalla- más el

sistema de transmisión).

Transceiver:

Aparato que recibe y envía señales (p.ej. para conectar un computador a una red).

Transistor:

Componente electrónico básico que detiene o deja pasar las señales eléctricas dependiendo

de las pulsaciones anteriores. Un chip o circuito integrado contiene un gran números de

transistores.

Transputer ("transputador"):

Chip que reúne varias unidades de cálculo que operan simultáneamente (procesamiento

paralelo), una memoria y mútiples conexiones que permiten un intercambio rápido con otros

transputers.

UseNet:

Page 83: Historia de la Computación-informática

Red de computadores que intercambian noticias en forma de artículos adscritos a grupos de

discusión (newsgroups).

Virus:

Sofware que se ejecuta en un PC, Mac o servidor sin control del usuario, con el fin de dañar la

información existente. Se auto-reproduce al ejecutarse, multiplicándose así con gran facilidad.

Wrapped:

Ver "Encapsulado".

World Wide Web (WWW):

Red mundial de computadores por la cual se transmiten principalmente archivos hiper y

multimediales.

( http://www.puc.cl/curso_dist/cbc/textos/tgeneral/diccion.html )

Page 84: Historia de la Computación-informática

CONCLUSIONES

LA COMPUTACION A IDO EVOLUCIONANDO CON EL PASO DEL TIEMPO, LOS

PRIMEROS HOMBRES HACIAN SUS CALCULOS CON LOS DEDOS LUEGO INVENTARON

EL ABACO QUE ERA MAS RAPIDO. Y ASI POCO A POCO HAN HIDO EVOLUCIONDO CON

RESPECTO A LA COMPUTACION.

EL DESARROLLO DE LA COMPUTADORA NOS HA SERVIDO PARA HACER LOS

CALCULOS MAS RAPIDOS, TAMBIEN A SIDO APLICADA EN OTRAS ACTIVIDADES

HUMANAS FACILITANDOLAS Y PROMOVIENDO SU DESARROLLO.

PARA LLEGAR A TENER LA COMPUTADORA MODERNA SE OCUPO TAMBIEN EL

DESARROLLO DE OTRAS MATERIAS COMO SON LA MATEMATICA, LA FISICA, LA

QUIMICA Y LA ELECTRONICA.

COMO VEMOS LA COMPUTACION SEGUIRA EVOLUCONANDO AÑO CON AÑO PARA

CUBRIR LAS NECESIDADES DE LA VIDA MODERNA Y LOS NUEVOS PROCESOS

INDUSTRIALES, DE SALUD, EDUCATIVOS, CREATIVOS, RECREATIVOS, DE

COMUNICACIÓN, ETC..

Page 85: Historia de la Computación-informática

BIBLIOGRAFIA

http://members.es.tripod.de/kelsen/marco.html

http://www.puc.cl/curso_dist/cbc/index.html

http://www.puc.cl/curso_dist/cbc/textos/tgeneral/diccion.html

http://coqui.metro.inter.edu/cedu6320/ssegarra/historia.html

http://coqui.metro.inter.edu/cedu6320/ssegarra/tipocomp.html

http://www.class.udg.mx/%7Exotchilt/historia.html

AUSTRIAN, G. & SULLIVAN, J.: "How one's company zest for technological innovation helped build the computer industry", IBM,1984.

FREED, L.: "The History of Computers", Ziff-Davis Press, Emeryville (Ca), 1995.

GOLDEN, F.: "Big Dimwits and Little Geniuses",Time, Amsterdam, 3 de enero 1983, pp.5-24.

INOSE, H. y PIERCE, J. : "Tecnología de la Información y Civilización", Labor, Barcelona, 1985.

OLGUIN, H.: "Mundo'83: 4 Computación", TVUC, Santiago, 1983.

PEREZ, V. y PINO, J.: "Introducción a la informática y los sistemas administrativos", Ed. Universitaria, Santiago,10º ed., 1987.

"BASIC - Enciclopedia de la Informática", nº1, Cochrane-Planeta, Santiago, 1984.

"Grandes Ideas del Siglo XX", Suplemento revista "Muy Interesante", Santiago, julio 1989, 36p.

"Computación", Hoy-Extra, Santiago, Agosto 1985.

CONALEP MEXICANO ITALIANO

ALUMNO:JUAN MANUEL GARCIA ACEVES

PROF. ANTONIO BARAJAS DEL CASTILLO

Trabajo enviado por:

Adrian Camacho

[email protected]