24
Evolución histórica En este apartado se resume de una forma breve la historia de la informática incluyendo en la última parte las cinco generaciones en las que se divide comúnmente la evolución de los ordenadores. Se habla de un computador como la máquina cuyo “cerebro” es un procesador e información y que tiene la función de calculador automático, o al menos para eso fueron concebidos, para hacer operaciones matemáticas no demasiado complejas más rápido de lo que lo podría hacer una mente humana, pero por supuesto siempre siguiendo las órdenes que el hombre les diese. Por ello, es interesante mencionar ciertos descubrimientos a lo largo de la historia de la automática y del cálculo para así comprender mejor la informática de hoy día. o El dispositivo de cálculo más antiguo que se conoce es el ábaco. Se sabe que los griegos empleaban tablas para contar en el siglo V antes de Cristo o tal vez antes. El ábaco tal como lo conocemos actualmente esta constituido por una serie de hilos con cuentas ensartadas en ellos. En nuestro país este tipo de ábaco lo hemos visto todos en las salas de billar. Esta versión de ábaco se ha utilizado en Oriente Medio y Asia hasta hace relativamente muy poco. A finales de 1946 tuvo lugar en Tokio una competición de cálculo entre un mecanógrafo del departamento financiero del ejército norteamericano y un oficial contable japonés. El primero empleaba una calculadora eléctrica de 700 dólares el segundo un ábaco de 25 centavos. La competición consistía en realizar operaciones matemáticas de suma, resta, multiplicación y división con números de entre 3 y 12 cifras. Salvo en la multiplicación el ábaco triunfó en todas las pruebas incluyendo una final de procesos compuestos. Tras el ábaco de los griegos pasamos al siglo XVI. John Napier (1550-1617) fue un matemático escocés famoso por su invención de los logaritmos funciones matemáticas que permiten convertir las multiplicaciones en sumas y las divisiones en restas. Napier inventó un dispositivo consistente en unos palillos con números impresos que merced a un ingenioso y complicado mecanismo le permitía realizar operaciones de multiplicación y división. El primer calculador mecánico apareció en 1642 tan sólo 25 años después de que Napier publicase una memoria describiendo su máquina. El artífice de esta máquina fue el filósofo francés Blaise Pascal (1.623-1.662) en cuyo honor se llama Pascal uno de los lenguajes de programación que más impacto ha causado en los últimos años. · A los

Evolución Histórica de La Inform

Embed Size (px)

DESCRIPTION

ACONTECIMIETOS

Citation preview

Page 1: Evolución Histórica de La Inform

Evolución histórica

 

            En este apartado se resume de una forma breve la historia de la informática incluyendo en la última parte las cinco generaciones en las que se divide comúnmente la evolución de los ordenadores.

            Se habla de un computador como la máquina cuyo “cerebro” es un procesador e información y que tiene la función de calculador automático, o al menos para eso fueron concebidos, para hacer operaciones matemáticas no demasiado complejas más rápido de lo que lo podría hacer una mente humana, pero por supuesto siempre siguiendo las órdenes que el hombre les diese. Por ello, es interesante mencionar ciertos descubrimientos a lo largo de la historia de la automática y del cálculo para así comprender mejor la informática de hoy día.

o       El dispositivo de cálculo más antiguo que se conoce es el ábaco. Se sabe que los griegos empleaban tablas para contar en el siglo V antes de Cristo o tal vez antes. El ábaco tal como lo conocemos actualmente esta constituido por una serie de hilos con cuentas ensartadas en ellos. En nuestro país este tipo de ábaco lo hemos visto todos en las salas de billar. 

      Esta versión de ábaco se ha utilizado en Oriente Medio y Asia hasta hace relativamente muy poco. A finales de 1946 tuvo lugar en Tokio una competición de cálculo entre un mecanógrafo del departamento financiero del ejército norteamericano y un oficial contable japonés. El primero empleaba una calculadora eléctrica de 700 dólares el segundo un ábaco de 25 centavos. La competición consistía en realizar operaciones matemáticas de suma, resta, multiplicación y división con números de entre 3 y 12 cifras. Salvo en la multiplicación el ábaco triunfó en todas las pruebas incluyendo una final de procesos compuestos.       Tras el ábaco de los griegos pasamos al siglo XVI. John Napier (1550-1617) fue un matemático escocés famoso por su invención de los logaritmos funciones matemáticas que permiten convertir las multiplicaciones en sumas y las divisiones en restas. Napier inventó un dispositivo consistente en unos palillos con números impresos que merced a un ingenioso y complicado mecanismo le permitía realizar operaciones de multiplicación y división. 

      El primer calculador mecánico apareció en 1642 tan sólo 25 años después de que Napier publicase una memoria describiendo su máquina. El artífice de esta máquina fue el filósofo francés Blaise Pascal (1.623-1.662) en cuyo honor se llama Pascal uno de los lenguajes de programación que más impacto ha causado en los últimos años. · A los 18 años Pascal deseaba dar con la forma de reducir el trabajo de cálculo de su padre que era un funcionario de impuestos. La calculadora que inventó Pascal tenía el tamaño de un cartón de tabaco y su principio de funcionamiento era el mismo que rige los cuentakilómetros de los coches actuales; una serie de ruedas tales que cada una de las cuales hacía avanzar un paso a la siguiente al completar una vuelta. Las ruedas estaban marcadas con números del 0 al 9 y había dos para los decimales y 6 para los enteros con lo que podía manejar números entre 000.000 01 y 999.999 99. 

      Las ruedas giraban mediante una manivela con lo que para sumar o restar lo que había que hacer era girar la manivela correspondiente en un sentido o en otro el número de pasos adecuado. 

      Leibnitz (1646-1716) fue uno de los genios de su época; a los 26 años aprendió matemáticas de modo autodidacta y procedió a inventar el cálculo. Inventó una máquina de calcular por la simple razón de que nadie le enseñó las tablas de multiplicar.      La máquina de Leibnitz apareció en 1672; se diferenciaba de la de Pascal en varios aspectos fundamentales el más importante de los cuales era que podía multiplicar dividir y obtener raíces cuadradas.

Page 2: Evolución Histórica de La Inform

      Leibnitz propuso la idea de una máquina de cálculo en sistema binario base de numeración empleada por los modernos ordenadores actuales. Tanto la máquina de Pascal como la de Leibnitz se encontraron con un grave freno para su difusión: la revolución industrial aún no había tenido lugar y sus máquinas eran demasiado complejas para ser realizadas a mano.        

Entre 1673 y 1801 se realizaron algunos avances significativos el más importante de los cuales probablemente fue el de Joseph Jacquard (1752-1834) quien utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. 

      Jacquard fue el primero en emplear tarjetas perforadas para almacenar la información sobre el dibujo del tejido y además controlar la máquina. La máquina de tejer de Jaquard presentada en 1801 supuso gran éxito comercial y un gran avance en la industria textil. La antesala de la informática.

      Aunque hubo muchos precursores de los actuales sistemas informáticos para muchos especialistas la historia empieza con Charles Babbage matemático e inventor inglés que al principio del siglo XIX predijo muchas de las teorías en que se basan los actuales ordenadores. Desgraciadamente al igual que sus predecesores vivieron en una época en que, ni la tecnología, ni las necesidades estaban al nivel de permitir la materialización de sus ideas. 

      En 1822 diseñó su máquina diferencial para el cálculo de polinomios. Esta máquina se utilizó con éxito para el cálculo de tablas de navegación y artillería lo que permitió a Babbage conseguir una subvención del gobierno para el desarrollo de una segunda y mejor versión de la máquina.

      Mientras que la máquina diferencial era un aparato de proceso único Babbage decidió construir una máquina de propósito general que pudiese resolver casi cualquier problema matemático. Todas estas máquinas eran por supuesto mecánicas movidas por vapor. De todas formas la velocidad de cálculo de las máquinas no era tal como para cambiar la naturaleza del cálculo además la ingeniería entonces no estaba lo suficientemente desarrollada como para permitir la fabricación de los delicados y complejos mecanismos requeridos por el ingenio de Babbage. La sofisticada organización de esta segunda máquina, la máquina diferencial según se la llamó es lo que hace que muchos consideren a Babbage padre de la informática actual. 

      Como los modernos computadores la máquina de Babbage tenía un mecanismo de entrada y salida por tarjetas perforadas, una memoria, una unidad de control y una unidad aritmético-lógica. Preveía tarjetas separadas para programas y datos. Una de sus características más importantes era que la máquina podía alterar su secuencia de operaciones en base al resultado de cálculos anteriores algo fundamental en los ordenadores modernos. la máquina sin embargo nunca llegó a construirse. Babbage no pudo conseguir un contrato de investigación y pasó el resto de su vida inventando piezas y diseñando esquemas para conseguir los fondos para construir la máquina. Murió sin conseguirlo. 

      Aunque otros pocos hombres trataron de construir autómatas o calculadoras siguiendo los esquemas de Babbage su trabajo quedo olvidado hasta que inventores modernos que desarrollaban sus propios proyectos de computadores se encontraron de pronto con tan extraordinario precedente. 

      Otro inventor digno de mención es Herman Hollerith a los 19 años. El sistema inventado por Hollerith utilizaba tarjetas perforadas en las que mediante agujeros se representaba el sexo, la edad, raza, etc. En la máquina las tarjetas pasaban por un juego de contactos que cerraban un circuito eléctrico activándose un contador y un mecanismo de selección de tarjetas. Estas se leían a ritmo de 50 a 80 por minuto. 

Page 3: Evolución Histórica de La Inform

      Desde 1880 a 1890 la población subió de 5O a 63 millones de habitantes aun así el censo de 1890 se realizó en dos años y medio gracias a la máquina de Hollerith. 

      Ante las posibilidades comerciales de su máquina Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía la Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 Hollerith fusionó su compañía con otras dos para formar la Internacional Bussines Machines, hoy mundialmente conocida como IBM.

•        El nacimiento del ordenador actual. Ante la necesidad de agilizar el proceso de datos de las oficinas del censo se contrató a James Powers un estadístico de Nueva Jersey para desarrollar nuevas máquinas para el censo de 1910. Powers diseñó nuevas máquinas para el censo de 1910 y de modo similar a Hollerith decidió formar su propia compañía en 1911; la Powers Accounting Machine Company que fue posteriormente adquirida por Remington Rand la cual a su vez se fusionó con la Sperry Corporation formando la Sperry Rand Corporation.                                                                  

               John Vincent Atanasoft nació en 1903, se doctoró en física teórica y comenzó a dar clases en lowa, al comienzo de los años 30. Se encontró con lo que por entonces eran dificultades habituales para muchos físicos y técnicos; los problemas que tenían que resolver requerían una excesiva cantidad de cálculo para los medios de que disponían. Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage Atanasoff empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario hacer los cálculos de modo totalmente distinto a como los realizaban las calculadoras mecánicas e incluso concibió un dispositivo de memoria mediante almacenamiento de carga eléctrica. Con unos primeros 650 dólares contrató la cooperación de Clifford Berry estudiante de ingeniería y los materiales para un modelo experimental. Posteriormente recibieron otras dos donaciones que sumaron 1460 dólares y otros 5000 dólares de una fundación privada. Este primer aparato fue conocido como ABC Atanasoff- Berry-Computer. 

      En diciembre de 1940 Atanasoff se encontró con John Mauchly en la American Association for the Advancement of Science (Asociación Americana para el Avance de la Ciencia) abreviadamente AAAS. Mauchly que dirigía el departamento de física del Ursine College cerca de Filadelfia se había encontrado con los mismos problemas en cuanto a velocidad de cálculo que Atanasoff y estaba convencido de que habría una forma de acelerar el cálculo por medios electrónicos. Al carecer de medios económicos construyó un pequeño calculador digital y se presentó al congreso de la AAAS para presentar un informe sobre el mismo. A raíz de aquello Atanasoff y Maunchly tuvieron un intercambio de ideas que muchos años después ha desembocado en una disputa entre ambos sobre la paternidad del computador digital. 

      En 1941 Maunchly se matriculo en unos cursos sobre ingeniería eléctrica en la escuela Moore de Ingeniería donde conoció a un instructor de laboratorio llamado J. Presper Eckert... Entre ambos surgió una compenetración que les llevaría a cooperar en un interés común: el desarrollo de un calculador electrónico. El entusiasmo que surgió entre ambos llegarón a Maunchly a escribir a Atanasoff solicitándole su cooperación para construir un computador como el ABC en la escuela Moore.

      Atanasoff prefirió guardar la máquina en un cierto secreto hasta poder patentarla; sin embargo nunca llegó a conseguirlo. Maunchiy fue más afortunado. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. 

      La cantidad de cálculos necesarios era inmensa tardándose treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así esto era unas 50 veces más rápido de lo que tardaba un hombre con una sumadora de sobremesa. 

Page 4: Evolución Histórica de La Inform

      El 9 de abril de 1943 se autorizó a los dos hombres a iniciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical integrator and Computer).

      El ENIAC tenía unos condensadores 70.000 resistencias 7.500 interruptores y 17.000 tubos de vacío de 16 tipos distintos funcionando todo a una frecuencia de reloj de 100.000 Hz. Pesaba unas 30 toneladas y ocupaba unos 1600 metros cuadrados. Su consumo medio era de unos 100.000 vatios (lo que un bloque de 50 viviendas) y necesitaba un equipo de aire acondicionado a fin de disipar el gran calor que producía. Tenía 20 acumuladores de 10 dígitos era capaz de sumar restar multiplicar y dividir; además tenía tres tablas de funciones. La entrada y la salida de datos se realizaba mediante tarjetas perforadas. 

      En un test de prueba en febrero de 1946 el Eniac resolvió en 2 horas un problema de física nuclear que previamente habría requerido 100 años de trabajo de un hombre. Lo que caracterizaba al ENIAC como a los ordenadores modernos no era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitía realizar tareas que antes eran imposibles. 

      Entre 1939 y 1944 Howard Aiken de la universidad de Harvard en colaboración con IBM desarrolló el Mark 1, también conocido como calculador Automático de Secuencia Controlada. Este fue un computador electromecánico de 16 metros de largo y más de dos de alto. Tenía 700.000 elementos móviles y varios centenares de kilómetros de cables. Podía realizar las cuatro operaciones básicas y trabajar con información almacenada en forma de tablas. 

      Operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1 segundo. El Mark 1 y las versiones que posteriormente se realizaron del mismo tenían el mérito de asemejarse considerablemente al tipo de máquina ideado por Babbage aunque trabajaban en código decimal y no binario. El avance que estas máquinas electromecánicas supuso fue rápidamente ensombrecido por el Eniac con sus circuitos electrónicos. 

      En 1946 el matemático húngaro John Von Neumann propuso una versión modificada del Eniac; el Edvac (Electronic Discrete Variable Automatic Computer) que se construyó en 1952. Esta máquina presentaba dos importantes diferencias respecto al Eniac: En primer lugar empleaba aritmética binaria lo que simplificaba enormemente los circuitos electrónicos de cálculo. En segundo lugar permitía trabajar con un programa almacenado. El Eniac se programaba enchufando centenares de clavijas y activando un pequeño número de interruptores.

      Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecutasen bajo un control central. Además propuso que los códigos de operación que habían de controlar las operaciones se almacenasen de modo similar a los datos en forma binaria. 

      De este modo el Edvac no necesitaba una modificación del cableado para cada nuevo programa pudiendo procesar instrucciones tan deprisa como los datos. Además el programa podía modificarse a sí mismo ya que las instrucciones almacenadas como datos podían ser manipuladas aritméticamente. 

      Eckert y Mauchly tras abandonar la universidad fundaron su propia compañía la cual tras diversos problemas fue absorbida por Remington Rand. El 14 de junio de 1951 entregaron su primer ordenador a la Oficina del Censo el Univac-I.       Posteriormente aparecería el Univac-II con memoria de núcleos magnéticos lo que le haría claramente superior a su antecesor pero por diversos problemas esta máquina no vio la luz hasta 1957 fecha en la que había perdido su liderazgo en el mercado frente al 705 de IBM. 

Page 5: Evolución Histórica de La Inform

      En 1953 IBM fabricó su primer computador para aplicaciones científicas el 701. Anteriormente había anunciado una máquina para aplicaciones comerciales el 702 pero esta máquina fue rápidamente considerada inferior al Univac-I. Para compensar esto IBM lanzó al mercado una máquina que resultó arrolladora el 705 primer ordenador que empleaba memorias de núcleos de ferrita IBM superó rápidamente a Sperry en volumen de ventas gracias una eficaz política comercial que actualmente la sigue manteniendo a la cabeza de todas las compañías de informática del mundo en cuanto a ventas.

 

Generación de ComputadorasGeneración Año Sucesos

1ra

1940 –

1952

     Es la época de los ordenadores que funcionaban a válvulas y el uso era exclusivo para el ámbito científico/militar. Para poder programarlos había que modificar directamente los valores de los circuitos de las máquinas. Utilizaban como lenguaje de programación, el lenguaje máquina (o y 1) y como única memorias para conservar la información estaban las tarjetas perforadas y las líneas de mercurio.

     El Univac 1 viene a marcar el comienzo de lo que se llama la primera generación. Los ordenadores de esta primera etapa se caracterizan por emplear el tubo de vacío como elemento fundamental de circuito. Son máquinas grandes pesadas y con unas posibilidades muy limitadas. El tubo de vacío es un elemento que tiene un elevado consumo de corriente genera bastante calor y tiene una vida media breve. Hay que indicar que a pesar de esto no todos los ordenadores de la primera generación fueron como el NAC las nuevas técnicas de fabricación y el empleo del sistema binario llevaron a máquinas con unos pocos miles de tubos de vacío.

2da 1958 – 1964

     Surge cuando se sustituye la válvula por el transistor. En esta generación aparecen los primeros ordenadores comerciales, los cuales ya tenían una programación previa que serían los sistemas operativos. Éstos interpretaban instrucciones en lenguaje de programación (Cobol, Fortran), de esta manera, el programador escribía sus programas en esos lenguajes y el ordenador era capaz de traducirlo al lenguaje de máquina.

     En 1958 comienza la segunda generación cuyas máquinas empleaban circuitos transistorizados. El transistor es un elemento electrónico que permite reemplazar al tubo con las siguientes ventajas:

•        su consumo de corriente es mucho menor con lo que también es menor su producción de calor.

•        Su tamaño es también mucho menor.

•        Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza.

     Esto permite una drástica reducción de tamaño. Mientras que

Page 6: Evolución Histórica de La Inform

las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios las de los transistores vienen a ser de 10 voltios con lo que los demás elementos de circuito también pueden ser de menor tamaño al tener que disipar y soportar tensiones muchos menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío. Como podemos ver el simple hecho de pasar del tubo de vacío al transistor supone un gran paso en cuanto a reducción de tamaño y consumo y aumento de fiabilidad.

     Las máquinas de la segunda generación emplean además algunas técnicas avanzadas no sólo en cuanto a electrónica sino en cuanto a informática y proceso de datos como por ejemplo los lenguajes de alto nivel.

     Comienza a utilizarse como memoria los núcleos de ferrita, la cinta magnética y los tambores magnéticos.

     La comunicación entre ordenadores por línea telefónica.3ra 1964 –

1975     Es la generación en la cual se comienzan a utilizar los circuitos integrados; esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por otra parte, esta generación es importante porque se da un notable mejoramiento en los lenguajes de programación y, además, surgen los programas utilitarios.

     En 1964 la aparición del IBM 360, marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips sobre cuya superficie se depositan por medios especiales unas impurezas que hacen las funciones de diversos componentes electrónicos. Así pues un puñado de transistores y otros componentes se integran ahora en una plaquita de silicio. Aparentemente esto no tiene nada de especial salvo por un detalle; un circuito integrado con varios centenares de componentes integrados tiene el tamaño de una moneda.      Así pues hemos dado otro salto importante en cuanto a la reducción de tamaño. El consumo de un circuito integrado es también menor que el de su equivalente en transistores resistencias y demás componentes. Además su fiabilidad es también mayor.      En la tercera generación aparece la multiprogramación el teleproceso se empieza a generalizar el uso de minicomputadores en los negocios y se usan cada vez más los lenguajes de alto nivel como Cobol y Fortran.

     La miniaturización se extendió a todos los componentes. El software evolucionó de forma considerable, con gran desarrollo en los sistemas operativos.

     Comienzan a utilizarse las memorias semiconductoras y los

Page 7: Evolución Histórica de La Inform

discos magnéticos.

4ta 1975 – 1981

      Esta fase de evolución se caracterizó por la integración de los componentes electrónicos, y esto dio lugar a la aparición del microprocesador, que es la integración de todos los elementos básicos del ordenador en un solo circuito integrado. Intel 4004, primer microprocesador del mundo (1971). Uso de memorias electrónicas.

     La aparición de una cuarta generación de ordenadores hacia el comienzo de los años setenta no es reconocida como tal por muchos profesionales del medio para quienes ésta es sólo una variación de la tercera. Las máquinas representativas de esta generación son el IBM 370 y el Burroughs. Las máquinas de esta cuarta generación se caracterizan por la utilización de memorias electrónicas en lugar de las de núcleos de ferrita.      Estas representan un gran avance en cuanto a velocidad y en especial en cuanto a reducción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits de información. En núcleos de ferrita esa capacidad de memoria puede requerir cerca de un litro en volumen.      Se empieza a desechar el procesamiento batch o por lotes un solo del tiempo real y el proceso interactivo. Aparecen innumerables lenguajes de programación. Las capacidades de memoria empiezan a ser enormemente grandes. Estos son maquinas con un procesador de 16 bits una memoria de entre 16, 32 KB y un precio de unos pocos millones.

     Ordenadores conectados a redes. Uso del disquete como unidad de almacenamiento.

     Aparecen gran cantidad de lenguajes de programación de todo tipo y las redes de transmisión de datos par ala interconexión de computadoras.

5ta 1981      Va desde 1981 hasta nuestros días (aunque ciertos expertos consideran finalizada esta generación con la aparición de los procesadores Pentium, consideraremos que aun no ha finalizado). Esta quinta generación se caracteriza por el surgimiento de la PC, tal como se la conoce actualmente. “Los microprocesadores”.      Posteriormente hacia finales de los setenta aparece la que podría ser la quinta generación de ordenadores. Se caracteriza por la aparición de los microcomputadores y los ordenadores de uso personal. Estas máquinas se caracterizan por llevar en su interior un microprocesador, un circuito integrado que reúne en un solo chip de silicio las principales funciones de un ordenador.      Los ordenadores personales son equipos a menudo muy pequeños no permiten multiproceso y suelen estar pensados para uso doméstico o particular. Los microcomputadores si bien empezaron tímidamente como ordenadores muy pequeñitos rápidamente han escalado el camino superando a lo que hace 10 años era un mini-computador.

     Un microcomputador actual puede tener entre 4Mb y 32Mb de memoria, discos con capacidades del orden del Gigabyte y

Page 8: Evolución Histórica de La Inform

pueden permitir la utilización simultánea del equipo por varios usuarios.      La Evolución del PC merecerá un capítulo aparte.

     Ordenadores basados en Inteligencia Artificial (atributos asociados con la inteligencia humana: como capacidad de decodificar y responder al lenguaje humano, razonar, sacar conclusiones y reconocer patrones de recepción de estímulos sensoriales).

TEMA 1: LA INFORMÁTICA Y SU EVOLUCIÓN

1. - EL TRATAMIENTO DE LA INFORMACIÓN

El concepto de informática se puede definir como el tratamiento automático de la información por medio de ordenadores.

El procesamiento de datos, se puede dividir en tres fases:

Fase de entrada: Los datos son introducidos por el usuario mediante el teclado.

Fase de proceso: El ordenador comienza su tratamiento mediante los programas. Un programa es un conjunto de ordenes que indican al ordenador lo que tiene que hacer.

Fase de salida: Los resultados se muestran al usuario.

Proceso electrónico de datos:

Los sistemas informáticos se dividen en dos partes, la parte física (hardware) y la lógica (software):

Hardware: Esta compuesto por los elementos físicos.

Software: Es el conjunto de programas que permite controlar el funcionamiento del ordenador.

2. -HISTORIA DE LA INFORMÁTICA

El primer instrumento que se utilizó para el cálculo fue el ábaco. Lo inventaron los chinos y lo utilizaron los romanos hasta el siglo IV a. C.

En 1645 Blaise Pascal construyó una máquina para sumas y restas que estaba compuesto de ruedas dentadas que al girar permitían obtener el resultado de la

Page 9: Evolución Histórica de La Inform

operación. En 1675 Von Leibniz construyó otra capaz de realizar las cuatro operaciones básicas.

El primer precedente de los ordenadores apareció 1837 cuando Charles Babbage inició los esquemas de una máquina controlada por relojes. Sin embargo nunca llegó a construirse por su complejidad.

La primera máquina capaz de hacer cálculos la construyó Herman Hollerith. Era de tipo electromecánico. Éstas se fueron perfeccionando hasta llegar a la construcción del MARK-I por Howard H. Aiken.

A partir de este momento la evolución de los ordenadores va por generaciones que se distinguen por los componentes del ordenador y la forma de realizar el tratamiento de la información.

Primera generación (1946-1955)

En este periodo los ordenadores eran construidos a base de válvulas de vacío y relés electromagnéticos.

El procesador era secuencial. Las tarjetas perforadas introducían los datos.

Al comienzo de esta época se construyó el ENIAC que utilizaba alrededor de 19.000 válvulas de vacío y 1.500 relés. Ocupaba una gran habitación y solo trabajaba con veinte números de diez dígitos.

Segunda generación (1955-1964)

Aparece el transistor sustituyendo las válvulas de vacío. Los transistores son mucho más pequeños, desprenden menos calor y se averían menos. Por ello los ordenadores han ido reduciendo su tamaño. En este periodo se construyó el UNIVAC 1100.

Tercera generación (1964-1970)

Comienzan a utilizarse los circuitos integrados, formados por miles de transistores conectados entre sí e insertados en un solo chip. Los ordenadores, que ya permiten ejecutar varios programas a la vez, reducen aún más su tamaño y aumenta su velocidad de cálculo.

Comienza a estandarizarse los programas para crear software, como el Fortran, el Basic y el Pascal.

Cuarta generación (1970-1980)

Aparecen nuevos circuitos con mayor nivel de integración, por lo que los ordenadores reducen aún más su tamaño.

En este periodo la empresa Intel desarrolla su primer microprocesador. Aparecen nuevos entornos y lenguajes de programación como el C y el Prolog.

Page 10: Evolución Histórica de La Inform

Quinta generación ( a partir de 1981)

En 1981 IBM construyó el primer ordenador personal y revolucionó el mercado informático.

La utilización de circuitos con mayor nivel de integración, la bajada de precios y el continuo aumento de prestaciones y servicios generalizan la difusión del ordenador.

El uso masivo de ordenadores genera la necesidad de comunicarlos, provocando la aparición de las redes como Internet.

3. -LA REPRESENTACIÓN DE LA INFORMACIÓN

La información que maneja el ser humano se representa por una combinación de números que forman cantidades y se emplea el sistema métrico decimal, y una combinación de letras que forman palabras y se emplea el abecedario español.

Sin embargo el ordenador puede representar solo dos estados (encendido y apagado). Es como un interruptor. El sistema binario es el que emplean todos los ordenadores, pues encendido se representa con 1 y apagado con 0.

Representación de cantidades

El ser humano emplea un sistema de numeración llamado decimal.

La regla principal indica que toda cantidad se puede representar por el desarrollo de potencias sucesivas que tendrán como base el número total de dígitos usado por el sistema que se esté utilizando y como exponente el lugar físico que ocupe cada dígito menos uno empezando por la derecha.

Desarrollo polinómico de una cantidad es la suma de los productos de cada uno de los dígitos con la potencia que les corresponde ofrecerá el valor real de la base de numeración. Por ejemplo, el desarrollo polinómico en base 10 del número 634 sería:

634(10 = 6 x 102 + 3 x 101 + 4 x 100 = 600 + 30 + 4

El ordenador utiliza el sistema binario. Las cantidades se representarán como combinaciones de ceros y unos. Para conocer la cantidad en base decimal que representa una combinación de ceros y unos bastará con realizar su desarrollo polinómico al igual que en el ejemplo anterior. Por ejemplo, para conocer qué cantidad representará 10101, sería:

10101(2 = 1 x 24 + 0 x 23 + 1 x 22 + 0 x 21 + 1 x 20 =

= 16 + 0 + 4 + 0 + 1 =21(10

El método para pasar del sistema binario al decimal es muy fácil. ¿Será viceversa también fácil? El método también es sencillo.

Page 11: Evolución Histórica de La Inform

Para pasar una cantidad del sistema decimal al binario se realizan divisiones sucesivas por dos. Primero se toma la cantidad decimal y se divide por dos, después se toma el cociente de esa división y se vuelve a dividir por dos, tomamos de nuevo el cociente de la última división y lo dividimos por dos, y así sucesivamente hasta que el cociente ya no sea divisible entre dos. El número binario estará formado por el último cociente y los restos de las sucesivas divisiones empezando por el de la última, hasta llegar al resto de la primera división.

El ordenador trabaja internamente en binario, así si el usuario escribe una cantidad por teclado, esta cantidad es convertida en binario para que el ordenador trabaje. Por el contrario cuando el ordenador muestra un resultado al usuario, el número binario pasa a decimal y después se muestra en el monitor o se imprime.

Representación de palabras

Cuando leemos un texto, se puede apreciar que es articulado. Sin embargo, también se puede observar que las letras pueden mayúsculas o minúsculas y que utilizan espacios en blanco, signos de puntuación, etc. Pero, ¿cómo se representan todos estos símbolos con sólo unos ceros? La solución es la codificación.

El ordenador solo utiliza el sistema binario. Bit es la unidad mínima de información que se pude representar (0 ó 1). Con un solo bit solo se pueden representar dos estados, 0 y 1. Sin embargo, con 2 bits se representarán 4 estados, y así sucesivamente. El número de estados posibles se corresponde con el número de bits utilizados

(N.º de estados = 2 número de bits)

Si utilizamos 7 bits, se podría representar 27 = 128 estados, se queda pequeño. Si utilizamos 8 bits, se podrían representar 28 = 256 estados, que permiten representar todos los símbolos. Luego, ésta es la solución. Para representar un carácter, se necesitan 8 bits y a este grupo de 8 bits se le denomina byte. Luego un carácter se puede representar con un byte.

Ahora solo queda asignar a cada carácter una combinación de ocho ceros y unos que la represente. Es el utilizado por todos los ordenadores personales, denominado Código ASCII (American Standar Code for Information Interchange o Código Estándar Americano para el Intercambio de Información.

Cuando el usuario teclea una letra, ésta se transforma en el código binario correspondiente a ese carácter ASCII y cuando debe mostrar una letra, transforma el código binario al correspondiente carácter antes de sacarlo por el monitor o por la impresora.

4. - ESCALA DE MAGNITUDES

En informática, la longitud más pequeña empleada es el bit, que hemos definido como la unidad mínima de información. Sin embargo, la más utilizada es el byte, también llamado octeto, que está compuesto por ocho bits y nos permite representar un carácter. Hablar de un byte en informática, es lo mismo que hablar de un gramo en peso o de un metro en longitud. Cuando alguien se pesa no dice que pesa cincuenta mil gramos, sino

Page 12: Evolución Histórica de La Inform

cincuenta kilos, es decir, se ha establecido una escala de magnitudes de forma que sea más fácil manejar grandes cantidades. Nadie habla de miles de metros, sino de kilómetros. Lo mismo ocurre en informática. Para trabajar con grandes cantidades aparecen nuevas magnitudes que nos facilita el trabajo. Las más utilizadas son el kilobyte, el Megabyte y el Gigabyte.

Magnitud Símbolo Equivalencia

1 byte B 8 bits

1 Kilobyte Kb 1.024 bytes

1 Megabyte Mb 1.024 kilobytes

1 Gigabyte Gb 1.024 gigabytes

La tabla anterior indica la correspondencia exacta entre unas magnitudes y otras, 1 Kilobyte es igual a 210 = 1024 bytes. Sin embargo, en la práctica, el valor 1.024 se suele aproximar a 1.000 para facilitar las operaciones.

Como sabemos que 1 Megabyte son 1.024 Kilobytes; 4 Megabytes serán cuatro veces más:

1 Mb = 1.024 Kb ! 4 Mb = 4 x 1.024 Kb = 4.096 Kb

También sabemos que 1 Kilobyte son 1.024 bytes, luego podemos obtener:

1 Kb = 1.024 B ! 4.096 Kb = 4.096 x 1.024 B = 4.194.304 B

5. - El software

Software viene de la palabra inglesa soft, que significa blando. La palabra software se utiliza para designar a la parte lógica del ordenador. Se llama parte lógica al conjunto de programas que se emplean para dirigir y controlar el funcionamiento del ordenador.

El software se clasifica en tres grandes grupos, dependiendo de los objetivos para los que haya sido creado: el software de sistemas, el de programación y el de aplicación.

El software de sistemas

El software de sistemas está formado por los programas que se encargan de controlar, coordinar y gestionar todo el hardware del ordenador. Estos programas reciben el nombre de sistemas operativos y actúan como intermediarios entre los componentes físicos del ordenador y el usuario.

Los sistemas operativos se clasifican según el tipo de comportamiento que proporcionan al ordenador, por ejemplo según el número de programas que el ordenador puede ejecutar a la vez. Si el ordenador solo puede trabajar con un programa cada vez, se dice que es un sistema operativo monotarea; por el contrario, se permite que varios programas se ejecuten de forma simultánea, entonces se denomina multitarea.

Además, los sistemas operativos también se clasifican según el número de usuarios que pueden trabajar con el ordenador de forma simultánea. Si sólo puede trabajar un usuario

Page 13: Evolución Histórica de La Inform

con él se le denomina monousuario, pero, si pueden trabajar varios a la vez, se le llama multiusuario.

Entre los principales sistemas operativos se pueden destacar:

• MS-DOS. Con este sistema operativo de la empresa Microsoft apareció el primer PC (Personal Computer: ordenador personal) de IBM en el año 1981. Aún hoy, tras numerosas revisiones, sigue siendo el más utilizado en el mundo de los ordenadores personales. Es un sistema operativo monousuario y monotarea que permite manejar el ordenador de una forma sencilla.

• OS/2. Este sistema operativo creado por IBM apareció en el año 1987. Es el primer sistema diseñado para ordenadores personales que permite trabajar en multitarea y en monousuario. Trabaja mediante una interfaz gráfica que facilita su utilización, y además tiene un módulo que es compatible con MS-DOS, de forma que el usuario pueda ejecutar los programas preparados para este sistema operativo.

• Windows 95. Este sistema operativo de la empresa Microsoft apareció en el mercado en el año 1995. El sistema permite trabajar en modo multitarea y monousuario. Dispone de una interfaz gráfica mediante ventanas que facilita al usuario la utilización del ordenador. Este sistema también es compatible con MS-DOS.

• UNIX. Este sistema operativo tiene numerosos nombres, en función de la empresa que lo comercializa. Por ejemplo: AIX (versión de IBM), Xenix (Versión de Microsoft), Simix (versión de Siemens), Linux, Unix, Sco, etc. Este sistema es multitarea y multiusuario y puede ser ejecutado en un ordenador personal o en un gran ordenador central con numerosas pantallas. UNIX se suele utilizar en las grandes empresas, donde se necesita que varios empleados estén trabajando a la vez con la misma información, por ejemplo, en los bancos.

El software de programación

El software de programación reúne los programas que utilizan los programadores para crear nuevos programas. Los programas se crean utilizando un lenguaje de programación que es un conjunto de palabras clave o instrucciones y unas reglas sintácticas que indican como hacer los programas.

Existen numerosos lenguajes de programación y cada uno tiene sus propias instrucciones y sus propias reglas.

Los lenguajes de programación se clasifican como sigue:

• Lenguajes de bajo nivel. Se llaman de bajo nivel porque están muy cercanos al hardware del ordenador. Es necesario conocer a fondo la arquitectura de la máquina para la que se va a programar.

El primer lenguaje en este tipo que se utilizó fue el lenguaje máquina, que consiste en un conjunto de instrucciones en binario, es decir, con ceros y unos, con los cuales se indica al ordenador que hacer. Este lenguaje es muy complicado y la posibilidad de cometer errores es muy alta por lo que ya no se utiliza.

Page 14: Evolución Histórica de La Inform

Para solventar estas dificultades apareció el lenguaje ensamblador, que consiste en asignar una abreviaturas a cada instrucción en binario, de forma que sea más fácil recordarla y más difícil equivocarse. Sin embargo, con este lenguaje sigue siendo necesario conocer muy bien el hardware del ordenador.

• Lenguajes de alto nivel. Se llaman de alto nivel porque están más cerca del programador que del hardware de la máquina. Para utilizar estos lenguajes es necesario conocer a fondo el ordenador. Las instrucciones de estos lenguajes usan palabras que se utilizan para hablar normalmente por supuesto, en inglés.

Algunos de esos lenguajes son: Cobol, Basic, Pascal, C, Ada, Fortran, Prolog, Lisp, etc.

Los programas creados con estos lenguajes necesitan ser traducidos a lenguaje máquina (ceros y unos) para que puedan ser entendidos por el ordenador.

Para realizar esa traducción se emplea los intérpretes y los compiladores:

Intérpretes: El intérprete toma el programa creado por el lenguaje de alto nivel llamado programa fuente y lo va traduciendo y ejecutando instrucción a instrucción. La ventaja que tiene es que si el programa tiene errores permitirá al programador corregirlo sobre la marcha y continuar la ejecución. El inconveniente es que cada vez que se desea ejecutar el programa es necesario volver a traducirlo.

Compiladores. El compilador primero traduce todas las opciones del programa fuente y crea un programa traducido a lenguaje máquina llamado programa objeto. La ventaja que tiene es que el programa objeto podrá ser ejecutado todas las veces que quiera el usuario sin tener que realizar una traducción.

El software de aplicación

El software de aplicación es el conjunto de programas que utilizan los usuarios para trabajar con el ordenador. Estos programas están creados con lenguaje de programación y se ejecutan sobre un determinado sistema operativo.

El software de aplicación se clasifica en programas verticales y programas horizontales o de depósito general.

• Programas verticales. Son aquellos que resuelven problemas concretos y han sido diseñados para cumplir una misión específica. Cuando estos programas son encargados por los clientes a las empresas productoras de software, entonces se dice que se ha creado un programa a medida, es decir, para cubrir las necesidades específicas de un cliente.

• Programas horizontales o de propósito general. Son aquellos que sirven para realizar tareas de carácter amplio y general y que pueden ser utilizados por la mayoría de los usuarios de un ordenador personal. Estos programas, también llamados estándar, pueden ser clasificados según su función en procesadores de texto, hojas de cálculo, bases de datos, paquetes integrados, diseño gráfico y autoedición.

Page 15: Evolución Histórica de La Inform

Procesadores de texto. Están diseñados para la elaboración de documentos. Inicialmente simulaban la utilización de una máquina de escribir, pero en la actualidad permiten realizar funciones mucho más complejas, como insertar gráficos en el texto, hacer correcciones ortográficas, buscar sinónimos, etc. Entre ellos podemos destacar: Word, Word Perfect y Ami Pro.

Hojas de cálculo. Han sido creadas para trabajar con gran cantidad de datos numéricos y realizar operaciones de cálculo complejas. Permiten obtener gráficos a partir de los datos introducidos y de los valores calculados. Entre las hojas de cálculo destacan Excel, Lotus123 y Quatro Pro.

Bases de datos. Permiten manipular información de distinto tipo mediante fichas que pueden ser consultadas, modificadas y actualizadas por el usuario. Las más utilizadas son Dbase, Access, Paradox y Oracle.

Paquetes integrados. Son programas creados para reunir en una sola aplicación las características fundamentales de los tres anteriores: el procesador de textos, la hoja de cálculo y la base de datos. Además, siempre suelen añadir un programa de comunicaciones que nos permite conectarnos con otros ordenadores por medio de la línea telefónica. La gran ventaja de los paquetes integrados es que se puede compartir información entre los programas.

Diseño gráfico. Son los programas dedicados a la elaboración y manipulación de imágenes. Son utilizados para crear carteles publicitarios, hacer retoques fotográficos, logotipos, etc. Los más conocidos son Corel Draw, Photoshop y FreeHand.

Autoedición. Son programas creados para componer revistas y periódicos uniendo textos e imágenes. Destacan los programas PageMaker y QuarkXPress.

6.- Normativa legal del sector informático

La primera referencia a la propiedad informática que existe en la normativa legal en nuestro país, se encuentra en el año 1983 en la Ley de Propiedad Intelectual.

Esta Ley se encuentra falta de conceptos propios del campo de la informática, que se suple con la aceptación por la normativa española y la aprobación por parte del Parlamento español, de la Directiva del Consejo de la CEE del 14 de mayo de 1991, que trata sobre la Protección Jurídica de Programas de Ordenador, cuya base es la Ley de Protección Intelectual.

Derechos y deberes

La nueva ley de Protección Jurídica de Programas de Ordenador se compone de nueve artículos. Estos artículos aumentan las medidas para proteger los programas informáticos. El principio fundamental de esta ley consiste en tratar los programas como obras literarias.

Para que los programas estén protegidos dentro de la normativa tienen que ser originales, considerándose como una creación intelectual de su autor. Esta nueva

Page 16: Evolución Histórica de La Inform

normativa protege no la idea principal del programa sino la forma y la originalidad en que se desarrolla la idea.

En esta normativa se establece que los derechos de explotación del programa en los apartados de reproducción, distribución, comunicación pública y transformación son exclusivamente propiedad del autor, estableciéndose un plazo de 50 años de duración del derecho de explotación.

La piratería informática

Todas las condiciones para la realización de un proyecto informático deben ser recogidas dentro de un contrato. Este contrato, además de detallar las condiciones fundamentales de todo tipo de contrato (fecha de entrega, condiciones económicas, etc.), deberá reseñar el número de copias que se permite realizar al comprador. Si no se indica ninguna cantidad, el comprador estará autorizado a hacer una sola copia de los discos originales. Esta copia podrá ser usada solo en caso de deterioro de los originales, considerándose como ilegal cualquier otra copia, así como un incumplimiento del contrato o licencia de uso infligiendo la normativa vigente.

La Ley de Protección Jurídica de Programas de Ordenador, establece tres tipos de infractores:

Aquellos que pongan en circulación una o más copias de programa de ordenador conociendo su naturaleza ilegítima.

Aquellos que posean con fines comerciales y económicos una o más copias de un programa de ordenador careciendo de las correspondientes licencias.

Aquellos que pongan en circulación o posean con fines comerciales y económicos cualquier medio cuyo único uso sea facilitar la eliminación o neutralización de cualquier dispositivo técnico utilizado para la protección de un programa de ordenador.

Cualquier derivación de los tres puntos anteriores infringe la normativa vigente y se considera delito conocido como piratería informática.