Upload
jesus-reyes
View
35
Download
0
Embed Size (px)
Citation preview
República Bolivariana De Venezuela
Ministerio Del Poder Popular Para La Educación
Universidad Nacional Experimental Politécnica De La Fuerza Armada
Coro – Estado Falcón
Cátedra: Arquitectura del Computador
Integrantes:
Jesús Reyes
Junior Negrinho
Francisco Curiel
Francisco Pérez
IS6D-A
Santa Ana de Coro; Enero de 2013
Arquitectura Del
Computador
INDICE
I. INTRODUCCION
II. CONTENIDO
A. Arquitectura avanzada:
Multiprocesamiento simétrico
Procesamiento paralelo
Multiprocesamiento superescalares
B. Arquitecturas comerciales:
MIPS
RISC
SPARC
III. CONCLUSION
IV. BIBLIOGRAFIA
INTRODUCCION
El procesador es todo un mundo en sí mismo; aunque los primeros eran
comparativamente simples, actualmente han alcanzado una notable complejidad.
Arquitectura de los computadores es el diseño conceptual y la estructura
operacional fundamental de un sistema de computadora. Es decir es un modelo y
una descripción funcional de los requerimientos y las implementaciones de diseño
para varias partes de una computadora, con especial interés en la forma en que la
unidad central de proceso (CPU) trabaja internamente y accede a las direcciones
de memoria.
También suele definirse como la forma de seleccionar e interconectar
componentes de hardware para crear computadoras según los requerimientos de
funcionalidad, rendimiento y costo.
El siguiente trabajo abordaremos temas el cual nos permitira conocer el trafico de
la informacion por medio de arquitecturas que permiten un alto rendimiento del
computador a la hora de manejar datos, utilizando tanto metodos, como circuitosy
tambien dependiendo de cómo se organicen las estructuras basicas (memorias,
puertas logicas, buses, circuitos integrados procesadores entre otros), tendremos
diferentes arquitecturas que corresponderán a las espicificaciones que de coste y
rendimiento que se deceen obtener para un alto rendimiento.
Arquitectura avanzada
Multiprocesamiento simétrico
(Symmetric multiprocessing o SMP). Es una arquitectura para multiprocesadores
donde dos o más procesadores idénticos están conectados (comparten acceso) a
una única memoria principal compartida. La mayoría de los sistemas
multiprocesadores de hoy utilizan la arquitectura SMP. Todos los procesadores
compiten en igual de condiciones por acceder a la memoria, de ahí deriva el
nombre “simétrico”.
El sistema SMP permite a cualquier procesador trabajar sobre cualquier tarea o
proceso, sin importar dónde están localizados los datos de esa tarea en memoria.
Con un sistema operativo apropiado, los sistemas SMP puede fácilmente mover
las tareas entre procesadores para trabajar más eficientemente.
Procesamiento paralelo
El procesamiento paralelo es un término que se usa para denotar un grupo de
técnicas significativas que se usan para proporcionar tareas simultáneas de
procesamiento de datos con el fin de aumentar la velocidad computacional de un
sistema de computadoras. En lugar de procesar cada instrucción en forma
secuencial como es una computadora convencional, un sistema de procesamiento
paralelo puede ejecutar procesamiento concurrente de datos para conseguir un
menor tiempo de ejecución. Por ejemplo, cuando se ejecuta una instrucción en la
ALU, puede leerse la siguiente instrucción de la memoria. El sistema puede tener
2 o mas ALUS y ser capaz de ejecutar dos o mas instrucciones al mismo tiempo.
Además, el sistema puede tener dos o más procesadores operando en forma
concurrente. EL propósito del procesamiento paralelo es acelerar las posibilidades
de procesamiento de la computadora y aumentar su eficiencia, esto es, la
capacidad de procesamiento que puede lograrse durante un cierto intervalo de
tiempo. La cantidades de circuitería aumenta con el procesamiento paralelo y, con
el, también el costo del sistema. Sin embargo, los descubrimientos tecnológicos
han reducido el costo de la circuetería a un punto en donde las técnicas de
procesamiento paralelo son económicamente factibles.
Los procesadores paralelos son sistemas que interconectan varios procesadores
para cooperar en la ejecución de un programa con el fin de aumentar las
prestaciones y sacar más partido del paralelismo existente. Un sistema
multiprocesador saca partido del denominado paralelismo de alto nivel.
Multiprocesamiento súper-escalares
Los procesadores súper-escalares están diseñados para explotar el paralelismo en
el nivel de instrucciones en los programas del usuario. Solamente se pueden
ejecutar en paralelo las instrucciones independientes sin causar un estado de
espera.
La cantidad de este paralelismo en el nivel de instrucciones varia ampliamente
dependiendo del código ejecutado.
La última arquitectura paralela, el Procesamiento paralelo escalable (Scalable
parallel processing / SPP), es un híbrido de SMP y MPP, que utiliza una memoria
jerárquica de dos niveles para alcanzar la escalabilidad. La primera capa de
memoria consiste de un nodo que es esencialmente un sistema SMP completo,
con múltiples procesadores y su memoria globalmente compartida.
Se construyen sistemas SPP grandes interconectando dos o mas nodos a través de
la segunda capa de memoria, de modo que esta capa aparece lógicamente, ante los
nodos, como una memoria global compartida.
La memoria de dos niveles reduce el tráfico de bus debido a que solamente
ocurren actualizaciones para mantener coherencia de memoria. Por tanto, SPP
ofrece facilidad de programación del modelo SMP, a la vez que provee una
escalabilidad similar a la de un diseño MPP
Arquitecturas comerciales
MIPS
MIPS es la abreviación de las palabras "M"illones de "I"nstrucciones "P"or
"S"egundo". Es una forma de medir la potencia de los procesadores. Sin
embargo, esta medida sólo es útil para comparar procesadores con el mismo juego
de instrucciones y usando benchmarks que fueron compilados por el mismo
compilador y con el mismo nivel de optimización. Esto es debido a que la misma
tarea puede necesitar un número de instrucciones diferentes si los juegos de
instrucciones también lo son; y por motivos similares en las otras dos situaciones
descritas. En las comparativas, usualmente se representan los valores de pico, por
lo que la medida no es del todo realista. La forma en que funciona la memoria que
usa el procesador también es un factor clave para la potencia de un procesador,
algo que no suele considerarse en los cálculos con MIPS. Debido a estos
problemas, los investigadores han creado pruebas estandardizadas tales como
SpecInt para medir el funcionamiento real, y las MIPS han caído en desuso.
En el mundo de GNU/Linux se suelen referir a los MIPS como 'BogoMips'.
El equivalente en la aritmética de punto flotante de los MIPS es el flops.
Muchos microprocesadores de 8 y 16 bits han sido medidos con KIPS
(kiloinstrucciones por segundo), que equivale a 0'001 MIPS. El primer
microprocesador de propósito general, el Intel 8080 ejecutaba 640 KIPS. El Intel
8086 (16 bits), el primer microprocesador usado en PC, 800 KIPS. El Pentium 4
llega aproximadamente a 1'700 MIPS.
Los PC actuales realizan un máximo de 18.000 millones de operaciones lógicas
por segundo. Si se ejecutan 6 instrucciones por ciclo y hay 3.000 millones de
ciclos por segundo, se tienen 18.000 MIPS.
RISC
En arquitectura computacional, RISC (del inglés Reduced Instruction Set
Computer, en español Computador con Conjunto de Instrucciones Reducidas) es
un tipo de diseño de CPU generalmente utilizado en microprocesadores o
microcontroladores con las siguientes características fundamentales:
1. Instrucciones de tamaño fijo y presentado en un reducido número de
formatos.
2. Sólo las instrucciones de carga y almacenamiento acceden a la memoria de
datos.
Además estos procesadores suelen disponer de muchos registros de propósito
general.
El objetivo de diseñar máquinas con esta arquitectura es posibilitar la
segmentación y el paralelismo en la ejecución de instrucciones y reducir los
accesos a memoria. Las máquinas RISC protagonizan la tendencia actual de
construcción de microprocesadores. PowerPC, DEC Alpha, MIPS, ARM, SPARC
son ejemplos de algunos de ellos.
RISC es una filosofía de diseño de CPU para computadora que está a favor de
conjuntos de instrucciones pequeñas y simples que toman menor tiempo para
ejecutarse.
El tipo de procesador más comúnmente utilizado en equipos de escritorio, el x86,
está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen
instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC
para uso interno antes de su ejecución.
Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden
implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y
la necesidad de decodificar instrucciones complejas.
La idea fue inspirada por el hecho de que muchas de las características que eran
incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban
siendo ignoradas por los programas que eran ejecutados en ellas. Además, la
velocidad del procesador en relación con la memoria de la computadora que
accedía era cada vez más alta. Esto conllevó la aparición de numerosas técnicas
para reducir el procesamiento dentro del CPU, así como de reducir el número total
de accesos a memoria.
La Terminología más moderna se refiere a esos diseños como arquitecturas de
carga-almacenamiento.
SPARC
SPARC (del inglés Scalable Processor ARChitecture) es una arquitectura RISC
big-endian. Es decir, una arquitectura con un conjunto reducido de instrucciones.
La empresa Sun Microsystems diseñó esta arquitectura y la licenció a otros
fabricantes como Texas Instruments, Cypress Semiconductor, Fujitsu, LSI Logia
entre otros.
SPARC es la primera arquitectura RISC abierta y como tal las especificaciones de
diseño están publis, así otros fabricantes de microprocesadores pueden desarrollar
su propio diseño.
Una de las ideas innovadoras de esta arquitectura es la ventana de registros que
permite hacer fácilmente compiladores de alto rendimiento y una significativa
reducción de memoria en las instrucciones load/restore en relación con otras
arquitecturas RISC. Las ventajas se aprecian sobre todo en programas grandes.
La cpu SPARC esta compuesta de una unidad entera, UI (Integer Unit) que
procesa la ejecución básica y una FPU (Floating-Point Unit) que ejecuta las
operaciones y cálculos de reales. La IU y la FPU pueden o no estar integradas en
el mismo chip.
La arquitectura SPARC se ha definido con mucho cuidado para permitir la
implantación de procesamiento en serie muy avanzado. Entre otros aspectos,
define retardos en carga y almacenamiento, bifurcaciones, llamadas y retornos. La
implantación típica tiene un procesamiento en serie de cuatro etapas (como se
muestra en la siguiente figura). Durante el primer ciclo se extrae de la memoria la
palabra de la instrucción; en el segundo se decodifica; durante el tercero se
ejecuta; por último en el cuarto ciclo se escribe el resultado otra vez en la
memoria.
CONCLUSION
En conclusión;
Multiprocesamiento simétrico o SMP comparte la memoria RAM, tiene solamente
un espacio de memoria, lo que simplifica tanto el sistema físico como la
programación de aplicaciones, este espacio de memoria único permite que un
Sistema Operativo con Multiconexión
Sistema Operativo con Multiconexión distribuye las tareas entre varios
procesadores, o permite que una aplicación obtenga la memoria que necesita para
una simulación compleja. La memoria globalmente compartida también vuelve
fácil la sincronización de los datos. SMP es uno de los diseños de procesamiento
paralelo más maduro. Apareció en los supercomputadores Cray X-MP y en
sistemas similares hace década y media (en 1983).
El problema más grande de SMP: conforme se añaden procesadores, el tráfico en
el bus de memoria se satura. Al añadir memoria caché a cada procesador se puede
reducir algo del tráfico en el bus, pero el bus generalmente se convierte en un
cuello de botella al manejarse alrededor de ocho o más procesadores. SMP es
considerada una tecnología no escalable.
El multiprocesamiento en paralelos son sistemas que interconectan varios
procesadores para cooperar en la ejecución de un programa con el fin de aumentar
las prestaciones y sacar más partido del paralelismo existente. Un sistema
multiprocesador saca partido del denominado paralelismo de alto nivel.
Los procesadores súper-escalares o Procesamiento paralelo escalable (Scalable
parallel processing / SPP), se trato de superar las dificultades de SMP y MPP. En
la última arquitectura paralela, se hizo un híbrido de SMP y MPP, que utiliza una
memoria jerárquica de dos niveles para alcanzar la escalabilidad. La primera capa
de memoria consiste de un nodo que es esencialmente un sistema SMP completo,
con múltiples procesadores y su memoria globalmente compartida. Se construyen
sistemas SPP grandes interconectando dos o mas nodos a través de la segunda
capa de memoria, de modo que esta capa aparece lógicamente, ante los nodos,
como una memoria global compartida.
Finalizando así con una comparación de 2 arquitecturas que permiten ejecutar las
instrucciones que ejecuta el procesador de manera que nos permita diferenciar la
rapidez de ejecución de cada una de ellas:
Las máquinas denominadas CISC ("Complex Instruction Set Computer"); las
máquinas RISC ("Reduced Instruction Set Computer").
Como puede deducirse de sus propios nombres, las máquinas CISC utilizan
instrucciones muy complejas, diríamos que muy descriptivas y específicas, lo que
necesariamente se traduce en varias consecuencias:
El lenguaje debe contener un amplio surtido de ellas (una para cada
circunstancia distinta).
Son instrucciones complejas, por tanto de ejecución lenta. La circuitería
del procesador también es compleja.
Para un trabajo específico se requieren pocas instrucciones (siempre hay
una que resuelve el problema).
Las máquinas RISC representan el enfoque opuesto. Utilizan instrucciones muy
simples, que deben ser cuidadosamente escogidas, porque cualquier operación
debe ser expresada como una secuencia de estas pocas instrucciones. Las
consecuencias son justamente opuestas a las anteriores:
El lenguaje contiene un conjunto pequeño de instrucciones.
Las instrucciones son muy simples, por tanto de ejecución rápida. La
circuitería es más simple que en los procesadores CISC.
Para cualquier operación se requieren varias instrucciones elementales.
Naturalmente cada criterio tiene sus pros y sus contras en lo que a rendimiento se
refiere. En las máquinas CISC, lentitud de cada instrucción frente a poca cantidad
de ellas; en las RISC, rapidez individual aunque hay que ejecutar un mayor
número.
BIBLIOGRAFIA
REFERENCIAS WEBS
http://arqcompu2011sec02ing9no.blogspot.com/2011/07/debate-arquitectura-
del-computador.html
http://es.wikipedia.org/wiki/Multiprocesamiento_sim%C3%A9trico
http://www.dte.eis.uva.es/Docencia/ETSII/SMP/BAK/tema4/ANEXO2.pdf