106

Cartilla Reparacion PC Guía de Teórica

Embed Size (px)

DESCRIPTION

Guía de Teórica y PrácticaReparación de PCs y PortátilesInstituto CEA – 2014Prof. y Tec. Laimez David Omar

Citation preview

Page 1: Cartilla Reparacion PC Guía de Teórica
Page 2: Cartilla Reparacion PC Guía de Teórica

CONTENIDO GENERAL

Conceptos Básicos……….……………………………………………………………………………………………Pág. 1 al 11

Hardware y Software

Periféricos – clasificación

Unidades informáticas: Velocidad de procesamiento, medidas de almacenamiento y velocidad de transferencia de datos

¿Qué es una computadora?

Los componentes de la computadora: gabinete, fuente de poder, placa madre, microprocesador, memoria RAM y ROM, CPU, tarjeta de video, BIOS y unidades ópticas.

UnidadN°1: Fuente de alimentación…………………………………………………………………………Pág. 12 al 15

Concepto y funcionamiento

Fuete AT – partes

Fuente ATX – partes

Diagnostico

Unidad N°2: Conectores externos y La Motherboard………………………………………..………Pág. 16 al 26

Conectores externos del computador

Placa madre – estructura interna

Puentes norte y sur

Componentes internos de la placa madre

UnidadN°3: El microprocesador…………..………………………………………………………………..…Pág. 27 al 49

Concepto y breve descripción

Evolución del microprocesador

Estructura – Fabricación

Tipos de socket

UnidadN°4: La Memoria RAM………………..…………………………………………………………………Pág. 50 al 58

Concepto

Historia

Tipos de memorias RAM

Relación con el resto del sistema

Detección y corrección de errores

UnidadN°5: El Disco Duro………………………………………………………………………………………..Pág. 59 al 68

Concepto

Características del disco duro

Page 3: Cartilla Reparacion PC Guía de Teórica

Estructura física

Direccionamiento

Tipos de conexión; IDE, SATA, SATA2 Y SATA3

Estructura lógica

Unidades hibridas

Velocidad de transferencia de datos

Tipos de formatos

UnidadN°6: Sistemas Operativos……………………………………………………………………………Pág. 69 al 78

Concepto

Historia

Funcionamiento

Ejemplos de sistemas operativos

UnidadN°7: La BIOS y Los Jumpers……………………………………………………………………………Pág. 79 al 80

La BIOS; Concepto, firmware, modo de ingreso.

Jumpers; concepto y características

UnidadN°8: Placa de Video……………………………………………………………………………….………Pág. 81 al 95

Concepto e Historia

Componentes y salidas

Tipos de refrigeración

Alimentación

Tipos antiguos de tarjetas graficas

Diseñadores y ensambladores

Errores comunes

UnidadN°9: Red LAN………………………………………………………………………..…………………….Pág. 96 al 103

Cable de par trenzado

Tipos de cables

Categorías de cables

Características de transmisión

Ventajas y desventajas del cableado

Conector RJ45

Tipos de cables armados (cable de par trenzado + conector RJ45); Norma A, B y cable cruzado

Tipos de conexiones

Page 4: Cartilla Reparacion PC Guía de Teórica

- 1 -

Conceptos Básicos

Hardware

Son los componentes físicos del ordenador, es decir, todo lo que se puede ver y tocar.

Clasificaremos el hardware en dos tipos:

- El que se encuentra dentro de la torre o CPU, y que por lo tanto no podemos ver a simple vista.

- El que se encuentra alrededor de la torre o CPU, y que por lo tanto, lo que vemos a simple vista, y que denominamos periféricos.

Software

Son las instrucciones que el ordenador necesita para funcionar, no existen físicamente, o lo que es igual, no se pueden ver ni tocar. También tenemos de dos tipos:

-Sistemas Operativos: Tienen como misión que el ordenador gestione sus recursos de forma eficiente, además de permitir su comunicación con el usuario.

- Aplicaciones: Son programas informáticos que tratan de resolver necesidades concretas del usuario, como por ejemplo: escribir, diseñar, escuchar música, quitar virus, reproducir video, etc.

Periférico

En informática, se denomina periféricos a los aparatos y/o dispositivos auxiliares e independientes conectados a la unidad central de procesamiento de una computadora.

Page 5: Cartilla Reparacion PC Guía de Teórica

- 2 -

Se consideran periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.

Se entenderá por periférico al conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación:

direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,

control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y

datos, por donde circulan los datos.

A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”, muchos de ellos son elementos fundamentales para un sistema informático. El teclado y el monitor, imprescindibles en cualquier computadora personal de hoy en día (no lo fueron en los primeros computadores), son posiblemente los periféricos más comunes, y es posible que mucha gente no los considere como tal debido a que generalmente se toman como parte necesaria de una computadora.

Los periféricos pueden clasificarse en 3 categorías principales:

Periféricos de entrada: son los que permiten introducir datos externos a la computadora para su posterior tratamiento por parte de la CPU. Estos datos pueden provenir de distintas fuentes, siendo la principal un ser humano. Los periféricos de entrada más habituales son:

Teclado

Micrófono

Escáner

Ratón o mouse

Palanca de mando (Joystick)

Escáner de código de barras

Cámara web

Lápiz óptico

Periféricos de salida: son los que reciben la información procesada por la CPU y la reproducen, de modo que sea perceptible por el usuario. Algunos ejemplos son:

Monitor, Proyector digital

Impresora/Fax

Tarjeta de sonido

Altavoz , Auriculares

Page 6: Cartilla Reparacion PC Guía de Teórica

- 3 -

Periféricos de entrada y Salida: sirven básicamente para la comunicación de la computadora con el medio externo.

Los periféricos de entrada/salida son los que utiliza el ordenador tanto para mandar como para recibir información. Su función es la de almacenar o guardar, de forma permanente o virtual, todo aquello que hagamos con el ordenador para que pueda ser utilizado por los usuarios u otros sistemas. Algunos ejemplos son:

Multifunción

Pendrive, Disco duro Externos

Grabadora de Blu Ray, DVDs y CDs

Unidades informáticas

Velocidad de procesamiento

El hertzio, hertzio o hercio es la unidad de frecuencia del Sistema Internacional de Unidades. Proviene del apellido del físico alemán Heinrich Rudolf Hertz, quien descubrió la propagación de las ondas electromagnéticas. Su símbolo es Hz.

Un hercio representa un ciclo por cada segundo, entendiendo ciclo como la repetición de un evento y se utiliza como unidad de medida de la frecuencia de trabajo de un dispositivo de hardware. En informática se utiliza para referirse a la frecuencia en el que un cristal de cuarzo emite una señal de reloj que regula un ciclo de un circuito integrado síncrono (un microprocesador).

El megahercio (106 Hz) o MHz se utiliza mucho en este campo (sobre todo entre los años1974 y 2000) para referirse a la velocidad de procesamiento de un microprocesador, ya que la velocidad de reloj estaba en ese orden de magnitud. Hoy, sin embargo, es más utilizada su medida en gigahercios (GHz), que es un múltiplo de la unidad de medida de frecuencia hercio (Hz) y equivale a 109 Hz.

Se cree habitualmente que un microprocesador será mejor que otro si la frecuencia de micro es mayor; sin embargo, esto no es necesariamente cierto. Hay que tener en cuenta más parámetros del propio procesador y otros elementos del ordenador para hacer una valoración del rendimiento.

1 kilohercio KHz 103 Hz 1 000 Hz

1 megahercio MHz 106 Hz 1 000 000 Hz

1 gigahercio GHz 109 Hz 1 000 000 000 Hz

1 terahercio THz 1012 Hz 1 000 000 000 000 Hz

1 petahercio PHz 1015 Hz 1 000 000 000 000 000 Hz

1 exahercio EHz 1018 Hz 1 000 000 000 000 000 000 Hz

Page 7: Cartilla Reparacion PC Guía de Teórica

- 4 -

Unidades de almacenamiento

Para pasar de una medida de almacenamiento a otra debemos multiplicar o dividir por 1024 cuantas unidades nos desplacemos hacia arriba o hacia abajo en la tabla anterior.

Por ejemplo

¿Cuántos MB son 3,45 GB? 3,45*1024 = 3532,8 MB (multiplicamos cuando es una unidad mayor a una menor)

¿Cuántos TB son 300.487 GB? 30.487/1024 = 29,77 TB (dividimos cuando es de una unidad menor a una mayor)

¿Cuántos KB son 1,45 GB? 1,45*1024*1024 = 1.520.435,2 KB (en este último ejemplo multiplicamos 2 veces por 1024 debido a que nos movimos 2 unidades hacia abajo).

Velocidad de trasferencia de datos

La velocidad de transmisión de datos mide el tiempo que tarda un host o un servidor en poner en la línea de transmisión el paquete de datos a enviar, es decir la velocidad que se tarda nuestra pc en descargar o subir algún archivo de internet o también puede medir el tiempo que se tarda en pasar un archivo desde un pendrive a la computadora o viceversa.

Generalmente se mide en KB/s o MB/s (kbytes o megabytes por segundo)

Page 8: Cartilla Reparacion PC Guía de Teórica

- 5 -

¿Qué es una computadora?

Una computadora o computador (del inglés computer y este del latín computare -'calcular'), también denominada ordenador (del francés ordinateur, y este del latín ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que pueden ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.

La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

Los componentes principales de una computadora.

Gabinete

El gabinete o torre de la computadora es la caja de metal y plástico que aloja a los componentes principales tales como; la placa madre o Motherboard, el disco duro, fuente de poder, coolers, etc. Los gabinetes de las computadoras vienen en distintos tamaños y formas, casi siempre se venden junto con fuente de alimentación.

Fuente de Poder

Es el componente que proporciona el poder eléctrico a la computadora. Esta le proporciona la cantidad requerida de electricidad y la convierte la corriente AC a corriente DC. También regula el voltaje para eliminar picos y crestas comunes en la mayoría de los sistemas eléctricos. Pero no todas, realizan el regulado de voltaje adecuadamente, así que una computadora

siempre esta susceptible a fluctuaciones de voltaje.

Page 9: Cartilla Reparacion PC Guía de Teórica

- 6 -

Placa Madre

El Motherboard es el corazón de la computadora. El Motherboard (tarjeta madre) contiene los conectores para conectar tarjetas adicionales (también llamadas tarjetas de expansión por ejemplo tarjetas de video, de red, MODEM, etc.). Típicamente el Motherboard contiene el CPU, BIOS, Memoria, interfaces para dispositivos de almacenamiento, puertos serial y paralelo aunque estos puertos ya son menos comunes por ser tecnología vieja ahora se utilizan más los

puertos USB, ranuras de expansión, y todos los controladores requeridos para manejar los dispositivos periféricos estándar, como el teclado, la pantalla de video y el dispositivo de disco flexible.

Otro aspecto a considerar en el Motherboard es que existen distintas tipos de formas de la tarjeta madre (form-factor), que definen como se conecta el Motherboard al gabinete, los conectores para la fuente de poder y las características eléctricas. Hay bastantes formas de Motherboard disponibles Baby AT, ATX, microATX y NLX. Hoy en día se consideran el Baby AT y el ATX como Motherboard genéricos.

El microprocesador

El microprocesador es un circuito integrado que contiene todos los elementos necesarios para conformar una "unidad central de procesamiento", también es conocido como CPU (por sus siglas en inglés: Central Process Unit). En la actualidad este componente electrónico está compuesto por millones de transistores, integrados en una misma placa de silicio.

Suelen tener forma de prisma chato, y se instalan sobre un elemento llamado zócalo (en inglés, socket). También, en modelos

antiguos solía soldarse directamente a la placa madre (Motherboard). Aparecieron algunos modelos donde se adoptó el formato de cartucho, sin embargo no tuvo mucho éxito. Actualmente se dispone de un zócalo especial para alojar el microprocesador y el sistema de enfriamiento, que comúnmente es un disipador de aluminio con un ventilador adosado (conocido como microcooler). Desde el punto de vista lógico y funcional, el microprocesador está compuesto básicamente por: varios registros; una Unidad de control, una Unidad aritmético-lógica; y dependiendo del procesador, puede contener una unidad en coma flotante.

Memoria RAM

RAM es acrónimo para random access memory (memoria de acceso aleatorio), es un tipo de memoria que puede ser accesado aleatoriamente; esto es, que cualquier byte de memoria puede ser accesado sin tocar los bytes

Page 10: Cartilla Reparacion PC Guía de Teórica

- 7 -

predecesores. RAM es el tipo de memoria más común encontrada en computadoras y otros dispositivos, como impresoras.

Hay dos tipos básicos de RAM:

RAM dinámica (DRAM)

RAM estatica (SRAM)

Los 2 tipos difieren en la tecnología que utilizan para retener datos, el tipo más común es la RAM dinámica. La RAM Dinámica necesita refrescarse miles de veces por segundo. La RAM estática no necesita ser refrescada, lo cual la hace más rápida, pero también más cara que la RAM dinámica. Ambos tipos de RAM son volátiles, ya que pierden su contenido cuando la energía es apagada.

Memoria ROM

ROM son las siglas de read-only memory, que significa "memoria de sólo lectura": una memoria de semiconductor destinada a ser leída y no destructible, es decir, que no se puede escribir sobre ella y que conserva intacta la información almacenada, incluso en el caso de que se interrumpa la corriente (memoria no volátil). La ROM suele almacenar la configuración del sistema o el programa de arranque de

la computadora. Las memorias de sólo lectura o ROM son utilizadas como medio de almacenamiento de datos en las computadoras. Debido a que no se puede escribir fácilmente, su uso principal reside en la distribución de programas que están estrechamente ligados al soporte físico de la computadora, y que seguramente no necesitarán actualización. Por ejemplo, una tarjeta gráfica puede realizar algunas funciones básicas a través de los programas contenidos en la ROM. Una razón de que todavía se utilice la memoria ROM para almacenar datos es la velocidad ya que los discos son más lentos. Aún más importante, no se puede leer un programa que es necesario para ejecutar un disco desde el propio disco. Por lo tanto, la BIOS, o el sistema de arranque oportuno de la computadora normalmente se encuentran en una memoria ROM.

La memoria RAM normalmente es más rápida para lectura que la mayoría de las memorias ROM, por lo tanto el contenido ROM se suele traspasar normalmente a la memoria RAM cuando se utiliza.

Memoria Caché

Una memoria caché es una memoria en la que se almacenas una serie de datos para su rápido acceso. Básicamente, la memoria caché de un procesador es un tipo de memoria volátil (del tipo RAM), pero de una gran velocidad. En la actualidad esta memoria está integrada en el procesador, y su cometido es almacenar una serie de instrucciones y datos a los que el

Page 11: Cartilla Reparacion PC Guía de Teórica

- 8 -

procesador accede continuamente, con la finalidad de que estos accesos sean instantáneos. Hay tres tipos diferentes de memoria caché para procesadores:

Caché de 1er nivel (L1):

Esta caché está integrada en el núcleo del procesador, trabajando a la misma velocidad que este. La cantidad de memoria caché L1 varía de un procesador a otro, estando normalmente entra los 64KB y los 256KB. Esta memoria suele a su vez estar dividida en dos partes dedicadas, una para instrucciones y otra para datos.

Caché de 2º nivel (L2):

Integrada también en el procesador, aunque no directamente en el núcleo de este, tiene las mismas ventajas que la caché L1, aunque es algo más lenta que esta. La caché L2 suele ser mayor que la caché L1, pudiendo llegar a superar los 2MB.

A diferencia de la caché L1, esta no está dividida, y su utilización está más encaminada a programas que alsistema.

Caché de 3er nivel (L3):

Es un tipo de memoria caché más lenta que la L2, muy poco utilizada en la actualidad. En un principio esta caché estaba incorporada a la placa base, no al procesador, y su velocidad de acceso era bastante más lenta que una caché de nivel 2 o 1, ya que si bien sigue siendo una memoria de una gran rapidez (muy superior a la RAM, y mucho más en la época en la que se utilizaba), depende de la comunicación entre el procesador y la placa base.

Las memorias caché son extremadamente rápidas (su velocidad es unas 5 veces superior a la de una RAM de las más rápidas), con la ventaja añadida de no tener latencia, por lo que su acceso no tiene ninguna demora... pero es un tipo de memoria muy cara.

Esto, unido a su integración en el procesador (ya sea directamente en el núcleo o no) limita bastante el tamaño, por un lado por lo que encarece al procesador y por otro por el espacio disponible.

Ciclo de Reloj

También denominado ciclos por segundo o frecuencia, este término hace referencia a la velocidad del procesador incorporado en la CPU del ordenador, y se mide en megaherzios (MHz). A mayor índice de frecuencia, más rápido es el procesador y, en consecuencia, el ordenador. Hace unos años era frecuente encontrar procesadores a 16 MHz, pero hoy en día lo normal es que éstos superen los 120 MHz.

CPU

Es la abreviación de las siglas en ingles de las palabras Unidad Central de Procesamiento (central processing unit). El CPU es el cerebro de la computadora. Algunas veces se le

Page 12: Cartilla Reparacion PC Guía de Teórica

- 9 -

dice simplemente el procesador o procesador central. El CPU es donde se realizan la mayoría de los cálculos. En términos de poder de computación, el CPU es el elemento más importante de un sistema de cómputo.

En computadoras personales y pequeños servidores, el CPU está contenido en una pastilla llamada microprocesador. Dos componentes típicos del CPU son:

La unidad lógica aritmética (ALU), la cual realiza las operaciones lógicas y matemáticas. La unidad de control, la cual extrae instrucciones de la memoria la decodifica y ejecuta, llamando al ALU cuando es necesario.

Actualmente hay 2 productores principales de Procesadores, Intel y AMD.

Intel tiene 2 familias de procesadores, El Celeron para los equipos menos poderosos y el Pentium 4 para los más poderosos con el Pentium 5 en camino.

AMD también tiene 2 familias de productos, El Duron para los equipos económicos y el Athlon para los más poderosos.

Los CPU´s de Intel y AMD requieren un Motherboard diseñado especialmente para ellos. El procesador determina el tipo de Motherboard que necesitas para tu sistema.

En precio y rendimiento los CPU´s de Intel y AMD están muy parejos.

El rendimiento de un CPU generalmente se mide en ciclos de reloj por segundo. Entre más alto los ciclos de reloj por segundo, es más rápido el procesador, Aunque esto no siempre es verdad. Los procesadores AMD corren a menos ciclos de reloj por segundo que los CPU´s de Intel, pero siguen teniendo un rendimiento igual por el precio.

Esto se debe a que los procesadores AMD son más eficientes por ciclo de reloj, Los ciclos de reloj por segundo se expresan en Giga Hertz. Un procesador que corre a 1 Giga Hertz es considerado de baja velocidad y un procesador que corre a 3 o más Giga Hertz se considera de alta velocidad.

Los procesadores AMD usan un sistema de calificación basado en el rendimiento en vez de calificar solo la velocidad. Un procesador AMD calificado a 3200+ significa que tiene un rendimiento al mismo nivel que un CPU Pentium de 3200 MHZ o 3.2 GHZ.

Los procesadores también se califican por la velocidad a la cual se conectan al Motherboard. Esto se llama velocidad FSB (Front Side Bus). Los procesadores de Intel pueden tener una velocidad hasta 800 MHz FSB y el AMD hasta 400 MHz FSB. Por eso te debes de asegurar que el Motherboard soporte la velocidad FSB del procesador.

Page 13: Cartilla Reparacion PC Guía de Teórica

- 10 -

Tarjeta de Video

La tarjeta de video, es el componente encargado de generar la señal de video que se manda a la pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en integrado al Motherboard de la computadora o en una placa de expansión. La tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego de haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone,

básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y el generador de caracteres, y en la actualidad también poseen un acelerador de gráficos.

El controlador de video va leyendo a intervalos la información almacenada en la RAM video y la transfiere al monitor en forma de señal de video; el número de veces por segundo que el contenido de la RAM video es leído y transmitido al monitor en forma de señal de video se conoce como frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de video.

BIOS Bios es un acrónimo de Basic input/output system (sistema básico de entrada / salida). El BIOS es el software que determina que puede hacer una computadora sin acceder programas de un disco. En las PCs, el BIOS contiene todo el código requerido para controlar el teclado, el monitor, las unidades de discos, las comunicaciones seriales, y otras tantas funciones.

El BIOS típicamente se pone en una pastilla ROM que viene con la computadora (también se le llama ROM BIOS. Esto asegura que el BIOS siempre estará disponible y no se dañara por falla en el disco. También hace posible que la computadora inicie por sí sola. A causa de que la RAM es más rápida que el ROM, muchos fabricantes de computadoras diseñan sistemas en los cuales el BIOS es copiado de la ROM a la RAM cada vez que la computadora es iniciada. Esto se conoce como shadowing.

Muchas computadoras modernas tienen Flash BIOS, que significa que el BIOS se grabó en una pastilla de memoria flash, que puede ser actualizado si es necesario.

Disco Duro o Disco Rígido

En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato

Page 14: Cartilla Reparacion PC Guía de Teórica

- 11 -

se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.

En un computador, entonces el disco duro es una de las partes esenciales y su sistema principal de almacenamiento de archivos.

Unidad Óptica

Se trata de aquellos dispositivos que son capaces de leer, escribir y reescribir datos por medio de un rayo láser en las superficie plástica de un disco. Estas unidades pueden estar montadas dentro del gabinete de la computadora, estar adaptadas en un case 5.25" para funcionar de manera externa o bien, ser una unidad externa de fábrica.

Page 15: Cartilla Reparacion PC Guía de Teórica

- 12 -

Fuentes de Poder

Definición

La fuente de poder es una parte del ordenador que recibe la energía a través de los tomacorrientes, esa energía que se recibe se llama tensión alterna, se encuentra medida en 110 voltios o 220 voltios. Esta energía es inestable, estabiliza la tensión alterna y la transforma a tensión continua, esta tensión es estable y son bajos se miden en 3 voltios, 5 voltios, 12 voltios.

Hay 2 tipos de fuentes utilizados en las computadoras, la primera es la más antigua y la segunda la más reciente:

Fuente de poder AT.

Fuente de poder ATX.

Page 16: Cartilla Reparacion PC Guía de Teórica

- 13 -

Fuente AT

Definición

La fuente AT es un dispositivo que se monta en el gabinete de la computadora y que se encarga básicamente de transformar la corriente alterna de la línea eléctrica del enchufe doméstico en corriente directa; la cuál es utilizada por los elementos electrónicos y eléctricos de la computadora.

La fuente AT actualmente está en desuso y fue sustituida por la tecnología de fuentes de alimentación ATX.

Partes que componen la fuente AT

Internamente cuenta con una serie de circuitos encargados de transformar la electricidad para que esta sea suministrada de manera correcta a los dispositivos. Externamente consta de los siguientes elementos:

1.- Ventilador: expulsa el aire caliente del interior de la fuente y del gabinete, para mantener frescos los circuitos.

2.- Conector de alimentación: recibe el cable de corriente desde el enchufe doméstico.

3.- Selector de voltaje: permite seleccionar el voltaje americano de 127V o el europeo de 240V.

4.- Conector de suministro: permite alimentar cierto tipo de monitores CRT.

5.- Conector AT: alimenta de electricidad a la tarjeta principal.

6.- Conector de 4 terminales IDE: utilizado para alimentar los discos duros y las unidades ópticas.

7.- Conector de 4 terminales FD: alimenta las disqueteras.

Fuente ATX

Definición

Entonces, la fuente ATX es un dispositivo que se monta en el gabinete de la computadora y que se encarga básicamente de transformar la corriente alterna de la línea eléctrica comercial en corriente directa; la cuál es utilizada por los elementos electrónicos y eléctricos de la computadora. Otras funciones son las de suministrar la cantidad de

Page 17: Cartilla Reparacion PC Guía de Teórica

- 14 -

corriente y voltaje que los dispositivos requieren así como protegerlos de subidas de problemas en el suministro eléctrico como subidas de voltaje.

ATX es el estándar actual de fuentes que sustituyeron a las fuentes de alimentación AT.

Partes que componen la fuente ATX

Internamente cuenta con una serie de circuitos encargados de transformar la electricidad para que esta sea suministrada de manera correcta a los dispositivos. Externamente consta de los siguientes elementos:

1.- Ventilador: expulsa el aire caliente del interior de la fuente y del gabinete, para mantener frescos los circuitos.

2.- Interruptor de seguridad: permite encender la fuente de manera mecánica.

3.- Conector de alimentación: recibe el cable de corriente desde el enchufe doméstico.

4.- Selector de voltaje: permite seleccionar el voltaje americano de 127V o el europeo de 240V.

5.- Conector SATA: utilizado para alimentar los discos duros y las unidades ópticas tipos SATA.

6.- Conector de 4 terminales: utilizado para alimentar de manera directa al microprocesador.

7.- Conector ATX: alimenta de electricidad a la tarjeta principal.

8.- Conector de 4 terminales IDE: utilizado para alimentar los discos duros y las unidades ópticas.

9.- Conector de 4 terminales FD: alimenta las disqueteras.

10.- Conector de 6 y/o 8 pines PCIex para conectar tarjetas de video de alto rendimiento.

Ilustración de los conectores que podemos encontrar en una fuente ATX moderna.

Page 18: Cartilla Reparacion PC Guía de Teórica

- 15 -

Diagnóstico de una fuente de alimentación

Para diagnosticar una fuente primero tenemos que hacer arranque afuera del equipo, pero ¿Cómo hacemos esto?, es algo sencillo, tomamos el conector atx y ubicamos el pin numero 14 o 16 según corresponda que es de color verde y cualquier

cable a tierra (negro). Una vez ubicados los cables hacemos un puente entre ambos tal cual se muestra en la imagen.

Una vez hecho esto con un multímetro medimos los voltajes de cada uno de los cables chequeando de que no superen el 7.3% de margen de error para saber que está tirando voltajes correctos. Si supera el margen de error se procede directamente a reemplazar la fuente por una nueva.

Page 19: Cartilla Reparacion PC Guía de Teórica

- 16 -

Conectores de una PC

Los conectores, normalmente denominados conectores de entrada/salida, son interfaces para conectar dispositivos mediante cables. Generalmente tienen un extremo macho con pines o pernos que sobresalen. Este enchufe debe insertarse en una parte hembra también denominada socket, que incluye agujeros para insertar los pernos.

En el frente de la PC se puede encontrar conectores USB y de sonido. En el panel trasero la placa madre de un equipo posee diferentes conectores de entrada /salida.

Conector USB

Es un tipo de conexión que permite la transferencia de archivos entre la computadora y el dispositivo que esté conectado a la entrada USB. Es una conexión simple, con el concepto plug and play. Las conexiones USB transmiten

electricidad, evitando la necesidad de conectar los aparatos conectados al USB a la corriente. Este tipo de conexión es altamente compatible con aparatos y sistemas operativos, siendo compatible con Linux, MAC, Windows y hasta con televisores, equipos de sonido, DVD, etc. El estándar USB 2. 0 aumentó la velocidad de transmisión de 1.5mb/segundo a 60mb/segundo.

Conector Firewire

Es un estándar de conexión para la transmisión de audio y video. Fue creado para solucionar el problema de la baja velocidad de las entradas USB 1.0, y es muy utilizado por filmadoras y algunas cámaras fotográficas

digitales. Las entradas Firewire son más estables que las entradas USB normales, siendo ideales para la transmisión de audio y vídeo. Es muy utilizada por editores de vídeo y/o audio, y para una transmisión segura y rápida.

Conector DVI

Son las entradas comúnmente utilizadas en las computadoras como entradas de vídeo. Transmiten solamente imágenes.

Es necesaria la utilización de cables P-2 + P-2 para la transmisión de audio. La resolución máxima transmitida es

menor que la del HDMI, siendo la segunda mejor opción para transmisión de video.

Page 20: Cartilla Reparacion PC Guía de Teórica

- 17 -

Conector HDMI

Son las mismas entradas citadas anteriormente. Los monitores más modernos ya poseen esta tecnología de transmisión de audio y video.

Conector RGB/VGA

Son las entradas comunes que conectan la placa de video al monitor. Son entradas analógicas que poseen menor definición que las entradas digitales DVI o HDMI. La entrada VGA también la podemos

encontrar en televisores LCD, pero no en televisores de tubo catódico, que utilizan formato SVHS, también analógico y de menor calidad.

Puerto Paralelo

Es un tipo de conexión entre periféricos y la computadora, comúnmente utilizado con las impresoras. El puerto paralelo está compuesto por decenas de pinos dispuestos en dos líneas horizontales que establecen la conexión del periférico con la computadora.

Conector DIN

El conector DIN o (DIN5) es un conector con 5 pines o pernos, que se utilizaba para conectar el teclado a los equipos. Fue originalmente estandarizado por el Deutsches institut fur Normung (acrónimo DIN), la organización de estandarización alemana.

Los conectores consisten en una camisa metálica circular para proteger los pines que sobresalen. La camisa metálica esta dentada para que sea

Page 21: Cartilla Reparacion PC Guía de Teórica

- 18 -

insertada con la orientación correcta en su enchufe y prevenir de esta forma el daño en los aparatos eléctricos.

Todos los conectores macho (plugs) tienen extremo de metal con 13.2mm de diámetro con bordes especiales para limitar la orientación al ser insertados en conector hembra que posee la placa madre de la PC.

Conector MiniDIN o PS/2

La introducción del PS/2 (formato mini DIN 6 de IBM) inauguro la moda de utilizar conectores mini DIN para el teclado y mouse. El nombre utilizado deriva de la serie de ordenadores IBM Personal System/2 que es creada por IBM en 1987, y empleada para conectar ambos dispositivos.

La comunicación en ambos casos es serial (bidireccional) en el caso del teclado, y controlada por mico controladores situados en la placa madre.

No han sido diseñados para ser intercambiados en caliente, como los dispositivos plug and play, por lo tanto es necesario apagar el equipo para realizar cualquier cambio.

Por lo general la ficha de color verde se utiliza para conectar el mouse y la de color violeta se utiliza para conectar el teclado.

Adaptadores para mouse y teclado

Page 22: Cartilla Reparacion PC Guía de Teórica

- 19 -

Jack (conector)

De izquierda a derecha: mono de 2,5 mm; mono y estéreo de 3,5 mm; estéreo de 6,3 mm.

El conector Jack (también denominado conector TRS o conector TRRS) es un conector de audio utilizado en numerosos dispositivos para la transmisión de sonido en formato analógico.

Hay conectores Jack de varios diámetros: El original, de ¼″ (6,35 mm) y los miniaturizados de 3,5 mm (aprox. ⅛″ ) y 2,5

mm (aprox. 3/32″ ). Los más usados son los de 3,5 mm que se utilizan en dispositivos portátiles, como los mp3, para la salida de los auriculares. El de 2,5 mm es menos utilizado, pero se utiliza también en dispositivos pequeños. El de 6,35 mm se utiliza sobre todo en audio profesional e instrumentos musicales eléctricos

Imagen Significado del conector

Celeste: entrada en línea para conectar diferentes dispositivos.

Rosa: entrada de micrófono.

Verde: salida de línea para conectar auriculares o parlantes.

Gris: salida de línea para conectar los altavoces delanteros.

Negro: salida de línea para conectar los altavoces traseros.

Naranja: salida de línea para conectar altavoz central o subwoofer (subgrabe).

Page 23: Cartilla Reparacion PC Guía de Teórica

- 20 -

Placa base/madre o Motherboard

La placa base también conocida como placa madre o tarjeta madre (del inglés Motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.

Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.

La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

Arquitectura de la placa madre

Page 24: Cartilla Reparacion PC Guía de Teórica

- 21 -

Una placa base típica admite los siguientes componentes:

Uno o varios conectores de alimentación: por estos conectores, una alimentación eléctrica proporciona a la placa base los diferentes voltajes e intensidades necesarios para su funcionamiento.

El zócalo de CPU es un receptáculo que recibe el microprocesador y lo conecta con el resto de componentes a través de la placa base.

Las ranuras de memoria RAM, en número de 2 a 6 en las placas base comunes.

El chipset: una serie de circuitos electrónicos, que gestionan las transferencias de datos entre los diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica, unidad de almacenamiento secundario, etc.).

Se divide en dos secciones, el puente norte (northbridge) y el puente sur (southbridge). El primero gestiona la interconexión entre el microprocesador, la memoria RAM y la unidad de procesamiento gráfico; y el segundo entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de disco óptico. Más en detalle seria:

Puente norte

El Northbridge (traducido como: "puente norte" en español) es el circuito integrado más importante del conjunto de chips (Chipset) que constituía el corazón de la placa base. Recibía el nombre por situarse en la parte superior de las placas base con formato ATX y por tanto no es un término utilizado antes de la aparición de este formato para computadoras de escritorio. También es conocido como MCH (concentrador controlador de memoria) en sistemas Intel y GMCH si incluye el controlador del sistema gráfico.

Es el chip que controla las funciones de acceso desde y hasta microprocesador, AGP o PCI-Express, memoria RAM, vídeo integrado (dependiendo de la placa) y Southbridge. Su función principal es la de controlar el funcionamiento del bus del procesador, la memoria y el puerto AGP o PCI-Express. De esa forma, sirve de conexión (de ahí su denominación de "puente") entre la placa madre y los principales componentes de la PC: microprocesador, memoria RAM y tarjeta de vídeo AGP o PCI Express. Generalmente, las grandes innovaciones tecnológicas, como el soporte de memoria DDR o nuevos FSB, se implementan en este chip. Es decir, el soporte que tenga una placa madre para determinado tipo de microprocesadores, memorias RAM o placas AGP estará limitado por las capacidades del Northbridge de que disponga.

La tecnología de fabricación de un Northbridge es muy avanzada, y su complejidad, comparable a la de un microprocesador moderno. Por ejemplo, en un Chipset, el Northbridge debe encargarse de soportar el bus frontal de alta velocidad que lo conecta con el procesador. Si pensamos en el bus de 400 MHz utilizado por ejemplo en el último Athlon XP, y el de 800 MHz del Intel Prescott, nos damos cuenta de que es una tarea bastante exigente. Además en algunas placas tienen un adaptador de vídeo integrado lo que le añade trabajo al sistema. Debido a esto, la mayoría de los fabricantes de placas

Page 25: Cartilla Reparacion PC Guía de Teórica

- 22 -

madres colocan un disipador (a veces con un ventilador) encima del Northbridge para mantenerlo bien refrigerado.

Antiguamente, el Northbridge estaba compuesto por tres controladores principales: memoria RAM, puerto AGP o PCI Express y bus PCI. Hoy en día, el controlador PCI se inserta directamente en el Southbridge ("puente sur"), y en algunas arquitecturas más nuevas el controlador de memoria se encuentra integrado en el procesador; este es el caso de los Athlon 64 o los Intel i7.

Los Northbridges tienen un bus de datos de 64 bit en la arquitectura X86 y funcionan en frecuencias que van desde los 66 MHz de las primeras placas que lo integraban en 1998 hasta 1 GHz de los modelos actuales de SiS para procesadores AMD64

Puente sur

El puente sur (en inglés southbridge) es un circuito integrado que se encarga de coordinar los diferentes dispositivos de entrada y salida y algunas otras funcionalidades de baja velocidad dentro de la placa base. El puente sur no está conectado a la unidad central de procesamiento, sino que se comunica con ella indirectamente a través del puente norte.

La funcionalidad encontrada en los puentes sur actuales incluye soporte para:

o Peripheral Component Interconnect (PCI) o Bus ISA o Bus SPI o System Management Bus o Controlador para el acceso directo a memoria o Controlador de Interrupciones o Controlador para Integrated Drive Electronics (PATA o ATA) o Puente LPC o Reloj en Tiempo Real - Real Time Clock o Administración de potencia eléctrica APM y ACPI o BIOS o Interfaz de sonido AC97 o HD Audio.

Adicionalmente el southbridge puede incluir soporte para Ethernet, RAID, USB y Codec de Audio. El southbridge algunas veces incluye soporte para el teclado, el ratón y los puertos seriales, sin embargo, aún en el 2007 las computadoras personales gestionaban esos recursos por medio de otro dispositivo conocido como Super I/O.

El Southbridge integra cada vez mayor número de dispositivos a conectar y comunicar por lo que fabricantes como AMD o VIA Technologies han desarrollado tecnologías como HyperTransport o Ultra V-Link respectivamente para evitar el efecto cuello de botella que se producía al usar como puente el bus PCI.

Page 26: Cartilla Reparacion PC Guía de Teórica

- 23 -

Actualmente el soutbridge es el único elemento del chipset en la placa base, pues los procesadores heredan todas las características del antiguo Northbridge. El soutbridge actual se le conoce como PCH

Siguiendo con los otros componentes:

El reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.

La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo, fecha y hora), mientras el equipo no está alimentado por electricidad.

La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste último no se apague perdiendo la serie de configuraciones guardadas.

La BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR (Master Boot Record), o registradas en un disco duro o SSD, cuando arranca el sistema operativo. Actualmente los ordenadores modernos sustituyen el MBR por el GPT y la BIOS por Extensible Firmware Interface.

El bus (también llamado bus interno o en inglés front-side bus'): conecta el microprocesador al chipset, está cayendo en desuso frente a HyperTransport y Quickpath.

El bus de memoria conecta el chipset a la memoria temporal.

El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida y a las ranuras de expansión.

Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores incluyen:

Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor del USB

Los puertos serie, por ejemplo para conectar dispositivos antiguos.

Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras.

Los puertos USB (en inglés Universal Serial Bus), por ejemplo para conectar periféricos recientes.

Los conectores RJ-45, para conectarse a una red informática.

Los conectores VGA, DVI, HDMI o DisplayPort para la conexión del monitor de la computadora.

Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros, unidades de estado sólido y unidades de disco óptico.

Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.

Page 27: Cartilla Reparacion PC Guía de Teórica

- 24 -

Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, una tarjeta gráfica se puede añadir a un ordenador para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA (interfaz antigua), PCI (en inglés Peripheral Component Interconnect), AGP (en inglés Accelerated Graphics Port) y, los más recientes, PCI-Express.

Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como circuitos electrónicos para la gestión del vídeo IGP (en inglés Integrated Graphic Processor), de sonido o de redes ((10/100 Mbit/s)/(1 Gbit/s)), evitando así la adición de tarjetas de expansión.

En la placa también existen distintos conjuntos de pines que sirven para configurar otros dispositivos:

JMDM1: Sirve para conectar un modem por el cual se puede encender el sistema cuando este recibe una señal.

JIR2: Este conector permite conectar módulos de infrarrojos IrDA, teniendo que configurar la BIOS.

JBAT1: Se utiliza para poder borrar todas las configuraciones que como usuario podemos modificar y restablecer las configuraciones que vienen de fábrica.

JP20: Permite conectar audio en el panel frontal.

JFP1 Y JFP2: Se utiliza para la conexión de los interruptores del panel frontal y los LEDs.

JUSB1 Y JUSB3: Es para conectar puertos USB del panel frontal.

Tipos de bus

Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la computadora.

Los buses generales son los siguientes:

Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del microprocesador.

Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la dirección de memoria del dato o dispositivo al que se hace referencia.

Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la unidad central y los periféricos.

Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal.

Page 28: Cartilla Reparacion PC Guía de Teórica

- 25 -

Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2. La velocidad de transferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del mínimo.

Partes internas de la placa madre

Los modelos, marcas, colores, tamaños, etc. de la placa madre son muy variados pero básicamente son muy parecidos como las imágenes que vemos a continuación

Page 29: Cartilla Reparacion PC Guía de Teórica

- 26 -

Page 30: Cartilla Reparacion PC Guía de Teórica

- 27 -

Microprocesador

Procesador AMD Athlon 64 X2 conectado en el zócalo de una placa base.

El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador.

Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «coprocesador matemático»).

El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el disipador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.

La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que permite comparar procesadores con núcleos de la misma familia, siendo este un indicador muy limitado dada la gran variedad de diseños con los cuales se comercializan los procesadores de una misma marca y referencia. Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador, aumentando así la eficiencia energética y la miniaturización. Entre

Page 31: Cartilla Reparacion PC Guía de Teórica

- 28 -

los elementos integrados están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses y procesadores dedicados de vídeo.

La evolución del microprocesador

El microprocesador surgió de la evolución de distintas tecnologías predecesoras, básicamente de la computación y de la tecnología de semiconductores. El inicio de esta última data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años 1970, produciendo el primer microprocesador. Dichas tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras específicas para aplicaciones militares. En la posguerra, a mediados de la década de 1940, la computación digital emprendió un fuerte crecimiento también para propósitos científicos y civiles. La tecnología electrónica avanzó y los científicos hicieron grandes progresos en el diseño de componentes de estado sólido (semiconductores). En 1948 en los laboratorios Bell crearon el transistor.

En los años 1950, aparecieron las primeras computadoras digitales de propósito general. Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos activos. Módulos de tubos al vacío componían circuitos lógicos básicos, tales como compuertasy flip-flops. Ensamblándolos en módulos se construyó la computadora electrónica (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras.

Para la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción de una computadora digital precisa numerosos circuitos o dispositivos electrónicos. Un paso trascendental en el diseño de la computadora fue hacer que el dato fuera almacenado en memoria. Y la idea de almacenar programas en memoria para luego ejecutarlo fue también de fundamental importancia (Arquitectura de von Neumann).

La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio (Si), de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital se reemplazó del tubo al vacío por el transistor, a finales de la década de 1950.

A principios de la década de 1960, el estado de arte en la construcción de computadoras de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).

A mediados de los años 1960 se producen las familias de circuitos de lógica digital, dispositivos integrados en escala SSI y MSI que corresponden a baja y mediana escala de integración de componentes. A finales de los años 1960 y principios de los 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible

Page 32: Cartilla Reparacion PC Guía de Teórica

- 29 -

incrementar la cantidad de componentes en los circuitos integrados. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria eran un buen ejemplo.

Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando uno que fue llamado microprocesador, unión de las palabras «Micro» del griego μικρο-, «pequeño», y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micro métrica a nanométrica; y además, es, sin duda, un procesador.

El primer microprocesador fue el Intel 4004,1 producido en 1971. Se desarrolló originalmente para una calculadora y resultó revolucionario para su época. Contenía 2.300 transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo trabajando a una frecuencia de reloj de alrededor de 700 KHz.

El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados de 1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300 transistores y podía procesar a frecuencias máximas de 800Khz.

El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo trabajando a alrededor de 2MHz.

El primer microprocesador de 16 bits fue el 8086. Fue el inicio y el primer miembro de la popular arquitectura x86, actualmente usada en la mayoría de los computadores. El chip 8086 fue introducido al mercado en el verano de 1978, pero debido a que no había aplicaciones en el mercado que funcionaran con 16 bits, Intel sacó al mercado el 8088, que fue lanzado en 1979. Llegaron a operar a frecuencias mayores de 4Mhz.

El microprocesador elegido para equipar al IBM Personal Computer/AT, que causó que fuera el más empleado en los PC-AT compatibles entre mediados y finales de los años 1980 fue el Intel 80286 (también conocido simplemente como 286); es un microprocesador de 16 bits, de la familia x86, que fue lanzado al mercado en 1982. Contaba con 134.000 transistores. Las versiones finales alcanzaron velocidades de hasta 25 MHz.

Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de Intel, fabricado a mediados y fines de la década de 1980; en sus diferentes versiones llegó a trabajar a frecuencias del orden de los 40Mhz.

El microprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium surgió en 1993 con una frecuencia de trabajo de 66Mhz. El procesador Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito, declarándose como el más rápido del mundo, en su época. Llegó a 1Ghz de frecuencia hacia el año 2001. Irónicamente, a mediados del 2003, cuando se pensaba

Page 33: Cartilla Reparacion PC Guía de Teórica

- 30 -

quitarlo de circulación, el Alpha aun encabezaba la lista de los microprocesadores más rápidos de Estados Unidos.2

Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de transistores, como es en el caso de las serie Core i7, y pueden operar a frecuencias normales algo superiores a los 3GHz (3000MHz).

Historia

Hasta los primeros años de la década de 1970 los diferentes componentes electrónicos que formaban un procesador no podían ser un único circuito integrado, era necesario utilizar dos o tres "chips" para hacer una CPU (uno era el "ALU" - Arithmetical Logic Unit, el otro la " control Unit", el otro el " Register Bank", etc..). En 1971 la compañía Intel consiguió por primera vez poner todos los transistores que constituían un procesador sobre un único circuito integrado, el"4004 "', nacía el microprocesador.

Seguidamente se expone una lista ordenada cronológicamente de los microprocesadores más populares que fueron surgiendo. En la URSS se realizaron otros sistemas que dieron lugar a la serie microprocesador Elbrus.

1971: El Intel 4004

El 4004 fue el primer microprocesador del mundo, creado en un simple chip y desarrollado por Intel. Era un CPU de 4 bits y también fue el primero disponible comercialmente. Este desarrollo impulsó la calculadora de Busicom[1]e inició el camino para dotar de «inteligencia» a objetos inanimados y asimismo, a la computadora personal.

1972: El Intel 8008

Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con las expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.

1974: El SC/MP

El SC/MP desarrollado por National Semiconductor, fue uno de los primeros microprocesadores, y estuvo disponible desde principio de 1974. El nombre SC/MP (popularmente conocido como «Scamp») es el acrónimo de Simple Cost-effective Micro Processor (Microprocesador simple y rentable). Presenta un bus de direcciones de 16 bits y un bus de datos de 8 bits. Una característica, avanzada para su tiempo, es la capacidad de liberar los buses a fin de que puedan ser compartidos por varios

Page 34: Cartilla Reparacion PC Guía de Teórica

- 31 -

procesadores. Este microprocesador fue muy utilizado, por su bajo costo, y provisto en kits, para propósitos educativos, de investigación y para el desarrollo de controladores industriales diversos.

1974: El Intel 8080

EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair 8800 de MITS, según se alega, nombrada así por un destino de la Nave Espacial «Starship» del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que ejecutaban el sistema operativo CP/M-80. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de 395 USD. En un periodo de pocos meses, se vendieron decenas de miles de estos PC.

1975: Motorola 6800

Se fabrica, por parte de Motorola, el Motorola MC6800, más conocido como 6800. Fue lanzado al mercado poco después del Intel 8080. Su nombre proviene de qué contenía aproximadamente 6.800 transistores. Varios de los primeras microcomputadoras de los años 1970 usaron el 6800 como procesador. Entre ellas se encuentran la SWTPC 6800, que fue la primera en usarlo, y la muy conocida Altair 680. Este microprocesador se utilizó profusamente como parte de un kit para el desarrollo de sistemas controladores en la industria. Partiendo del 6800 se crearon varios procesadores derivados, siendo uno de los más potentes el Motorola 6809

1976: El Z80

La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits construido en tecnología NMOS, y fue basado en el Intel 8080. Básicamente es una ampliación de éste, con lo que admite todas sus instrucciones. Un año después sale al mercado el primer computador que hace uso del Z80, el Tandy TRS-80 Model 1 provisto de un Z80 a 1,77 MHz y 4 KB de RAM. Es uno de los procesadores de más éxito del mercado, del cual se han producido numerosas versiones clónicas, y sigue siendo usado de forma extensiva en la actualidad en multitud de sistemas embebidos. La compañía Zilog fue fundada 1974 por Federico Faggin, quien fue diseñador jefe del microprocesador Intel 4004 y posteriormente del Intel 8080.

1978: Los Intel 8086 y 8088

Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que las PC de IBM dieran un gran golpe comercial con el nuevo producto con el 8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a la lista de las 500 mejores compañías, en la prestigiosa revista Fortune, y la misma nombró la empresa como uno de Los triunfos comerciales de los sesenta.

1982: El Intel 80286

El 80286, popularmente conocido como 286, fue el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del

Page 35: Cartilla Reparacion PC Guía de Teórica

- 32 -

software sigue siendo un sello de la familia de microprocesadores de Intel. Luego de seis años de su introducción, había un estimado de 15 millones de PC basadas en el 286, instaladas alrededor del mundo.

1985: El Intel 80386

Este procesador Intel, popularmente llamado 386, se integró con 275.000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, con capacidad para multitarea y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que usaran memoria virtual.

1985: El VAX 78032

El microprocesador VAX 78032 (también conocido como DC333), es de único chip y de 32 bits, y fue desarrollado y fabricado por Digital Equipment Corporation (DEC); instalado en los equipos MicroVAX II, en conjunto con su ship coprocesador de coma flotante separado, el 78132, tenían una potencia cercana al 90% de la que podía entregar el minicomputador VAX 11/780 que fuera presentado en 1977. Este microprocesador contenía 125000 transistores, fue fabricado en tecnología ZMOS de DEC. Los sistemas VAX y los basados en este procesador fueron los preferidos por la comunidad científica y de ingeniería durante la década del 1980.

1989: El Intel 80486

La generación 486 realmente significó contar con una computadora personal de prestaciones avanzadas, entre ellas, un conjunto de instrucciones optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria caché unificada, todo ello integrado en el propio chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 - i387 operando a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las operaciones de cálculo. Usando una unidad FPU las operaciones matemáticas más complejas son realizadas por el coprocesador de manera prácticamente independiente a la función del procesador principal.

1991: El AMD AMx86

Procesadores fabricados por AMD 100% compatible con los códigos de Intel de ese momento. Llamados «clones» de Intel, llegaron incluso a superar la frecuencia de reloj de los procesadores de Intel y a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586.

1993: PowerPC 601

Es un procesador de tecnología RISC de 32 bits, en 50 y 66MHz. En su diseño utilizaron la interfaz de bus del Motorola 88110. En 1991, IBM busca una alianza con Apple y Motorola para impulsar la creación de este microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo fue quitar el dominio que Microsoft e Intel tenían en

Page 36: Cartilla Reparacion PC Guía de Teórica

- 33 -

sistemas basados en los 80386 y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la familia de procesadores de arquitectura de tipo RISC, que fue desarrollada por la alinza AIM. Los procesadores de esta familia son utilizados principalmente en computadores Macintosh de Apple Computer y su alto rendimiento se debe fuertemente a su arquitectura tipo RISC.

1993: El Intel Pentium

El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez, gracias a sus dos pipeline de datos de 32 bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, estaba dotado de un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas, y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no sólo brindaban al usuario un más eficiente manejo de aplicaciones multimedia, sino que también se ofrecían en velocidades de hasta 233 MHz. Se incluyó una versión de 200 MHz y la más básica trabajaba a alrededor de 166 MHz de frecuencia de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.

1994: EL PowerPC 620

En este año IBM y Motorola desarrollan el primer prototipo del procesador PowerPC de 64 bit[2], la implementación más avanzada de la arquitectura PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado para su utilización en servidores, y especialmente optimizado para usarlo en configuraciones de cuatro y hasta ocho procesadores en servidores de aplicaciones de base de datos y vídeo. Este procesador incorpora siete millones de transistores y corre a 133 MHz. Es ofrecido como un puente de migración para aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin tener que renunciar a ejecutar aplicaciones de 32 bits.

1995: EL Intel Pentium Pro

Lanzado al mercado en otoño de 1995, el procesador Pentium Pro (profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores y los programas y aplicaciones para estaciones de trabajo (de redes) impulsaron rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo era más lento que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. El procesador Pentium Pro estaba compuesto por alrededor de 5'5 millones de transistores.

1996: El AMD K5

Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora,

Page 37: Cartilla Reparacion PC Guía de Teórica

- 34 -

transforma todos los comandos x86 (de la aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando con poco éxito, se retrasó 1 año de su salida al mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de la competencia, y por tanto, los fabricantes de PC dieron por sentado que era inferior.

1996: Los AMD K6 y AMD K6-2

Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador casi a la altura del Pentium II pero por un precio muy inferior. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los más de 500 MHz y con el juego de instrucciones MMX, que ya se han convertido en estándares.

Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para seguir compitiendo con los Pentium II, siendo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introduce un juego de instrucciones SIMD denominado 3DNow!

1997: El Intel Pentium II

Un procesador de 7'5 millones de transistores, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, revisar y compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica; el enviar vídeo a través de las líneas normales del teléfono mediante Internet se convierte en algo cotidiano.

1998: El Intel Pentium II Xeon

Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (Workstation). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo y servidores que utilizan aplicaciones comerciales exigentes, como servicios de Internet, almacenamiento de datos corporativos, creaciones digitales y otros. Pueden configurarse sistemas basados en este procesador para integrar de cuatro u ocho procesadores trabajando en paralelo, también más allá de esa cantidad.

1999: El Intel Celeron

Page 38: Cartilla Reparacion PC Guía de Teórica

- 35 -

Continuando la estrategia, Intel, en el desarrollo de procesadores para el segmento de mercados específicos, el procesador Celeron es el nombre que lleva la línea de bajo costo de Intel. El objetivo fue poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.

1999: El AMD Athlon K7 (Classic y Thunderbird)

Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, pero se le mejoró substancialmente el sistema de coma flotante (ahora con 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le incrementó la memoria caché de primer nivel (L1) a 128 KB (64 Kb para datos y 64 Kb para instrucciones). Además incluye 512 Kb de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento.

El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.

1999: El Intel Pentium III

El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las extensiones de SIMD que refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, les permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (con muchos gráficos), tiendas virtuales y transmitir archivos video de alta calidad. El procesador se integra con 9,5 millones de transistores, y se introdujo usando en él tecnología 250 nanómetros.

1999: El Intel Pentium III Xeon

El procesador Pentium III Xeon amplía las fortalezas de Intel en cuanto a las estaciones de trabajo (Workstation) y segmentos de mercado de servidores, y añade una actuación mejorada en las aplicaciones del comercio electrónico e informática comercial avanzada. Los procesadores incorporan mejoras que refuerzan el procesamiento multimedia, particularmente las aplicaciones de vídeo. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando el desempeño significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.

Page 39: Cartilla Reparacion PC Guía de Teórica

- 36 -

2000: EL Intel Pentium 4

Este es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

2001: El AMD Athlon XP

Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird se puede mencionar el pre recuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.

2004: El Intel Pentium 4 (Prescott)

A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 Kb de caché L1 (el doble que los Northwood), prevención de ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.

2004: El AMD Athlon 64

El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y que el Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits. El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, baja la velocidad del mismo y su tensión se reduce.

2006: EL Intel Core Duo

Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en la nueva arquitectura Core de Intel. La micro arquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU Pentium 4/D2. La micro arquitectura Core provee etapas

Page 40: Cartilla Reparacion PC Guía de Teórica

- 37 -

de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPU Core 2, mientras se incrementa la capacidad de procesamiento. Los CPU de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.

2007: El AMD Phenom

Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la micro arquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPU Phenom poseen características tales como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depende tanto del tiempo de latencia de la RAM), además de compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.

2008: El Intel Core Nehalem

Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la micro arquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.

2008: Los AMD Phenom II y Athlon II

Page 41: Cartilla Reparacion PC Guía de Teórica

- 38 -

Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de caché L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.

Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el procesador binúcleo del mercado. También se lanzan tres Athlon II con sólo Caché L2, pero con buena relación precio/rendimiento. El Amd Athlon II X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635 continúa la misma línea.

AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que corre a más de 3,2GHz. También AMD lanza la familia Thurban con 6 núcleos físicos dentro del encapsulado

2011: El Intel Core Sandy Bridge

Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G.

Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits, duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se relacione con operación en multimedia. Llegaron la primera semana de enero del 2011. Incluye nuevo conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12 unidades de ejecución

2011: El AMD Fusion

AMD Fusion es el nombre clave para un diseño futuro de microprocesadores Turion, producto de la fusión entre AMD y ATI, combinando con la ejecución general del procesador, el proceso de la geometría 3D y otras funciones de GPUs actuales. La GPU(procesador gráfico) estará integrada en el propio microprocesador. Se espera la salida progresiva de esta tecnología a lo largo del 2011; estando disponibles los primeros modelos (Ontaro y Zacate) para ordenadores de bajo consumo entre últimos meses de 2010 y primeros de 2011, dejando el legado de las gamas medias y altas (Llano, Brazos y Bulldozer para mediados o finales del 2011)

2012: El Intel Core Ivy Bridge

Ivy Bridge es el nombre en clave de los procesadores conocidos como Intel Core de tercera generación. Son por tanto sucesores de los micros que aparecieron a principios de 2011, cuyo nombre en clave es Sandy Bridge. Pasamos de los 32 nanómetros de ancho de transistor en Sandy Bridge a los 22 de Ivy Bridge. Esto le permite meter el doble de ellos en la misma área. Un mayor número de transistores significa que puedes poner más

Page 42: Cartilla Reparacion PC Guía de Teórica

- 39 -

bloques funcionales dentro del chip. Es decir, este será capaz de hacer un mayor número de tareas al mismo tiempo.

2013: El Intel Core Haswell

Haswell es el nombre clave de los procesadores de cuarta generación de Intel Core. Son la corrección de errores de la tercera generación e implementan nuevas tecnologías gráficas para el gamming y el diseño gráfico, funcionando con un menor consumo y teniendo un mejor rendimiento a un buen precio. Continúa como su predecesor en 22 nanómetros pero funciona con un nuevo socket con clave 1150. Tienen un costo elevado a comparación con los APU's y FX de AMD pero tienen un mayor rendimiento.

Algunos procesadores

Imagen Descripción

El pionero de los actuales microprocesadores: el 4004 de Intel.

Motorola 6800

Zilog Z80 A.

Intel 80286, más conocido como 286.

Page 43: Cartilla Reparacion PC Guía de Teórica

- 40 -

Intel 80486, conocido también como 486SX de 33Mhz.

IBM PowerPC 601.

Parte posterior de un Pentium Pro. Este chip en particular es de 200 MHz, con 256 Kb de caché L2.

AMD K6 original.

Intel Pentium II; se puede observar su estilo de zócalo diferente.

Page 44: Cartilla Reparacion PC Guía de Teórica

- 41 -

Intel Celeron "Coppermine 128" de 600 MHz.

Intel Pentium III.

Funcionamiento

Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una unidad de control, una unidad aritmético lógica, y dependiendo del procesador, puede contener una unidad de coma flotante.

El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:

Prefetch, prelectura de la instrucción desde la memoria principal.

Fetch, envío de la instrucción al decodificador

Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer.

Lectura de operandos (si los hay).

Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el procesamiento.

Escritura de los resultados en la memoria principal o en los registros.

Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor

Page 45: Cartilla Reparacion PC Guía de Teórica

- 42 -

coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de megahercios.

Rendimiento

El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como «mito de los megahertzios» se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su potencia de cómputo.

Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún. De todas maneras, una forma fiable de medir la potencia de un procesador es mediante la obtención de las Instrucciones por ciclo

Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chips de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.

Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes estructuras internas atendiendo a gamas y extras como podría ser una memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de las bajas que simplemente de su memoria caché. Después de obtener los lotes según su gama, se someten a procesos en un banco de pruebas, y según su soporte a las temperaturas o que vaya mostrando signos de inestabilidad, se le adjudica una frecuencia, con la que vendrá programado de serie, pero con prácticas de overclock se le puede incrementar

La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por medio de indicadores como la cantidad de operaciones de coma flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación.

Page 46: Cartilla Reparacion PC Guía de Teórica

- 43 -

Arquitectura

El microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un programa de control. Consiguientemente, la historia de la computadora digital ayuda a entender el microprocesador. El hizo posible la fabricación de potentes calculadoras y de muchos otros productos. El microprocesador utiliza el mismo tipo de lógica que es usado en la unidad procesadora central (CPU) de una computadora digital. El microprocesador es algunas veces llamado unidad microprocesador (MPU). En otras palabras, el microprocesador es una unidad procesadora de datos. En un microprocesador se puede diferenciar diversas partes:

Encapsulado: es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los conectores externos que lo acoplaran a su zócalo a su placa base.

Memoria caché: es una memoria ultrarrápida que emplea el procesador para tener alcance directo a ciertos datos que «predeciblemente» serán utilizados en las siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así el tiempo de espera para adquisición de datos. Todos los micros compatibles con PC poseen la llamada caché interna de primer nivel o L1; es decir, la que está dentro del micro, encapsulada junto a él. Los micros más modernos (Core i3,Core i5 ,core i7,etc) incluyen también en su interior otro nivel de caché, más grande, aunque algo menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria caché de nivel 3, o L3.

Coprocesador matemático: unidad de coma flotante. Es la parte del micro especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del procesador en otro chip. Esta parte está considerada como una parte «lógica» junto con los registros, la unidad de control, memoria y bus de datos.

Registros: son básicamente un tipo de memoria pequeña con fines especiales que el micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada procesador. Un grupo de registros está diseñado para control del programador y hay otros que no son diseñados para ser controlados por el procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y dos registros.

Memoria: es el lugar donde el procesador encuentra las instrucciones de los programas y sus datos. Tanto los datos como las instrucciones están almacenados en memoria, y el procesador las accede desde allí. La memoria es una parte interna de la computadora y su función esencial es proporcionar un espacio de almacenamiento para el trabajo en curso.

Puertos: es la manera en que el procesador se comunica con el mundo externo. Un puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la computadora con la cual el procesador necesita comunicarse, tiene asignado un «número de puerto» que el procesador utiliza como si fuera un número de teléfono para llamar circuitos o a partes especiales.

Page 47: Cartilla Reparacion PC Guía de Teórica

- 44 -

Fabricación

Procesadores de silicio

El proceso de fabricación de un microprocesador es muy complejo.

Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un mono cristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 mm por hora) se

va formando el cristal.

De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de 10 micras de espesor, la décima parte del espesor de un cabello humano, utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.

Silicio.

Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para eliminar cualquier defecto o impureza que pueda haber llegado a esta instancia. Después de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micra, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor.

De aquí en adelante, comienza el proceso del «dibujado» de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de eliminar las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo «bocadillo» que contiene todos los circuitos interconectados del microprocesador.

Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las máscaras utilizadas durante la fabricación.

Page 48: Cartilla Reparacion PC Guía de Teórica

- 45 -

Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico (0,028 m3) de aire. Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.

Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso.

La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea o simplemente con características desactivadas, tales como núcleos. Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora.

Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Estas conexiones se realizan utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es provista de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como los que equipan a los computadores.

También se están desarrollando alternativas al silicio puro, tales como el carburo de silicio que mejora la conductividad del material, permitiendo mayores frecuencias de reloj interno; aunque aún se encuentra en investigación.

Otros materiales

Aunque la gran mayoría de la producción de circuitos integrados se basa en el silicio, no se puede omitir la utilización de otros materiales que son una alternativa tales como el germanio; tampoco las investigaciones actuales para conseguir hacer operativo un procesador desarrollado con materiales de características especiales como el grafeno o la molibdenita3 .

Page 49: Cartilla Reparacion PC Guía de Teórica

- 46 -

Empaquetado

Empaquetado de un procesadorIntel 80486 en un empaque de cerámica.

Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se fabricaba con plásticos epoxicos o con cerámicas

en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados.

Empaquetado de un procesadorPowerPC con Flip-Chip, se ve el chip de silicio.

En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la ayuda de unas micro esferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El sustrato laminado es una especie

de circuito impreso que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un zócalo de CPU o una placa base.<4>

Antiguamente la conexión del chip con los pines se realizaba por medio de micro alambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor. Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores de Intel también se incluye desde el Pentium III de más de 1 GHz.

Disipación de calor

Con el aumento de la cantidad de transistores integrados en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación calórica natural del mismo no es suficiente para mantener temperaturas aceptables y que no se dañe el material

Page 50: Cartilla Reparacion PC Guía de Teórica

- 47 -

semiconductor, de manera que se hizo necesario el uso de mecanismos de enfriamiento forzado, esto es, la utilización de disipadores de calor.

Entre ellos se encuentran los sistemas sencillos, tales como disipadores metálicos, que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados.

En los procesadores más modernos se aplica en la parte superior del procesador, una lámina metálica denominada IHS que va a ser la superficie de contacto del disipador para mejorar la refrigeración uniforme del die y proteger las resistencias internas de posible toma de contacto al aplicar pasta térmica. Varios modelos de procesadores, en especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta aplicación de la pasta térmica.

Para las prácticas de overclock extremo, se llegan a utilizar elementos químicos tales como hielo seco, y en casos más extremos, nitrógeno líquido, capaces de rondar temperaturas por debajo de los -190 grados Celsius y el helio líquido capaz de rondar temperaturas muy próximas al cero absoluto. De esta manera se puede prácticamente hasta triplicar la frecuencia de reloj de referencia de un procesador de silicio. El límite físico del silicio es de 10 GHz, mientras que el de otros materiales como el grafeno puede llegar a 1 THz4

Conexión con el exterior

Superficies de contacto en un procesador Intel para zócalo LGA 775.

El microprocesador posee un arreglo de elementos metálicos que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 2000 elementos metálicos en la superficie de su empaque. El

montaje del procesador se realiza con la ayuda de un zócalo de CPU soldado sobre la placa base. Generalmente distinguimos tres tipos de conexión:

PGA: Pin Grid Array: La conexión se realiza mediante pequeños alambres metálicos repartidos a lo largo de la base del procesador introduciéndose en la placa base mediante unos pequeños agujeros, al introducir el procesador, una palanca anclará los pines para que haga buen contacto y no se suelten.

BGA: Ball Grid Array: La conexión se realiza mediante bolas soldadas al procesador que hacen contacto con el zócalo

LGA: Land Grid Array: La conexión se realiza mediante superficies de contacto lisas con pequeños pines que incluye la placa base.

Page 51: Cartilla Reparacion PC Guía de Teórica

- 48 -

Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al zócalo, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones.

Buses del procesador

Todos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bits por segundo.

Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control.

En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama front-side bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 MHz haciendo 4 transferencias por ciclo.5

En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport de AMD, que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas y en el caso de Intel, Quickpath

Los microprocesadores de Intel y de AMD (desde antes) poseen además un controlador de memoria de acceso aleatorio en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus está de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 4 buses de memoria.

Tipos de socket

La mayoría de las placas de PC vendidas después de 2001 se pueden clasificar en dos grupos:

Las placas base para procesadores AMD

Slot A Duron, Athlon

Page 52: Cartilla Reparacion PC Guía de Teórica

- 49 -

Socket A Duron, Athlon, Athlon XP, Sempron

Socket 754 Athlon 64, Mobile Athlon 64, Sempron, Turion

Socket 939 Athlon 64, Athlon FX , Athlon X2, Sempron, Opteron

Socket 940 Opteron y Athlon 64 FX

Socket AM2 Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom

Socket F Opteron

Socket AM2 + Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom

Socket AM3 Phenom II X2/X3/X4/x6, Athlon II X2/X3/X4, Sempron 100 Series

Socket AM3+ Sempron, Athlon II X2/X3/X4, Phenom II X2/X3/X4/X6, FX X4/X6/X8

Socket FM1 A4X2, A6X3/X4, A8X4, Athlon II

Socket FM2 APU A4, APU A6, APU A8, APU A10, Athlon II X2/X4

Las placas base para procesadores Intel

Socket 7: Pentium I, Pentium MMX

Slot 1: Pentium II, Pentium III, Celeron

Socket 370: Pentium III, Celeron

Socket 423: Pentium 4

Socket 478: Pentium 4, Celeron

Socket 775: Pentium 4, Celeron, Pentium D (doble núcleo), Core 2 Duo, Core 2 Quad, Core 2 Extreme, Xeon

Socket 603 Xeon

Socket 604 Xeon

Socket 771 Xeon

LGA 1366 Intel Core i7, Xeon (Nehalem)

LGA 1156 Intel Core i3, Intel Core i5, Intel Core i7 (Nehalem)

LGA 2011 Intel Core i7, Xeon (Sandy Bridge)

LGA 1155 Intel Core i7, Intel Core i5 y Intel Core i3 (Ivy Bridge)

LGA 1150 Intel Core i7, Intel Core i5 y Intel Core i3 (Haswell)

Page 53: Cartilla Reparacion PC Guía de Teórica

- 50 -

Memoria de acceso aleatorio (Memoria RAM)

La memoria de acceso aleatorio (en inglés: random-access memory) se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

Nomenclatura

La expresión memoria RAM se utiliza frecuentemente para describir a los módulos de memoria utilizados en los computadores personales y servidores. Esta memoria es solo una variedad de la memoria de acceso aleatorio: las ROM, memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados soldados sobre un circuito impreso independiente, en otros dispositivos como las consolas de videojuegos, la RAM va soldada directamente sobre la placa principal.

Historia

Integrado de silicio de 64 bits sobre un sector de memoria de núcleo magnético (finales de los 60).

Page 54: Cartilla Reparacion PC Guía de Teórica

- 51 -

4MiB de memoria RAM para un computador VAXde finales de los 70. Los integrados de memoria DRAM están agrupados arriba a derecha e izquierda.

Módulos de memoria tipo SIPP instalados directamente sobre la placa base.

Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferromagnético de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria muy pequeña. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio.

En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1024 bytes, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.

En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones. MOSTEK lanzó la referencia MK4096 de 4096 bytes en un empaque de 16 pines,1 mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento2 se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas

Page 55: Cartilla Reparacion PC Guía de Teórica

- 52 -

áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.

A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie de mejoras en el direccionamiento como las siguientes:

Módulos formato SIMM de 30 y 72 pines, los últimos fueron utilizados con integrados tipo EDO-RAM.

FPM-RAM (Fast Page Mode RAM)

Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel 486,3 se implantó un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primera vez no sería necesario decir el número de la calle únicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium.

EDO-RAM (Extended Data Output RAM)

Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el búfer de salida hasta que comienza el próximo ciclo de lectura.

BEDO-RAM (Burst Extended Data Output RAM)

Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a más

Page 56: Cartilla Reparacion PC Guía de Teórica

- 53 -

de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj.

Tecnologías de memoria

La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de manera que siempre está sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia superior a 66 MHz.

Tipos de DIMMs según su cantidad de Contactos o Pines:

72-pin SO-DIMM (no el mismo que un 72-pin SIMM), usados por FPM DRAM y EDO DRAM

100-pin DIMM, usados por printer SDRAM

144-pin SO-DIMM, usados por SDR SDRAM

168-pin DIMM, usados por SDR SDRAM (menos frecuente para FPM/EDO DRAM en áreas de trabajo y/o servidores)

172-pin MicroDIMM, usados por DDR SDRAM

184-pin DIMM, usados por DDR SDRAM

200-pin SO-DIMM, usados por DDR SDRAM y DDR2 SDRAM

204-pin SO-DIMM, usados por DDR3 SDRAM

240-pin DIMM, usados por DDR2 SDRAM, DDR3 SDRAM y FB-DIMM DRAM

244-pin MiniDIMM, usados por DDR2 SDRAM

Memorias RAM con tecnologías usadas en la actualidad.

Page 57: Cartilla Reparacion PC Guía de Teórica

- 54 -

SDR SDRAM

Memoria síncrona, con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos. Fue utilizada en los Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos disponibles son:

PC66: SDR SDRAM, funciona a un máx. de 66,6 MHz.

PC100: SDR SDRAM, funciona a un máx. de 100 MHz.

PC133: SDR SDRAM, funciona a un máx. de 133,3 MHz.

RDRAM

Se presentan en módulos RIMM de 184 contactos. Fue utilizada en los Pentium 4 . Era la memoria más rápida en su tiempo, pero por su elevado costo fue rápidamente cambiada por la económica DDR. Los tipos disponibles son:

PC600: RIMM RDRAM, funciona a un máximo de 300 MHz.

PC700: RIMM RDRAM, funciona a un máximo de 356 MHz.

PC800: RIMM RDRAM, funciona a un máximo de 400 MHz.

PC1066: RIMM RDRAM, funciona a un máximo de 533 MHz.

DDR SDRAM

Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos en el caso de ordenador de escritorio y en módulos de 144 contactos para los ordenadores portátiles. Los tipos disponibles son:

PC1600 o DDR 200: funciona a un máx. de 200 MHz.

PC2100 o DDR 266: funciona a un máx. de 266,6 MHz.

PC2700 o DDR 333: funciona a un máx. de 333,3 MHz.

PC3200 o DDR 400: funciona a un máx. de 400 MHz.

PC4500 o DDR 500: funciona a una máx. de 500 MHz.

Page 58: Cartilla Reparacion PC Guía de Teórica

- 55 -

DDR2 SDRAM

Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Se presentan en módulos DIMM de 240 contactos. Los tipos disponibles son:

PC2-4200 o DDR2-533: funciona a un máx. de 533,3 MHz.

PC2-5300 o DDR2-667: funciona a un máx. de 666,6 MHz.

PC2-6400 o DDR2-800: funciona a un máx. de 800 MHz.

DDR3 SDRAM

Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles, debido a una ubicación diferente de la muesca. Los tipos disponibles son:

PC3-6400 o DDR3-800: funciona a un máx. de 800 MHz.

PC3-8500 o DDR3-1066: funciona a un máx. de 1066,6 MHz.

PC3-10600 o DDR3-1333: funciona a un máx. de 1333,3 MHz.

PC3-12800 o DDR3-1600: funciona a un máx. de 1600 MHz.

Módulos de la memoria RAM

Los módulos de memoria RAM son tarjetas de circuito impreso que tienen soldados integrados de memoria DRAM por una o ambas caras. La implementación DRAM se basa en una topología de circuito eléctrico que permite alcanzar densidades altas de memoria por cantidad de transistores, logrando integrados de cientos o miles de megabits. Además de DRAM, los módulos poseen un integrado que permiten la identificación de los mismos ante el computador por

medio del protocolo de comunicación SPD.

La conexión con los demás componentes se realiza por medio de un área de pines en uno de los filos del circuito impreso, que permiten que el módulo al ser instalado en un zócalo apropiado de la placa base, tenga buen contacto eléctrico con los controladores de memoria y las fuentes de alimentación. Los primeros módulos comerciales de memoria eran SIPP de formato propietario, es decir no había un estándar entre distintas marcas.

Page 59: Cartilla Reparacion PC Guía de Teórica

- 56 -

Otros módulos propietarios bastante conocidos fueron los RIMM, ideados por la empresa RAMBUS.

La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al establecimiento de estándares de la industria como los JEDEC.

Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus de datos de 16 ó 32 bits

Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits.

Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM.

Relación con el resto del sistema

Diagrama de la arquitectura de un ordenador.

Dentro de la jerarquía de memoria la RAM se encuentra en un nivel después de los registros del procesador y de las cachés en cuanto a velocidad. Los módulos de memoria se conectan eléctricamente a un controlador de memoria que gestiona las señales entrantes y salientes de los integrados DRAM. Las señales son de tres tipos: direccionamiento, datos y señales de control. En el módulo de memoria esas señales están divididas en dos buses y un conjunto misceláneo de líneas de control y alimentación, Entre todas forman el bus de memoria que conecta la RAM con su controlador:

Page 60: Cartilla Reparacion PC Guía de Teórica

- 57 -

Bus de datos: Son las líneas que llevan información entre los integrados y el controlador. Por lo general están agrupados en octetos siendo de 8,16,32 y 64 bits, cantidad que debe igualar el ancho del bus de datos del procesador. En el pasado, algunos formatos de módulo, no tenían un ancho de bus igual al del procesador.En ese caso había que montar módulos en pares o en situaciones extremas, de a 4 módulos, para completar lo que se denominaba banco de memoria, de otro modo el sistema no funciona. Esa fue la principal razón para aumentar el número de pines en los módulos, igualando al ancho de bus de procesadores como el Pentium a 64 bits, a principios de los 90.

Bus de direcciones: Es un bus en el cual se colocan las direcciones de memoria a las que se requiere acceder. No es igual al bus de direcciones del resto del sistema, ya que está multiplexado de manera que la dirección se envía en dos etapas. Para ello el controlador realiza temporizaciones y usa las líneas de control. En cada estándar de módulo se establece un tamaño máximo en bits de este bus, estableciendo un límite teórico de la capacidad máxima por módulo.

Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss) que se encargan de entregar potencia a los integrados. Están las líneas de comunicación para el integrado de presencia que sirve para identificar cada módulo. Están las líneas de control entre las que se encuentran las llamadas RAS (row address strobe) y CAS (column address strobe) que controlan el bus de direcciones, por último están las señales de reloj en las memorias sincrónicas SDRAM.

Algunos controladores de memoria en sistemas como PC y servidores se encuentran embebidos en el llamado "North Bridge" o "Puente Norte" de la placa base. Otros sistemas incluyen el controlador dentro del mismo procesador (en el caso de los procesadores desde AMD Athlon 64 e Intel Core i7 y posteriores). En la mayoría de los casos el tipo de memoria que puede manejar el sistema está limitado por los sockets para RAM instalados en la placa base, a pesar que los controladores de memoria en muchos casos son capaces de conectarse con tecnologías de memoria distintas.

Una característica especial de algunos controladores de memoria, es el manejo de la tecnología canal doble (Dual Channel), donde el controlador maneja bancos de memoria de 128 bits, siendo capaz de entregar los datos de manera intercalada, optando por uno u otro canal, reduciendo las latencias vistas por el procesador. La mejora en el desempeño es variable y depende de la configuración y uso del equipo. Esta característica ha promovido la modificación de los controladores de memoria, resultando en la aparición de nuevos chipsets (la serie 865 y 875 de Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal doble , reemplazo el 754 de canal sencillo). Los equipos de gama media y alta por lo general se fabrican basados en chipsets o zócalos que soportan doble canal o superior, como en el caso del zócalo (o socket, en inglés) 1366 de Intel, que usaba un triple canal de memoria, o su nuevo LGA 2011 que usa cuádruple canal.

Page 61: Cartilla Reparacion PC Guía de Teórica

- 58 -

Detección y corrección de errores

Existen dos clases de errores en los sistemas de memoria, las fallas (Hard fails) que son daños en el hardware y los errores (soft errors) provocados por causas fortuitas. Los primeros son relativamente fáciles de detectar (en algunas condiciones el diagnóstico es equivocado), los segundos al ser resultado de eventos aleatorios, son más difíciles de hallar. En la actualidad la confiabilidad de las memorias RAM frente a los errores, es suficientemente alta como para no realizar verificación sobre los datos almacenados, por lo menos para aplicaciones de oficina y caseras. En los usos más críticos, se aplican técnicas de corrección y detección de errores basadas en diferentes estrategias:

La técnica del bit de paridad consiste en guardar un bit adicional por cada byte de datos y en la lectura se comprueba si el número de unos es par (paridad par) o impar (paridad impar), detectándose así el error.

Una técnica mejor es la que usa ECC, que permite detectar errores de 1 a 4 bits y corregir errores que afecten a un sólo bit. Esta técnica se usa sólo en sistemas que requieren alta fiabilidad.

Por lo general los sistemas con cualquier tipo de protección contra errores tienen un costo más alto, y sufren de pequeñas penalizaciones en desempeño, con respecto a los sistemas sin protección. Para tener un sistema con ECC o paridad, el chipset y las memorias deben tener soporte para esas tecnologías. La mayoría de placas base no poseen dicho soporte.

Para los fallos de memoria se pueden utilizar herramientas de software especializadas que realizan pruebas sobre los módulos de memoria RAM. Entre estos programas uno de los más conocidos es la aplicación Memtest86+ que detecta fallos de memoria.

Page 62: Cartilla Reparacion PC Guía de Teórica

- 59 -

Disco duro

En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota

sobre una delgada lámina de aire generada por la rotación de los discos.

Características de un disco duro

Las características que se deben tener en cuenta en un disco duro son:

Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).

Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.

Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.

Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.

Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.

Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez que la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.

Otras características son:

Caché de pista: Es una memoria tipo Flash dentro del disco duro.

Interfaz: Medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB, Firewire, Serial Attached SCSI

Landz: Zona sobre las que aparcan las cabezas una vez se apaga la computadora.

Page 63: Cartilla Reparacion PC Guía de Teórica

- 60 -

Estructura física

Componentes de un disco duro. De izquierda a derecha, fila superior: tapa, carcasa, plato, eje; fila inferior: espuma aislante, circuito impreso de control, cabezal de lectura / escritura, actuador e imán, tornillos.

Interior de un disco duro; se aprecia la superficie de un plato y el cabezal de lectura/escritura retraído, a la izquierda.

Dentro de un disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 o 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos..

Cada plato posee dos ojos, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de

Page 64: Cartilla Reparacion PC Guía de Teórica

- 61 -

7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).

Direccionamiento

Cilindro, Cabeza y Sector

Pista (A), Sector (B), Sector de una pista (C), Clúster (D)

Hay varios conceptos para referirse a zonas del disco:

Plato: cada uno de los discos que hay dentro del disco duro.

Cara: cada uno de los dos lados de un plato.

Cluster: es un conjunto de sectores.

Cabeza: número de cabezales.

Pistas: una circunferencia dentro de una cara; la pista 0 está en el borde exterior.

Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).

Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes, aunque la IDEMA ha creado un comité que impulsa llevarlo a 4 KiB. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro. Así las pistas se agrupan en zonas de pistas de igual cantidad de sectores. Cuanto más lejos del centro de cada plato se encuentra una zona, ésta contiene una mayor cantidad de sectores en sus pistas. Además mediante ZBR, cuando se leen sectores de cilindros más externos la tasa de transferencia de bits por segundo es mayor; por tener la misma velocidad angular que cilindros internos pero mayor cantidad de sectores.3

Page 65: Cartilla Reparacion PC Guía de Teórica

- 62 -

Sector geométrico: son los sectores contiguos pero de pistas diferentes.

El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA(direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Éste es el que actualmente se usa.

Tipos de conexión

Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE, SCSI o SAS:

IDE: Integrated Drive Electronics ("Dispositivo electrónico integrado") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.

SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbit/s en los discos SCSI Estándares, los 10 Mbit/s en los discos SCSI Rápidos y los 20 Mbit/s en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.

SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.

SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos

Page 66: Cartilla Reparacion PC Guía de Teórica

- 63 -

necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.

Estructura lógica

Dentro del disco se encuentran:

El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones.

Las particiones, necesarias para poder colocar los sistemas de archivos.

Funcionamiento mecánico[editar]

Un disco duro suele tener:

Platos en donde se graban los datos.

Cabezal de lectura/escritura.

Motor que hace girar los platos.

Electroimán que mueve el cabezal.

Circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché.

Bolsita desecante (gel de sílice) para evitar la humedad.

Caja, que ha de proteger de la suciedad, motivo por el cual suele traer algún filtro de aire.

Integridad[editar]

Debido a la distancia extremadamente pequeña entre los cabezales y la superficie del disco, cualquier contaminación de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la pérdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre fabricación.

Cabezal del disco duro

Page 67: Cartilla Reparacion PC Guía de Teórica

- 64 -

El eje del sistema del disco duro depende de la presión del aire dentro del recinto para sostener los cabezales y su correcta altura mientras el disco gira. Un disco duro requiere un cierto rango de presiones de aire para funcionar correctamente. La conexión al entorno exterior y la presión se produce a través de un pequeño agujero en el recinto (cerca de 0,5 mm de diámetro) normalmente con un filtro en su interior (filtro de respiración, ver abajo). Si la presión del aire es demasiado baja, entonces no hay suficiente impulso para el cabezal, que se acerca demasiado al disco, y se da el riesgo de fallos y pérdidas de datos. Son necesarios discos fabricados especialmente para operaciones de gran altitud, sobre 3.000 m. Hay que tener en cuenta que los aviones modernos tienen una cabina presurizada cuya presión interior equivale normalmente a una altitud de 2.600 m como máximo. Por lo tanto los discos duros ordinarios se pueden usar de manera segura en los vuelos. Los discos modernos incluyen sensores de temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos (normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero). El aire dentro del disco operativo está en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de recirculación interna para quitar cualquier contaminante que se hubiera quedado de su fabricación, alguna partícula o componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos.

Cabezal de disco duro IBM sobre el plato del disco

Para los cabezales resistentes al magnetismo grandes (GMR) en particular, un incidente minoritario debido a la contaminación (que no se disipa la superficie magnética del disco) llega a dar lugar a un sobrecalentamiento temporal en el cabezal, debido a la fricción con la superficie del disco, y puede hacer que los datos no se puedan leer durante un periodo corto de tiempo hasta que la temperatura del cabezal se estabilice (también conocido como “aspereza térmica”, un problema que en parte puede ser tratado con el filtro electrónico apropiado de la señal de lectura).

Los componentes electrónicos del disco duro controlan el movimiento del accionador y la rotación del disco, y realiza lecturas y escrituras necesitadas por el controlador de disco. El firmware de los discos modernos es capaz de programar lecturas y escrituras de forma eficiente en la superficie de los discos y de reasignar sectores que hayan fallado.

Page 68: Cartilla Reparacion PC Guía de Teórica

- 65 -

Presente y futuro

Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP – Green Power), los cuales hacen un uso más eficiente de la energía.

Comparativa de Unidades de estado sólido y discos duros[editar]

Artículo principal: Unidad de estado sólido

Una unidad de estado sólido o SSD (acrónimo en inglés de solid-state drive) es un dispositivo de almacenamiento de datos que puede estar construido con memoria no volátil o con memoria volátil. Las no volátiles son unidades de estado sólido que como dispositivos electrónicos, están construidos en la actualidad con chips de memoria flash. No son discos, pero juegan el mismo papel a efectos prácticos aportando más ventajas que inconvenientes tecnológicos. Por ello se está empezando a vislumbrar en el mercado la posibilidad de que en el futuro ese tipo de unidades de estado sólido terminen sustituyendo al disco duro para implementar el manejo de memorias no volátiles en el campo de la ingeniería informática.

Esos soportes son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos esto les hace muy fiables y físicamente duraderos. Sin embargo su costo por GB es aún muy elevado respecto al mismo coste de GB en un formato de tecnología de Disco Duro siendo un índice muy importante cuando hablamos de las altas necesidades de almacenamiento que hoy se miden en orden de Terabytes.4

Los discos que no son discos: Las Unidades de estado sólido han sido categorizadas repetidas veces como "discos", cuando es totalmente incorrecto denominarlas así, puesto que a diferencia de sus predecesores, sus datos no se almacenan sobre superficies cilíndricas ni platos. Esta confusión conlleva habitualmente a creer que "SSD" significa Solid State Disk, en vez de Solid State Drive

Unidades híbridas

Las unidades híbridas son aquellas que combinan las ventajas de las unidades mecánicas convencionales con las de las unidades de estado sólido. Consisten en acoplar un conjunto de unidades de memoria flash dentro de la unidad mecánica, utilizando el área de estado sólido para el almacenamiento dinámico de datos de uso frecuente (determinado por el software de la unidad) y el área mecánica para el almacenamiento masivo de datos. Con esto se logra un rendimiento cercano al de unidades de estado sólido a un costo sustancialmente menor. En el mercado actual (2012), Seagate ofrece su modelo "Momentus XT" con esta tecnología.9

Page 69: Cartilla Reparacion PC Guía de Teórica

- 66 -

Velocidad de transferencia

IDE

Tiene una tasa de transferencia que llega hasta los 100 Mb/s

Configuración del cable IDE(maestro y esclavo).

Page 70: Cartilla Reparacion PC Guía de Teórica

- 67 -

SATA (disco y cable de transferencia de datos)

La velocidad de transferencia de datos es la siguiente:

SATA I 1, 5 Gb/s

SATA II 3 Gb/s

SATA III 6 Gb/s:

Tipos de formato

Son los dos principales sistema de archivos (tipos de formateo) que ofrece Windows. Las diferencias entre ambos y sus versiones son importantes:

ITEMS SATA I SATA II SATA III

Frecuencia 1500 MHz

3000 MHz

6000MHz

Bits/clock 1 1 1

Codificación 8b10b

80% 80% 80%

bits/Byte 8 8 8

Velocidad real 150 MB/s

300 MB/s

600 MB/s

Page 71: Cartilla Reparacion PC Guía de Teórica

- 68 -

NTFS Es el estándar de Windows desde principios de los noventa. Admite discos de hasta 256 TB y un tamaño máximo de archivo de unos 16 TB.

Ofrece mejor rendimiento, estabilidad y seguridad que los sistemas de formateo antiguos. También más capacidades.

FAT y FAT32

Son antecesores del NTFS. Hay diversas versiones del formato FAT. Se nombran por el número de bits que usan para identificar el contenido del disco. De la más antigua a la más moderna: FAT8, FAT12, FAT16 (o FAT sin más) y FAT32.

En condiciones normales sólo permiten formatear un máximo de 32 GB (FAT32) y 4GB (FAT). Y admiten archivos de hasta 4 GB.

Opta siempre por el NTFS salvo si tienes una buena razón para usar alguno de los formatos FAT.

ExFAT Es una versión mejorada del FAT32. Permite formatear discos de hasta 512 TB y archivos también de ese tamaño. Esos son los valores recomendados. La tecnología permite valores muy superiores.

El exFAT es adecuado sobre todo para dispositivos USB.

Page 72: Cartilla Reparacion PC Guía de Teórica

- 69 -

Sistema operativo

Un sistema operativo (SO o, frecuentemente, OS —del inglés Operating System—) es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardware y provee servicios a los programas, ejecutándose en modo privilegiado respecto de los restantes y anteriores próximos y viceversa (aunque puede que parte del mismo se ejecute en espacio de usuario).2

Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador web y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Esta identidad entre kernel y sistema operativo es solo cierta si el núcleo es monolítico. Otro ejemplo para comprender esta diferencia se encuentra en la plataforma Amiga, donde el entorno gráfico de usuario se distribuía por separado, de modo que, también podía reemplazarse por otro, como era el caso de directory Opus o incluso manejarlo arrancando con una línea de comandos y el sistema gráfico. De este modo, al arrancar un Amiga, comenzaba a funcionar con el propio sistema operativo que llevaba incluido en una ROM, por lo que era cuestión del usuario

decidir si necesitaba un entorno gráfico para manejar el sistema operativo o simplemente otra aplicación. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, usado en las llamadas distribuciones, ya que al estar también basadas en Unix, proporcionan un sistema de funcionamiento similar. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores3 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.4 (Véase AmigaOS, beOS o Mac OS como los pioneros5 de dicha modernización, cuando los Amiga fueron bautizados con el sobrenombre de Video Toasters6 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.

Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. La mayoría de aparatos electrónicos que utilizan microprocesadores para funcionar, llevan incorporado un sistema operativo (teléfonos móviles, reproductores de DVD, computadoras, radios, enrutadores, etc.). En cuyo caso, son manejados mediante una interfaz gráfica de usuario, un gestor de

Page 73: Cartilla Reparacion PC Guía de Teórica

- 70 -

ventanas o un entorno de escritorio, si es un celular, mediante una consola o control remoto si es un DVD y, mediante una línea de comandos o navegador web si es un enrutador.

Perspectiva histórica

Los primeros sistemas (1945-1955) eran grandes máquinas operadas desde la consola maestra por los programadores. Durante la década siguiente (1955-1965) se llevaron a cabo avances en el hardware: lectoras de tarjetas, impresoras, cintas magnéticas, etc. Esto a su vez provocó un avance en el software: compiladores, ensambladores, cargadores, manejadores de dispositivos, etc.

A finales de los años 1980, una computadora Commodore Amiga equipada con una aceleradora Video Toaster era capaz de producir efectos comparados a sistemas dedicados que costaban el triple. Un Video Toaster junto a Lightwave ayudó a producir muchos programas de televisión y películas, entre las que se incluyen Babylon 5, SeaQuest DSV y Terminator 2.7

Problemas de explotación y soluciones iniciales[editar]

El problema principal de los primeros sistemas era la baja utilización de los mismos, la primera solución fue poner un operador profesional que lo manejase, con lo que se eliminaron las hojas de reserva, se ahorró tiempo y se aumentó la velocidad.

Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por lotes (batch) sin automatizar.

Monitores residentes

Según fue avanzando la complejidad de los programas, fue necesario implementar soluciones que automatizaran la organización de tareas sin necesidad de un operador. Debido a ello se crearon los monitores residentes: programas que residían en memoria y que gestionaban la ejecución de una cola de trabajos.

Un monitor residente estaba compuesto por un cargador, un Intérprete de comandos y un controlador (drivers) para el manejo de entrada/salida.

Sistemas con almacenamiento temporal de E/S[editar]

Los avances en el hardware crearon el soporte de interrupciones y posteriormente se llevó a cabo un intento de solución más avanzado: solapar la E/S de un trabajo con sus propios cálculos, por lo que se creó el sistema debúfers con el siguiente funcionamiento:

Un programa escribe su salida en un área de memoria (búfer 1).

El monitor residente inicia la salida desde el buffer y el programa de aplicación calcula depositando la salida en el buffer 2.

La salida desde el buffer 1 termina y el nuevo cálculo también.

Page 74: Cartilla Reparacion PC Guía de Teórica

- 71 -

Se inicia la salida desde el buffer 2 y otro nuevo cálculo dirige su salida al buffer 1.

El proceso se puede repetir de nuevo.

Los problemas surgen si hay muchas más operaciones de cálculo que de E/S (limitado por la CPU) o si por el contrario hay muchas más operaciones de E/S que cálculo (limitado por la E/S).

Spoolers

Hace aparición el disco magnético con lo que surgen nuevas soluciones a los problemas de rendimiento. Se eliminan las cintas magnéticas para el volcado previo de los datos de dispositivos lentos y se sustituyen por discos (un disco puede simular varias cintas). Debido al solapamiento del cálculo de un trabajo con la E/S de otro trabajo se crean tablas en el disco para diferentes tareas, lo que se conoce como Spool (Simultaneous Peripherial Operation On-Line).

Sistemas operativos multiprogramados

Surge un nuevo avance en el hardware: el hardware con protección de memoria. Lo que ofrece nuevas soluciones a los problemas de rendimiento:

Se solapa el cálculo de unos trabajos con la entrada/salida de otros trabajos.

Se pueden mantener en memoria varios programas.

Se asigna el uso de la CPU a los diferentes programas en memoria.

Debido a los cambios anteriores, se producen cambios en el monitor residente, con lo que éste debe abordar nuevas tareas, naciendo lo que se denomina como Sistemas Operativos multiprogramados, los cuales cumplen con las siguientes funciones:

Administrar la memoria.

Gestionar el uso de la CPU (planificación).

Administrar el uso de los dispositivos de E/S.

Cuando desempeña esas tareas, el monitor residente se transforma en un sistema operativo multiprogramado.

Llamadas al sistema operativo

Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.

Cada SO implementa un conjunto propio de llamadas al sistema. Ese conjunto de llamadas es la interfaz del SO frente a las aplicaciones. Constituyen el lenguaje que deben usar las aplicaciones para comunicarse con el SO. Por ello si cambiamos de SO, y abrimos un programa diseñado para trabajar sobre el anterior, en general el programa no funcionará, a no ser que el nuevo SO tenga la misma interfaz. Para ello:

Page 75: Cartilla Reparacion PC Guía de Teórica

- 72 -

Las llamadas correspondientes deben tener el mismo formato.

Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente del anterior.

Modos de ejecución en un CPU

Las aplicaciones no deben poder usar todas las instrucciones de la CPU. No obstante el Sistema Operativo, tiene que poder utilizar todo el conjunto de instrucciones del CPU. Por ello, una CPU debe tener (al menos) dos modos de operación diferentes:

Modo usuario: el CPU podrá ejecutar sólo las instrucciones del juego restringido de las aplicaciones.

Modo supervisor: la CPU debe poder ejecutar el juego completo de instrucciones.

Llamadas al sistema

Una aplicación, normalmente no sabe dónde está situada la rutina de servicio de la llamada. Por lo que si ésta se codifica como una llamada de función, cualquier cambio en el S.O. haría que hubiera que reconstruir la aplicación.

Pero lo más importante es que una llamada de función no cambia el modo de ejecución de la CPU. Con lo que hay que conseguir llamar a la rutina de servicio, sin tener que conocer su ubicación, y hacer que se fuerce un cambio de modo de operación de la CPU en la llamada (y la recuperación del modo anterior en el retorno).

Esto se hace utilizando instrucciones máquina diseñadas específicamente para este cometido, distintas de las que se usan para las llamadas de función.

Bibliotecas de interfaz de llamadas al sistema

Las llamadas al sistema no siempre tienen una expresión sencilla en los lenguajes de alto nivel, por ello se crean las bibliotecas de interfaz, que son bibliotecas de funciones que pueden usarse para efectuar llamadas al sistema. Las hay para distintos lenguajes de programación.

La aplicación llama a una función de la biblioteca de interfaz (mediante una llamada normal) y esa función es la que realmente hace la llamada al sistema.

Interrupciones y excepciones

El SO ocupa una posición intermedia entre los programas de aplicación y el hardware. No se limita a utilizar el hardware a petición de las aplicaciones ya que hay situaciones en las que es el hardware el que necesita que se ejecute código del SO. En tales situaciones el hardware debe poder llamar al sistema, pudiendo deberse estas llamadas a dos condiciones:

Algún dispositivo de E/S necesita atención.

Page 76: Cartilla Reparacion PC Guía de Teórica

- 73 -

Se ha producido una situación de error al intentar ejecutar una instrucción del programa (normalmente de la aplicación).

En ambos casos, la acción realizada no está ordenada por el programa de aplicación, es decir, no figura en el programa.

Según los dos casos anteriores tenemos las interrupciones y la excepciones:

Interrupción: señal que envía un dispositivo de E/S a la CPU para indicar que la operación de la que se estaba ocupando, ya ha terminado.

Excepción: una situación de error detectada por la CPU mientras ejecutaba una instrucción, que requiere tratamiento por parte del SO.

Tratamiento de las interrupciones

Una interrupción se trata en todo caso, después de terminar la ejecución de la instrucción en curso.

El tratamiento depende de cuál sea el dispositivo de E/S que ha causado la interrupción, ante la cual debe poder identificar el dispositivo que la ha causado.

La ventaja de este procedimiento es que no se tiene que perder tiempo ejecutando continuamente rutinas para consultar el estado del periférico. El inconveniente es que el dispositivo debe tener los circuitos electrónicos necesarios para acceder al sistema de interrupciones del computador.

Importancia de las interrupciones

El mecanismo de tratamiento de las interrupciones permite al SO utilizar la CPU en servicio de una aplicación, mientras otra permanece a la espera de que concluya una operación en un dispositivo de E/S.

El hardware se encarga de avisar al SO cuando el dispositivo de E/S ha terminado y el SO puede intervenir entonces, si es conveniente, para hacer que el programa que estaba esperando por el dispositivo, se continúe ejecutando.

En ciertos intervalos de tiempo puede convenir no aceptar señales de interrupción. Por ello las interrupciones pueden inhibirse por programa (aunque esto no deben poder hacerlo las mismas).

Un ejemplo de sincronismo por interrupción es el almacenamiento de caracteres introducidos mediante el teclado. Cuando se introduce un carácter, se codifica en el registro de datos del dispositivo y además se activa un bit del registro de estado quien crea una interrupción en el hardware. El procesador deja temporalmente la tarea que estaba completando y ejecuta la rutina de atención a la interrupción correspondiente. El teclado almacena el carácter en el vector de memoria intermedia ( también llamado buffer) asociada al teclado y despierta el proceso que había en el estado de espera de la operación de entrada/salida.

Page 77: Cartilla Reparacion PC Guía de Teórica

- 74 -

Excepciones

Cuando la CPU intenta ejecutar una instrucción incorrectamente construida, la unidad de control lanza una excepción para permitir al SO ejecutar el tratamiento adecuado. Al contrario que en una interrupción, la instrucción en curso es abortada. Las excepciones al igual que las interrupciones deben estar identificadas.

Clases de excepciones

Las instrucciones de un programa pueden estar mal construidas por diversas razones:

El código de operación puede ser incorrecto.

Se intenta realizar alguna operación no definida, como dividir por cero.

La instrucción puede no estar permitida en el modo de ejecución actual.

La dirección de algún operando puede ser incorrecta o se intenta violar alguno de sus permisos de uso.

Importancia de las excepciones

El mecanismo de tratamiento de las excepciones es esencial para impedir, junto a los modos de ejecución de la CPU y los mecanismos de protección de la memoria, que las aplicaciones realicen operaciones que no les están permitidas. En cualquier caso, el tratamiento específico de una excepción lo realiza el SO.

Como en el caso de las interrupciones, el hardware se limita a dejar el control al SO, y éste es el que trata la situación como convenga.

Es bastante frecuente que el tratamiento de una excepción no retorne al programa que se estaba ejecutando cuando se produjo la excepción, sino que el SO aborte la ejecución de ese programa. Este factor depende de la pericia del programador para controlar la excepción adecuadamente.

Componentes de un sistema operativo

Gestión de procesos

Un proceso es simplemente, un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S. El SO es el responsable de:

Crear y destruir procesos

Parar y reanudar procesos

Ofrecer mecanismos para que los procesos puedan comunicarse y se sincronicen

La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por ejemplo. Debemos

Page 78: Cartilla Reparacion PC Guía de Teórica

- 75 -

comenzar haciendo las tareas de prioridad alta primero y cuando se terminen seguir con las de prioridad media y después las de baja. Una vez realizada la tarea se tacha. Esto puede traer un problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. Y permanezcan en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a las tareas más antiguas.

Gestión de la memoria principal

La memoria es una gran tabla de palabras o bytes que se referencian cada una mediante una dirección única. Este almacén de datos de rápido acceso es compartido por la CPU y los dispositivos de E/S, son volátil y pierde su contenido ante fallos del sistema. El SO es el responsable de:

Conocer qué partes de la memoria están siendo utilizadas y por quién

Decidir qué procesos se cargarán en memoria cuando haya espacio disponible

Asignar y reclamar espacio de memoria cuando sea necesario

Gestión del almacenamiento secundario

Un sistema de almacenamiento secundario es necesario, ya que la memoria principal (almacenamiento primario) es volátil y además muy pequeña para almacenar todos los programas y datos. También es necesario mantener los datos que no convenga mantener en la memoria principal. El SO se encarga de:

Planificar los discos.

Gestionar el espacio libre.

Asignar el almacenamiento.

Verificar que los datos se guarden en orden

El sistema de entrada y salida

Consiste en un sistema de almacenamiento temporal (caché), una interfaz de manejadores de dispositivos y otra para dispositivos concretos. El sistema operativo debe gestionar el almacenamiento temporal de E/S y servir las interrupciones de los dispositivos de E/S.

Sistema de archivos

Los archivos son colecciones de información relacionada, definidas por sus creadores. Éstos almacenan programas (en código fuente y objeto) y datos tales como imágenes, textos, información de bases de datos, etc. El SO es responsable de:

Construir y eliminar archivos y directorios.

Page 79: Cartilla Reparacion PC Guía de Teórica

- 76 -

Ofrecer funciones para manipular archivos y directorios.

Establecer la correspondencia entre archivos y unidades de almacenamiento.

Realizar copias de seguridad de archivos.

Existen diferentes sistemas de archivos, es decir, existen diferentes formas de organizar la información que se almacena en las memorias (normalmente discos) de los ordenadores. Por ejemplo, existen los sistemas de archivos FAT, FAT32, ext3, NTFS, XFS, etc.

Desde el punto de vista del usuario estas diferencias pueden parecer insignificantes a primera vista, sin embargo, existen diferencias muy importantes. Por ejemplo, los sistemas de ficheros FAT32 y NTFS, que se utilizan fundamentalmente en sistemas operativos de Microsoft, tienen una gran diferencia para un usuario que utilice una base de datos con bastante información ya que el tamaño máximo de un fichero con un sistema de archivos FAT32 está limitado a 4 gigabytes, sin embargo, en un sistema NTFS el tamaño es considerablemente mayor.

Sistemas de protección

Mecanismo que controla el acceso de los programas o los usuarios a los recursos del sistema. El SO se encarga de:

Distinguir entre uso autorizado y no autorizado.

Especificar los controles de seguridad a realizar.

Forzar el uso de estos mecanismos de protección.

Sistema de comunicaciones

Para mantener las comunicaciones con otros sistemas es necesario poder controlar el envío y recepción de información a través de las interfaces de red. También hay que crear y mantener puntos de comunicación que sirvan a las aplicaciones para enviar y recibir información, y crear y mantener conexiones virtuales entre aplicaciones que están ejecutándose localmente y otras que lo hacen remotamente.

Programas de sistema

Son aplicaciones de utilidad que se suministran con el SO pero no forman parte de él. Ofrecen un entorno útil para el desarrollo y ejecución de programas, siendo algunas de las tareas que realizan:

Manipulación y modificación de archivos.

Información del estado del sistema.

Soporte a lenguajes de programación.

Comunicaciones.

Page 80: Cartilla Reparacion PC Guía de Teórica

- 77 -

Gestor de recursos[editar]

Como gestor de recursos, el sistema operativo administra:

La unidad central de procesamiento (donde está alojado el microprocesador).

Los dispositivos de entrada y salida.

La memoria principal (o de acceso directo).

Los discos (o memoria secundaria).

Los procesos (o programas en ejecución).

Y en general todos los recursos del sistema.

Clasificación

Administración de tareas

Mono tarea: Solamente permite ejecutar un proceso (aparte de los procesos del propio SO) en un momento dado. Una vez que empieza a ejecutar un proceso, continuará haciéndolo hasta su finalización y/o interrupción.

Multitarea: Es capaz de ejecutar varios procesos al mismo tiempo. Este tipo de SO. Normalmente asigna los recursos disponibles (CPU, memoria, periféricos) de forma alternada a los procesos que los solicitan, de manera que el usuario percibe que todos funcionan a la vez, de forma concurrente.

Administración de usuarios

Monousuario: Sólo permite ejecutar los programas de un usuario al mismo tiempo.

Multiusuario: Permite que varios usuarios ejecuten simultáneamente sus programas, accediendo a la vez a los recursos de la computadora. Normalmente estos sistemas operativos utilizan métodos de protección de datos, de manera que un programa no pueda usar o cambiar los datos de otro usuario.

Manejo de recursos

Centralizado: Permite usar los recursos de una sola computadora.

Distribuido: Permite utilizar los recursos (memoria, CPU, disco, periféricos...) de más de una computadora al mismo tiempo.

Ejemplos de sistemas operativos para PC[

Microsoft Windows

Mac OS X

GNU/Linux

Unix

Solaris

Page 81: Cartilla Reparacion PC Guía de Teórica

- 78 -

FreeBSD

OpenBSD

Google Chrome OS

Debian

Ubuntu

Mandriva

Sabayon

Fedora

Linpus linux

Haiku (BeOS)

Ejemplos de sistemas operativos para dispositivos móviles

Android

iOS

Bada

BlackBerry OS

BlackBerry 10

Windows Phone

Symbian OS

HP webOS

Firefox OS

Ubuntu Phone OS

Tizen

Diferencias entre 32 o 64 bits:

Cuando hablan de 32 o de 64 bits, se refieren a la forma en la que el procesador administra la información. La versión de 32 bits está pensada para funcionar en un ordenador de 32 bits y la versión de 64 bits está pensada para ordenadores de 64 bits, por lo que te conviene conocer qué tipo de ordenador tienes. Supuestamente 64 bits siempre tiene una mayor calidad y un mejor rendimiento pero a costa de abusar de la memoria y del procesador del ordenador. Si no sabes que versión tienes, puedes decantarte siempre por la versión de 32 bits, ya que funcionará igualmente en ambos tipos de ordenadores. En cambio la de 64 es posible que no funcione bien en un ordenador de 32.

Generalmente utilizamos un sistema operativo de 32 bits (x86) cuando la memoria RAM del ordenador menos a los 4Gb; usamos un sistema operativo de 64bits (x64) cuando tenemos 4Gb o mas instalada en el ordenador de modo que si tenemos 8Gb de RAM instalados con un sistema de 32bits solo utilizaríamos 3,65Gb aproximadamente.

Page 82: Cartilla Reparacion PC Guía de Teórica

- 79 -

La BIOS

El Sistema Básico de Entrada/Salida (Basic Input-Output System), conocido simplemente con el nombre de BIOS, es un programa informático inscrito en componentes electrónicos de memoria Flash existentes en la placa base. Este programa controla el funcionamiento de la placa base y de dichos componentes. Se encarga de realizar las funciones básicas de manejo y configuración del ordenador. Es un firmware presente en las computadoras, contiene las instrucciones más elementales para que puedan funcionar y desempeñarse adecuadamente, pueden incluir rutinas básicas de control de los dispositivos.

Existen muchos fabricantes de BIOS, pero el mercado está dominado prácticamente por Award, AMI y Phoenix, y lo más seguro es que nuestro PC tenga una BIOS de uno de estos fabricantes. No todas las BIOS disponen de todas las opciones que se citan aquí. Las más antiguas carecen de muchas de ellas, mientras que otras, incluso modernas, están preparadas para trabajar de otro modo y no contemplan ciertas opciones

¿Firmware?

El Firmware o programación en firme como algunos la llaman no es más que un bloque de instrucciones para propósitos muy concretos, éstos dispositivos están grabados en una memoria de solo lectura o ROM, establecen la lógica de más bajo nivel,-y esto para qué-, para poder controlar los circuitos electrónicos de un dispositivo de cualquier tipo. Ahora al firmware se le considera un hibrido entre el Software y el Hardware, al estar integrado en la parte electrónica, pertenece al Hardware, pero a su vez también es Software ya que proporciona lógica y se establece en un lenguaje de programación, en este caso el código Assembler.

CHIP BIOS común

¿Y por qué no se puede escribir en la BIOS?

Ya que sirve de puente de comunicación entre todos los dispositivos del ordenador, se almacena en un chip del tipo ROM (Read Only Memory), así que no se resetea al apagarse el monitor como sí lo haría una memoria RAM.

Page 83: Cartilla Reparacion PC Guía de Teórica

- 80 -

¿Cómo ingreso en la BIOS?

La forma de ingresar a la BIOS cambia de fabricante en fabricante, pero es fácil saberlo: en esa pantalla del principio se verá (normalmente en inglés) un mensaje que dice cómo entrar. Generalmente es con una tecla, aunque a veces es necesario combinaciones entre esas teclas podemos encontrar las siguientes:

La más común Del o Sup, F2, F1, ESC, F12, ALT + ESC, FIN + F12, etc.

Jumper

En informática, un jumper o puente es un elemento que permite interconectar dos terminales de manera temporal sin tener que efectuar una operación que requiera una herramienta adicional. Dicha unión de terminales cierra el circuito eléctrico del que forma parte.

Un jumper siendo usado en una placa madre.

Características

El modo de funcionamiento del dispositivo, que es lo opuesto a la configuración por software, donde de distinto modo se llega al mismo resultado: cambiar la configuración, o modo de operación del dispositivo.

Los jumpers siguen siendo hasta ahora una forma rápida de configuración de hardware aplicando las características de los fabricantes.

La principal dificultad al hacer la configuración, es la información del fabricante del dispositivo, que en algunos casos, está solamente en el manual de operación del mismo o algunas veces, con su leyenda respectiva impresa en la placa de circuito impreso donde está montado el jumper.

Sin los jumpers, los discos duros, las unidades de discos ópticos o las disqueteras, no funcionarían porque no tendrían definido el rol de cada uno ("maestro" o "esclavo").

Page 84: Cartilla Reparacion PC Guía de Teórica

- 81 -

Tarjeta gráfica

Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras

arquitecturas también hacen uso de este tipo de dispositivos.

Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-21 y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.

Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii U, la PlayStation 4 y la Xbox One.

Algunas tarjetas de video:

PCI S3 ViRGE

IBM XGA-2 MCA

Apple Display Card 24AC NuBus

Page 85: Cartilla Reparacion PC Guía de Teórica

- 82 -

Cirrus Logic VESA

AVIEW2E EISA

EGA Paradise Bus ISA

Historia

La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta de video.

El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento de costes (principalmente son diseños cerrados), esos chips vayan integrados en la placa base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar soft CP/M (como las de los Apple II y Spectravideo SVI-328).

Page 86: Cartilla Reparacion PC Guía de Teórica

- 83 -

Curiosamente la tarjeta de vídeo que viene con el IBM PC, que con su diseño abierto herencia de los Apple II popularizará el concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo texto. La MDA (Monochrome Display Adapter), desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.2

A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla adjunta.3 4 5 6

Año Modo texto Modo gráficos Colores Memoria

MDA 1981 80*25 - 1 4 KiB

CGA 1981 80*25 640*200 4 16 KiB

HGC 1982 80*25 720*348 1 64 KiB

EGA 1984 80*25 640*350 16 256 KiB

IBM 8514 1987 80*25 1024*768 256 -

MCGA 1987 80*25 320*200 256 -

VGA 1987 720*400 640*480 256 256 KiB

SVGA 1989 80*25 1024*768 256 1 MiB

XGA 1990 80*25 1024*768 65K 2 MiB

VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super VGA). Con dicho estándar se alcanzaron los 2 MB de memoria VRAM, así como resoluciones de 1024 x 768 pixels a 256 colores.

La competencia de los PC, Commodore Amiga 2000 y Apple Macintosh reservaron en cambio esa posibilidad a ampliaciones profesionales, integrando casi siempre la GPU (que batía en potencia con total tranquilidad a las tarjetas gráficas de los PC del momento) en sus placas base. Esta situación se perpetúa hasta la aparición del Bus PCI, que sitúa a las

Page 87: Cartilla Reparacion PC Guía de Teórica

- 84 -

tarjetas de PC al nivel de los buses internos de sus competidores, al eliminar el cuello de botella que representaba el Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3 ViRGE, lo que en un PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional en losCommodore Amiga con ranura Zorro III), la fabricación masiva (que abarata sustancialmente los costes) y la adopción por otras plataformas del Bus PCI hace que los chips gráficos VGA comiencen a salir del mercado del PC.

La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal, que el puerto PCI donde se conectaban se quedó corto de ancho de banda.Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (comprando incluso la mayoría de bienes de 3dfx)7 con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.

La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos derivados de los más potentes aceleradores 3D de su momento. Los Apple Macintosh incorporan chips de NVIDIA y ATI desde el primeriMac, y los modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU.

En 2006 y en adelante, NVIDIA y ATI (ese mismo año comprada por AMD) se repartían el liderazgo del mercado8 con sus series de chips gráficos GeForce y Radeon, respectivamente.

Componentes

GPU

La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico»— es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características

de la GPU, pues constituye la parte más importante de la tarjeta gráfica, así como la principal determinante del rendimiento. Tres de las más importantes de dichas

Page 88: Cartilla Reparacion PC Guía de Teórica

- 85 -

características son la frecuencia de reloj del núcleo, que en la actualidad oscila entre 825 MHz en las tarjetas de gama baja y 1200 MHz, e incluso más, en las de gama alta, el número de procesadores shaders y el número de pipelines (vertex y fragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles. Elementos generales de una GPU:

Shaders: Es elemento más notable de potencia de una GPU, estos shaders unificados reciben el nombre de núcleos CUDA en el caso de nvidia y Procesadores Stream en el caso de AMD. Son una evolución natural de los antiguos pixel shader (encargados de la rasterización de texturas) y vertex shader (encargados de la geometría de los objetos), los cuales anteriormente actuaban de forma independiente. Los shaders unificados son capaces de actuar tanto de vertex shader como de pixel shader según la demanda, aparecieron en el 2007 con los chips G90 de nvidia (Series 8000) y los chips R600 para AMD (Series HD 2000), antigua ATi, incrementando la potencia drásticamente respecto a sus familias anteriores

ROP: Se encargan de representar los datos procesados por la GPU en la pantalla, además también es el encargado de los filtros como Antialiasing.

Memoria gráfica de acceso aleatorio

Son chips de memoria que almacenan y transportan información entre sí, no son determinantes en el rendimiento máximo de la tarjeta gráfica, pero bien unas especificaciones reducidas pueden limitar la potencia de la GPU. Existen de dos tipos, Dedicada cuando, la tarjeta gráfica o la GPU dispone exclusivamente para sí esas memorias, ésta manera es la más eficiente y la que mejores resultados da; y compartida cuando se utiliza memoria en detrimento de la memoria RAM, ésta memoria es mucho más lenta que la dedicada y por tanto su rendimiento es menor, es recurrente en campañas de márketing con mensajes tipo Tarjeta gráfica de "Hasta ~ MB" para engañar al consumidor haciéndole creer que la potencia de esa tarjeta gráfica reside en su cantidad de memoria.

Las características de memoria gráfica de una tarjeta gráfica se expresan en 3 características:

Capacidad: La capacidad de la memoria determina el número máximo de datos y texturas procesadas, una capacidad insuficiente se traduce en un retardo a espera de que se vacíen esos datos. Sin embargo es un valor muy sobrevalorado como estrategia recurrente de márketing para engañar al consumidor, tratando de hacer creer que el rendimiento de una tarjeta gráfica se mide por la capacidad de su memoria.

Interfaz de Memoria: También denominado Bus de datos, es la multiplicación resultante del de ancho de bits de cada chip por su número de unidades. Es una

Page 89: Cartilla Reparacion PC Guía de Teórica

- 86 -

característica importante y determinante, junto a la velocidad de la memoria, a la cantidad de datos que puede transferir en un tiempo determinado, denominado ancho de banda. Una analogía al ancho de banda se podría asociar al ancho de una autopista o carriles y al número de vehículos que podrían circular a la vez. La interfaz de memoria se mide en bits.

Velocidad de Memoria: Es la velocidad a la que las memorias pueden transportar los datos procesados, por lo que es complemento a la interfaz de memoria para determinar el ancho de banda total de datos en un tiempo determinado. Continuando la analogía de la circulación de los vehículos de la autopista, la velocidad de memoria se traduciría en la velocidad máxima de circulación de los vehículos, dando resultado a un mayor transporte de mercancía en un mismo periodo de tiempo. La velocidad de las memorias se mide en Hertzios (su frecuencia efectiva) y se van diseñando tecnologías con más velocidad, se destacan las adjuntas en la siguiente tabla:

Tecnología Frecuencia efectiva (MHz) Ancho de banda (GB/s)

GDDR 166 - 950 1,2 - 30,4

GDDR2 533 - 1000 8,5 - 16

GDDR3 700 - 1700 5,6 - 54,4

GDDR4 1600 - 1800 64 - 86,4

GDDR5 3200 - 7000 24 - 448

Ancho de banda: Es la tasa de datos que pueden transportarse en una unidad de tiempo. Un ancho de banda insuficiente se traduce en un importante limitador de potencia de la GPU. Habitualmente se mide en "Gigabytes por segundo" (GB/s).

Su fórmula general es el cociente del producto de la interfaz de memoria (expresada en bits) por la frecuencia efectiva de las memorias (expresada en Gigahertzios), entre 8 para convertir bits a bytes.

Por ejemplo, tenemos una tarjeta gráfica con 256 bits de interfaz de memoria y 4200 MHz de frecuencia efectiva y necesitamos hallar su ancho de banda:

Page 90: Cartilla Reparacion PC Guía de Teórica

- 87 -

Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D.

RAMDAC

El RAMDAC es un conversor de señal digital a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, y nunca inferior a 60).9 Dada la creciente popularidad de los monitores de señal digital, el RAMDAC está quedando obsoleto, puesto que no es necesaria la conversión analógica si bien es cierto que muchos conservan conexión VGA por compatibilidad.

Espacio que ocupan las texturas almacenadas

El espacio que ocupa una imagen representada en el monitor viene dada en función de su resolución y su profundidad de color, es decir, una imagen sin comprimir en formato estándar Full HD con 1920x1080 píxeles y 32 bits de profundidad de color ocuparía 66.355.200 bits, es decir, 8,294 MiB

Salidas

Salidas HDMI, D-Sub 15 y DVI de una tarjeta gráfica

Salidas SVGA, S-Video y DVI de una tarjeta gráfica

Page 91: Cartilla Reparacion PC Guía de Teórica

- 88 -

Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son:

SVGA/Dsub-15: Estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor. Se conecta mediante pines. Su utilización continúa muy extendida a día de hoy, aunque claramente muestra una reducción frente al DVI en los últimos años.

DVI: Sustituto del anterior, pero digital, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales o proyectores. Se conecta mediante pines. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo. Cada vez más adoptado, aunque compite con el HDMI, el DVI no es capaz de transmitir audio.

HDMI: Tecnología propietaria transmisora de audio y vídeo digital de alta definición cifrado sin compresión en un mismo cable. Se conecta mediante patillas de contacto. No está pensado inicialmente para monitores, sino para Televisiones, por ello no apaga la pantalla cuando deja de recibir señal y debe hacerse manualmente en caso de monitores.

Otras no tan extendidas por un uso minoritatio, no implementadas u obsoletas son:

DisplayPort: Puerto para tarjetas gráficas creado por VESA y rival del HDMI, transfiere vídeo a alta resolución y audio. Sus ventajas son que está libre de patentes, y por ende de regalías para incorporarlo a los aparatos, también dispone de unas pestañas para anclar el conector impidiendo que se desconecte el cable accidentalmente. Cada vez más tarjetas gráficas van adoptando este sistema, aunque a día de hoy, sigue siendo su uso minoritario, existe una versión reducida de dicho conector llamada Mini DisplayPort, muy usada para tarjetas gráficas con multitud de salidas simultáneas, como pueden ser 5.

S-Video: implementado sobre todo en tarjetas con sintonizador TV y/o chips con soporte de vídeo NTSC/PAL, simplemente se está quedando obsoleto.

Vídeo Compuesto: analógico de muy baja resolución mediante conector RCA. Completamente en desuso para tarjetas gráficas, aunque sigue siendo usado para TV.

Vídeo por componentes: Sistema analógico de transmisión de vídeo de alta definición, utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr). Anteriormente usado en PCs y estaciones de trabajo de gama alta, ha quedador relegado a TV y videoconsolas.

DA-15 conector RGB usado mayoritariamente en los antiguos Apple Macintosh. Completamente en desuso.

Page 92: Cartilla Reparacion PC Guía de Teórica

- 89 -

Digital TTL DE-9 : usado por las primitivas tarjetas de IBM (MDA, CGA y variantes, EGA y muy contadas VGA). Completamente obsoleto

Interfaces con la placa base

Bus Anchura (bits)

Frecuencia (MHz)

Ancho de banda (MB/s)

Puerto

ISA XT 8 4,77 8 Paralelo

ISA AT 16 8,33 16 Paralelo

MCA 32 10 20 Paralelo

EISA 32 8,33 32 Paralelo

VESA 32 40 160 Paralelo

PCI 32 - 64 33 - 100 132 - 800 Paralelo

AGP 1x 32 66 264 Paralelo

AGP 2x 32 133 528 Paralelo

AGP 4x 32 266 1000 Paralelo

AGP 8x 32 533 2000 Paralelo

PCIe x1 1*32 25 / 50 100 / 200 Serie

PCIe x4 1*32 25 / 50 400 / 800 Serie

PCIe x8 1*32 25 / 50 800 / 1600 Serie

PCIe x16 1*32 25 / 50 1600 / 3200 Serie

PCIe x16 2.0 1*32 25 / 50 3200 / 6400 Serie

Page 93: Cartilla Reparacion PC Guía de Teórica

- 90 -

En orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la placa base han sido, principalmente:

Slot MSX : bus de 8 bits usado en los equipos MSX

ISA: arquitectura de bus de 16 bits a 8 MHz, dominante durante los años 1980; fue creada en 1981 para los IBM PC.

Zorro II usado en los Commodore Amiga 2000 y Commodore Amiga 1500.

Zorro III usado en los Commodore Amiga 3000 y Commodore Amiga 4000

NuBus usado en los Apple Macintosh

Processor Direct Slot usado en los Apple Macintosh

MCA: intento de sustitución en 1987 de ISA por IBM. Disponía de 32 bits y una velocidad de 10 MHz, pero era incompatible con los anteriores.

EISA: respuesta en 1988 de la competencia de IBM; de 32 bits, 8.33 MHz y compatible con las placas anteriores.

VESA: extensión de ISA que solucionaba la restricción de los 16 bits, duplicando el tamaño de bus y con una velocidad de 33 MHz.

PCI: bus que desplazó a los anteriores a partir de 1993; con un tamaño de 32 bits y una velocidad de 33 MHz, permitía una configuración dinámica de los dispositivos conectados sin necesidad de ajustar manualmente los jumpers. PCI-X fue una versión que aumentó el tamaño del bus hasta 64 bits y aumentó su velocidad hasta los 133 MHz.

AGP: bus dedicado, de 32 bits como PCI; en 1997 la versión inicial incrementaba la velocidad hasta los 66 MHz.

PCIe: interfaz serie que desde 2004 empezó a competir contra AGP, llegando a doblar en 2006 el ancho de banda de aquel. Sufre de constantes revisiones multiplicando su ancho de banda, ya existiendo la versión 3.0. No debe confundirse con PCI-X, versión de PCI.

En la tabla adjunta10 11 se muestran las características más relevantes de algunas de dichas interfaces.

Dispositivos refrigerantes

Conjunto de disipador y ventilador.

Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor generado puede hacer fallar,

Page 94: Cartilla Reparacion PC Guía de Teórica

- 91 -

bloquear o incluso averiar el dispositivo. Para evitarlo, se incorporan dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta. Se distinguen dos tipos:

Disipador: dispositivo pasivo (sin partes móviles y, por tanto, silencioso); compuesto de un metal muy conductor del calor, extrae este de la tarjeta. Su eficiencia va en función de la estructura y la superficie total, por lo que a mayor demanda de refrigeración, mayor debe ser la superficie del disipador.

Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado de la tarjeta al mover el aire cercano. Es menos eficiente que un disipador, siempre que nos refiramos al ventilador sólo, y produce ruido al tener partes móviles.

Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y suelen ser montados juntos en las tarjetas gráficas; un disipador sobre la GPU extrae el calor, y un ventilador sobre él aleja el aire caliente del conjunto.

Refrigeración Líquida: La refrigeración líquida o watercooling es una técnica de enfriamiento utilizando agua en vez de disipadores de calor y ventiladores (dentro del chasis), logrando así excelentes resultados en cuanto a temperaturas, y con enormes posibilidades en overclock. Se suele realizar con circuitos de agua estancos.

El agua, y cualquier líquido refrigerante, tienen mayor capacidad térmica que el aire. A partir de este principio, la idea es extraer el calor generado por los componentes de la computadora usando como medio el agua, enfriarla una vez fuera del gabinete y luego reintroducirla.

Alimentación

Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un gran problema, sin embargo, la tendencia actual de las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son cada día más potentes, la insuficiencia energética se encuentra en la que puede proporcionar el puerto PCIe que sólo es capaz de aportar una potencia por sí sólo de 75 W.12 Por este motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe incluyen un conector (PCIe power connector)13 que permite una conexión directa entre la fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y, por tanto, por el puerto PCIe.

Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían necesitar una fuente de alimentación propia, convirtiéndose dicho conjunto en dispositivos externos.14

Page 95: Cartilla Reparacion PC Guía de Teórica

- 92 -

Tipos antiguos de tarjetas gráficas

Tarjeta MDA

"Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada por IBM como una memoria de 4 KiB de forma exclusiva para monitores TTL (que representaban los clásicos caracteres en ámbar o verde). No disponía de gráficos y su única resolución era la presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna posibilidad de configuración.

Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar y se envía al monitor como información serie. No debe sorprender la falta de procesamiento gráfico, ya que, en estos primeros PC no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a información en modo texto.

Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluía en su día) un puerto de comunicación para la impresora ¡Una asociación más que extraña a día de hoy!

Tarjeta CGA

"Color Graphics Array" o "Color graphics adapter" según el texto al que se recurra. Aparece en el año 1981 también de la mano de IBM y fue muy extendida. Permitía matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los caracteres. Este detalle le imposibilitaba el representar subrayados, por lo que los sustituía por diferentes intensidades en el carácter en cuestión.En modo gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KiB y solo era compatible con monitores RGB y Compuestos. A pesar de ser superior a la MDA, muchos usuarios preferían esta última dado que la distancia entre puntos de la rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes pero no reproducibles en todas las resoluciones tal y como se muestra en el cuadro adjunto.

Esta tarjeta tenía un fallo bastante habitual y era el conocido como "snow". Este problema era de carácter aleatorio y consistía en la aparición de "nieve" en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen). Tanto era así que algunas BIOSde la época incluían en su SETUP la opción de eliminación de nieve ("No snow").

Tarjeta HGC

"Hércules Graphics Card" o más popularmente conocida como Hércules (nombre de la empresa productora), aparece en el año 1982, con gran éxito convirtiéndose en un estándar de vídeo a pesar de no disponer del soporte de las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KiB de memoria. Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los

Page 96: Cartilla Reparacion PC Guía de Teórica

- 93 -

puntos de la pantalla usando 30,58 KiB para el modo gráfico (1 bit x 720 x 348) y el resto para el modo texto y otras funciones. Las lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los caracteres se dibujaban en matrices de 14x9 puntos.

Diseñadores, Fabricantes y ensambladores

Diseñadores de GPU

AMD nVIDIA

Ensambladores de Tarjetas

GECUBE POINT OF VIEW

CLUB3D CLUB3D

POWERCOLOR EVGA

MSI MSI

XFX GAINWARD

ASUS ASUS

SAPPHIRE ZOTAC

GIGABYTE GIGABYTE

HIS ECS ELITEGROUP

DIAMOND PNY

- SPARKLE

- GALAXY

- PALIT

Page 97: Cartilla Reparacion PC Guía de Teórica

- 94 -

En el mercado de las tarjetas gráficas hay que distinguir tres tipos de fabricantes:

Diseñadores de GPU: diseñan y generan exclusivamente la GPU. Los dos más importantes son:

AMD, anteriormente conocida como ATi

nVIDIA

GPU integrado en el chipset de la placa base: también destaca Intel además de los antes citados nVIDIA y AMD.

Otros fabricantes como Matrox o S3 Graphics tienen una cuota de mercado muy reducida. Todos ellos contratan y encargan a fabricantes ciertas unidades de chips a partir de un diseño.

Fabricantes de GPU: Son quienes fabrican y suministran las unidades extraídas de las obleas de chips a los ensambladores. TSMC y Global Foundries son claros ejemplos.

Ensambladores: integran las GPUs proporcionadas por los fabricantes con el resto de la tarjeta, de diseño propio. De ahí que tarjetas con el mismo chip tengan formas o conexiones diferentes o puedan dar ligeras diferencias de rendimientos, en especial tarjetas gráficas modificadas u overclokeadas de fábrica.

En la tabla adjunta se muestra una relación de los dos diseñadores de chips y algunos de los ensambladores de tarjetas con los que trabajan.

API para gráficos

A nivel de programador, trabajar con una tarjeta gráfica es complicado; por ello, surgieron interfaces que abstraen la complejidad y diversidad de las tarjetas gráficas. Los dos más importantes son:

Direct3D: lanzada por Microsoft en 1996, forma parte de la librería DirectX. Funciona sólo para Windows, ya que es privativa. Utilizado por la mayoría de los videojuegos comercializados para Windows. Actualmente van por la versión 12

OpenGL: creada por Silicon Graphics a principios de los años 1990; es gratuita, libre y multiplataforma. Utilizada principalmente en aplicaciones de CAD, realidad virtual o simulación de vuelo. Actualmente está disponible la versión 4.3

OpenGL está siendo desplazada del mercado de los videojuegos por Direct3D, aunque haya sufrido muchas mejoras en los últimos meses.

Efectos gráficos

Algunas de las técnicas o efectos habitualmente empleados o generados mediante las tarjetas gráficas pueden ser:

Antialiasing: retoque para evitar el aliasing, efecto que aparece al representar curvas y rectas inclinadas en un espacio discreto y finito como son los píxeles del monitor.

Page 98: Cartilla Reparacion PC Guía de Teórica

- 95 -

Shader: procesado de píxeles y vértices para efectos de iluminación, fenómenos naturales y superficies con varias capas, entre otros.

HDR: técnica novedosa para representar el amplio rango de niveles de intensidad de las escenas reales (desde luz directa hasta sombras oscuras). Es una evolución del efecto Bloom, aunque a diferencia de éste, no permite Antialiasing.

Mapeado de texturas: técnica que añade detalles en las superficies de los modelos, sin aumentar la complejidad de los mismos.

Motion Blur: efecto de emborronado debido a la velocidad de un objeto en movimiento.

Depth Blur: efecto de emborronado adquirido por la lejanía de un objeto.

Lens flare: imitación de los destellos producidos por las fuentes de luz sobre las lentes de la cámara.

Efecto Fresnel (reflejo especular): reflejos sobre un material dependiendo del ángulo entre la superficie normal y la dirección de observación. A mayor ángulo, más reflectante.

Teselado: Consiste en multiplicar el número de polígonos para representar ciertas figuras geométricas y no se vean totalmente planas. Esta característica fue incluida en la API DirectX 11

Errores comunes

Confundir a la GPU con la tarjeta gráfica. Aunque muy importante, no todas las GPU y adaptadores de gráficos van en tarjeta ni son el único determinante de su calidad y rendimiento. Es decir, las GPU sí determinan el rendimiento máximo de la tarjeta, pero su rendimiento puede ser capado por tener otros elementos que no estén a su altura, por ejemplo un ancho de banda pequeño.

Considerar el término tarjeta de vídeo como privativo del PC y compatibles. Esas tarjetas se usan en equipos no PC e incluso sin procesador Intel o AMD y sus chips en videoconsolas.

Confundir al fabricante de la GPU con la marca de la tarjeta. Actualmente los mayores fabricantes de chip gráficos de PC en el mercado son NVIDIA y AMD (anteriormente ATi Tecnologies). Esto se debe a que se encargan solamente, de diseñar los chip gráficos (GPU). Luego, empresas como TSMC o Global Fundities fabrican las GPU y más tarde son ensambladas en PCBs con memorias por ASUS, POV, XFX, Gigabyte, Sapphire y demás ensambladoras para su venta al público.

Saliendo del círculo de PCs, para otros dispositivos como Smartphones, la mayoría de las GPU vienen integradas en "System on Chip" junto al procesador y el controlador de memoria.

Page 99: Cartilla Reparacion PC Guía de Teórica

- 96 -

Cable de par trenzado

El cable de par trenzado usado en telecomunicaciones en el que dos conductores eléctricos aislados son entrelazados para anular las interferencias de fuentes externas y diafonía de los cables opuestos.

Descripción

El cable de par trenzado consiste en dos alambres de cobre aislados que se trenzan de forma helicoidal, como una molécula de ADN. De esta forma el par trenzado constituye un circuito que puede transmitir datos. Esto se hace porque dos alambres paralelos constituyen una antena simple. Cuando se trenzan los alambres, las ondas se cancelan, por lo que la radiación del cable es menos efectiva.1 Así la forma trenzada permite reducir la interferencia eléctrica tanto exterior como de pares cercanos.

Un cable de par trenzado está formado por un grupo de pares trenzados, normalmente cuatro, recubiertos por un material aislante. Cada uno de estos pares se identifica mediante un color.

El entrelazado de cables que llevan señal en modo diferencial (es decir que una es la invertida de la otra), tiene dos motivos principales:

Si tenemos que la forma de onda es A(t) en uno de los cables y en el otro es -A(t) y n(t) es ruido añadido por igual en ambos cables durante el camino hasta el receptor, tendremos: A(t) + n(t) en un cable y en el otro -A(t) + n(t) al hacer la diferencia en el receptor, quedaremos con 2A(t) y habremos eliminado el ruido.

Si pensamos en el campo magnético que producirá esta corriente en el cable y tenemos en cuenta que uno está junto al otro y que en el otro la corriente irá en sentido contrario, entonces los sentidos de los campos magnéticos serán opuestos y el módulo será prácticamente el mismo, con lo cual eliminaremos los campos fuera del cable, evitando así que se induzca alguna corriente en cables aledaños.

Tipos

Unshielded twisted pair (UTP) o «par trenzado sin blindaje»: son cables de pares trenzados sin blindar que se utilizan para diferentes tecnologías de redes locales. Son de bajo costo y de fácil uso, pero producen más errores que otros tipos de cable y tienen limitaciones para trabajar a grandes distancias sin regeneración de la señal, su impedancia es de 100 ohmios.

Page 100: Cartilla Reparacion PC Guía de Teórica

- 97 -

Shielded twisted pair (STP) o «par trenzado blindado»: se trata de cables de cobre aislados dentro de una cubierta protectora, con un número específico de trenzas por pie. STP se refiere a la cantidad de aislamiento alrededor de un conjunto de cables y, por lo tanto, a su inmunidad al ruido. Se utiliza en redes de ordenadores como Ethernet o Token Ring. Es más caro que la versión sin blindaje y su impedancia es de 150 ohmios.

Foiled twisted pair (FTP) o «par trenzado con blindaje global»: son cables de pares que poseen una pantalla conductora global en forma trenzada. Mejora la protección frente a interferencias y su impedancia es de 120 ohmios.

Screened fully shielded twisted pair (FSTP): es un tipo especial de cable que utiliza múltiples versiones de protección metalica, estos son blindados y apantallados.

Page 101: Cartilla Reparacion PC Guía de Teórica

- 98 -

Categorías

La especificación 568A Commercial Building Wiring Standard de la asociación Industrias Electrónicas e Industrias de las Telecomunicaciones (EIA/TIA) específica el tipo de cable UTP que se utilizará en cada situación y construcción. Dependiendo de la velocidad de transmisión, ha sido dividida en diferentes categorías de acuerdo a esta tabla:

Características de la transmisión

Está limitado en distancia, ancho de banda y tasa de datos. También destacar que la atenuación es una función fuertemente dependiente de la frecuencia. La interferencia y el ruido externo también son factores importantes, por eso se utilizan coberturas externas y el trenzado. Para señales analógicas se requieren amplificadores cada 5 o 6 kilómetros, para señales digitales cada 2 ó 3. En transmisiones de señales analógicas punto a punto, el ancho de banda puede llegar hasta 250 kHz. En transmisión de señales digitales a larga distancia, el data rate no es demasiado grande, no es muy efectivo para estas aplicaciones o dispositivos.

En redes locales que soportan ordenadores locales, el data rate puede llegar a 10 Mbps (Ethernet) y 100 Mbps (Fast Ethernet).

En el cable par trenzado de cuatro pares, normalmente solo se utilizan dos pares de conductores, uno para recibir (cables 3 y 6) y otro para transmitir (cables 1 y 2), aunque no se pueden hacer las dos cosas a la vez, teniendo una trasmisión half-dúplex. Si se utilizan los cuatro pares de conductores la transmisión es full-dúplex.

Page 102: Cartilla Reparacion PC Guía de Teórica

- 99 -

Ventajas Desventajas

Bajo costo en su contratación. Alto número de estaciones de trabajo por segmento. Facilidad para el rendimiento y la solución de problemas. Puede estar previamente cableado en un lugar o en cualquier parte.

Altas tasas de error a altas velocidades. Ancho de banda limitado. Baja inmunidad al ruido. Baja inmunidad al efecto crosstalk (diafonía) Alto costo de los equipos. Distancia limitada (100 metros por segmento).

RJ-45

RJ-45 (registered jack 45) es una interfaz física comúnmente usada para conectar redes de cableado estructurado, (categorías 4, 5, 5e, 6 y 6a). Es parte del Código Federal de Regulaciones de Estados Unidos. Posee ochopines o conexiones eléctricas, que normalmente se usan como extremos de cables de par trenzado.

Es utilizada comúnmente con estándares como TIA/EIA-568-B, que define la disposición de los pines o wiring pinout.

Una aplicación común es su uso en cables de red Ethernet, donde suelen usarse 8 pines (4 pares). Otras aplicaciones incluyen terminaciones de teléfonos (4 pines o 2 pares) por ejemplo en Francia y Alemania, otros servicios dered como RDSI y T1 e incluso RS-232.

El siguiente cuadro es una descripción breve de cuáles son los cables que pasa cada uno de los pines del conector RJ45 recordando que en combinación con el cable de par cruzado podemos construir un cable LAN para realizar conexiones de internet y de computador a computador.

1

TX+

Transceive data +

Blanco - Verde

Blanco - Naranja

Blanco - Naranja

Blanco - Verde

2

TX-

Transceive data -

Verde

Naranja

Naranja

Verde

Page 103: Cartilla Reparacion PC Guía de Teórica

- 100 -

3

RX+

Receive data +

Blanco - Naranja

Blanco - Verde

Blanco - Verde

Blanco - Naranja

4

BDD+

Bi-directional data +

Azul

Azul

Azul

Blanco - Marrón

5

BDD-

Bi-directional data -

Blanco - Azul

Blanco - Azul

Blanco - Azul

Marrón

6

RX-

Receive data -

Naranja

Verde

Verde

Naranja

7

BDD+

Bi-directional data +

Blanco - Marrón

Blanco - Marrón

Blanco - Marrón

Azul

8

BDD-

Bi-directional data -

Marrón

Marrón

Marrón

Blanco - Azul

Tipos de cable

El cable directo de red sirve para conectar dispositivos desiguales, como un computador con un hub o switch. En este caso ambos extremos del cable deben tener la misma distribución. No existe diferencia alguna en la conectividad entre la distribución 568B y la distribución 568A siempre y cuando en ambos extremos se use la misma, en caso contrario hablamos de un cable cruzado.

El esquema más utilizado en la práctica es tener en ambos extremos la distribución 568B.

Page 104: Cartilla Reparacion PC Guía de Teórica

- 101 -

Cable directo 568ª

Cable directo 568B

Cable cruzado

Un cable cruzado es un cable que interconecta todas las señales de salida en un conector con las señales de entrada en el otro conector, y viceversa; permitiendo a dos dispositivos electrónicos conectarse entre sí con una comunicación full dúplex. El término se refiere – comúnmente – al cable cruzado de Ethernet, pero otros cables pueden seguir el mismo principio. También permite transmisión confiable vía una conexión Ethernet.

Para crear un cable cruzado que funcione en 10/100baseT, un extremo del cable debe tener la distribución 568A y el otro 568B. Para crear un cable cruzado que funcione en 10/100/1000baseT, un extremo del cable debe tener la distribución Gigabit Ethernet (variante A), igual que la 568B, y el otro Gigabit Ethernet (variante B1). Esto se realiza para que el TX ( transmisión) de un equipo esté conectado con el RX ( recepción) del otro y a la inversa; así el que "habla" ( transmisión) es "escuchado" ( recepción).

Cable cruzado 568A/568B

Page 105: Cartilla Reparacion PC Guía de Teórica

- 102 -

Conectores RJ-45

Para que todos los cables funcionen en cualquier red, se sigue un estándar a la hora de hacer las conexiones. Los dos extremos del cable (UTP CATEGORIA 4 o 5) llevarán un conector RJ-45 con los colores en el orden indicado en la figura. Existen dos maneras de unir el cable de red con su respectivo terminal RJ-45, el crimpado o pochado se puede hacer de manera manual (crimpadora de tenaza) o al vacío sin aire mediante inyectado de manera industrial. La Categoría 5e / TIA-568B recomienda siempre utilizar latiguillo inyectado para tener valores ATT y NEXT fiables. Para usar con un HUB o SWITCH hay dos normas, la más usada es la B, en los dos casos los dos lados del cable son iguales:

Conexiones

Según el uso que le demos a nuestro cable podemos construirlo de varias formas. A modo de ejemplo si quisiéramos construir un cable para interconectar una computadora a internet o a un switch podríamos usar la misma norma en ambos extremos, es decir en una punta con la norma A o B y en la otra también usando la norma A o B. Si quisiéramos conectar 2 computadoras directamente sin usar algún tipo de concentrador (HUB, SWICHT, ROUTER) de por medio tendríamos que usar un cable de tipo cruzado, es decir que en cada en ambos extremos tengamos normas diferentes.

Para ser más claros:

Norma A Norma B

Blanco/verde Verde Blanco/Naranja Azul Blanco/Azul Naranja Blanco/Marrón Marrón

Blanco/Naranja Naranja Blanco/Verde Azul Blanco/Azul Verde Blanco/Marrón Marrón

PC A PC

Page 106: Cartilla Reparacion PC Guía de Teórica

- 103 -

PC Modem, Swicht, Router