74
UNIVERSIDAD TECNOLÒGICA DE PANAMÁ FACULTAD DE INGENIERÍA DE SISTEMAS COMPUTACIONALES MAESTRÍA EN CIENCIAS COMPUTACIONALES REDES DE ÁREA LOCAL VIRTUALIZACIÓN EN REDES DE ÁREA LOCAL Por: JUAN V. FERNÁNDEZ A. Prof.: Lydia de Toppin

monografia TERMINADA

  • Upload
    tite1

  • View
    3.964

  • Download
    1

Embed Size (px)

Citation preview

Page 1: monografia TERMINADA

UNIVERSIDAD TECNOLÒGICA DE PANAMÁ

FACULTAD DE INGENIERÍA DE SISTEMAS COMPUTACIONALES

MAESTRÍA EN CIENCIAS COMPUTACIONALES

REDES DE ÁREA LOCAL

VIRTUALIZACIÓN EN REDES DE ÁREA LOCAL

Por:

JUAN V. FERNÁNDEZ A.

Prof.: Lydia de Toppin

PANAMA, MAYO 2010

Page 2: monografia TERMINADA

Resumen De la Monografía presentada a consideración para el curso de Metodología para el Desarrollo de Software del Programa de Maestría en Ciencias Computacionales.

VIRTUALIZACIÓN EN REDES DE

ÁREA LOCAL

JUAN FERNÁNDEZ

Prof.: Lydia de Toppin

Resumen

La virtualización ha estado presente desde hace tiempo, pero la tecnología sigue

evolucionando. De hecho, la palabra en sí tiene significados distintos para diferentes

personas. No obstante, en términos generales, la virtualización hace referencia a la

abstracción de una capa de la pila de tecnología de la siguiente capa, como, por ejemplo,

el almacenamiento de los servidores o el sistema operativo de las aplicaciones. La

abstracción de las diferentes capas, a su vez, permite la consolidación y una mejor

capacidad de administración.

Como concepto, la virtualización se aplica al almacenamiento, las redes, los servidores,

las aplicaciones y el acceso. En relación con el almacenamiento y las redes, el objetivo

de la virtualización es agregar un conjunto de distintos dispositivos de modo que el

grupo total de recursos parezca y actúe como una sola entidad. Por ejemplo, puede

configurar una solución de almacenamiento de 40 TB en vez de un conjunto de 20

dispositivos de almacenamiento de 2 TB. Pero con otros componentes, la virtualización

actúa en la dirección contraria y le ayuda a que un único sistema aparezca como si

hubiera múltiples sistemas.

Page 3: monografia TERMINADA

CONTENIDO

CAPÍTULO I – INTRODUCCIÓN

1.1 La virtualización y automatización

CAPÍTULO II – REVISIÓN DE LA LITERATURA

2.1 Virtualización de plataforma

2.2 Diferencias entre virtualizar un Sistema operativo e instalarlo

2.3 Ventajas de la Virtualización

2.4 Programas útiles para virtualizar sistemas operativos

2.5 Virtualización por Hardware

2.6 La virtualización de almacenamiento

2.7 Infraestructura Virtual

2.8 Virtualización en sistemas operativos más reconocidos

CAPÍTULO III – DISCUSIÓN DE LA PROPUESTA

3.1 Virtualización de servidores: una propuesta atractiva pero no exenta de

riesgos

3.2 Pueden no conseguirse los esperados ahorros en hardware

CONCLUSIÓN

REFERENCIAS BIBLIOGRÁFICAS

Page 4: monografia TERMINADA

CAPÍTULO I – INTRODUCCIÓN

Recientemente se habla mucho de la virtualización, y gran parte de la discusión

trata específicamente de la virtualización de servidores. Es una de las tendencias más

interesantes en el sector y la que tiene la capacidad, en los próximos años, de cambiar el

paradigma de la implementación de los sistemas de TI. Pero la virtualización de

servidores no sólo cambiará el modo en que los administradores y arquitectos de TI

perciben los servidores y el uso del sistema, sino que también va a afectar a los procesos

y herramientas que se usan para administrar lo que, sin duda, se convertirá en un

entorno cada vez más dinámico.

Esta virtualización de servidores es un concepto utilizado para definir el proceso de

agrupar varios servidores en uno solo, manteniendo cada ambiente individual al mismo

tiempo que se optimiza el uso de recursos tales como procesadores, memoria, redes y

almacenamiento. El propósito es utilizar los recursos ociosos, balancear adecuadamente

las cargas de trabajo en los momentos peak y dar una administración centralizada.

Si revisamos cualquier organización ya sea una gran corporación o una Pyme nos

encontraremos con una cantidad insospechada de servidores, cada uno con servicios

importantes: correo, file server, web server, imágenes, Intranet, aplicaciones. En fin,

recursos complejos, costosos y, peor aún, difíciles de administrar.

1.1 La virtualización y automatización

La virtualización como tal no es la solución completa, la automatización es la clave para

que la virtualización funcione satisfactoriamente en aplicaciones reales, es necesario

hacer un uso intensivo de la automatización, de las herramientas administrativas basadas

en políticas que sirven para implantar y gestionar instancias virtualizadas.

Page 5: monografia TERMINADA

La automatización es la siguiente etapa de la virtualización. De hecho, analistas han

pronosticado que “Dado que la virtualización ha madurado, la siguiente revolución va a

consistir en automatizar la composición y gestión de estos recursos virtualizados”.

La introducción de la automatización inteligente en un datacenter traerá una

significativa mejora en el rendimiento del datacenter. La estandarización y la

automatización permiten una rápida respuesta y capacidad de adaptación manteniendo

los controles de calidad, eficiencia y asegurando retornos de inversión predecible y

consistente.

Mediante la automatización, es posible obtener todavía más ventajas que las que la

virtualización por sí sola aporta:

• Despliegues más rápidos

• Menor tiempo de paradas

• Recuperación ante desastres

• Respuesta dinámica y autoajustable a las cargas de trabajo

Toda la automatización se realiza mediante herramientas de gestión y automatización

centralizada, con las que le resultará más sencillo aprovechar todos los recursos

disponibles, le permitirá ejecutar en todo momento sus cargas de trabajo en la

plataforma más adecuada. Hoy en día existes múltiples herramientas disponibles para

trabajar directamente en ambientes virtualizados, mediante monitoreo de status de

equipos, balanceo automático de data, monitoreo de red, gestionadores de procesos, etc.

Page 6: monografia TERMINADA

CAPÍTULO II – REVISIÓN DE LA LITERATURA

Figura 1. Ambiente completamente virtualizado

En informática, virtualización se refiere a la abstracción de los recursos de una

computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una

capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo

de la máquina virtual (virtual machine, guest), siendo un medio para crear una versión

virtual de un dispositivo o recurso, como un servidor, un dispositivo de

almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en

uno o más entornos de ejecución.

Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales

de una computadora (CPU, Memoria, Red, Almacenamiento) y así podrá repartir

dinámicamente dichos recursos entre todas las máquinas virtuales definidas en el

computador central. De modo que nos permite tener varios ordenadores virtuales

ejecutándose sobre el mismo ordenador físico.

1

Page 7: monografia TERMINADA

Tal término es antiguo; se viene usando desde 1960, y ha sido aplicado a diferentes

aspectos y ámbitos de la informática, desde sistemas computacionales completos, hasta

capacidades o componentes individuales. Lo más importante en este tema de

virtualización es la de ocultar detalles técnicos a través de la encapsulación.

La virtualización se encarga de crear un interfaz externo que esconde una

implementación subyacente mediante la combinación de recursos en locaciones físicas

diferentes, o por medio de la simplificación del sistema de control. Un avanzado

desarrollo de nuevas plataformas y tecnologías de virtualización han hecho que se

vuelva a prestar atención a este importante concepto. De modo similar al uso de

términos como “abstracción” y “orientación a objetos”, virtualización es usado en

muchos contextos diferentes.

Este concepto que es realmente interesante y que se lleva desarrollando desde hace

muchos años, parece que finalmente está encontrando sus caminos productivos y de

desarrollo para profesionales.

La máquina virtual en general es un sistema operativo completo que corre como si

estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas

máquinas virtuales son simuladas en un computador central. Para que el sistema

operativo “guest” funcione, la simulación debe ser lo suficientemente grande (siempre

dependiendo del tipo de virtualización).

2

Page 8: monografia TERMINADA

2.1 Virtualización de plataforma

Esta involucra la simulación de máquinas virtuales. La virtualización de plataforma se

lleva a cabo en una plataforma de hardware mediante un software "host" (“anfitrión”),

que es un programa de control que simula un entorno computacional (máquina virtual)

para su software "guest" ("invitado"). Este software que generalmente es un sistema

operativo completo, se ejecuta como si estuviera instalado en una plataforma de

hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en una

máquina física dada. Para que el sistema operativo funcione, la simulación debe ser lo

suficientemente grande como para soportar todas las interfaces externas de los sistemas

invitados, las cuales se pueden incluir (todo esto dependiendo del tipo de virtualización)

los drivers de hardware.

Ejemplos

VMware Workstation

VMware Server

VirtualBox

Parallels Desktop

Virtual Iron

Adeos

Mac-on-Linux

Win4BSD

Win4Lin Pro

y z/VM

openvz

Oracle VM

XenServer

Microsoft Virtual PC 2007

Hyper-V

3

Page 9: monografia TERMINADA

Virtualización parcial

“Address Space Virtualization”. La máquina virtual simula múltiples instancias de gran

parte (pero no de todo) del entorno subyacente del hardware, particularmente espacio de

direcciones. Tal entorno acepta compartir recursos y alojar procesos, pero no permite

instancias separadas de sistemas operativos “guest”. Aunque no es vista como dentro de

la categoría de máquina virtual, históricamente éste fue un importante acercamiento, y

lo usaron en sistemas como CTSS, el experimental IBM M44/44X, y podría

mencionarse que en sistemas como OS/VS1, OS/VS2 y MVS.

2.2 Diferencias entre virtualizar un Sistema operativo e instalarlo

Virtualizar el sistema operativo es una opción interesante si no queremos instalar dos

sistemas operativos en el mismo ordenador, pero si por el contrario lo que hacemos es

instalarlo, todos los sistemas operativos que tengamos instalados funcionaran de la

misma manera que si estuvieran instalados en distintos ordenadores.

El único y pequeño inconveniente es que necesitamos un gestor de arranque que al

encender nuestro ordenador nos de la opción de elegir que sistema operativo queremos

utilizar, lo que conlleva a que si por ejemplo estamos en Windows y queremos cambiar

a Linux deberíamos reiniciar nuestro ordenador. La virtualización por el contrario

permite cambiar de sistema operativo como si se tratase de cualquier otro programa, sin

embargo, esta agilidad tiene la desventaja de que un sistema operativo virtualizado no es

tan potente como uno que ya estuviera instalado.

Retos de la Virtualización

Índices de utilización más altos antes que la virtualización, los índices de

utilización del servidor y almacenamiento en los centros de datos de la empresa

típicamente promediaron menos que el 50% (de hecho, del 10% al 15% de los

índices de utilización fueron comunes). A través de la virtualización, las cargas

de trabajo pueden ser encapsuladas y transferidas a los sistemas inactivos o sin

uso lo cual significa que los sistemas existentes pueden ser consolidados, así

que las compras de capacidad adicional del servidor pueden ser retrasadas o

evitadas.

4

Page 10: monografia TERMINADA

Consolidación de Recursos — La virtualización permite la consolidación de

múltiples recursos de TI. Más allá de la consolidación de almacenamiento, la

virtualización proporciona una oportunidad para consolidar la arquitectura de

sistemas, infraestructura de aplicación, datos y base de datos, interfaces, redes,

escritorios, e incluso procesos de negocios, resultando en ahorros de costo y

mayor eficiencia.

Uso/costo menor energía — La electricidad requerida para que funcionen los

centros de datos de clase empresarial ya no está disponible en suministros

ilimitados, y el costo está en una espiral ascendente. Por cada dólar gastado en

un servidor hardware, un dólar adicional es gastado en energía (incluyendo el

costo de los servidores en función y los enfriadores). Utilizando virtualización

para consolidar hace posible cortar el consumo total de energía y ahorrar dinero

de una manera significativa.

Ahorros de espacio — La extensión del servidor permanece como un serio

problema en la mayoría de los centros de datos empresariales, pero la expansión

del centro de datos no es siempre una opción, con los costos de construcción

promediando miles de dólares por pie cuadrado. La virtualización puede aliviar

la tensión mediante la consolidación de muchos sistemas virtuales en menos

sistemas físicos.

Recuperación de desastre/continuidad del negocio — La virtualización puede

incrementar la disponibilidad de los índices del nivel de servicio en general y

proporcionar nuevas opciones de soluciones para la recuperación de desastre.

Costos de operación reducidos — La empresa promedio gasta $8 dólares en

mantenimiento por cada $1 dólar invertido en nueva infraestructura. La

virtualización puede cambiar el radio de servicio-a administración reducir la

total carga de trabajo administrativo, y cortar el total de costos de operación.

5

Page 11: monografia TERMINADA

2.3 Ventajas de la Virtualización

Rápida incorporación de nuevos recursos para los servidores virtualizados.

Reducción de los costes de espacio y consumo necesario de forma proporcional

al índice de consolidación logrado (Estimación media 10:1).

Administración global centralizada y simplificada.

Nos permite gestionar nuestro CPD como un pool de recursos o agrupación de

toda la capacidad de procesamiento, memoria, red y almacenamiento disponible

en nuestra infraestructura

Mejora en los procesos de clonación y copia de sistemas: Mayor facilidad para la

creación de entornos de test que permiten poner en marcha nuevas aplicaciones

sin impactar a la producción, agilizando el proceso de las pruebas.

Aislamiento: un fallo general de sistema de una máquina virtual no afecta al

resto de máquinas virtuales.

No sólo aporta el beneficio directo en la reducción del hardware necesario, así

como de sus costos asociados

Reduce los tiempos de parada.

Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un

servidor físico a otro, eliminando la necesidad de paradas planificadas por

mantenimiento de los servidores físicos.

Balanceo dinámico de máquinas virtuales entre los servidores físicos que

componen el pool de recursos, garantizando que cada máquina virtual ejecute en

el servidor físico más adecuado y proporcionando un consumo de recursos

homogéneo y óptimo en toda la infraestructura.

Alto grado de satisfacción general

6

Page 12: monografia TERMINADA

2.4 Programas útiles para virtualizar sistemas operativos

Como todos conocemos existen dos tipos de programas: los que son de pago y los que

no. Dentro de los programas pagos encontramos uno de los más famosos: el VMware,

que es uno de los referentes en el mercado. A pesar de ser pago también existe una

versión más básica que es gratuita, VMware Player, que permite virtualizar a través de

una máquina virtual ya configurada. También existen webs que nos permiten rellenar un

formulario y descargarnos nuestra máquina virtual a nuestro gusto como EasyVMX!

Parallels Virtuozzo Containers, es otro de los programas pagos más famosos, que

permite la virtualización a nivel de sistema operativo o hardware Parallesl Bare Metal.

Típicamente suele emplearse para virtualizar Windows y, en menor medida,

GNU/Linux. Dentro de los programas gratuitos tenemos el Virtual PC de Microsoft, que

es un producto de Windows, compatible con versiones avanzadas de XP y Vista.

Dentro de los programas de código libre están el Xen, OpenVZ y VirtualBox, que

funcionan tanto en Windows como en GNU/Linux y ambos permiten virtualizar los tres

sistemas operativos más famosos.

Tipos de virtualización

La virtualización se puede hacer desde un sistema operativo Windows, ya sea XP, Vista

u otra versión que sea compatible con el programa que utilicemos, en el que

virtualizamos otro sistema operativo como Linux o viceversa, que tengamos instalado

Linux y queramos virtualizar una versión de Windows.

2.5 Virtualización por Hardware

Virtualización asistida por Hardware, son extensiones introducidas en la arquitectura

del procesador x86 y x64 para facilitar las tareas de virtualización al software corriendo

sobre el sistema. Si cuatro son los niveles de privilegio o "anillos" de ejecución en esta

arquitectura, desde el cero o de mayor privilegio, que se destina a las operaciones del

kernel de SO, al tres, con privilegios menores que es el utilizado por los procesos de

usuario, en esta nueva arquitectura se introduce un anillo interior o ring -1 que será el

que un hypervisor o Virtual Machine Monitor usará para aislar todas las capas

superiores de software de las operaciones de virtualización.

7

Page 13: monografia TERMINADA

Como de costumbre, los dos principales fabricantes de procesadores llegan a lo mismo

usando diferentes tecnologías, con similitudes pero incompatibles entre sí. Intel, con su

Intel Virtualization Technology (o Intel-VT), y AMD con su AMD Virtualization (o

AMD-V o también AMD "Pacífica").

Al igual que sucede con las extensiones de 64-bit (EM64T para Intel y AMD64 para

AMD), casi la totalidad de los procesadores de gama media-alta puestos en el mercado

en el último año soportan la virtualización asistida por hardware.

Además de todo esto, no basta con tener un procesador o procesadores compatibles. La

BIOS del equipo debe soportarla, lo que agrega otra variable a la ecuación y nos obliga

a visitar la página de descargas correspondiente del fabricante de nuestro hardware. En

las siguientes figuras aparece la opción en la BIOS para habilitar/deshabilitar la

virtualización.

Procesadores actuales con mejor tecnología de virtualización

Los procesadores AMD Opteron™ de Cuatro Núcleos:

Con Arquitectura de Conexión Directa y Virtualización™ AMD (AMD-V™) impulsan

las soluciones de alto rendimiento, flexibles y seguras para virtualización de servidores

disponibles actualmente.

La Indexación Rápida de Virtualización, una mejora de la tecnología AMD-V presente

en los procesadores AMD Opteron de Cuatro Núcleos, está desarrollada para aumentar

drásticamente el desempeño de las aplicaciones virtualizadas, permitiendo también una

8

Page 14: monografia TERMINADA

Alternancia más rápida entre las máquinas virtuales para que puedas alojar más

máquinas por servidor, maximizando los beneficios de la virtualización.

La Arquitectura de Conexión Directa de AMD incluye un controlador de memoria en la

pastilla para una administración óptima de la memoria un factor clave para el aumento

del desempeño, al tiempo que la tecnología HyperTransport™ aumenta la escalabilidad

de la plataforma y la tasa de transferencia.

Arquitectura de Conexión Directa:

La Arquitectura de Conexión Directa de AMD ofrece conexiones directas del

procesador a la memoria, del procesador al dispositivo de E/S y del procesador a otro

procesador, agilizando la virtualización del servidor. Los procesadores de cuatro

núcleos de AMD con computación de 64 bits ofrecen más ancho de banda de memoria y

más recursos del procesador para virtualización que cualquier otro procesador para

servidor comparable.

El Controlador de Memoria Integrado está desarrollado para mejorar el desempeño en

ambientes de virtualización con uso intensivo de memoria, alto ancho de banda, baja

latencia y acceso escalable a la memoria.

9

Page 15: monografia TERMINADA

Indexación Rápida de Virtualización: mejor desempeño en ambientes

virtualizados

La Indexación Rápida de Virtualización permite que las máquinas virtuales administren

más directamente la memoria para mejorar el rendimiento en muchas aplicaciones

virtualizadas.

Utilizando recursos del propio procesador en vez de software, La Indexación Rápida de

Virtualización puede reducir mucho los ciclos del Hypervisor y la pérdida de

rendimiento asociada comúnmente a la virtualización.

La Indexación Rápida de Virtualización también fue desarrollada para disminuir el

tiempo de alternancia entre una máquina virtual y la otra en un 25%, ofreciendo un

aumento de la capacidad de repuesta

La tecnología HyperTransport optimiza el movimiento de los datos y permite compartir

mejor los recursos entre las máquinas virtuales, proporcionando mayor escalabilidad del

sistema.

Los procesadores Intel Xeon serie 5500:

Constituyen una plataforma física mejor para la virtualización, con exclusivas

funciones asistidas por hardware para mejorar el centro de datos virtual y ayudar a

dominar la proliferación de servidores. El procesador Intel Xeon serie 5500, basado en

la microarquitectura Nehalem de Intel®, denominada con el código “Nehalem”, amplía

las ventajas de la virtualización con innovaciones que potencian el rendimiento, mejoran

las E/S, y permiten combinar servidores de diferentes generaciones en el mismo grupo

de servidores virtualizados, mejorando así la recuperación de fallos de las máquinas

virtuales, el equilibrio de cargas y las capacidades de recuperación ante desastres.

Tecnologías como Intel® Turbo Boost Technology, Intel Hyper-Threading Technology,

puertas de energía integradas e Intel Virtualization Technology (VT), mejoradas por

medio de tablas de páginas extendidas, le permiten al sistema adaptarse a un amplio

espectro de cargas de trabajo.

10

Page 16: monografia TERMINADA

Estas tecnologías están totalmente integradas y probadas y son ampliamente

compatibles con las principales soluciones de software de virtualización. Ofrecen a las

empresas de TI una base probada líder en el sector para optimizar el valor de sus

inversiones en servidores y virtualización.

2.6 La virtualización de almacenamiento

Se refiere al proceso de abstraer el almacenamiento lógico del almacenamiento físico, y

es comúnmente usado en SANs ("Storage Area Network" Red de área de

almacenamiento). Los recursos de almacenamiento físicos son agregados al "storage

pool" (almacén de almacenamiento), del cual es creado el almacenamiento lógico.

Una red SAN se distingue de otros modos de almacenamiento en red por el modo de

acceso a bajo nivel. El tipo de tráfico en una SAN es muy similar al de los discos duros

como ATA,SATA y SCSI. En otros métodos de almacenamiento, (como SMB o NFS),

el servidor solicita un determinado fichero, p.ej."/home/usuario/rocks". En una SAN el

servidor solicita "el bloque 6000 del disco 4". La mayoría de las SAN actuales usan el

protocolo SCSI para acceder a los datos de la SAN, aunque no usen interfaces físicas

SCSI. Este tipo de redes de datos se han utilizado y se utilizan tradicionalmente en

grandes main frames como en IBM, SUN o HP. Aunque recientemente con la

incorporación de Microsoft se ha empezado a utilizar en máquinas con sistemas

operativos Microsoft.

Una SAN es una red de almacenamiento dedicada que proporciona acceso de nivel de

bloque a LUNs. Un LUN, o número de unidad lógica, es un disco virtual proporcionado

11

Page 17: monografia TERMINADA

por la SAN. El administrador del sistema el mismo acceso y los derechos a la LUN

como si fuera un disco directamente conectado a la misma. El administrador puede

particionar y formatear el disco en cualquier medio que él elija.

Dos protocolos de red utilizados en una SAN son Fibre Channel e iSCSI. Una red de

canal de fibra es muy rápida y no está agobiada por el tráfico de la red LAN de la

empresa. Sin embargo, es muy cara. Las tarjetas de canal de fibra óptica cuestan

alrededor de $ 1000.00 USD cada una. También requieren especial conmutadores de

canal de fibra. iSCSI es una nueva tecnología que envía comandos SCSI sobre una red

TCP / IP. Este método no es tan rápido como una red Fibre Channel, pero ahorra costes,

ya que utiliza un hardware de red menos costoso.

A partir de desastres como lo fue el "martes negro" en el año 2001 la gente de TI, han

tomado acciones al respecto, con servicios de cómo recuperarse ante un desastre, cómo

recuperar miles de datos y lograr la continuidad del negocio, una de las opciones es

contar con la Red de área de almacenamiento, sin embargo las compañías se pueden

enfrentar a cientos de ataques, por lo que es necesario contar con un plan en caso de

contingencia; es de vital importancia que el sitio dónde se encuentre la Red de

almacenamiento, se encuentre en un área geográfica distinta a dónde se ubican los

servidores que contienen la información crítica; además se trata de un modelo

centralizado fácil de administrar, puede tener un bajo costo de expansión y

administración, lo que la hace una red fácilmente escalable; fiabilidad, debido a que se

hace más sencillo aplicar ciertas políticas para proteger a la red.

Una SAN se puede considerar una extensión de Direct Attached Storage (DAS). Donde

en DAS hay un enlace punto a punto entre el servidor y su almacenamiento, una SAN

permite a varios servidores acceder a varios dispositivos de almacenamiento en una red

compartida. Tanto en SAN como en DAS, las aplicaciones y programas de usuarios

hacen sus peticiones de datos al sistema de ficheros directamente. La diferencia reside

en la manera en la que dicho sistema de ficheros obtiene los datos requeridos del

almacenamiento. En DAS, el almacenamiento es local al sistema de ficheros, mientras

que en SAN, el almacenamiento es remoto. SAN utiliza diferentes protocolos de acceso

como Fibre Channel y Gigabit Ethernet. En el lado opuesto se encuentra la tecnología

Network-attached storage (NAS), donde las aplicaciones hacen las peticiones de datos a

los sistemas de ficheros de manera remota mediante protocolos CIFS y Network File

System (NFS).

12

Page 18: monografia TERMINADA

Estructura básica de una SAN

Las SAN proveen conectividad de E/S a través de las computadoras host y los

dispositivos de almacenamiento combinando los beneficios de tecnologías Fibre

Channel y de las arquitecturas de redes brindando así una aproximación más robusta,

flexible y sofisticada que supera las limitaciones de DAS empleando la misma interfaz

lógica SCSI para acceder al almacenamiento.

Las SAN se componen de tres capas:

Capa Host. Esta capa consiste principalmente en Servidores, dispositivos ó

componentes (HBA, GBIC, GLM) y software (sistemas operativos).

Capa Fibra. Esta capa la conforman los cables (Fibra óptica) así como los SAN

Hubs y los SAN switches como punto central de conexión para la SAN.

Capa almacenamiento. Esta capa la componen las formaciones de discos (Disk

Arrays, Memoria Caché, RAIDs) y cintas empleados para almacenar datos.

13

SAN vs NAS vs DAS

Page 19: monografia TERMINADA

La red de almacenamiento puede ser de dos tipos:

Red Fibre Channel. La red Fibre Channel es la red física de dispositivos Fibre

Channel que emplea Fibre Channel Switches y Directores y el protocolo Fibre

Channel Protocol (FCP) para transporte (SCSI-3 serial sobre Fibre Channel).

Red IP. Emplea la infraestructura del estándar LAN con hubs y/o switches

Ethernet interconectados. Una SAN IP emplea iSCSI para transporte (SCSI-3

serial sobre IP)

Híbrido SAN-NAS

Aunque la necesidad de almacenamiento es evidente, no siempre está claro cuál es la

solución adecuada en una determinada organización. Elegir la solución correcta puede

ser una decisión con notables implicaciones, aunque no hay una respuesta correcta

única, es necesario centrarse en las necesidades y objetivos finales específicos de cada

usuario u organización. Por ejemplo, en el caso concreto de las empresas, el tamaño de

la compañía es un parámetro a tener en cuenta. Para grandes volúmenes de información,

una solución SAN sería más acertada. En cambio, pequeñas compañías utilizan una

solución NAS. Sin embargo, ambas tecnologías no son excluyentes y pueden convivir

en una misma solución. Como se muestra en el gráfico, hay una serie de resultados

posibles que implican la utilización de tecnologías DAS, NAS y SAN en una misma

solución.

14

Page 20: monografia TERMINADA

Características:

Latencia - Una de las diferencias y principales características de las SAN es que

son construidas para minimizar el tiempo de respuesta del medio de transmisión.

Conectividad - Permite que múltiples servidores sean conectados al mismo

grupo de discos o librerías de cintas, permitiendo que la utilización de los

sistemas de almacenamiento y los respaldos sean óptimos.

Distancia - Las SAN al ser construidas con fibra óptica heredan los beneficios de

ésta, por ejemplo, las SAN pueden tener dispositivos con una separación de

hasta 10 Km sin ruteadores.

Velocidad - El rendimiento de cualquier sistema de computo dependerá de la

velocidad de sus subsistemas, es por ello que las SAN han incrementado su

velocidad de transferencia de información, desde 1 Gigabit, hasta actualmente 2

y 4 Gigabits por segundo.

Disponibilidad - Una de las ventajas de las SAN es que al tener mayor

conectividad, permiten que los servidores y dispositivos de almacenamiento se

conecten más de una vez a la SAN, de esta forma, se pueden tener rutas

redundantes que a su vez incrementaran la tolerancia a fallos.

Seguridad - La seguridad en las SAN ha sido desde el principio un factor

fundamental, desde su creación se notó la posibilidad de que un sistema

accediera a un dispositivo que no le correspondiera o interfiriera con el flujo de

información, es por ello que se ha implementado la tecnología de zonificación,

la cual consiste en que un grupo de elementos se aíslen del resto para evitar estos

problemas, la zonificación puede llevarse a cabo por hardware, software o

ambas, siendo capaz de agrupar por puerto o por WWN (World Wide Name),

una técnica adicional se implementa a nivel del dispositivo de almacenamiento

que es la Presentación, consiste en hacer que una LUN (Logical Unit Number)

sea accesible sólo por una lista predefinida de servidores o nodos (se implementa

con los WWN)

Componentes - Los componentes primarios de una SAN son: switches,

directores, HBAs, Servidores, Ruteadores, Gateways, Matrices de discos y

Librerías de cintas.

15

Page 21: monografia TERMINADA

Topología - Cada topología provee distintas capacidades y beneficios las

topologías de SAN son:

o Cascada (cascade)

o Anillo (ring)

o Malla (meshed)

o Núcleo/borde (core/edge)

ISL (Inter Switch Link, enlace entre conmutadores) - Actualmente las

conexiones entre los switches de SAN se hacen mediante puertos tipo "E" y

pueden agruparse para formar una troncal (trunk) que permita mayor flujo de

información y tolerancia a fallos.

Arquitectura - channel actuales funcionan bajo dos arquitecturas básicas, FC-AL

(Fibre Channel Arbitrated Loop) y Switched Fabric, ambos esquemas pueden

convivir y ampliar las posibilidades de las SAN. La arquitectura FC-AL puede

conectar hasta 127 dispositivos, mientras que switched fabric hasta 16 millones

teóricamente.

Ventajas:

Compartir el almacenamiento simplifica la administración y añade flexibilidad, puesto

que los cables y dispositivos de almacenamiento no necesitan moverse de un servidor a

otro, salvo en el modelo de SAN file system y en los cluster, el almacenamiento SAN

tiene una relación de uno a uno con el servidor. Cada dispositivo (o Logical Unit

Number LUN) de la SAN es "propiedad" de un solo ordenador o servidor. Como

ejemplo contrario, NAS permite a varios servidores compartir el mismo conjunto de

ficheros en la red. Una SAN tiende a maximizar el aprovechamiento del

almacenamiento, puesto que varios servidores pueden utilizar el mismo espacio

reservado para crecimiento.

Las rutas de almacenamiento son muchas, un servidor puede acceder a uno o "n" discos

y un disco puede ser accedido por más de un servidor, lo que hace que aumente el

beneficio o retorno de la inversión, es decir, el ROI (Return On Investment). La Red de

área de almacenamiento tiene la capacidad de respaldar en locaciones físicamente

distantes. Su objetivo es perder el menor tiempo posible o mejor aún, no perder tiempo,

así que tanto el respaldo como la recuperación son en línea. Una de las grandes ventajas

que también tiene es que proporciona alta disponibilidad de los datos.

16

Page 22: monografia TERMINADA

Una ventaja primordial de la SAN es su compatibilidad con los dispositivos SCSI ya

existentes, aprovechando las inversiones ya realizadas y permitiendo el crecimiento a

partir del hardware ya existente. Mediante el empleo de dispositivos modulares como

hubs, switches, bridges y routers, se pueden crear topologías totalmente flexibles y

escalables, asegurando la inversión desde el primer día y, lo que es más importante,

aprovechando dispositivos SCSI de costo considerable como subsistemas RAID SCSI a

SCSI, librerías de cintas o torres de CD-ROM, ya que a través de un bridge Fibre

Channel a SCSI podemos conectarlos directamente a la SAN. Puesto que están en su

propia red, son accesibles por todos los usuarios de manera inmediata.

El rendimiento de la SAN está directamente relacionado con el tipo de red que se

utiliza. En el caso de una red de canal de fibra, el ancho de banda es de

aproximadamente 100 megabytes/segundo (1.000 megabits/segundo) y se puede

extender aumentando la cantidad de conexiones de acceso.

La capacidad de una SAN se puede extender de manera casi ilimitada y puede alcanzar

cientos y hasta miles de terabytes. Una SAN permite compartir datos entre varios

equipos de la red sin afectar el rendimiento porque el tráfico de SAN está totalmente

separado del tráfico de usuario. Son los servidores de aplicaciones que funcionan como

una interfaz entre la red de datos (generalmente un canal de fibra) y la red de usuario

(por lo general Ethernet).

Desventajas:

Por otra parte, una SAN es mucho más costosa que una NAS ya que la primera es una

arquitectura completa que utiliza una tecnología que todavía es muy cara. Normalmente,

cuando una compañía estima el TCO (Coste total de propiedad) con respecto al costo

por byte, el coste se puede justificar con más facilidad.

Protocolos:

Existen tres protocolos básicos usados en una red de área de almacenamiento:

FC-AL

FC-SW

SCSI

FC-AL: Protocolo Fibre Channel Arbitrated Loop, usado en hubs, en la SAN hub este

protocolo es el que se usa por excelencia, el protocolo controla quién puede

comunicarse, sólo uno a la vez.

17

Page 23: monografia TERMINADA

FC-SW: Protocolo Fibre Channel Switched, usado en switches, en este caso varias

comunicaciones pueden ocurrir simultáneamente. El protocolo se encarga de conectar

las comunicaciones entre dispositivos y evitar colisiones.

SCSI: Usado por las aplicaciones, es un protocolo usado para que una aplicación de un

equipo se comunique con el dispositivo de almacenamiento. En la SAN, el SCSI se

encapsula sobre FC-AL o FC-SW. SCSI trabaja diferente en una SAN que dentro de un

servidor, SCSI fue originalmente diseñado para comunicarse dentro de un mismo

servidor con los discos, usando cables de cobre. Dentro de un servidor, los datos SCSI

viajan en paralelo y en la SAN viajan serializados.

Seguridad:

Una parte esencial de la seguridad de las redes de área de almacenamiento es la

ubicación física de todos y cada uno de los componentes de la red. La construcción de

un data center es sólo la mitad del desafío, es el hecho de decidir dónde pondremos los

componentes de la red (tanto Software como Hardware) la otra mitad y la más difícil.

Los componentes críticos de la red, como pueden ser los switches, matrices de

almacenamiento o hosts los cuales deben estar en el mismo data center. Al implementar

seguridad física, sólo los usuarios autorizados pueden tener la capacidad de realizar

cambios tanto físicos como lógicos en la topología, cambios como pueden ser: cambio

de puerto de los cables, acceso a reconfigurar algún equipo, agregar o quitar

dispositivos entre otros.

La planificación también debe tomar en cuenta las cuestiones del medio ambiente como

puede ser la refrigeración, la distribución de energía y los requisitos para la

recuperación de desastres. Al mismo tiempo se debe asegurar que las redes IP que se

utilizan para gestionar los diversos componentes de la SAN son seguros y no son

accesibles para toda la compañía. También tiene sentido cambiar las contraseñas por

defecto que tienen los dispositivos de la red para así prevenir el uso no autorizado.

18

Page 24: monografia TERMINADA

2.7 Infraestructura Virtual

Una infraestructura virtual consiste en el mapping dinámico de recursos físicos en

función de las necesidades de la empresa. Una máquina virtual representa los recursos

físicos de un único ordenador, mientras que una infraestructura virtual representa los

recursos físicos de la totalidad del entorno de TI, aglutinando ordenadores x86, así

como su red y almacenamiento asociados, en un pool unificado de recursos de TI.

Estructuralmente, una infraestructura virtual consta de los siguientes componentes:

Hypervisor de un solo nodo para hacer posible la virtualización de todos los

ordenadores x86.

Un conjunto de servicios de infraestructura de sistemas distribuida basada en la

virtualización, como gestión de recursos, para optimizar los recursos disponibles

entre las máquinas virtuales .

Soluciones de automatización que proporcionen capacidades especiales para

optimizar un proceso de TI concreto, como aprovisionamiento o recuperación

ante desastres. Mediante la separación de la totalidad del entorno de software de

su infraestructura de hardware subyacente, la virtualización hace posible la

reunión de varios servidores, estructuras de almacenamiento y redes en pools

compartidos de recursos que se pueden asignar de forma dinámica, segura y

fiable a las aplicaciones según sea necesario. Este enfoque innovador permite a

las organizaciones crear una infraestructura informática con altos niveles de

utilización, disponibilidad, automatización y flexibilidad utilizando componentes

básicos de servidores económicos y estándar del sector.

Ventajas de la Infraestructura Virtual:

Las soluciones de infraestructura virtual son ideales para entornos de producción en

parte debido a que se ejecutan en servidores y escritorios estándar de la industria y son

compatibles con una amplia gama de sistemas operativos y entornos de aplicación, así

como de infraestructuras de red y almacenamiento. Se han diseñado las soluciones para

que funcionen de manera independiente del hardware y del sistema operativo y poder

brindar a los clientes amplias posibilidades de elección de plataforma. Como resultado,

son soluciones que proporcionan un punto de integración clave para los proveedores de

19

Page 25: monografia TERMINADA

hardware y gestión de infraestructuras de cara a ofrecer un valor único y aplicable por

igual en todos los entornos de aplicación y sistemas operativos.

Las empresas que han adoptado estas soluciones de infraestructura virtual nos han

comunicado unos clarísimos resultados positivos, entre ellos:

Índices de utilización del 60 al 80% para servidores x86 (frente al 5 a 15% en

hardware no virtualizado).

Capacidad para el aprovisionamiento de nuevas aplicaciones en cuestión de

minutos, en lugar de días o semanas.

Mejora en tiempo de recuperación de paradas imprevistas.

Desventajas de la Infraestructura Virtual:

Menor rendimiento, dado que una máquina virtual corre en una capa intermedia

a la del hardware real, siempre tendrá un rendimiento inferior. Si es necesario

virtualizar, elegir bien la solución necesaria en función de rendimiento y por

supuesto costos y escalabilidad.

Teóricamente no se podrá utilizar hardware que no esté soportado por el

hypervisor de virtualización.

Hardware virtual obsoleto. Hasta hoy las máquinas virtuales solo nos ofrecen el

acceso a tecnología antiguas como USB 1.0, Firewire 400, Ethernet 100, pero

por suerte hypervisor sigue evolucionando para estar al día con las últimas

tendencias.

La aceleración de vídeo se ve afectada por el menor rendimiento, pero se han

conseguido que funcione muy bien las últimas versiones de aplicaciones de

20

Page 26: monografia TERMINADA

virtualización de escritorio como VmWare o Parallels ya incluyen soporte para

OpenGL y DirectX.

Aumento de las máquinas virtuales, como una vía para ahorrar compra de hierro,

servidores dedicados reales, y con la idea de mejorar la escalabilidad de los

proyectos, aunque también es necesario más tiempo de administración de

sistemas, gestión de licencia (si tenemos virtualización de pago), posibles

riesgos de seguridad.

A veces se desaprovechan los recursos con la creación de máquinas virtuales que

no son necesarias.

La avería o fallo de un servidor anfitrión de virtualización afecta a todos los

servidores virtuales que aloja, por lo que es importante no solo realizar copias de

seguridad de las máquinas, incluso según lo crítico que sea el proyecto un

clústeres de servidores anfitriones para evitar este posible fallo.

Como cada producto de virtualización usa su propio sistema, no hay

uniformidad o estandarización de formatos, la portabilidad entre plataformas es

realmente complicada. Por eso es importante esa decisión al principio, lo más

normal es utilizar GNU/Linux como base.

La virtualización incide de forma directa en la venta de servidores reales, aunque

los servidores utilizados para virtualizar suelen ser más potentes y por supuesto

más caros.

El sistema operativo anfitrión se vuelve crítico, por lo que la seguridad de este es

vital, así como evitar reinicios innecesarios que hacen todas las máquinas

virtuales que alojan puedan quedar fuera de servicio. El reiniciar ya no es la

solución, como quizás muchas veces lo es.

21

Page 27: monografia TERMINADA

2.8 Virtualización en sistemas operativos más reconocidos

Virtualización en Microsoft WindowsIntroducción a Hyper-V en Windows Server 2008

 Microsoft ha abordado la virtualización en diferentes niveles, que van desde el

escritorio hasta el centro de datos con soluciones para la virtualización de servidores,

virtualización de aplicaciones, virtualización de presentaciones y virtualización de

escritorios. El denominador común de todos ellos es la administración con Microsoft

System Center. El componente de virtualización de servidores y, específicamente, en el

modo en que Hyper-V, una característica clave de Windows Server 2008, encaja en la

ecuación de un centro de datos dinámico.

Hyper-V es una tecnología de virtualización avanzada basada en hypervisor de 64 bits

que ofrece capacidades de plataforma confiables y escalables. Junto con System Center,

proporciona un único conjunto de herramientas de administración integradas para los

recursos físicos y virtuales.

Todo esto sirve para reducir costos, mejorar el uso, optimizar la infraestructura y

permitir que las empresas aprovisionen rápidamente nuevos servidores.

Tipos de soluciones de virtualización:

Esencialmente existen tres arquitecturas generales que se usan para la virtualización de

servidores, tal y como se muestra en la figura abajo expuesta. Las diferencias

fundamentales tienen que ver con la relación entre la capa de virtualización y el

hardware físico. La capa de virtualización es la capa de software denominada monitor

de máquina virtual (VMM, que no se debe confundir con Virtual Machine Manager).

Esta es la capa que proporciona la capacidad de crear varias instancias aisladas que

comparten los mismos recursos de hardware subyacentes.

22

Page 28: monografia TERMINADA

La arquitectura VMM de tipo 2 se ejemplifica mediante máquinas virtuales Java. Aquí,

el objetivo de virtualización es crear un entorno de tiempo de ejecución en el que el

proceso puede ejecutar un conjunto de instrucciones sin basarse en el sistema host. En

este caso, el aislamiento es para los distintos procesos y permite que una sola aplicación

se ejecute en varios sistemas operativos sin tener que preocuparse de las dependencias

de sistema operativo. La virtualización de servidores no se incluye en esta categoría.

El VMM de tipo 1 y los VMM híbridos son dos tipos de planteamientos que

probablemente tengan una mayor difusión en la actualidad. El VMM híbrido constituye

una etapa en la que el VMM se ejecuta junto al sistema operativo host y ayuda a crear

máquinas virtuales en él. Algunos ejemplos de VMM híbrido son Microsoft Virtual

Server, Microsoft Virtual PC, VMware Workstation y VMware Player. Debe tener en

cuenta que estos tipos de soluciones son excelentes para un escenario de cliente donde

sólo se ejecutan máquinas virtuales una parte del tiempo, ya que los VMM agregan una

sobrecarga considerable y, por lo tanto, no resultan adecuados para cargas de trabajo

que realicen un uso intensivo de los recursos.

En una arquitectura VMM de tipo 1, la capa de VMM se ejecuta directamente sobre el

hardware. Se suele denominar capa de hypervisor. Esta arquitectura la diseñó IBM

originalmente en la década de 1960 para los grandes sistemas (mainframe) y

recientemente se ha hecho disponible en las plataformas x86/x64 con una amplia

variedad de soluciones, incluido Windows Server 2008 Hyper-V.

Existen soluciones en las que el hypervisor es una parte incrustada del firmware. No

obstante, se trata simplemente de una opción de empaquetado y no cambia realmente la

tecnología subyacente.

En lo que respecta a los VMM de tipo 1, existen principalmente dos modos principales

de diseñar las soluciones de hypervisor: con microkernel y monolítico. Ambos de estos

enfoques, tal y como se muestra en la figura de abajo, son auténticos VMM de tipo 1 en

los que el hypervisor se instala directamente en el hardware físico.

23

Page 29: monografia TERMINADA

El enfoque de hypervisor monolítico hospeda el hypervisor/VMM en una sola capa que

también incluye la mayor parte de los componentes requeridos, como el kernel, los

controladores de dispositivo y la pila de E/S. Se trata del enfoque que usan soluciones

como VMware ESX y los grandes sistemas (mainframe) tradicionales.

El enfoque con microkernel usa un hypervisor muy ligero y especializado que sólo lleva

a cabo las tareas principales para garantizar el aislamiento de particiones y la

administración de la memoria. Esta capa no incluye la pila de E/S ni los controladores

de dispositivo. Es el enfoque que usa Hyper-V. En esta arquitectura, la pila de

virtualización y los controladores de dispositivo específicos del hardware se encuentran

en una partición especializada que se denomina la partición principal.

Hypervisor de Windows:

La separación sólida entre los múltiples sistemas operativos se garantiza con la creación

de procesadores virtuales, memoria, temporizadores y controladores de interrupciones.

Los sistemas operativos usan estos recursos virtuales del mismo modo que usarían sus

homólogos físicos.

El hypervisor de Windows, parte de Hyper-V, realiza las siguientes tareas:

Crea particiones lógicas.

Administra la programación de memoria y procesador para los sistemas operativos

invitados.

Proporciona mecanismos para virtualizar la entrada/salida y establecer comunicación

entre las particiones.

Aplica las reglas de acceso a la memoria.

Aplica la directiva de uso de la CPU.

Expone una interfaz de programación sencilla denominada hiperllamadas.

Debido a que usa el enfoque con microkernel, el hypervisor de Windows es bastante

pequeño, con un tamaño de menos de 1 MB. Este espacio mínimo contribuye a mejorar

la seguridad general del sistema.

Uno de los requisitos para ejecutar Hyper-V es disponer de un sistema x64 que tenga

tecnologías Intel VT o AMD-V. La tecnología x64 permite el acceso a un espacio de

direcciones mayor y compatibilidad con sistemas con más memoria, con lo que se

pueden ejecutar más máquinas virtuales en un solo sistema host. Intel VT y AMD-V son

las soluciones de virtualización asistida por hardware que proporcionan una capa con

24

Page 30: monografia TERMINADA

grandes privilegios en la arquitectura de anillo que ayuda a mantener el entorno de

ejecución del hypervisor separado del resto del sistema. También permiten que Hyper-V

ejecute un sistema operativo no modificado sin que suponga una penalización

importante en el rendimiento de emulación.

Partición principal:

Hyper-V consta de una partición principal, que es esencialmente una máquina virtual

que tiene un acceso especial o privilegiado. Es la única máquina virtual con acceso

directo a los recursos de hardware. Todas las demás máquinas virtuales, que se

denominan particiones invitadas, pasan por la partición principal para obtener acceso a

sus dispositivitos.

La existencia de la partición principal es bastante transparente. Cuando se comienza a

instalar Hyper-V, lo primero que debe hacer es instalar Windows Server 2008 x64

Edition en el sistema físico. A continuación, se debe ir a Administrador de servidores,

habilitar la función de Hyper-V y reiniciar el sistema. Una vez reiniciado el sistema,

primero se carga el hypervisor de Windows y, después, el resto de la pila se convierte en

la partición principal.

La partición principal es la propietaria del teclado, el mouse, la pantalla de vídeo y otros

dispositivos conectados al servidor host. No tiene control directo sobre los

temporizadores y los controladores de interrupciones que usa el hypervisor.

La partición principal contiene un proveedor de Instrumental de administración de

Windows (WMI) para facilitar la administración de todos los aspectos del entorno

virtualizado, así como una pila de virtualización que lleva a cabo las tareas relacionadas

con el hardware en nombre de las particiones secundarias. Además, los controladores de

fabricante de hardware independiente (IHV) que necesita el hardware del sistema host

se incluyen en la partición principal y los controladores creados para las ediciones de

Windows Server 2008 x64 también funcionan en la partición principal.

Arquitectura de uso compartido de dispositivos:

Uno de los componentes de arquitectura innovadores en Hyper-V es la nueva

arquitectura de uso compartido de dispositivos que admite los dispositivos emulados y

sintéticos en cada sistema operativo invitado. La emulación de dispositivos resulta

bastante útil para la compatibilidad de sistemas operativos anteriores en controladores

de dispositivo diseñados para generaciones de hardware antiguas. Por ejemplo, Hyper-V

25

Page 31: monografia TERMINADA

incluye una emulación del adaptador de red Intel 21140, que se denominó adaptador de

red DEC 21140 cuando se distribuían numerosos sistemas operativos antiguos.

Por lo general, la emulación de dispositivos es lenta, no se puede ampliar fácilmente y

no se escala bien. Pero la emulación sigue siendo importante porque permite ejecutar la

mayoría de los sistemas operativos x86 en Hyper-V. Debido a que la virtualización

ahora está pasando de una tecnología nicho principalmente para pruebas y desarrollo a

una tecnología esencial para entornos de producción, los usuarios requieren un mejor

rendimiento para ejecutar mayores cargas de trabajo. Los dispositivos emulados ya no

cumplen estas demandas cada vez más exigentes.

Una solución alternativa a esto es usar dispositivos sintéticos de Hyper-V. Los

dispositivos sintéticos son dispositivos virtuales que se asignan directamente a

dispositivos físicos. A diferencia de los dispositivos emulados, los sintéticos no emulan

el hardware heredado. Con el modelo de uso compartido de hardware de Hyper-V, los

sistemas operativos invitados compatibles pueden interactuar directamente con los

dispositivos sintéticos que tal vez no tengan equivalentes físicos. Estos sistemas

operativos usan clientes de servicio virtuales (VSC), que actúan como controladores de

dispositivo dentro del sistema operativo invitado.

En vez de obtener acceso al hardware físico directamente, los VSC usan VMBus, que es

un bus de alta velocidad en memoria, para tener acceso a los proveedores de servicios

virtuales (VSP) en la partición principal. A continuación, los VSP administran el acceso

al hardware físico subyacente, tal y como se ilustra en la figura de abajo. Una ventaja

clave de los dispositivos sintéticos es que el rendimiento de dichos dispositivos sobre

VMBus se aproxima al de los dispositivos de hardware no virtualizados.

26

Page 32: monografia TERMINADA

Componentes de integración:

Hyper-V se ha diseñado para proporcionar límites sólidos entre las distintas instancias

que se ejecutan en un equipo. Para habilitar la interacción entre los sistemas operativos

invitado y host, y para suministrar funcionalidad adicional a los sistemas operativos

invitados compatibles, Hyper-V proporciona componentes de integración.

Las componentes de integración de Hyper-V admiten las siguientes características:

Sincronización de hora

Servicio de instantáneas de volumen (VSS)

Funcionalidad Latido

Apagado de invitado

Intercambio de pares de clave y-valor (se usa para el acceso al Registro de un sistema

operativo invitado)

Identificación de sistema operativo

Conjunto de características de Hyper-V:

Cuanto más se aproxima la plataforma de virtualización a la forma de actuar de un

servidor físico, más fácil resulta para las organizaciones implementar y confiar en las

cargas de trabajo virtuales.

En la actualidad, la mayoría de las soluciones de virtualización basadas en hypervisor se

parecen mucho en cuanto a características y funcionalidad. A medida que se avanza,

cuestiones como el costo total de propiedad (TCO) y la facilidad de uso serán los

diferenciadores clave. Se realizarán inversiones continuas en las soluciones de

administración y el desarrollo nos acercará a la visión de un entorno de TI dinámico,

donde la infraestructura es lo suficientemente flexible como para adaptarse a las

necesidades de la empresa, y los modelos y directivas ayudarán a impulsar una mayor

automatización y administración.

Escalabilidad:

Gracias a la arquitectura de hypervisor con microkernel, Hyper-V tiene muy poca

sobrecarga de CPU, lo que deja mucho espacio para virtualizar las cargas de trabajo. Al

permitir que las máquinas virtuales hagan uso de características y hardware eficaces,

como la tecnología de multinúcleo, el acceso a disco mejorado y más memoria, Hyper-

V mejora la escalabilidad y el rendimiento de la plataforma de virtualización.

27

Page 33: monografia TERMINADA

Combinado con el resto de las capacidades de Windows Server 2008, Hyper-V permite

consolidar la mayoría de las cargas de trabajo (incluidas las de 32 y 64 bits) en un solo

sistema. Y puede ayudar a equilibrar la adopción de tecnología de 64 bits con

compatibilidad continua con las cargas de trabajo de 32 bits que ya se usan en el

entorno.

El hecho de que Hyper-V requiera un sistema host de 64 bits con virtualización asistida

por hardware contribuye a garantizar que el sistema host podrá obtener acceso a un

grupo grande de recursos de memoria. Hyper-V puede admitir hasta 1 TB de memoria

en el host, con hasta 64 GB de memoria por máquina virtual. Esto resulta clave para

quien planifique virtualizar cargas de trabajo que hacen un uso intensivo de la memoria,

como Exchange Server y SQL Server.

Hyper-V también admite hasta 16 procesadores lógicos en el sistema host, lo que

convierte a Hyper-V en escalable para la mayoría de los sistemas de dos y cuatro

zócalos comerciales con varios núcleos. También puede crear una máquina virtual con

un máximo de cuatro procesadores virtuales con el fin de admitir cargas de trabajo que

requieran o aprovechen las ventajas de un multiprocesador.

La consolidación de servidores mediante Hyper-V también permite a dichos servidores

utilizar la sólida compatibilidad de funciones de red, incluido VLAN, Traducción de

direcciones de red (NAT) y las directivas (cuarentena) de Protección de acceso a redes

(NAP). Y como una característica de Windows Server 2008, Hyper-V funciona bien con

otras características de Windows Server, como BitLocker y Windows PowerShell.

Alta disponibilidad:

La alta disponibilidad es un escenario donde Hyper-V y las capacidades de agrupación

en clúster del host colaboran para atender las necesidades de continuidad de negocio y

la recuperación ante desastres. La continuidad de negocio es la capacidad de minimizar

el tiempo de inactividad programado y el no programado. Esto incluye el tiempo que se

pierde con las funciones rutinarias tales como el mantenimiento o la copia de seguridad,

así como las interrupciones imprevistas.

La recuperación ante desastres es un componente clave de la continuidad de negocio.

Los desastres naturales, los ataques malintencionados e incluso los problemas sencillos

de configuración, como los conflictos de software, pueden paralizar los servicios y las

aplicaciones hasta que los administradores resuelven el problema y restauran los datos.

28

Page 34: monografia TERMINADA

Una estrategia confiable de negocio y de recuperación ante desastres debe ofrece una

mínima pérdida de datos y capacidades de administración remota eficaces.

En lo que respecta a la alta disponibilidad, debe considerar tres categorías distintas:

tiempo de inactividad planificado, tiempo de inactividad no planificado y copias de

seguridad. La protección para el tiempo de inactividad no planificado normalmente es

necesaria para quitar las máquinas virtuales del sistema host para poder realizar tareas

de mantenimiento de hardware o aplicar revisiones al sistema host o la plataforma de

virtualización (que puede requerir que se reinicie).

La mayoría de las organizaciones tienen intervalos de mantenimiento planificado y lo

que se busca realmente es minimizar o eliminar el período de tiempo en el que las

máquinas virtuales no estarán disponibles mientras el sistema está inactivo durante el

mantenimiento. Con la característica Migración rápida se puede migrar rápidamente una

máquina virtual en ejecución desde un nodo físico a otro en cuestión de segundos. De

este modo puede mantener la disponibilidad de las máquinas virtuales para el entorno de

producción mientras lleva a cabo el mantenimiento en el host original. Una vez

terminado el mantenimiento, puede usar Migración rápida para devolver las máquinas

virtuales a su sistema host original.

El tiempo de inactividad no planificado es el que no se ha previsto. Puede ser de

naturaleza catastrófica o tan simple como que un usuario desenchufe accidentalmente

un cable de alimentación y apague un servidor.

Con Hyper-V, puede configurar un clúster de hosts para los distintos sistemas host y

configurar todas las máquinas virtuales como recursos de clúster que pueden realizar la

conmutación por error en otro sistema en el caso de que se produzca un error en uno de

los hosts. Mientras tanto, la capacidad de agrupación en clúster multisitio de Windows

Server 2008 permitirá configurar un clúster disperso geográficamente de modo que, si

se produce un error en el centro de datos principal, se tenga la capacidad de recuperar

las distintas máquinas virtuales en un centro de datos remoto.

Esto también resulta útil para proteger todas las sucursales. Una de las ventajas de

administrar el tiempo de inactividad no planificado con Hyper-V es que es

independiente del sistema operativo invitado, lo que significa que puede ampliar sus

ventajas de alta disponibilidad a máquinas virtuales Linux y a versiones anteriores de

Windows Server para proteger y recuperar estos sistemas de forma similar.

29

Page 35: monografia TERMINADA

Capacidad de administración:

Es fácil pasar de un ligero problema de dispersión de servidores a una dispersión de

servidores masiva. Es el riesgo que conlleva la facilidad de implementación de las

máquinas virtuales. Y con la mayor movilidad de las máquinas virtuales, debe saber

exactamente dónde se ejecutan las distintas máquinas virtuales, mantener un

seguimiento de sus contextos de seguridad, etc.

Afortunadamente, con Hyper-V no tiene que crear una infraestructura de administración

independiente para su entorno virtual. Se integra con las herramientas de administración

de Microsoft, System Center Virtual Machine Manager y Microsoft System Center

Operations Manager, así como con herramientas de administración de terceros. Esto

permite administrar todos los recursos físicos y virtuales desde una consola.

Virtualización en GNU/Linux

Hay instrucciones de modo protegido que impiden ejecutar dos sistemas operativos

simultáneamente, pero mediante software se pueden suplir (con bastante complejidad)

las carencias de hardware. Así mismo mediante software se emulan componentes del

hardware como discos, tarjeta gráfica, de red y de sonido.

Además de la virtualización de la CPU, está la del resto del hardware: tarjeta de red,

discos, tarjeta gráfica... Para esta parte la mayoría de los proyectos libres toman código

de Qemu.

Hay varios métodos de implementar la virtualización del procesador:

1. Emuladores totales: emulan totalmente el hardware, incluyendo el procesador. Es el

caso de Booch. Su rendimiento es muy pobre.

2. Emuladores con compilación JIT: es el caso de Qemu, cuando se ejecuta sin el

módulo kqemu. El código necesita "compilarse" para la máquina virtual, si bien como

los compiladores JIT de Java se hace sólo la primera vez que se ejecuta el código, luego

ya está compilado. Mucho más rápidos que los emuladores totales, pero más lentos que

el resto de soluciones. Se puede ejecutar como usuario normal sin instalar nada como

root. Se pueden emular procesadores distintos.

30

Page 36: monografia TERMINADA

3. Virtualizadores completos: es el caso de Vmware (software privativo), Qemu con el

módulo de aceleración Kqemu (antes privativo ahora libre) y Virtual Box (software con

una versión libre y otra más funcional privativa). Se basan en un VMM (Virtual

Machine Monitor, también conocido como hypervisor) que mediante complicadas

técnicas (como traps y análisis del código antes de su ejecución) detecta en tiempo de

ejecución el código que no puede ejecutarse directamente porque afectaría a todo el

sistema, modificando dinámicamente las instrucciones conflictivas. El rendimiento varía

mucho según lo avanzado que sea el VMM: Vmware tiene varias patentes. Estos tres

programas permiten instalar un sistema operativo sobre un virtualizador del mismo

modo que sobre un PC: la ventana del virtualizador asemeja el monitor de un PC,

podemos entrar en la BIOS, reiniciar el ordenador.

4. Paravirtualizadores: es el caso de Xen y UML (User mode Linux). En lugar de tener

que detectar un VMM los casos conflictivos en tiempo de ejecución, se modifica el

código fuente de los sistemas operativos para evitar esos casos conflictivos. En lugar de

el VMM tener que analizar el código, es el código quien invoca al VMM cuando sea

necesario. Esta técnica simplifica muchísimo el VMM y ofrece muy buen rendimiento,

aunque en el caso concreto de UML el rendimiento es mediocre. La pega es que haya

que parchear el sistema operativo, sobre todo para poder ejecutar Windows. Xen

parcheó un Windows XP en un programa de investigación que permitía acceso al

código fuente de Microsoft, pero ese tipo de licencias no permitía distribuir el resultado.

UML también se puede considerar dentro de esta categoría, pues es una modificación

del kernel de Linux para que pueda ejecutarse dentro de otro Linux. Xen no emula una

tarjeta gráfica SVGA "completa" como Qemu, Vmware o VirtualBox, pero utiliza VNC

que para el sistema guest se ve como una tarjeta VGA. Vmware y VirtualBox no son

paravirtualizadores, pero utilizan esta técnica para virtualizar la E/S en los drivers

especiales que se ejecutan en el sistema guest (por ejemplo el driver de red y el de la

tarjeta gráfica: se comunican con el hypervisor en lugar de ser drivers normales sobre el

hardware emulado). Lo mismo planea hacer KVM.

5. Virtualizadores apoyados en el hardware (un tanto pretenciosamente llamados

nativos): los nuevos procesadores de Intel (los Core Duo y la mayoría, pero no todos, de

los Core Duo2 añaden las extensiones VT) y los más recientes de AMD (a partir de

stepping F; las extensiones se llaman SVM) cuentan con nuevas instrucciones que

31

Page 37: monografia TERMINADA

permiten la virtualización de la CPU. De este modo ya no es necesario ni un complicado

VMM ni parchear el sistema operativo, si bien sigue siendo necesario virtualizar otros

dispositivos y emular discos, tarjetas gráficas, de red. Ejemplos de estas soluciones son

KVM (integrado en el kernel desde la versión 2.6.20, utiliza qemu para la virtualización

del resto del hardware) y Virtual Iron (basado en Xen, pero ya no es paravirtualizador;

en cualquier caso es una solución propietaria, con algo de código bajo GPL). Además

Xen soporta también estas instrucciones, como método para poder ejecutar Windows o

simplemente sistemas sin paravirtualizar. Los virtualizadores apoyados en el hardware

son más lentos que los paravirtualizadores e incluso que los virtualizadores completos,

al menos que los que tienen un VMM avanzado. VirtualBox no usa por defecto estas

instrucciones, aunque las soporte, por este motivo. Lo mismo ocurre con Vmware,

aunque sí lo utiliza para poder utilizar como host un sistema operativo de 64bits

(VirtualBox actualmente no permite esta configuración).

6. Virtualización a nivel de sistema operativo (OS level Virtualization): no permite

ejecutar dos sistemas operativos simultáneamente, sino servidores privados virtuales

(SVP) dentro de un único servidor, es decir, es un único kernel, pero que permite aislar

(isolate) los servidores. Cada servidor tendrá su propia red, espacio de disco, de

memoria, se podrá reiniciar.. así mismo tendrá limitación de uso de CPU con el fin de

evitar que un servidor virtual esquilme recursos de los otros. También esta tecnología se

denomina como Jail, pues es extender el concepto de chroot. Tantao Linux VServer

como Virtuozzo lo vienen ofreciendo proveedores de hosting desde hace años. Estas son

las dos soluciones libres más destacadas:

a. Linux VServer: (no confundir con Linux virtual server, que es sobre clusters).

Software libre. Una limitación es que no admite usar tablas de ip dentro de cada SVP,

sino dentro del host. Tampoco admite migración de procesos. Así mismo está más

limitado en lo que se virtualiza, por ejemplo no se virtualiza nada de /proc). Por otro

lado la distribución host parece menos restringida que en OpenVZ, que como host sólo

admite Fedora, algunas versiones de CentOS y algunas de RHEL. Hay varias

distribuciones que funcionan como guest directamente (las instalamos en su partición y

luego las usamos, con sus programas y librerías, pero no obviamente con su kernel)

aunque otras como Gentoo no.

32

Page 38: monografia TERMINADA

b. OpenVZ: Virtuozzo es un virtualizador bajo una licencia privativa; OpenVZ es el

producto de la misma compañía que es software libre y que es la base de Virtuozzo. Un

hecho positivo es que OpenVZ no es un conjunto de código GPL difícil de integrar y sin

soporte como ocurre con otros productos en los que hay versión GPL y privativa:

también venden soporte para OpenVZ. Admite distintas distribuciones como host, a

través de templates, que son repositorios para bajar los paquetes necesarios para esa

distribución. Hosting con OpenVZ: En algún caso es más caro con OpenVZ que con

Virtuozzo, por ser menos maduro y requerir más recursos.

Entre las posibilidades más avanzadas de algunos virtualizadores está el migrar en

caliente con una indisponibilidad inapreciable un dominio de un servidor a otro. Dentro

de los productos libres lo permiten Xen, KVM y OpenVZ. Vmware lo permite sólo en

su servidor de pago (EXS). En Vmware Server (antiguo Vmware GSX), ahora gratis

(que no libre) no es posible.

Un debate interesante es el de los virtualizadores que se ejecutan "bare metal", es decir,

directamente sobre el hardware, en lugar de sobre un sistema operativo "host". Vmware

EXS sigue esta fórmula de forma pura, de tal modo que sólo funciona con determinado

hardware. En el caso de Xen, se ejecuta sobre un host, pero asume parte de las

funciones de un sistema operativo, al tener código por ejemplo para planificar la CPU.

En cambio KVM utiliza todo lo que aporta Linux, lo que para muchos desarrolladores

es la opción preferible pues difícilmente una empresa que desarrolla un producto de

virtualización tendrá más experiencia en elementos de sistemas operativos como un

planificador, que el grupo de personas que llevan desarrollando estos componentes

desde hace años en un sistema tan extendido como el kernel Linux.

VMWare y la red:

En VMWare a la hora de crear un dispositivo de red se puede elegir entre:

1. NAT: en el host aparecerá como la interfaz vmnet8, pero no podremos hacer nada

con esta interfaz, por ejemplo usar Iptables para restringir las Ips que se pueden alcanzar

desde el sistema que se ejecuta dentro de Vmware. El motivo es que no se usa realmente

el NAT del núcleo sino un demonio, vmnet-natd, por lo que los paquetes no pasan

33

Page 39: monografia TERMINADA

realmente por vmnet8. Si se quiere abrir puertos, basta con editar el fichero

/etc/vmware/vmnet8/nat.conf

2. Bridge: también se implementa utilizando un demonio privativo, en este caso vmnet-

bridge, en lugar de utilizar el soporte del núcleo, por lo que no se puede restringir la red

con tabla de ip’s sobre la interfaz vmnet2. Como en el caso de vmnet8, realmente el

tráfico no pasa por esta interfaz.

3. Host only: aparentemente este modo es el más limitado. Pues bien, en realidad es el

más flexible, pues por la interfaz de red que crea, vmnet1, sí que pasan todos los

paquetes. De este modo podemos utilizar esta interfaz para hacer NAT a través de tablas

de ip’s, o crear un bridge con brctl. Al usar tablas de ip’s, podemos restringir el tráfico

como con cualquier otra unidad de red. En Qemu hay dos formas de utilizar la red. Por

defecto se usa -net socket, que sería el equivalente al modo NAT de Vmware. Mediante

la opción -redir se pueden abrir puertos de servidor. Una diferencia interesante sobre

Vmware es que esta solución se implementa enteramente en espacio de usuario, por lo

que no se crea interfaz de red ni se precisa cargar ningún módulo del kernel, lo que es

bueno porque en el caso de Vmware es un módulo privativo que activa la marca

"tained" del kérnel, con lo que perdemos toda opción de soporte. Además así no hay que

tener privilegios de superusuario para instalar Qemu (Vmware no requiere privilegios

para ejecutarse, pero sí hace falta para insertar el módulo en el kernel). Las interfaces de

red vmnet1, vmnet2, vment8, se crean al ejecutar vmware-config, en la parte de

configuración de red. Una posibilidad interesante si vamos a ejecutar varios sistemas

simultáneamente o si queremos que un sistema tenga más de una interfaz es crear más

de un dispositivo de red para "host only", de modo que aparte de vmnet1 haya otros. De

otro modo todas las máquinas virtuales estarán conectadas a la misma red, la de vmnet1.

Así, una máquina podrá tener la IP 192.168.152.128, otra la 192.168.152.129 y el host

la 192.168.152.1; las dos máquinas virtuales se verán la una a la otra y podrán

comunicarse, aunque eso sí, con un sniffer una máquina no verá el tráfico de los otros

nodos. La red vmnet1 que crea Vmware es de máscara de red 255.255.255.0; ejecuta un

servidor DHCP automáticamente, cuya configuración y arrendamientos pueden verse en

/etc/vmware/vmnet1. Pero nada impide que podamos cambiar esta configuración, pues

se emula a una interfaz ethernet. Por ejemplo un nodo puede cambiar su IP a otra de la

red o incluso crear un alias y usar una red distinta, tanto en el host como en las

34

Page 40: monografia TERMINADA

máquinas virtuales. Si usamos vmnet1 para hacer NAT utilizando tablas de ip’s, hay

que tener en cuenta que habrá que configurar la red de la máquina virtual para añadirle

una ruta por defecto y la configuración del DNS y que el firewall deberá permitir que

llegue al servidor DNS. Para pasar la configuración de DNS y ruta por defecto podemos

usar el servidor DHCP de Vmware: "option routers" y "option domain-name-servers".

Qemu y TUN/TAP:

Un inconveniente de -net socket es que como ocurre con los modos NAT y Bridge de

Vmware los paquetes no pasan por ninguna interfaz de red, por lo que no se puede

utilizar tablas de ip’s para restringir la red. La solución está en el uso del soporte de

TUN/TAP del kernel. Consiste en que una aplicación puede abrir el fichero de

dispositivo /dev/net/tun y con eso crear una nueva interfaz de red (por defecto tun0).

Todo lo que la aplicación escriba en ese dispositivo se recibirá en la interfaz de red

recién creada; de igual modo todo lo que llegue a esa interfaz de red (por ejemplo a

través de enrutamiento) lo leerá la aplicación del fichero de dispositivo.

Los dispositivos TUN operan a nivel IP y son punto a punto. Los dispositivos TAP

operan a nivel 2 y son multipunto, como las interfaces Ethernet . Un dispositivo tap0 y

un dispositivo vmnet1 vienen a funcionar de forma muy similar y a nivel de ejemplos de

configuración con tablas de ip’s o brctl (Bridge) donde aparezca un tap0 podría aparecer

un vmnet1 y viceversa. Por lo general se usa tun0 en lugar de tap0; para la mayoría de

los usos son equivalentes por lo que es mucho más habitual utilizar tun0 que resulta más

sencillo y directo.

Normalmente un dispositivo tun/tap sólo existe mientras el programa no cierra el

fichero /dev/net/tun. Esto a veces es problemático, especialmente porque para crear un

dispositivo TUN/TAP hacen falta privilegios de superusuario. Afortunadamente, con

root se puede abrir un dispositivo en modo persistente para un determinado usuario, de

modo que luego un programa ejecutado por ese usuario sin privilegios podrá abrir ese

dispositivo tun/tap creado para él por el root. Este se puede hacer con el programa

tunctl, que forma parte del paquete uml-utilities.

¿Por qué no usa Vmware TUN/TAP en lugar de vmnet1? quizás por unicidad entre

plataformas, o por diferencia de implementación; es posible que vmnet1 también

35

Page 41: monografia TERMINADA

permita driver de red de la máquina virtual directamente en espacio del kernel.

TUN/TAP es la solución utilizada también por otros virtualizadores, como Virtual Box.

Ejemplos:

Permitir acceso sólo a red local 192.168.10.0 y además excluir el nodo 9 de esa red.

iptables -A FORWARD -i vmnet1 --destination 192.168.10.9 -j REJECT

iptables -A FORWARD -i vmnet1 --destination 192.168.10.0/24 -j ACCEPT

iptables -A FORWARD -i vmnet1 -j REJECT

iptables -t nat -A POSTROUTING -j MASQUERADE -o eth0

echo 1 > /proc/sys/net/ipv4/conf/eth0/forwarding

echo 1 > /proc/sys/net/ipv4/conf/vmnet1/forwarding

Crear un bridge, pero prohibiendo el acceso a la IP 157.88.10.20. Se puede filtrar con

ebtables o con iptables.

Muchas tarjetas wireless no soportan bridge. Un AP generalmente sí.

ifconfig eth0 0.0.0.0

ifconfig vmnet1 0.0.0.0

brctl addbr puente

brctl addbr puente

brctl addif eth0

brctl addif vmnet1

ifconfig puente 192.168.10.1

36

Page 42: monografia TERMINADA

iptables -O FORWARD -m physdev --physdev-in vmnet1 --destination 157.88.10.20 -j

REJECT

Instalar QEMU

Para compilar kqemu no hace falta versión vieja de compilador gcc, ni las fuentes de

qemu. Es bastante

rápido:

./configure

make

sudo make install

modprobe kqemu

Por defecto, necesitamos permisos de root para leer /dev/kqemu

1. creamos grupo qemu: sudo addgroup qemu

2. añadimos nuestro usuario (jomar) al grupo: sudo gpasswd -a jomar qemu

3. configuramos udev para que cree fichero de dispositivo con permisos para grupo

qemu. Para ello

editamos fichero /etc/udev/rules.d/60-kqemu.rules con este contenido:

KERNEL=="kqemu",

NAME="%k", MODE="0666", GROUP="qemu", RUN="/root/prueba.sh"

4. hacemos lo propio con el fichero /dev/net/tun. A partir del kernel 2.6.18 no pasa nada

por dar permiso para todo el mundo, pues nadie sin privilegios puede crear una nueva

interfaz si no se ha creado antes por el root para ese usuario. Esto se puede hacer con la

herramienta tunctl, que forma parte del paquete uml-utilities. También se puede usar el

programa que adjuntamos más adelante, cambiando el tipo de dispositivo de tun a tap.

37

Page 43: monografia TERMINADA

Para crear el dispositivo con tunctl se usa tunctl –u jomar -t tap0; para borrarlo tunctl -d

tap0.

Ejemplos:

./qemu -net nic -net tap,script=no ~/linux-0.2.img -net nic,vlan=1 -net

socket,vlan=1,listen=:8081

centos.qcow2

ifconfig tap0 up

ifconfig eth0

brctl addif puente tap0

ifconfig eth0 0.0.0.0

brctl addif puente eth0

ifconfig eth0 192.168.15.45

./qemu -net nic -net tap,script=no ~/centos.qcow2 -no-kqemu

Crear una imagen con Qemu

qemu-img create -f qcow2 centos.qcow2 3G

Con esta orden se crea una imagen de un disco de 3GB; en realidad con GNU/Linux

este fichero no ocupa 3GB; el espacio sin usar del fichero no ocupa espacio en el disco.

Para arrancar del CD de instalación podemos ejecutar:

qemu -kernel-kqemu -cdrom /home/jomar/centos1of6.iso -boot d -m 512 centos.qcow2

La opción -kernel-kqemu es para obtener la máxima aceleración: acelera también el

código del espacio del kernel; por defecto sólo se acelera la de usuario. Si se produce

algún problema, reintentaremos sin esta opción; si sigue habiendo problemas podemos

probar con -no-kqemu a quitar incluso la aceleración de espacio de usuario. Tras la

38

Page 44: monografia TERMINADA

instalación, podemos probar a volver a utilizar aceleración: a veces los posibles

problemas sólo se dan durante la instalación, aunque esta situación es más propia de

Windows que GNU/Linux. Con la opción -cdrom le indicamos que el CDROM es en

realidad esa ISO; así evitamos el tener que grabar un CD. Con la opción -boot d

indicamos que arranque de CD en vez de disco duro. La opción –m 512 establece que la

máquina virtual tenga 512 MB de memoria. La cantidad de memoria puede cambiarse

de una ejecución a otra, pero hay que tener en cuenta que los instaladores suelen crear

una partición de intercambio con el doble de la memoria RAM.

39

Page 45: monografia TERMINADA

CAPÍTULO III – DISCUSIÓN DE LA PROPUESTA

Ciertamente, la virtualización de servidores ofrece beneficios irresistibles a las

empresas, pero también puede ocasionarles complejos problemas. Entre los primeros

cabe destacar el ahorro de aparatos hardware en el centro de datos y el consiguiente

ahorro de espacio, la agilización de las cargas de trabajo, una mayor flexibilidad en la

recuperación ante desastres, la reducción de costos, y, por ende, la disminución de las

emisiones de carbono que perjudican a nuestro planeta. Todas estas ventajas tienen, no

obstante, un precio, que puede llegar a ser muy alto si la planificación no es la

adecuada.

3.1 Virtualización de servidores: una propuesta atractiva pero no exenta de riesgos

En el camino hacia la virtualización existen algunos obstáculos difíciles de superar y

que la empresa debe conocer y prever de antemano. Un tropezón podría llegar a arruinar

cualquier proyecto de esta naturaleza. Sin duda, le resultará traumático el darse cuenta

repentinamente de que la plantilla TI de su empresa no está preparada para llevarlo a

cabo y requiere una importante formación al respecto, por ejemplo. O quizá se lleve una

sorpresa desagradable al no haber previsto que le llevaría al menos un mes tomar el

control de su entorno servidor para poder empezar a trabajar en su transformación.

También podría verse obligado a gastar dinero extra para cubrir algunos costos ocultos

o comprar nuevo equipamiento, porque para lo que se supone un proyecto de

consolidación servidor, probablemente necesitará al principio adquirir nuevas máquinas.

Probablemente existe un exceso de marketing en los discursos de los suministradores de

este tipo de tecnologías. Bajando a la realidad, podría decirse que, en rigor, el rasgo

esencial de la virtualización servidor consiste en romper el matrimonio tradicional entre

el hardware y el software (en este caso, entre el sistema físico y el software de sistema

operativo), y en permitir, como consecuencia, que un único servidor físico hospede

muchos servidores virtuales con sistemas operativos diferentes.

Realmente el mercado está inundado de casos de éxito relacionados con la

virtualización servidor, y el ritmo con que se producen aumenta cada día.

Page 46: monografia TERMINADA

Pero más allá de la fiebre de virtualización que inunda el mercado, lo cierto es que la

virtualización servidor cambia desde sus fundamentos más profundos la apariencia y el

funcionamiento de los centros de datos. Y ninguna gran transformación es fácil.

3.2 Pueden no conseguirse los esperados ahorros en hardware

Una de las mayores ironías de la virtualización servidor consiste en que muchas

empresas esperan conseguir ahorrar con ella grandes cantidades de dinero desde el

principio, cuando, como se ha apuntado, la realidad es muy diferente. A menudo les

exigirá al principio gastos adicionales. Esto se debe a que la virtualización servidor

demandará ineludiblemente dos cosas: almacenamiento compartido y servidores

potentes, ricamente configurados y equipados con chips de memoria basada en

hardware del tipo de algunos de los ofrecidos por AMD e Intel.

Incluso si usted ya cuenta con este tipo de servidores, no podrá evitar cierta inversión

derivadas de las peculiares exigencias del nuevo entorno que planea introducir. Las

cuestiones de interoperabilidad servidor, por ejemplo, frustrarán muchas jornadas de los

trabajadores implicados en proyectos de virtualización. Por poner un caso, no se puede

mezclar plataformas AMD e Intel en el mismo cluster ESX (VMware),

Algo parecido ocurre con las redes de área de almacenamiento (SAN). No todas las

SAN soportan un entorno virtualizado. Además, el ancho de banda existente en la

empresa quizá resulte de pronto insuficiente para satisfacer las demandas de un número

creciente de servidores virtuales, lo que obligará a terminar gastando dinero adicional en

nuevos servidores, conmutadores y otros equipamientos TI, lo que es peor, los costos de

actualización pueden llegar a eclipsar casi todos los ahorros iniciales derivados de los

servidores que se hayan logrado eliminar mediante la consolidación.

Cuando la virtualización de servidores empezó a ganar adeptos, los observadores de la

industria pensaron que el mercado de servidores podría entrar en una etapa difícil,

debido a la previsible reducción en la demanda de equipos. Después de todo, como se

ha dicho varias veces, la virtualización permite consolidar un mayor número de

aplicaciones en uno menor de servidores, preferiblemente en aquellos ya existentes en la

empresa.

Page 47: monografia TERMINADA

CONCLUSIÓN

Hay varios factores por el cual se habla mucho hoy día del término virtualización y el

más importante es la temporización. Se han combinado una serie de factores clave del

sector al mismo tiempo, lo que contribuye a impulsar la mayor adopción de la

virtualización. Entre estos factores sectoriales se incluye el cambio a la computación de

64 bits, los procesadores de varios núcleos e, incluso, el impulso de una computación

sostenible para mejorar el uso del sistema.

Los sistemas están aumentando de tamaño y requieren una tecnología como la

virtualización para realizar un uso completo de la eficacia del sistema. Pero aunque es

cierto que la tecnología principal ha avanzado de forma continua en lo que respecta a la

producción de una mayor capacidad de procesamiento de la que los sistemas pueden

usar, ahora tenemos una mayor conciencia del impacto medioambiental, los requisitos

de energía y los costos de refrigeración.

Todos estos factores, además del rendimiento de la inversión al adoptar la

virtualización, deberían acelerar la adopción de la virtualización en empresas grandes y

pequeñas. Y nosotros, los profesionales de TI, podemos esperar que las principales

empresas sigan invirtiendo en esta tecnología en los próximos años y mejorando las

características y la funcionalidad.

Es importante tener en cuenta dónde se adopta la virtualización. Los clientes

empresariales ciertamente son los que han abierto camino con sus pruebas y al ser los

primeros usuarios. Sin embargo, hay pequeñas y medianas empresas que también

implementan la virtualización. La adopción de la virtualización abarca distintos tipos de

cargas de trabajo, desde aplicaciones empresariales y administrativas hasta la Web y el

correo electrónico.

Page 48: monografia TERMINADA

REFERENCIAS BIBLIOGRÁFICAS

http://carrero.es/desventajas-de-la-virtualizacion-de-servidores/4459

http://es.wikipedia.org/wiki/Virtualizaci%C3%B3n

http://www.consultoras.org/frontend/aec/Virtualizacion-De-Servidores--Una-

Propuesta-Atractiva-Pero-No-Exenta-De-Riesgos-vn8500-vst778

http://www.commondigital.commonperu.com/index.php?

option=com_content&view=article&id=254:intel-lanza-su-nuevo-procesador-para-

servidores-intel-xeon-5500&catid=422:intel&Itemid=458

http://technet.microsoft.com/es-es/magazine/2008.10.hyperv.aspx

http://es.wikipedia.org/wiki/Red_de_%C3%A1rea_de_almacenamiento