27
Universidad Don Bosco Arquitectura de computadoras Docente: Santiago Campos Robles Trabajo: “Virtualización de la informática.” Alumnos: Miguel Ernesto Moreno Reyes MR100038 Arturo Ernesto Muñoz Barahona MB030522 Doris Guadalupe Sandoval Sandoval SS070096 Walter steve sarco guevara SG070169

Virtualizacion de La Informatica

  • Upload
    mg-mrn

  • View
    54

  • Download
    3

Embed Size (px)

Citation preview

Page 1: Virtualizacion de La Informatica

Universidad Don Bosco

Arquitectura de computadoras

Docente: Santiago Campos Robles

Trabajo:

“Virtualización de la informática.”

Alumnos:

Miguel Ernesto Moreno Reyes MR100038

Arturo Ernesto Muñoz Barahona MB030522

Doris Guadalupe Sandoval Sandoval SS070096

Walter steve sarco guevara SG070169

Soyapango, 22 de septiembre de 2012

Page 2: Virtualizacion de La Informatica

Introducción:

La virtualización es la tecnología más relevante los últimos años. Su mayor importancia radica en el impacto que tiene en la optimización de los recursos económicos y operativos de las organizaciones. Esta tecnología está evolucionando con el fin de ofrecer procesos completamente automatizados para la administración de la infraestructura tecnológica, permitiendo un incremento de la agilidad de las organizaciones en la entrega de servicios y el cumplimiento de los estándares de atención para cada perfil de usuario.

La virtualización enfocado en el área de informática es un medio para crear una versión virtual (valga la redundancia) de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución.

En este reporte; conoceremos a fondo las múltiples aplicaciones de esta herramienta, ventajas y desventajas y su desarrollo hasta llegar a conocer las herramientas utilizadas actualmente.

Definición del término Virtualización

En informática, virtualización es un término bastante amplio, ya que se refiere a la abstracción de los recursos de una computadora, llamada Hypervisor o VMM (Virtual

Page 3: Virtualizacion de La Informatica

Machine Monitor) que crea una capa de la abstracción entre el hardware de la maquina física (host) y el sistema operativo de la maquina virtual (virtual machine, guest)., siendo un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución. Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Red, Almacenamiento) y así podrá repartir dinámicamente dichos recursos entre todas las maquinas virtuales definidas en el computador central.

Por ejemplo, algo tan simple para nosotros como hacer una partición en un disco duro es considerado una virtualización. Esto es así, porque se toma un disco duro y la partición sirve para crear dos unidades (o más), que simulan dos discos duros siendo físicamente solo uno.Los dispositivos, aplicaciones y usuarios pueden interactuar con los recursos virtuales como si fueran realmente un recurso único.

Existen múltiples tipos de virtualizaciones, como por ejemplo:

Virtualizacion de servidores Virtualizacion a nivel sistema operativo Virtualizacion de aplicaciones Virtualizacion de red.

Desde  el punto de vista más general, son técnicas y herramientas que permiten abstraer los recursos en arquitecturas de TI. Lo que se persigue al virtualizar es ocultar la complejidad de una implementación subyacente y sus objetivos casi siempre son, optimizar el uso de los recursos y/o ampliar el ámbito de acción.

Figura 1. Esquema de servidor host con Máquina Virtual.

Evolución a lo largo de la historia.

-------------------------------------------------------------------------------------------------------

1959En sus inicios, la virtualización era mejor conocida como 'time sharing' (tiempo

Page 4: Virtualizacion de La Informatica

compartido). Christopher Strachey, el primer profesor de informática de la Universidad de Oxford y líder del Grupo de Investigación en Programación, utiliza el término en su artículo 'Time sharing in large, fast computers'. Gracias a éste método el profesor Strachey implementa la técnica de 'multiprogramming', que permite a un programador escribir el código fuente de un programa mientras otro programador compila otro programa.

1961El Centro de Computación del MIT (instituto tecnologico de masachuset) desarrolla uno de los primeros sistemas operativos de tiempo compartido, CTSS ('Compatible Time-Sharing System'). Aunque el CTSS no es un sistema operativo influyente por sus aspectos técnicos, tiene una gran influencia para mostrar que el tiempo compartido es viable. El CTSS es considerado el abuelo de los sistemas operativos de tiempo compartido ya que influye en el desarrollo, entre otros, de:

IBM M44/44X.CP-40/CMS, que deriva en z/VM.TSS/360MULTICS, que influye fuertemente en la família UNIX (Linux).CP/M, que influye fuertemente en 86-DOS, el cual deriva en Microsoft Windows.

1962La Universidad de Manchester desarrolla una de las primeras supercomputadoras mundiales, 'The Atlas Computer', y la más rápida de su tiempo hasta la aparición del CDC 6600 (1964). El Atlas aprovecha los conceptos de 'time sharing', 'multiprogramming' 'virtual memory' y control compartido de periféricos. Los 'extracodes' (nuevas instrucciones que pueden añadirse por software) son la única forma en la que un programa puede comunicarse con el 'Atlas Supervisor'. El 'Atlas Supervisor' es un programa que gestiona el tiempo de procesamiento; en terminología moderna, un 'job scheduler' avanzado o un sistema operativo simple.

1964El Centro Científico de Cambridge de IBM, liderado por Robert Creasy (ex miembro de 'Project MAC'), empieza el desarrollo del CP-40 y el CMS ('Cambridge Monitor System'). El CP-40 es el primer sistema operativo que implementa 'full virtualization', que permite emular simultáneamente hasta 14 'pseudo machines' (múltiples instáncias del CMS), más tarde llamadas máquinas virtuales, ejecutándose en 'problem state'. Cuando una máquina virtual ejecuta una instrucción privilegiada (por ejemplo, una operación de E/S) o utiliza una dirección de memoria inválida, se produce una excepción que captura el 'Control Program', que se ejecuta en 'supervisor state', para simular el comportamiento adecuado.

1965El Centro de Investigación Thomas J. Watson de IBM implementa una computadora experimental, el IBM M44/44X, basada en el IBM 7044 (M44) y con varias máquinas 7044 virtuales (44Xs) simuladas, usando hardware, software, paginación, memoria virtual y multiprogramación. El M44/44X no implementa una completa simulación del hardware subyacente ('partial virtualization') y demuestra que el concepto de

Page 5: Virtualizacion de La Informatica

máquinas virtuales, originado en éste proyecto, no es necesariamente menos eficiente que otras aproximaciones más convencionales.

IBM anuncia 'System/360 Model 67' (S/360-67) y el sistema operativo de tiempo compartido 'TSS/360' en sus 'blue letters' (mecanismo de IBM para anunciar nuevos productos). El 'TS/360' implementa 'virtual memory' y 'virtual machines' pero es cancelado en 1971 por sus problemas de rendimiento, fiabilidad e incompatibilidad con el sistema operativo de proceso de lotes 'OS/360'.

1966Paralelamente a 'TS/360', el Centro Científico de Cambridge de IBM empieza la conversión del CP-40 y el CMS para ejecutarlos en el S/360-67. El CP-67 es una significativa re implementación del CP-40 y es la primera implementación ampliamente disponible de la arquitectura de 'virtual machine'.

1968IBM publica en su 'IBM Type-III Library' (colección de código fuente no soportada por IBM, contribuida por clientes y personal de IBM) la primera versión de CP/CMS.National CSS (NCSS), una compañía que explora la idea de ofrecer servicios de tiempo compartido, aprovecha la disponibilidad de CP/CMS para iniciar la implementación de VP/CSS (un fork de CP/CMS) ya que el rendimiento de CP/CMS no es rentable para sus planes de comerciales.

1970IBM empieza a desarrollar 'CP-370/CMS', una completa reimplantación del 'CP-67/CMS' para su nueva serie 'System/370' (S/370).

1972IBM anuncia el primer sistema operativo de máquina virtual de la familia VM (VM/CMS), el 'VM/370' (basado en 'CP-370/CMS') y destinado para 'System/370' con hardware de memoria virtual. El 'VM/370' se basa en dos componentes; CP ('Control Program') y CMS (ahora llamado 'Conversational Monitor System'). La función más importante del nuevo CP es la habilidad de ejecutar una VM dentro de otra VM.

National CSS (NCSS), porta VP/CSS a la serie 'System/370'. VP/CSS mejora el rendimiento del CSS utilizando 'paravirtualization', a través de llamadas directas al 'hypervisor' con la instrucción no virtualizada DIAG, en lugar de simular las operaciones de bajo de nivel de los comandos de E/S.

1976-1987La revolución de los ordenadores personales (Apple II, Atari 400/800, Commodore VIC-20, IBM PC, ZX Spectrum, Commodore 64, Apple Macintosh, Atari ST, Commodore Amiga) provoca que la industria pierda interés en los sitemas operativos super optimizados para 'mainframes'. No obstante, IBM sigue el desarrollo de su família VM.

1988'Insignia Solutions' desarrolla el emulador de x86 'SoftPC' que permite ejecutar 'MS-DOS' sobre UNIX y Mac OS.

Page 6: Virtualizacion de La Informatica

Décadas de 1980 y 1990.La virtualización fue abandonada de hecho en las décadas de 1980 y 1990, cuando las aplicaciones de cliente-servidor y los servidores y escritorios x86 económicos establecieron el modelo de informática distribuida. Más que el uso compartido y centralizado del modelo de mainframe, las organizaciones utilizaron los bajos costes de los sistemas distribuidos para crear islas con capacidad informática. La amplia adopción de Windows y la emergencia de Linux como sistemas operativos de servidor en los años 1990 convirtieron a los servidores x86 en el estándar de la industria. El incremento de implementaciones de servidores y escritorios x86 generó nuevos problemas operacionales y de infraestructura de TI. Entre estos problemas se incluyen los siguientes:

Baja utilización de la infraestructura. Las implementaciones típicas de servidores x86 logran una utilización media de entre un 10% y un 15% de la capacidad total, según señala International Data Corporation (IDC). Incremento de los costes de infraestructura física. Los costes operativos para dar soporte al crecimiento de infraestructuras físicas han aumentado a ritmo constante. La mayor parte de las infraestructuras informáticas deben permanecer operativas en todo momento, lo que genera gastos en consumo energético, refrigeración e instalaciones que no varían con los niveles de utilización.Incremento de los costes de gestión de TI. A medida que los entornos informáticos se hacen más complejos, aumenta el nivel de especialización de la formación y la experiencia que necesita el personal de gestión de infraestructuras y los costes asociados al mismo. Las organizaciones gastan cantidades desproporcionadas de dinero y recursos en tareas manuales ligadas al mantenimiento de los servidores, y aumenta la necesidad de personal para realizarlas.Insuficiente failover y protección ante desastres. Las empresas se ven cada vez más afectadas por las paradas de las aplicaciones de servidor crítico y la falta de acceso a escritorios de usuario final. La amenaza de ataques a la seguridad o desastres naturales, han acentuado la importancia de la planificación de la continuidad del negocio tanto en lo relativo a escritorios como a servidores.Escritorios de usuario final de mantenimiento elevado. La gestión y la seguridad de los escritorios corporativos plantean numerosos desafíos. Controlar un entorno de escritorio distribuido y aplicar políticas de gestión, acceso y seguridad sin perjudicar la capacidad del usuario de trabajar con eficacia es complejo y costoso. Se tienen que aplicar continuamente muchos parches y actualizaciones en el entorno del escritorio para eliminar las vulnerabilidades de seguridad.

Finales de 1990En 1999, VMware (software para creación y manejo de maquinas virtuales) introdujo la vitalización en los sistemas x86 como un medio para solucionar de manera eficiente muchos de estos problemas y transformar los sistemas x86 en sistemas para uso general, en infraestructuras de hardware compartido que ofrecen un aislamiento completo, movilidad y opciones de elección del sistema operativo de los entornos de aplicación.

Page 7: Virtualizacion de La Informatica

Ventajas y desventajas

 Importancia de la Virtualización- En promedio sólo el 10% del tiempo de una computadora está trabajando.- “Virtualización = Liberación. Un computador o servidor puede hacer el trabajo de muchos”- Menos del 10% de los servidores o máquinas actuales son virtualizados

Ventajas

Page 8: Virtualizacion de La Informatica

Ahorro: Aumente perceptiblemente la utilización y la productividad.Protección: La utilización de tecnologías de virtualización facilita mucho las soluciones.Automatización: Reduzca los tiempos y las tareas del aprovisionamiento.Funcionamiento: Aumente su capacidad de trabajo, la facilidad de reserva de recursos y los tiempos de reacción.Simplicidad y coste: Agregue o reorganice sus recursos de almacenamiento o cálculo y sin tiempo muerto.Flexibilidad: Gane la independencia del hardware, la agilidad en migraciones y la capacidad de crecimiento organizada.

Desventajas- Aplicaciones son más lentas- Interoperabilidad entre diferentes máquinas virtuales.- A través de pruebas se ha determinado que se logran pequeñas mejoras en servidores (Java, de correo, servidor), Web, servidor de base de datos, y servidor de archivos) utilizando virtualización.- Aplicaciones nativas del microprocesador

Usos y aplicaciones

Los usos que se le pueden dar a la virtualización son muy variados, pero todos se centran en el concepto de que la virtualización representa una abstracción de los recursos físicos. Los usos más comunes de la virtualización que se aplican en los centros de almacenamiento son dos: virtualización de servidores y virtualización de almacenamiento.

Virtualización de servidores.Se desglosa en tres diferentes tipos: virtualización de sistema operativo, emulación de hardware, y paravirtualización (Concepto relativamente nuevo diseñado para ser más liviano y proporcionar un mejor rendimiento que se aproxime a la virtualización).

Page 9: Virtualizacion de La Informatica

Figura 2: VMwareESX Server que virtualiza el almacenamiento y la red, permitiendo a múltiples aplicaciones ejecutarse en máquinas virtuales al

mismo tiempo en el mismo servidor físico.

Virtualización de sistemas operativos: Se ejecuta en la parte superior de un sistema operativo anfitrión y provee un conjunto de librerías con las cuales interactúan las aplicaciones, dándole a éstas   la ilusión de estar siendo ejecutadas en un sistema operativo dedicado exclusivamente para su uso. La clave para la comprensión de dicho concepto es verlo desde la perspectiva de la aplicación, ésta interactúa y se logra visualizar únicamente con aquellas aplicaciones que están ejecutándose dentro de su sistema operativo virtual y posee un único control de los recursos de su propio SO virtual. No puede ver las aplicaciones ni los recursos que se encuentran en otros SO virtuales.Este tipo de virtualización es extremadamente útil cuando en una empresa se desea ofrecer un conjunto parecido de funcionalidades de un sistema operativo para un número diferente de poblaciones de usuario, utilizando únicamente una sola máquina. Como en el caso de las compañías de alojamiento web, utilizan un contenedor de virtualización para que el sitio web alojado crea que tiene un completo control de la máquina mientras que de hecho, cada uno de los sitios web alojados comparte la máquina con muchos otros; a cada uno de los cuales se le ha asignado su propio contenedor.

Existen ciertas limitaciones con la virtualización de SO. Primeramente limita la elección del sistema operativo; y la implementación de contenedores significa que éstos ofrecen el mismo sistema operativo que el SO anfitrión e incluso son consistentes con el número de versión y el nivel de actualización. Pudiendo ocasionar problemas si se quieren ejecutar diferentes aplicaciones en los contenedores, ya que las aplicaciones son a menudo certificadas para una sola versión y nivel de actualización del SO. Por lo tanto, la virtualización de SO está mejor adaptada y se convierte en la mejor opción cuando se implementa en configuraciones homogéneas.

Emulación de hardware: La virtualización de software conocido como HYPERVISOR presenta un ambiente de emulación de hardware que aloja sistemas operativos sobre él. Este ambiente de hardware emulado está típicamente referido como un Monitor de máquina virtual (VMM, por sus siglas en inglés, Virtual Machine Monitor).

Page 10: Virtualizacion de La Informatica

El monitor de máquina virtual provee un ambiente de hardware estático en el cual el sistema operativo reside e interactúa. Debido a que el VMM y el SO invitado forma un solo paquete consistente, éste puede ser migrado de una máquina a otra, a pesar que las máquinas físicas pueden ejecutarlos de manera distinta. El HYPERVISOR que reside entre el monitor de máquina virtual y el hardware físico, traduce las llamadas desde el VMM hacia los recursos específicos de la máquina física.

Por cada VMM pueden ejecutarse un conjunto de sistemas operativos huéspedes cada uno con su conjunto de aplicaciones aisladas. Los VMM residen en el HYPERVISOR de virtualización. Esto no solo permite soportar múltiples sistemas operativos sino que también éstos pueden ser diferentes en gran medida (Windows o Linux) ó en menor medida (Distintas versiones y niveles de actualización).La emulación de hardware es utilizada para desarrollar y probar paralelamente un software en un determinado número de sistemas operativos distintos, también es utilizado para la consolidación de servidores, donde un conjunto de sistemas operativos y aplicaciones son migradas de múltiples servidores físicos a uno solo que se encuentra ejecutando software de virtualización.Algunos inconvenientes de usar la emulación de hardware son: Puede causar la reducción del rendimiento debido a que las aplicaciones en cierta forma se ejecutan de manera más lenta   en sistemas virtualizados. Y como el HYPERVISOR provee una interfaz para el VMM que traduce las llamadas hacia el conjunto de recursos físicos de la máquina, es necesario que contenga los drivers de los dispositivos, por consiguiente si se instala un nuevo hardware en la computadora también se debe de instalar el driver en el sistema operativo para que éste y el nuevo hardware se puedan comunicar.

Paravirtualización: Este enfoque más que emular un ambiente completo de hardware, el software de virtualización es una capa delgada que multiplexa el acceso de los sistemas operativos huéspedes hacia los recursos de la capa física subyacente de la máquina.

Las ventajas de usar la paravirtualización son: Implica una menor carga de rendimiento en general, porque es una pequeña cantidad de código. A diferencia de la emulación de hardware que inserta una capa entera de emulación de hardware entre el SO y la capa física de hardware, la paravirtualización inserta una capa delgada que actúa como un agente de tráfico, permitiéndole a un sistema operativo accesar a los recursos físicos de hardware mientras detiene a los otros sistemas operativos huéspedes para accesar al mismo recurso, en el mismo momento.La paravirtualización también no limita el número de drivers de dispositivos que puede contener el software de virtualización permitiéndole a las organizaciones tomar todas las ventajas del hardware físico sin tener limitaciones con respecto a la existencia de

Page 11: Virtualizacion de La Informatica

drives disponibles tanto para el software de virtualización como para el hardware emulado.

La gran desventaja de hacer uso de esta virtualización es que se necesita modificar el sistema operativo para que interactúe con las interfaces de paravirtualización de manera que permita multiplexar el acceso a las capas subyacentes de hardware; pudiéndose implementar solo en sistemas operativos de código abierto como el caso de Linux y Solaris. Aunque se están desarrollando procesadores con características que permiten hospedar el hipervisor de paravirtualización sin necesidad de modificar el sistema operativo.

Virtualización de almacenamiento.La cantidad de datos que las empresas están creando y almacenando ha rebasado los niveles tolerables, debido a que los procesos de las empresas basados en aplicaciones digitales y de web han tenido un gran auge. Esta explosión de datos ha causado problemas: muchas aplicaciones generan más cantidad de datos de lo que puede ser almacenado físicamente en los servidores, las aplicaciones basadas en web tienen a múltiples máquinas intentando accesar a los datos al mismo tiempo; y teniendo esa acumulación de datos en el mismo sitio puede crear cuellos de botella, sin mencionar el riesgo de que muchas máquinas se vuelvan inoperables si colapsa un servidor que contenga toda la información de las aplicaciones. Por todo lo anterior las empresas usan el almacenamiento virtualizado ayudando a reducir los costos y desarrollar la eficiencia en la administración de los datos.

Hardware requerido para implementar una solución de virtualizacion.

------------------------------------------------------------------------------------

En realidad el hardware y software necesario para aplicar la virtualizacion es muy variado y depende enteramente de las necesidades y el propósito de la virtualizacion que se desea llevar a cabo. En la actualidad existen en el mercado distinto software para la realización de maquinas virtuales conocidos como Hypervisores.

Page 12: Virtualizacion de La Informatica

En cuanto al hardware necesario se debe tomar en cuenta que las maquinas virtuales   corren en un solo CPU, por lo tanto se recomienda un minimo de 1GB de memoria para cada maquina virtual que desea correr, además de la memoria requerida por el hypervisor (el software q controla la VM).

Soluciones de virtualizacion disponibles en la actualidad.

Software de virtualizacion comerciales:VMWARE: Es un sistema de virtualización por software. Un sistema virtual por software es un programa que simula un sistema físico (un ordenador, un hardware) con unas características de hardware determinadas. Cuando se ejecuta el programa (simulador), proporciona un ambiente de ejecución similar a todos los efectos a un ordenador físico (excepto en el puro acceso físico al hardware simulado), con CPU (puede ser más de una), BIOS, tarjeta gráfica, memoria RAM, tarjeta de red, sistema de sonido, conexión USB, disco duro (pueden ser más de uno), etc.

Parallels Desktop: Es un sofisticado sistema capaz de montar varias máquinas virtuales en un solo Mac, se trata de Windows, Linux o cualquier otro sistema operativo con sus respectivas aplicaciones. Se logra introduciendo una capa intermedia entre el Mac y el sistema operativo huésped. De esta manera, Parallels Desktop logra una gestión virtual más estable, con un

Page 13: Virtualizacion de La Informatica

nivel de rendimiento superior a los sistemas de emulación tradicionales disponibles en el mercado. 

VirtualBox: Es un software de virtualización para arquitecturas x86 que fue desarrollado originalmente por la empresa alemana Innotek GmbH, pero que pasó a ser propiedad de la empresa Sun Microsystems en febrero de 2008 cuando ésta compró a innotek. Por medio de esta aplicación es posible instalar sistemas operativos adicionales, conocidos como “sistemas invitados”, dentro de otro sistema operativo “anfitrión”, cada uno con su propio ambiente virtual. Por ejemplo, se podrían instalar diferentes distribuciones de Linux en un VirtualBox instalado en Windows XP o viceversa.

QEMU: Es un emulador de procesadores basado en la traducción dinámica de binarios (conversión del código binario de la arquitectura fuente en código entendible por la arquitectura huésped). QEMU también tiene capacidades de virtualización dentro de un sistema operativo, ya sea Linux, Windows, o cualquiera de los sistemas operativos admitidos, (de hecho es la forma más común de uso). Esta máquina virtual puede ejecutarse en cualquier tipo de Microprocesador o arquitectura (x86, x86-64, PowerPC, MIPS, SPARC, etc.). Está licenciado en parte con la LGPL y la GPL de GNU.El objetivo principal es emular un sistema operativo dentro de otro sin tener que reparticionar el disco duro, empleando para su ubicación cualquier directorio dentro de éste.

El programa no dispone de GUI, pero existe otro programa llamado QEMU manager que hace las veces de interfaz gráfica si se utiliza QEMU desde Windows. También existe una versión para Linux llamado qemu-launcher. En Mac OS X puede utilizarse el programa Q que dispone de una interfaz gráfica para crear y administrar las máquinas virtuales. 

XEN: Es una máquina virtual de código abierto desarrollada por la Universidad de Cambridge.La meta del diseño es poder ejecutar instancias de sistemas operativos con todas sus características, de forma completamente funcional en un equipo sencillo. Xen proporciona aislamiento seguro, control de recursos, garantías de calidad de servicio y migración de máquinas virtuales en caliente.

Los sistemas operativos pueden ser modificados explícitamente para correr Xen (aunque manteniendo la compatibilidad con aplicaciones de usuario). Esto permite a Xen alcanzar virtualización de alto rendimiento sin un soporte especial de hardware. Intel ha realizado diversas contribuciones a Xen que han permitido añadir soporte para sus extensiones de arquitectura VT-X Vanderpool. Esta tecnología permite que sistemas operativos sin modificar actúen como

Page 14: Virtualizacion de La Informatica

hosts dentro de las máquinas virtuales de Xen, siempre y cuando el servidor físico soporte las extensiones VT de Intel o Pacifica de AMD.

Comparacion de soluciones de vitalización con mayor influencia en el mercado actual.

Para empezar con la comparación de las soluciones de virtualizacion con mayor influencia debemos de tomar en cuenta sus características individuales, a continuación enumeramos algunas de estas:

Microsoft Virtual PC : Con Microsoft ® Virtual PC 2007, puede crear y ejecutar una o más máquinas virtuales, cada una con su propio sistema operativo, en un único equipo. Esto le proporciona la flexibilidad para utilizar diferentes sistemas operativos en un equipo físico.

Kernel Virtual Machine (KVM) : KVM (para el núcleo basado en la máquina virtual) es una solución de virtualización completa para Linux en x86 extensiones de virtualización de hardware que contiene (Intel VT o AMD-V). Consta de un módulo del kernel cargables, kvm.ko, que proporciona la virtualización de la infraestructura básica y un módulo específico de procesador, o intel.ko-KVM KVM-amd.ko. KVM también exige una modificación de QEMU aunque se está trabajando para conseguir los cambios necesarios en sentido ascendente. 

Utilizando KVM, se puede ejecutar múltiples máquinas virtuales ejecutando Linux o

Page 15: Virtualizacion de La Informatica

Windows sin modificar las imágenes. Cada máquina virtual se ha privado de hardware virtualizado: una tarjeta de red, disco, adaptador de gráficos, etc

MicrosoftVirtual Server: es la tecnología de virtualización de servidores diseñada para usarse con la plataforma Windows Server. Como parte clave de cualquier estrategia de consolidación de servidores, Virtual Server 2005 R2 SP1 aumenta el aprovechamiento del hardware y permite que los equipos de TI puedan configurar e implementar rápidamente los nuevos servidores. Al descargar el software gratuitamente, quedará registrado automáticamente e irá recibiendo los valiosos recursos que se suministran de forma estratégica a medida que se vaya familiarizando con el producto y tiene soporte para Intel VT y AMD-V. Parallels Workstation : Parallels Workstation es un sofisticado sistema capaz de montar varias máquinas virtuales en un solo PC, al estilo de lo que proponen otras populares aplicaciones como QEMU, Bochs, VMWare o Win4Lin, excepto que aquí se introduce una capa intermedia entre el PC y el sistema operativo huésped. 

Al intercalar una capa entre el PC y el sistema, Parallels Workstation logra una gestión virtual más estable, con un nivel de rendimiento superior a los sistemas de emulación tradicionales disponibles en el mercado. Además, esta tecnología bautizada hypervisión nos permite sacar provecho de la última generación de procesadores Intel, ya que vienen con una tecnología de simulación embarcada.

TRANGO hypervisor: Trango tecnología de virtualización permite que el procesador garantizado para las principales 32/64 bit RISC arquitecturas: ARM, MIPS, PowerPC, SH, configurable FPGA suave y núcleos de núcleos. Se basa en un enfoque de virtualización para (sin instrucción de emulación), porque garantiza plenamente la previsibilidad y la proximidad al rendimiento nativo. Trango hipervisores Trango se basan en la tecnología y especializados para cada arquitectura de CPU. Un hipervisor Trango es muy compacto microkernel de dividir los recursos de CPU y espacio de direcciones virtuales en MMU habilitado transformadores. Guest los sistemas operativos se ejecutan en la CPU en modo de usuario y la utilización de uno o varios procesadores virtuales (para multiproceso simétrico SOs). Trango también actúa como un medio muy eficaz para la capa de portabilidad y SOs guest RTOSs, la prestación de apoyo para una amplia gama de procesadores, sin ningún cambio en el sistema operativo de código fuente. Trango hipervisor características son: 

Plena previsibilidad y proximidad al rendimiento nativo.Altamente optimizado y compacto código (menos de 20 kilo-bytes, capaz-ROM, con la garantía de arranque).Apoyo de multi-núcleo y multi-hilo de la arquitectura de la CPU, y de varias páginas de tamaño de memoria.Mensajería de alto rendimiento entre procesadores virtuales (guest OS). Linux 2.6 y ECOS 2,0 puertos con comunidad de desarrolladores. Apoyo de la mayoría de los invitados OS nativo conductores sin portar esfuerzos.

Page 16: Virtualizacion de La Informatica

Totalmente compatible con las herramientas nativas guest OS, y simultáneo apoyo de Trango desarrollo, seguimiento y herramientas de depuración. Entorno de desarrollo integrado Eclipse plug-ins de instrumentos Trango.

VMware : es una plataforma de virtualización anfitrión que se instala como una aplicación en cualquier servidor de hardware y las particiones un servidor físico en múltiples máquinas virtuales]. Para huéspedes de 32-bit, el uso de VT es posible pero no se encuentra activado por defecto porque para cargas de trabajo normales es más lento. Entre algunas características tenemos:

Reducir los costos de TI y mejorar la flexibilidad con la consolidación de servidores Disminución inactividad planificados y no planificados para la mejora de la continuidad del negocio Ampliar los beneficios de la virtualización a las pequeñas y medianas empresas

Xen : Emplea Intel VT para ejecutar sistemas operativos no modificados como huésped. Tanto Intel como AMD han dado apoyo a sus extensiones de virtualización dentro del monitor de máquina virtual Xen, permitiendo que se ejecuten sistemas operativos no modificados. 

Denali: utiliza la virtualización para proporcionar máquinas virtuales de alto rendimiento en ordenadores x86. La máquina virtual Denali da soporte a Sistemas Operativos mínimamente especializados hacia servicios de Internet. El sistema puede escalar a millares de máquinas virtuales. A diferencia de Xen, Denali no preserva el interfaz binario (ABI), y algunas aplicaciones deben ser recompiladas para que funcionen con las librerías del sistema operativo; en este sentido es similar a Exonúcleo.

Virtuozzo: sustituye la capa de la abstracción del hardware por una versión modificada permitiéndole funcionar con un mejor rendimiento de los sistemas operativos, pero fuerza a que todas las Máquinas Virtuales se ejecuten en un equipo y con el mismo sistema operativo. Actualmente existe una versión para Windows 2003 y para Fedora Core Linux.

VirtualBox: Entre los sistemas operativos soportados (en modo anfitrión) se encuentran GNU/Linux, Mac OS X, OS/2 Warp , Windows, y Solaris/OpenSolaris, y dentro de éstos es posible virtualizar los sistemas operativos FreeBSD, GNU/Linux, OpenBSD, OS/2 Warp, Windows, Solaris, MS-DOS y muchos otros.

Page 17: Virtualizacion de La Informatica

                                                                              

Ventajas competitivas   que pueden tener las Empresas/Organizaciones al utilizar virtualización en sus

estructuras tecnológicas.

-------------------------------------------------------------------------------------

  1. Brinda mayor movilidad y gestionamiento de los recursos   de la infraestructura tomando en cuenta tanto los físicos como los virtuales respondiendo a la demanda de servicios, aplicaciones, eficiencia del uso del sistema   e   independización de cada capa de la pila de la tecnologías requeridas por las empresas.

2. Se elimina el paradigma de una aplicación = un servidor.

3. Otra ventaja competitiva de la virtualización es   lograr   consolidar   que múltiples servidores en una sola pieza de hardware alojen múltiples máquinas virtuales   y sus aplicaciones, reduciendo costos energéticos   y la necesidad para tener espacios físicos junto con un mayor desempeño en el tiempo de administración.

4. Reduce costos de adquisición de equipo debido a que se puede comprar el hardware más potente en la actualidad por mucho menos dinero que el que se invertiría en reemplazar el número original de servidores   obsoletos utilizados en la infraestructura de la empresa.

5. Permite a las empresas estar protegida con copias de seguridad y recuperación de desastres que puedan ocurrir en la   red, debido   a que si el servidor   primario   falla

Page 18: Virtualizacion de La Informatica

puede entrar en paralelo otro con las mismas características solo haciendo uso del virtualizado.

6. Las máquinas virtuales permiten que, en cuestión de segundos, se cambie una máquina por otra, igual que si se cambiara un disco duro de la PC con un sistema operativo, por otro disco duro completamente distinto. Si a esto se le añade que permite realizar “snapshots” (fotos de estado en un momento dado), se tiene la posibilidad de volver a un estado anterior en cuestión de segundos. Esto se puede usar en los equipos de “testing” y calidad donde se pueden probar innumerables versiones de un mismo producto y desinstalarlas, dejando la máquina como estaba minutos antes.

7. Permite a la empresa el acceso a los recursos de manera continua, segura y rápida independientemente de donde estén las máquinas reduciendo el número de operaciones y costos de gestión, incrementado el grado de utilización y atendiendo a las necesidades de empresas y clientes.

8. Balance dinámico de máquinas virtuales entre los servidores físicos que componen el conjunto de recursos, garantizando que cada máquina virtual se ejecute en el servidor físico más adecuado y proporcionando un consumo de recursos homogéneo y óptimo en toda la infraestructura.

Tendencias de la virtualización.

En la actualidad la implementación de sistemas operativos, sistemas de sobremesa, almacenamiento de datos y hardware virtualizado es una de las decisiones que muchos empresarios y usuarios comunes han adoptado debido a las bondades que dicha tecnología nos brinda basándonos en aspectos de reducción de requerimientos de consumo lo que implicaría reducción de costos, reducción de espacios físicos con respecto a hardware, habilidad para desarrollar tecnologías más rápidas, mejora en la continuidad de negocios implicando una gestión más eficiente, velocidad en los servicios que se brindad a nivel empresarial disminuyendo los tiempos de implementación de servicios ,uso más eficiente de la capacidad del sistema con que se cuenta en el hogar o a nivel empresarial, movilidad y seguridad. De manera que gran parte del territorio tecnológico está haciendo uso de virtualizaciones desde hardware hasta las aplicaciones.De acuerdo a estudios realizados por un centro de estudio de investigación europeo de Coleman Parkes para Colt Telecom ponen de manifiesto   que “La virtualización y el software como servicios SaaS   están en pleno crecimiento teniendo un incremento del 60% en los dos últimos años en la implementación de dicha tecnología.

Tal es el hecho que las compañías españolas ponen de manifiesto que la mayor rapidez en la implementación de las aplicaciones y actualizaciones de software es el principal beneficio que observan, seguido de una reducción de costos…”.

Por otro lado el Select opina que la virtualización será una de las tendencias en el mercado de la TIC (Tecnologías de Información y Comunicación) con mayor impacto

Page 19: Virtualizacion de La Informatica

provocando cambios cruciales en la infraestructura y operaciones de los centros de datos de los clientes y usuarios durante los próximos años. Tal tecnología llegara a modificar estilos de trabajo como de compra y de la planeación del mismo. En la actualidad el hecho de reducir costos y optimizar la infraestructura que genera una empresa, seguirá creciendo de manera significativa a nivel mundial viéndose muy marca en la recesión que actualmente se vive.

Se puede concluir de esta manera que la virtualización es una tendencia que ayudará a las tecnologías de información a enfrentar las nuevas demandas en un entorno de negocio sumamente cambiante en los siguientes años, gracias a la flexibilidad y dinamismo que aporta al negocio y que en su mayoría ha sido una tecnología adoptada por grandes corporativos y que son empresas de mayor tamaño las que han recurrido a esta herramienta de optimización.

Relación del concepto de virtualización con la asignatura de Sistemas Operativos.

La relación del concepto de virtualización con la asignatura de sistemas operativos es la siguiente: Como anteriormente se describe el concepto de virtualización, ésta crea una capa entre el hardware de la máquina anfitriona y el sistema operativo de la máquina virtual (virtual machine, huésped), siendo un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, el cual tiene las mismas funciones que un sistema operativo instalado en el disco duro de la máquina; maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Red, Almacenamiento) igual que un sistema operativo como ya se conoce. La máquina virtual en general es un sistema operativo completo que corre como si se estuviera instalado en una plataforma de hardware autónoma, por lo que se puede tener dos sistemas operativos diferentes en una máquina sin necesidad de crear un partición e instalar ambos en el disco duro de la máquina. Además se tiene la ventaja de   que las dos instancias se corran al mismo tiempo a diferencia de cuando ambos sistemas operativos están instalados en la máquina, además no se tiene la necesidad del gestor de arranque para elegir qué sistema operativo se quiere utilizar.La virtualización es una forma de ahorrar espacio físico ya que se tiene la ventaja de tener dos o más sistemas operativos sin necesidad de ser instalados teniendo un sistema operativo como anfitrión que puede ser

Windows por ejemplo y se tiene varios sistemas operativos por medio de la virtualización como Linux en una solo máquina con las misma funcionalidades que ofrece un sistema operativo, instalado de forma tradicional, al usuario.

Page 20: Virtualizacion de La Informatica

En resumen con la virtualización se logra tener un sistema operativo que brinda la misma funcionalidad y administración de recursos (tanto hardware como redes del sistema) que un usuario puede necesitar; y por lo consiguiente la relación radica en el objeto de estudio de la materia de Sistemas Operativos, el cual es en sí, como su título lo define, los “Sistemas Operativos”.

Conclusiones.

Con la implementación de la virtualización las empresas obtienen considerables ahorros en costos de administración y logran el máximo rendimiento del hardware que conforma la infraestructura de la empresa, haciendo el negocio más escalable y capaz de adaptarse a los cambios que la globalización trae consigo: aumento del volumen de datos y procesos automatizado.

¿Por qué Virtualizar?

- Reducción del tiempo ocioso (es el tiempo que un procesador gasta esperando datos de otros procesadores).

- Disponibilidad de tecnología especializada para tales fines.

-Ahorro de recursos: Hardware, Energía y Costos

¿Qué se logra con la virtualización?

- Facilidad para la administración.

- Reemplazo rápido de sistemas completos en casos de averías.

- Los Sistemas de Prueba se pueden poner en producción fácil y rápidamente.

- Portabilidad → Independencia del Hardware.

- Disponibilidad de sistemas completos probados por fabricantes.

- Máxima explotación de los recursos de hardware.

Page 21: Virtualizacion de La Informatica

- Seguridad: Simulación de ambientes de trabajo para entrenamiento/pruebas sin poner en riesgo los sistemas en producción.

Bibliografia. 

LIBROS:  * Mitch Tulloch with the Microsoft Virtualization Team, (2009), Understanding Microsoft Virtualization Solutions From Desktop to the Datacenter,   Microsoft Press A Division of Microsoft Corporation One Microsoft Way,   Redmond, Washington

* Bernard Golden and Clark Scheffy, (2008), Virtualization for dummies sun and AMD special edition, Wiley Publishing, Inc., Indianapolis, Indiana.

* Josep Ros, (2009), Virtualización Corporativa con VMware Guía de virtualización paso a paso, España.

PÁGINAS WEB: 

* Virtualization EcoShell

http://thevesi.org/downloads.jspa

  * Microsoft TechNet, Todo sobre virtualización

http://technet.microsoft.com/es-ar/library/dd574271.aspx

* Lulu, Virtualización Corporativa con VMware 

http://www.lulu.com/content/libro-tapa-blanda/virtualizaci%C3%B3n-corporativa-con-vmware/7165714

* Wikipedia, Virtualización

http://es.wikipedia.org/wiki/Virtualizaci%C3%B3n

Page 22: Virtualizacion de La Informatica

* Virtualización (All platforms), Ventajas de virtualización

http://www.virtualizacion.com/ 

* Microsoft|Virtualization 

http://www.microsoft.com/virtualization/default.mspx

* Microsoft TechNet, Introducción ténica a Windows Server 2008

http://www.microsoft.com/latam/technet/windowsserver/longhorn/evaluate/whitepaper.mspx#