41
Capítulo II MARCO TEÓRICO

MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Page 1: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

Capítulo II

MARCO TEÓRICO

Page 2: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

13

CAPÍTULO II

MARCO TEÓRICO

El presente capítulo tiene como propósito reunir información documental y

bibliográfica para formular argumentos que sirvan de base para el desarrollo

de la investigación, por consiguiente el mismo está compuesto por el estudio

de trabajos realizados previamente, así como algunos aspectos teóricos o

conceptuales relacionados con la situación objeto de estudio.

1. ANTECEDENTES DE LA INVESTIGACIÓN

Para la elaboración del presente trabajo especial de grado se tomó como

base la variable objeto de la investigación y estudios similares (Protocolo

para auditar sistemas y Tecnologías para el desarrollo de un sistema) Que

aportarán información y datos para contribuir con el apoyo en la realización

del mismo.

Como primer antecedente se consideró a Moronta quien desarrollo el

proyecto titulado: “SISTEMA DE COMUNICACIÓN INTELIGENTE PARA

PROVEER MECANISMOS DE CALIDAD DE SERVICIO (QoS) EN LA

TRANSMISIÓN DE VOZ, DATO Y VIDEO” en la Universidad Rafael Belloso

Chacín. Esta investigación estuvo dirigida al diseño de un sistema de

comunicación inteligente para proveer mecanismos de calidad de servicios

Page 3: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

14

en la transmisión de voz, dato y video. El enfoque teórico de la investigación

se sustentó en diversos autores como Stewart y Gough (2008),Ranjbar

(2007), Szigeti (2004), Wallace (2007), Vagesna (2001), entre otros. El tipo

de investigación se ajustó a la categoría de proyectos factibles, prospectiva,

documental, de campo, transversal, no experimental y descriptiva. La

metodología seleccionada se basó en la planteada por el autor Fitzgerald

(1981). La cual ilustra el proceso de diseño de un sistema de comunicación a

través de diez(10) pasos, los cuales para efectos de este estudio fueron

agrupados en fases de acuerdo a los objetivos de la investigación, quedando

la metodología conformada por un total de cuatro fases, a saber: Fase I:

Análisis de la situación actual, Fase II: Definición de los requerimientos del

sistema de comunicación propuesto, Fase III: Diseño del sistema de

comunicación propuesto, y por último la Fase IV: Evaluación del diseño

propuesto. La recolección de datos se realizó a través de un guión de

observación y guión de entrevista estructurada abierta.

Para el desarrollo de la propuesta se utilizaron herramientas como:

Wireshark Network Analizer, Colasoft Packet Analizer, Cisco IP

Communicator, Packet Tracer, VLC Player, entre otras. Los resultados

arrojaron que los sistemas de comunicación inteligentes proporcionan

mecanismos efectivos para la implementación de calidad de servicio, lo cual

mejora significativamente el desempeño de las redes, recomendándose así

como una solución viable para ser implementada en cualquier organización.

Page 4: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

15

En relación con la propuesta de investigación en este trabajo de

grado, se analizaron las herramientas ya que se podrían utilizar para obtener

información sobre la calidad de servicio mediante un monitoreo para

sistemas con tecnología “Cloud Computing”, es decir información que mejora

significativamente el desempeño de las redes.

En comparación con la investigación nombrada anteriormente, la

propuesta de investigación en este trabajo de grado estuvo relacionada con

el protocolo que permita auditar sistemas con tecnología “Cloud

Computing”, lo cual permitirá evaluar ciertos parámetros para determinar la

calidad de servicio.

En segundo lugar, se tiene la investigación realizada por Gutiérrez,

Angeles quienes desarrollaron el proyecto titulado: “SISTEMA DE

COMUNICACIÓN PRIVADO BASADO EN CLOUD COMPUTING PARA

INSTITUCIONES DE EDUCACIÓN SUPERIOR” en la Universidad Rafael

Belloso Chacín. Como propósito principal de éste proyecto fue, desarrollar un

sistema de comunicación privado basado en Cloud Computing para

Instituciones de Educación Superior. Desde el punto de vista de Hernández,

Fernández y Baptista (2006), y Hurtado (2000).

Esta investigación se presenta como descriptiva y como un proyecto

factible, ya que la misma describe la situación objeto de estudio y se

fundamenta en la planificación y en la intención de solucionar un problema;

en cuanto al diseño, se determinó que es de campo; dado que los datos de

interés se tomaron en forma directa de la realidad, según explica Sabino

Page 5: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

16

(1992). Como técnica de recolección de datos, se usaron la entrevista y la

observación, para lo cual los instrumentos seleccionados fueron un guión de

Sondeo, así como un guión de observación. Dicho proyecto, trabajó con una

metodología ecléctica, compuesta por los siguientes autores, Menken (2008),

Reese (2009) y Miller (2009); que guiaron a los investigadores durante la

ejecución del proyecto. Tomando como base los fundamentos teóricos de la

investigación se buscó la reestructuración del sistema actual usando los

recursos ya existentes en la institución, dando como resultado, desde el

punto de vista teórico, el máximo aprovechamiento y disponibilidad de los

equipos, centralización de los datos y servicios tecnológicos, además de la

oportunidad latente de usar esta tecnología como plataforma educativa.

En relación con la propuesta de investigación en este trabajo de

grado, se analizara la estructura del sistema de comunicación privado en la

tecnología “Cloud Computing”, Lo que aporta dicha investigación, es en

cuanto a los estudios del desempeño del sistema de comunicación, a su vez

aplicaron una reestructuración del sistema usando los recursos existentes,

esto dice que a través de este proyecto de grado se puede implementar el

protocolo para auditar sistemas basados en tecnología “Cloud Computing”,

y así saber que la estructura realizada en la investigación de dicho autor está

bien implementada y darle énfasis al punto de vista teórico del proyecto

realizado anteriormente.

Como tercer antecedente, se tiene la investigación realizada por

Chourio, Karen quienes desarrollaron el proyecto titulado: “DESARROLLO

Page 6: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

17

DE UNA METODOLOGIA DE AUDITORIA OPERACIONAL PARA EL

PROCESO DE CERTIFICACION DE REDES SAN” en la Universidad Rafael

Belloso Chacín. Como propósito principal de éste proyecto fue, el desarrollo

de una Metodología de Auditoria Operacional para el proceso de

Certificación de Redes SAN, con la finalidad de lograr la eficiencia y la

calidad de las empresas, así como a su vez una red con una infraestructura

más fuerte y segura desde el punto de vista lógico y físico.

El trabajo de investigación se clasifico según su propósito de tipo

aplicada, según su método como descriptiva y por la forma de obtención de

datos como de campo. La técnica de recolección de datos de la investigación

se basó en la observación directa, entrevista y documental. La técnica de

recolección de datos de la investigación se basó en la observación directa,

entrevista y documental. La metodología utilizada de basó en la propuesta

por la norma ISO 19011 y Piattini, Navarro y Ruiz (2008), estructurada por

fases de la siguiente manera: Fase I. Diagnostico de la situación actual de

las redes SAN instaladas; Fase II. Identificación de los requisitos técnicos y

funcionales que determinan la calidad de una red SAN; Fase III. Desarrollo

de un Manual de Auditoria Operacional para la certificación de calidad de las

redes SAN; Fase IV. Validación del manual de auditoría operacional para la

certificación de calidad de las redes SAN, obteniendo como resultado la

metodología de auditoría operacional, y concluyendo así con la correcta

implementación del manua l de auditoría operacional en una red SAN

Page 7: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

18

En relación con la propuesta de investigación en este trabajo de

grado, se analizara la metodología utilizada en cuanto a la elaboración del

manual de auditoría operacional para la certificación de calida de las redes

SAN, Lo que aporta dicha investigación, es en cuanto a los estudios de la

selección del equipo de auditoría , la comunicación de los datos durante la

recopilación de los datos, la formulación del informe final y a su vez la

ejecución de la misma para dar Calidad de servicio (QoS) a la red SAN,

asegurándose de cumplir con los parámetros para su optimo funcionamiento ,

esto dice que a través de este proyecto de grado se puede elaborar el

protocolo para auditar sistemas basados en tecnología “Cloud Computing”,

teniendo la certeza de que al momento de hacer uso de este manual el

mismo esta certificado por expertos en áreas tanto de Sistemas como de

Cloud computing y así saber que la estructura realizada en la investigación

de dicho autor está bien implementada ya que han de utilizar una

metodología válida para su formulación.

Finalmente, la investigación realizada por Ferrer, Nava y Sánchez que

desarrollaron el proyecto titulado: “PROTOCOLO PARA AUDITAR REDES

LOCALES INALAMBRICAS BAJO ESTANDAR 802.11G” en la Universidad

Rafael Belloso Chacín. Para mejorar el proceso de auditoría, la investigación

tuvo como objetivo general diseñar un protocolo para auditar redes locales

inalámbricas bajo estándar 802.11g.

La teorización considero los aportes de los autores Muñoz (1998),

Solís (2002), Rojas Hallberg (2007), Forouzan (2002) y Herrera (2003), entre

Page 8: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

19

otros. A su vez la investigación se clasifico como tipo proyectiva, descriptiva y

de campo, considerando la finalidad, el método y la forma de obtener los

datos. Se aplicaron como técnica de recolección de datos, la observación

directa, revisión documental, entrevista y una encuesta orientada a expertos

en el área de redes inalámbricas como instrumento de recolección de datos.

Las fases del desarrollo utilizadas indicaron una adaptación de las

metodologías de Smith (2000), Grech (2001), Savant (1992) y FitzGerald

(1988), por lo cual se considera una metodología ecléctica.

Dichas fases se especifican de la siguiente forma: estudio preliminar,

análisis funcional, identificar los indicadores de calidad, elaborar el protocolo

y validar el diseño de dicho protocolo propuesto, dando como resultado de

esta investigación se tiene un protocolo para validar y certificar redes locales

inalámbricas bajo estándar 802.11g, validado por expertos en el área, donde

se toman en cuenta distintos criterios de calidad del aspecto funcional y

operacional de las redes inalámbricas bajo estándar 802.11g.

En relación con la propuesta de investigación, se analizaron todos los

procesos de la creación del protocolo validado por experto para redes locales

inalámbricas bajo el estándar 802.11g y toda información referente sobre el

protocolo por lo cual permite adquirir información necesaria para estructurar

el protocolo, lo que aporta información al presente proyecto, ya que se está

trabajando con el protocolo para auditar, lo que cambian son los estándares

y lo que se quiere auditar (En el proyecto anterior “Redes” y en el actual

“Sistemas bajo plataforma de Cloud Computing ”).

Page 9: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

20

2. BASES TEORICAS

Para los fundamentos teóricos de esta investigación, se procedió a

desarrollar dos (2) temas primordiales de la misma, la primera referente a la

variable de estudio, y la otra, relacionada con el instrumento propuesto para

dar solución al problema planteado. Dicha teoría, se desarrolló de tal forma

que pueda despejar las dudas y puntualizar los aspectos más importantes,

para dar a los investigadores y al lector, las herramientas necesarias para la

correcta implementación de un sistema de comunicación basado en Cloud

Computing.

2.1. AUDITORÍA DE SISTEMAS.

Por otro lado, Hernández (1997, p. 17) afirma que es el conjunto de

acciones que realiza el personal especializado en las área de auditoría e

informática para el aseguramiento continuo de que todos los recursos de

informática operen en un ambiente de seguridad y control eficientes, con la

finalidad de que la información que pasa por el área se maneje con los

conceptos básicos de integridad, totalidad, exactitud, confiabilidad, etc.

2.1.1. AUDITORIA AL SISTEMA DE CÓMPUTO

Según Muñoz (2002, p. 30) es la auditoría técnica y especializada que se

enfoca únicamente a la evaluación del funcionamiento y uso correctos del

equipo de cómputo, su hardware, software y periféricos asociados. Esta

Page 10: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

21

auditoría también se realiza a la composición y arquitectura de las parles

físicas y demás componentes del hardware, incluyendo equipos asociados,

instalaciones y comunicaciones internas o externa, así como al diseño,

desarrollo y uso del software de operación, de apoyo y de aplicación, ya sean

sistemas operativos, lenguajes de procesamiento y programas de desarrollo,

o paquetería de aplicación institucional que se utiliza en la empresa donde se

encuentra el equipo de cómputo que será evaluado.

2.1.2. AUDITORIA OPERACIONAL

Según Muñoz (2002, p. 17) la auditoria operacional es la revisión

exhaustiva, sistemática y especifica que se realiza a las actividades de una

empresa, con el fin de evaluar su existencia, suficiencia, eficacia, eficiencia y

el correcto desarrollo de sus operaciones, cualesquiera que estas sean, tanto

en el establecimiento y cumplimiento de los métodos, técnicas y

procedimientos de trabajo necesarios para el desarrollo de sus operaciones,

en coordinación con los recursos disponibles, como en las normas, políticas,

lineamientos y capacitación que regulan el buen funcionamiento de la

empresa.

2.1.2.1. AUDITORIA ALREDEDOR DE LA COMPUTADORA

Es el diagnóstico que se le aplica a todo lo que está alrededor de un

equipo de cómputo (Software, Hardware y funcionamiento), es decir se

Page 11: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

22

evalúan sus métodos y procedimientos de: acceso y datos; como se envían,

muestran y almacenan los resultado y también como se gestionan las

comunicaciones internas y externas.

2.1.2.2. AUDITORIA ERGONÓMICA DE SISTEMAS

COMPUTACIONALES

Según Muñoz (2002, p. 43) es la revisión técnica, específica y

especializada que se realizara para evaluar la calidad, eficiencia y utilidad del

entorno hombre-máquina-medio ambiente que rodea el uso de sistemas

computacionales, en una empresa la revisión se realiza también con el

propósito de evaluar la correcta adquisición y uso del mobiliario, equipo y

sistemas, a fin de proporcionar el bienestar, confort y comodidad que

requieren los usuarios o de los sistemas de cómputo de la empresa, así

como evaluar la detección de los posibles problemas y sus repercusiones, y

la determinación de las soluciones relacionadas con la salud física y

bienestar de los usuarios de los sistemas de la empresa.

2.1.3. NIVEL DE SERVICIO.

En opinión de Piattini (2008, p. 411) dichas actividades, paradas por

instalación de nuevos dispositivos, cambios de versiones del sistema

operativo, puesta en servicio de nuevas herramientas, averías de máquinas,

fallos de corriente o elementos de acondicionamiento, arranque o

Page 12: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

23

modificación de enlaces de comunicaciones, incluso de nuevos usuarios o

cualquier tipo de problemas como el hardware o el software puede degradar

el servicio, como el consiguiente perjuicio para la organización, que no podrá

desarrollar sus funciones adecuadamente o en el tiempo preciso, con el

correspondiente impacto económico que esto supone y que, generalmente,

resultarán difícil de calcular, pero, en cualquier caso, importante.

2.1.4. PROCEDIMIENTOS.

Según Tamayo (2001, p. 43), los procedimientos incluyen pruebas que

requieren la inspección de documentos que apoyan operaciones para

obtener evidencia de que los controles han operado con propiedad, e

investigaciones acerca de los controles que no dejan rastro de auditoría, así

como la observación de los mismos, donde que toda tarea organizada debe

cumplir con la descomposición en series de acciones a realizar con sus

procedimientos específicos que permitan la garantía del funcionamiento.

2.1.5. CONTROLES.

Según Piattini y otros (2008, p. 417), Deberían determinar el

comportamiento del sistema y prevenir situaciones no deseadas desde

cualquier punto de vista.

• Hardware

o Existe los componentes adquiridos (inventario)

Page 13: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

24

o Están correctamente instalados

o Se mantienen adecuadamente

o Dan el rendimiento requerido

• Software

o Se dispone de las correspondientes licencias

o Está correctamente instalado

o Se mantiene adecuadamente(versión oficialmente soportadas)

o Dan el rendimiento adecuado

• Comunicaciones

o Existen componentes

o Existen los contratos o servicios

• Conmutación

o Están Correctamente instalados

o Se mantienen adecuadamente

o Dan el rendimiento adecuado

• Enlaces

o Están correctamente parametrizados

o Se mantienen adecuadamente

o Dan el ancho de banda y respuesta necesaria

• Seguridad

o Existen los procedimientos

o Se llevan a cabo

Page 14: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

25

o Se controlan las excepciones

o Se toman medidas

• Información

o Se dispone de procedimientos de back-up

o Se realizan los back-up correspondientes

o Se guardan adecuadamente

o Se comprueban por muestreo

• Plan de contingencias

o Se dispone de un procedimiento

o Están contratados los servicios necesarios

o Está debidamente actualizado

o Se realizan los ensayos periódicos

2.1.6. AUDITORÍA DE LA FUNCIÓN.

No se repetirán conceptos clásicos de auditoría, como la necesidad de

confeccionar un plan de la misma que incluya el análisis de ejercicios

anteriores, determinando objetivos precisos y estableciendo un conjunto de

pruebas: sustantivas y de cumplimiento que permitan obtener unas

conclusiones reflejadas en el informe correspondiente. Se trata pues de

aplicar las ideas anteriores al segmento de actividad al que nos estamos

refiriendo: Técnica de sistema.

Page 15: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

26

2.1.7. CONSIDERACIONES SOBRE LA TECNOLOGÍA Y SU

EVOLUCIÓN.

Es cada vez mas importante disponer de unos estándares contratados

(Auditados) para no “reinventar la rueda” continuamente y convertir la gestión

de los sistemas en una “Torre de Babel”. Es básico disponer de los

mecanismos de control (Y auditoría) para verificar que se efectúan la

comprobaciones necesarias en la instalación de nuevos aplicativos y

modificación de los existentes, evitando compatibilidad y/o fallos posteriores

que siempre repercuten el negocio negativo.

2.2. CLOUD COMPUTING.

Según Velte, A. Velte y Elsenpeter (2010, p. 3), el Cloud Computing ,

obtiene su nombre como una metáfora del Internet, ya que la Internet es

típicamente representada en los diagramas como una nube, simbolizando

todo aquello que hace funcional a una red. Sin embargo, Resse (2009, p. 2),

aclara que la nube no es el último término de moda para referirse a la

Internet, y a pesar de ser la clave fundamental de su funcionamiento, es

mucho más que solo la Internet, y la define como “el lugar donde se usa la

tecnología cuando se necesita, por el tiempo que se necesita y ni un minuto

más”. Al mismo tiempo, no requiere de instalación y el usuario no paga la

tecnología más allá de lo que usa.

Page 16: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

27

De la misma forma, Miller (2009, p. 8), explica que mientras en el modelo

tradicional se ejecuta una copia del software en cada computador, con el

Cloud Computing, el software no se ejecuta en el computador del usuario,

más bien son almacenados en servidores y accedidos a través de la Internet.

Su principal ventaja, radica en la disponibilidad tanto de la aplicación como

de los archivos creados, ya que en caso que el equipo sufra algún daño

irreparable, tanto la aplicación como sus archivos pueden ser fácilmente

accedidos desde otro equipo, sin ningún tipo de instalación o configuración

adicional.

Otra manera de manifestar estos sistemas, es que incluyen entre sus

componentes una plataforma basada en tecnología Cloud Computing y

comparten sus protocolo.

2.2.1. SERVICIOS DEL CLOUD COMPUTING.

Rittinghouse y Ransome (2010, p. 50), explican como las ofertas de

servicios web tienen un número de características comunes, como su baja

resistencia inicial de adaptación, en especial aquellos que están destinados a

consumidores particulares o negocio pequeños, el poco capital que requiere

la adquisición de infraestructura, la escalabilidad masiva es en estos tipos de

ofertas y la capacidad multiusuario que permite que costos y recursos por

igual se compartan entre todos los usuarios. Y finalmente, la independencia

entre los dispositivos y la ubicación de los usuarios hace posible el acceso a

los servicios sin importar donde estén ubicados ambos.

Page 17: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

28

También hacen mención de un modelo de servicio denominado CaaS,

“Comunication as a Service”, referido a una solucion de comunicaciones

empresarial contratada a terceros, en la cual los proveedores de este tipo de

soluciones son responsables por la administracion del hardware y el software

requeridos para entregar servicios de VoIP, mensajeria instantanea (IM) y

videoconferencia a sus clientes.

Asimismo, explican como el Monitoreo como servicio, o por sus siglas

en ingles MaaS, es la contratacion a terceros de la seguridad, primariamente

en plataformas de negocios que hacen uso de la internet para sus

conexiones. Según Rittinghouse y otros (2010, p. 29), el monitoreo de

seguridad involucra proteger a un cliente privado o gubernamental ante

posibles amenazas. En éste caso el equipo de seguridad contratado juega un

rol crucial en asegurar la confidencialidad, integridad y disponibilidad de los

recursos de TIC. Y para garantizar su efectividad, la vigilancia debe ser

constante sobre los recursos criticos de información.

No obstante, como se puede observar, el centro o énfasis de éste nuevo

modelo de computación busca ofrecer todos los elementos de comunicación,

software, infraestructura y demás como servicios a la disposición del usuario

donde y cuando los necesite. De esta forma, se presentan a continuación los

servicios más comunes: SaaS, PaaS, IaaS.

Page 18: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

29

2.2.1.1. SOFTWARE COMO SERVICIO (SaaS).

De acuerdo con Rittinghouse y Ransome (2010, p. 50), “Software as a

Service” o Software como Servicio (SaaS), se refiere a un nuevo modelo de

distribución de software, que, a diferencia del modelo tradicional, al cual

denominan Software as a Product; como un modelo en el que las

aplicaciones son alojadas en un proveedor de servicio y puestos a

disposición de los clientes de una red, típicamente, a través de Internet.

Resse (2009, p. 3), también menciona otras características del SaaS,

comenzando por la disponibilidad de éste software a través de un navegador

Web, dónde y cuándo se necesite, y aún más importante, los pocos recursos

y conocimientos técnicos de infraestructura TIC que debe manejar el usuario

para hacer funcionar ésta tecnología.

En este contexto, cabe destacar como otro punto importante, la

característica que poseen algunas implementaciones de SaaS, capacidad

multiusuario, que describe a una aplicación, basado en servidor y que

soporta el despliegue de varios usuarios en una instancia de software. En

ese sentido, éste software permite al proveedor de SaaS, realizar tareas

como instalación de parches y actualizaciones de una forma más rápida y

sencilla, ofreciendo soporte a más usuarios en menos equipos de hardware.

En el mismo sentido, la mayor ventaja de éste software, se presenta al

cliente o usuario en la reducción de costos por dicho servicio, ya que en lugar

Page 19: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

30

de pagar una instancia de software por cada equipo en su red, sólo adquiere

una, que es cargada a todos los equipos si así lo requiere.

Mientras, Rittinghouse y Ransome (2010, p. 52), clasifica la arquitectura

del SaaS en cuatro (4) niveles de madurez. En el primero, explica que no hay

madurez en absoluto, cada cliente tiene una versión personalizada de

manera única y que es ejecutada directamente desde el servidor del

proveedor. En el segundo nivel, ofrece una mayor flexibilidad del programa a

través de metadatos en la configuración, permitiendo a los usuarios utilizar

muchas instancias independientes de la misma aplicación.

2.2.1.2. PLATAFORMA COMO SERVICIO (PaaS).

En opinión de Miller (2009, p. 41), éste servicio como una variante del

SaaS, en el cual, el ambiente de desarrollo se ofrece como servicio,

entregando a los desarrolladores las herramientas para crear una aplicación

propia. En complemento con la opinión del autor citado, cabe destacar que

no sólo suele considerarse como una evolución del Saas, sino que es un

modelo que ofrece todo lo necesario para soportar el ciclo de vida y puesta

en marcha de aplicaciones y servicios web disponibles en la internet.

A su vez, Blockdijk y Menken (2008, p. 68), se refieren al PaaS a la forma

en que las aplicaciones son implementadas, lo que incluye los entornos de

aplicaciones Web, como el lenguaje Ruby onRails, también se puede incluir

el Google App Engine, que se sale de Python, el servicio de alojamiento web

Mosso, entre otras plataformas como Microsoft Azure que serán explicadas

Page 20: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

31

con más detalles, más adelante. En base a lo expuesto, es importante

resaltar una característica muy importante, a cual es que no hay descarga de

software que instalar en los equipos de los desarrolladores, debido a los

múltiples servicios que ofrece, pero todos aprovisionados como una solución

integral en la web.

2.2.1.3. INFRAESTRUCTURA COMO SERVICIO (IaaS).

Para Gillam (2010, p. 26), IaaS es la entrega de equipo de infraestructura

como servicio, que aparte de ofrecer mayor flexibilidad, el régimen de pago

basado en el uso; esto permite a los clientes pagar a medida que crecen.

También hace mención de otra ventaja muy importante, que siempre hace

uso de la última tecnología. Los clientes pueden lograr una prestación de

servicios y tiempo de comercialización mucho más rápidos.

En este contexto, Buyya, Broberg y Goscinski (2011, p. 20), afirman que

IaaS ofrece servidores virtuales que contienen uno o más CPU’s, la

ejecución de varias opciones de sistemas operativos y una pila de software

personalizado. Además se proporcionan a menudo las instalaciones de

almacenamiento de espacio y de comunicación. En cuanto a lo que hace

posible la infraestructura de la nube, nos asegura que se fundamenta en la

virtualización del hardware. El cual, por ser un punto clave para éste proyecto

y su propuesta, será explicado con mucho más cuidado próximamente.

Page 21: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

32

Cabe destacar, que la mayoría de los usuarios ven el hardware como

algo a lo que tienen acceso y pueden tocar. Sin embargo, esta alternativa,

permite a los usuarios tener acceso a tecnología de servidores, con una

simple solicitud, sin necesidad de complicadas instalaciones ni

configuraciones.

2.2.2. CLASIFICACIÓN DEL CLOUD COMPUTING.

Básicamente existen tres (3) tipos de nubes: públicas, privadas e híbridas.

Para Rao y Kumari (2009, p. 74), una nube pública se trata de un ambiente

usado por el público en general, incluyendo algunas organizaciones. Según

indican, estas nubes son administradas por un proveedor a través de

Internet, en las cuales se ofrecen servicios bajo la política de pago por uso.

También mencionan como SaaS, complementan las nubes públicas y

viceversa, permitiendo a las compañías compartir recursos y servicios.

Aunque su principal limitación es el concepto de seguridad, ya que en estos

entornos, los datos son almacenados directamente en los servidores del

proveedor.

En cambio, una nube privada reside dentro de la propia organización que

la utiliza. Según Rao y otros (2009), son construidas por departamentos de

TIC dentro de aquellas empresas que buscan optimizar y maximizar el uso

de la infraestructura y tecnología que ya poseen, a través de aplicaciones y

sistemas virtualizados. Al mismo tiempo, presentan una desventaja a la

Page 22: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

33

empresa, ya que en muchos casos, requieren de una inversión de capital

para la construcción de la nube.

Es preciso o/y tomar en cuenta que esta tecnología solo puede ser

ventajosa para la empresa si esta ya posee la infraestructura o en el caso de

aquellas que requieren tener bajo control total sobre su infraestructura. Una

ventaja adicional para la empresa, es que bajo esta modalidad, puede

disfrutar de todas las ventajas de la virtualización.

A su vez, Hurwitz y otros (2010, p. 87), aseguran que ésta alternativa

podría hacerse muy popular, debido a la privacidad y seguridad de los datos,

que ofrece dicha tecnología a las empresas. Al mismo tiempo concuerda con

Resse (2009, p.18), explicado como las empresas se ven atraídas por la

nube privada, para no perder la inversión en hardware y software que ya

poseen. En último lugar, estarían las nubes híbridas, que básicamente serían

una combinación de las dos modalidades mencionadas anteriormente.

2.2.3. CARACTERÍSTICA DE CLOUD COMPUTING.

Con lo anteriormente explicado, se puede nombrar la característica que

hacen del Cloud Computing un servicio totalmente adaptable , la cual sería: la

redundancia, ya que se trata de la disponibilidad continua de múltiples

recursos respaldados de manera segura y efectiva por una plataforma de

despliegue repetible.

Page 23: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

34

2.2.4. ARQUITECTURA.

De acuerdo con los estudios de Rao y otros (2009, p. 73), la arquitectura

del Cloud Computing como en cualquier sistema, se divide en dos

categorías: la primera referida a los usuarios finales o aplicaciones y la

segunda a la red de servidores. Asimismo, enfatizan que la tecnología del

Cloud Computing, tiene un sistema centralizado de administración de

servidores. Dicho servidor o servidores centralizados administran el sistema,

los planes de abastecimiento del cliente, ajustan las demandas, monitorean

el tráfico y evitan la congestión. A su vez, el servidor sigue un protocolo,

comúnmente conocido como middleware, que controla la comunicación de la

red de nubes entre los clientes.

De un modo similar, Velte y otros (2010, p. 91), afirman que para obtener

el máximo rendimiento en un sistema basado en Cloud Computing, es

necesario tener el hardware correcto y la infraestructura en su lugar. También

menciona dos componentes: los clientes y la red. En otras palabras, señalan

que una nube está compuesta por dos elementos básicos: los dispositivos de

usuario final o clientes, y los dispositivos de la red.

Sin embargo, Blockdijk y otros (2008, p. 66), propone siete componentes

Cloud Computing, que son: aplicación, cliente, infraestructura, plataforma,

servicio, almacenamiento y poder de procesamiento. No obstante, para la

aplicación del presente proyecto, estudiarán los siguientes como

Page 24: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

35

componentes del Cloud Computing: cliente, infraestructura, servicio, poder

de procesamiento y seguridad.

2.2.4.1. CLIENTE.

Para Blockdijk y Menken (2008, p. 66), el cliente o usuario final,

normalmente un cliente ligero es generalmente un navegador web, como

Mozilla Firefox, Microsoft Internet Explorer o el Google Chrome. También se

puede mencionar otro tipo de clientes, los móviles, tales como teléfonos

iPhone o el Google Android, cuyas plataformas ejecutan una serie de

aplicaciones desde una nube.

Velte y otros (2010, p. 91), profundizan un poco más en la descripción de

los clientes, describiendo a los mismos, como los equipos que estarán sobre

los escritorios de los usuarios finales, también establece que hay distintos

tipos de clientes que pueden conectarse a la nube, y cada uno ofrece una

forma diferente de interacción con los datos y aplicaciones.

El citado autor también hace mención de tres tipos de clientes o

dispositivos de usuario final, en primer lugar están los clientes móviles, que

se refieren, básicamente, a todo dispositivo portable con acceso a Internet;

luego hablan de los clientes ligeros, que no cuentan con unidades de disco; y

por último los clientes pesados, que son los equipos más usados

actualmente.

En este contexto se puede acotar que la tecnología Cloud permite a los

usuarios móviles conectarse a Internet y acceder a aplicaciones tal como lo

Page 25: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

36

haría en un computador convencional, ya que los clientes móviles abarcan la

gama desde laptops, PDAs y teléfonos inteligentes, como el iPhone o

BlackBerry.

También es importante resaltar, que aspectos como la velocidad y la

seguridad de los clientes móviles también deben cuidarse, algunas

aplicaciones pueden requerir una conexión optimizada, sin embargo, no

todas las aplicaciones necesitan conexiones rápidas, asimismo, los clientes

móviles también pueden crear sus propias aplicaciones en la nube desde el

dispositivo móvil, en otras palabras, aun cuando un cliente móvil no pueda

cargar toneladas de información a una base de datos, se puede desarrollar

una aplicación para acceder a ella.

Por otra parte, Haren (2011, p. 44) expone que el cliente ligero no es una

idea nueva, y se puede utilizar con las soluciones tradicionales; y que

asimismo clasificados con forma de computación en la nube debido a que el

proceso es la decisión del cliente a la nube.

Por último, los clientes pesados o thickclients, son los clientes más

utilizados en los sistemas de redes actuales y pueden con seguridad,

conectarse a un servidor virtualizado y utilizar aplicaciones de la nube. Más

aún, son las mejores opciones si los usuarios necesitan mantener archivos

en sus propias máquinas o ejecutar programas que no existen en la nube.

Page 26: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

37

2.2.4.2. PODER DE PROCESAMIENTO.

Según Rittinghouse y Ransome (2010, p. 62), Cloud Computing como es

conocida, ofrece a sus clientes la flexibilidad necesaria para especificar la

cantidad exacta de potencia de cálculo, datos o aplicaciones que necesitan

para satisfacer los requerimientos de su negocio. Por lo cual, los clientes no

tienen que invertir un gran capital para tener estos servicios, la alternativa

disponible permite a los usuarios conectarse a la nube sin necesidad de

instalar software o comprar hardware específico.

De manera similar, Blockdijk y Menken (2008, p. 71), indican que el Cloud

Computing posee gran potencia de almacenamiento con costos mínimos.

También señala que esta tecnología puede usarse para tareas como; las

pruebas de nuevos mercados, y probar nuevas aplicaciones a través de

Internet.

Ahora bien, estadísticamente se dice que los servidores de la empresa

suelen estar inactivos más de un cincuenta por ciento del tiempo, lo que

conlleva a una gran pérdida de dinero y recursos de energía. En otras

palabras, la mayoría de los servidores corporativos pierden valiosos recursos

de procesamiento disponibles. Razón por la cual, se recomienda a las

corporaciones investigar completamente los inconvenientes y beneficios del

uso de recursos compartidos en lugar de perder dinero en poder de

procesamiento que no utilizan plenamente.

Page 27: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

38

2.2.4.3. SEGURIDAD.

Para Gillam (2010, p. 31) la seguridad es uno de los principales

obstáculos para que las empresas muevan sus “Datos de la casa” a una

nube. La mayoría de los proveedores no garantizan la seguridad de los datos

durante su traslado a la nube. También expone que la información

corporativa no es sólo una ventaja competitiva, sino que contiene información

de clientes, consumidores, y empleados que, en las manos equivocadas

podría crear una responsabilidad civil. Es importante acotar que el

establecimiento de mejores prácticas de seguridad en la nube para un

usuario final es una buena idea, como por ejemplo: los clientes deben hablar

con el proveedor de software acerca de las licencias.

Según Furht (2010, p. 12) una de las cuestiones críticas de implementar

computación en la nube, es tomar máquinas virtuales, que contienen

aplicaciones y datos críticos sensibles, para entornos públicos y colectivos;

por lo tanto, potenciales usuarios de Cloud Computing están preocupados

por los problemas de seguridad.

Sin embargo, tal como explican Rittinghouse y Ransome (2010, p. 155) la

seguridad en la nube será planteada dentro de los términos del servicio,

basándose en la modalidad de IT-as-a-service, TIC como servicio, en donde

los proveedores asumen la responsabilidad no solo del almacenamiento y la

seguridad de la data, sino también de los procesos complejos de

administración y estrategias operacionales, así el usuario tendrá como única

Page 28: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

39

tarea el acceso y modificación de la información. Esta transformación no es

trivial y representa un cambio en los paradigmas de seguridad informática,

así como en el flujo de trabajo de los departamentos de TIC de cada

organización, más los beneficios estratégicos son innegables.

2.2.5. ALMACENAMIENTO.

En opinión de Mahmood y Hill (2011, p. 164), el usuario final se ve como

un espacio virtual abierto en la nube, los datos se almacenan en servidores

múltiples en lugar de los servidores dedicados utilizados en la red tradicional

de almacenamiento de datos. Dichos datos se pueden almacenar en

cualquiera o más servidores utilizados para crear la nube. En este contexto

es importante mencionar ciertas ventajas de la virtualización, entre las cuales

están: espacio y energía, utilización, costos, recuperación de datos, manejo,

entre otras.

Según Blockdijk y Menken (2008, p. 70), una de las mayores ventajas de

Cloud Computing es en el almacenamiento, esto debido a que lo primero en

fallar en un ordenador común son las condiciones de almacenaje. De la

misma forma, continúa explicando, que mediante el uso de la tecnología

Cloud y la redundancia de la información que ésta ofrece, las empresas

pueden estar seguras de que sus datos están realmente resguardados.

Razón por la cual, los proveedores de Cloud Computing por lo general serán

capaces de ofrecer acuerdos de servicio a sus clientes, garantizando la

seguridad y fiabilidad de sus datos.

Page 29: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

40

Cabe destacar, que este aspecto es una de las primeras características

de la tecnología Cloud Computing, y se define como una forma de

almacenamiento de datos en red en los cuales, los archivos y datos son

almacenados en múltiples servidores virtuales. En ése sentido, Miller (2009,

p. 208), explica que los servicios de almacenamiento, normalmente son

ofrecidos por terceros, empresas que operan grandes centros de datos y

ofrecen dicho servicio por suscripción, típicamente se arrienda capacidad de

almacenamiento a éstas empresas, posteriormente se tiene acceso a

la cantidad contratada de espacio de almacenamiento, el cual se accede por

internet.

Hasta cierto punto, lo que se ve es un único servidor o disco duro, sin

embargo no deja de ser un servidor virtual. Aunque en realidad los datos son

almacenados a través de servicios múltiples y a veces hasta ubicaciones o

continentes diferentes.

2.2.5.1. PROVEEDORES.

Según Harding (2011, p. 96), los proveedores de nubes cuentan con

mecanismos para asegurar que los programas estén bien divididos. Pero aún

así, puede ser que el cliente desee hacer de la seguridad de acceso a través

de recursos compartidos un requisito y una condición de su contrato.

Blockdijk y Menken (2008, p. 71), hace referencia a varias compañías que

ofrecen este servicio. Algunas compañías que ofrecen servicio de

Page 30: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

41

almacenamiento para bases de datos en la nube incluyen

Amazon’sSimpleDB y Google App Engine’sBigtable servicio de

almacenamiento de datos. Al mismo tiempo Microsoft ofrece un servicio

online de sincronización llamado Live Mesh, el cual es parte del servicio Live

Desktop.

También se pueden mencionar las recientes alternativas de

almacenamiento propuestas por empresas como Dropbox; varios

proveedores de servicios de correo, tales como los mencionados por Velte y

otros (2010, p. 137) Hotmail, Gmail y Yahoo! Mail; Flickr, Picasa y Youtube

que almacenan millones de imágenes y videos en sus servidores; aún

Facebook y MySpace, permiten a los usuarios cargar imágenes que son

almacenadas en sus servidores.

2.2.5.2. SEGURIDAD.

Ante todo Blockdijk y Menken (2008, p. 70) señala cómo Cloud

Computing puede mantener los datos seguros en caso de que haya una

situación de emergencia, debido a la gran cantidad de equipos que se

encuentran en este entorno, lo que reduce en gran medida las posibilidades

de una completa pérdida de la información.

De forma similar, Miller (2009, p. 208), señala una de las ventajas

primordiales de éste servicio, la escalabilidad, ya que le permite al cliente o

usuario contratar la cantidad exacta de almacenamiento que necesita, sin

Page 31: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

42

importar su tamaño, sin mencionar, lo fácil que puede ser incrementar o

decrementar el espacio de almacenamiento contratado de forma que se

ajuste perfectamente a las necesidades del cliente. Por lo que no sería

necesario comprar nuevos equipos ni preocuparse por la configuración ni el

mantenimiento de los mismos.

Es importante hacer mención de la importancia de respaldar los datos del

servidor, y que al contar con el servicio de almacenamiento en nube, el

mismo puede ser usado como un gigante dispositivo de respaldo online.

Igualmente, los datos almacenados en la nube están a salvo de borrados

accidentales o fallos del hardware, ya que se duplican a través de múltiples

máquinas físicas, ya que varias copias de los datos se mantienen

continuamente, la nube sigue funcionando con normalidad incluso si uno o

más máquinas se desactivan. Y por último, el costo del servicio, los recursos

virtuales de la nube son generalmente más baratos que los recursos

dedicados físicamente conectados a un ordenador personal.

2.2.5.3. PRECAUSIONES.

Según Li y Chen (2012, p. 349), en el proceso de construir los servidores

de computación en la nube, se pueden usar los servidores de gran tamaño.

Aplicando este enfoque, aunque la capacidad de este almacenamiento

cumpla los requisitos de los usuarios, el gasto es relativamente excesivo.

Con la extensión de capacitación de discos duros podemos integrar una gran

Page 32: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

43

cantidad de discos juntos y construir una gran capacidad y un servidor de

bajo costo.

Por su parte, Reese (2009, p. 7), indica en términos generales que el

almacenamiento en nube no siempre es lo más apropiado para el software

basado en nube, recomienda más bien, usarlo como método de respaldo. De

igual manera, el autor citado plantea la necesidad de elaborar un plan de

recuperación en caso de desastre que especifique claramente la máxima

cantidad de datos que sería tolerable perder, denominado Punto de

Recuperación Objetivo (RPO), así como la mayor cantidad de tiempo que el

sistema puede pasar inactivo, denominado Tiempo de Recuperación Objetivo

(RTO), ambos, con el fin de determinar el plan de contingencia adecuado

para dichas necesidades.

En cierto modo, Herrera (candadodigital.blogspot.com), describe estos

problemas y explica las principales preocupaciones de los clientes en cuanto

almacenamiento en nube se refiere, “confidencialidad de la información,

propiedad de la información, en específico, la capacidad de recuperarla

en cualquier momento y usarla; y continuidad operativa y disponibilidad de la

información”.

En relación al último aspecto citado, Herrera comenta que la arquitectura

del Cloud Computing tiende a resolver dicho problema de forma natural, lo

cual tiene relación con lo dicho por Miller (2009), cuando reseña como la

nube dinámicamente gestiona el espacio de almacenamiento disponible

Page 33: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

44

copiando la data en múltiples servidores y cambiando la ubicación de la

misma constantemente, para mayor fiabilidad de los datos.

Al mismo tiempo, Herrera recomienda cambiar de mentalidad, y hallar

soluciones para este nuevo entorno. Lo que implica “aplicar controles de

seguridad a nivel de los datos y no a nivel de infraestructura ni de red”; la

alternativa que Herrera ofrece es el uso de herramientas de encriptación

controladas por el cliente y aplicadas directamente a los datos. Así mismo,

explica que dicha alternativa sería muy eficiente con servicios como los

ofrecidos por Dropbox, o el Amazon’sSimple Storage Service, no obstante

para otras aplicaciones no sería tan sencillo, particularmente aquellas que se

dedican exclusivamente al procesamiento de datos tal como antivirus y

similares, ya que en éste caso, el proveedor necesita manejar los datos para

procesarlos.

2.2.6. ACCESO A LA NUBE.

Según Resse (2009, p. 2), el Cloud Computing puede ser dos cosas,

software e infraestructura, puede ser una aplicación que se acceso a través

de la Web o bien a través de una Interfaz de Programación de Aplicaciones

(API). En ésta sección se explicarán las alternativas de acceso que ofrece el

software y el hardware, conexiones de red, que hacen posible el acceso al

Cloud Computing.

Page 34: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

45

2.2.6.1. NAVEGADORES WEB.

Según Velte y otros (2010, p. 126), para ingresar a la nube, la mayoría

de los usuarios usarán un navegador Web, la elección del mismo dependerá

del usuario propiamente. Típicamente, los navegadores Web son

básicamente iguales, excepto por algunas ligeras diferencias funcionales. Al

mismo tiempo, comentan que en algunos casos el uso de Internet Explorer

podría ser obligatorio, sin embargo, la mayor parte del tiempo, puede usarse

cualquier navegador Web.

Esto último se debe, en base a la experiencia de los investigadores, a que

muchos de los desarrolladores de aplicaciones o sitios Web, diseñan estos

espacios con la intención de hacerlos lo más compatible posibles con los

navegadores Web más usados en la actualidad, en éste caso, a Internet

Explorer, por ser precisamente uno de los navegadores Web más populares

actualmente.

2.2.6.2. APLICACIONES WEB.

Miller (2009, p. 38), explica como, para la mayoría de las empresas puede

ser arriesgado, económicamente hablando, invertir en servidores o licencias

de software nuevos que serán usados durante un pequeño porcentaje de

tiempo. Es por ello que una aplicación alojada en la nube es más económica

y más fácil de administrar que las copias individuales de software similar

instaladas en la PC de escritorio de cada usuario. La misma facilidad se tiene

Page 35: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

46

al momento de actualizar una aplicación en nube, ya que sólo debe hacerse

una vez, cuando la actualización del software tradicional se tiene que hacer

para cada PC en el que está instalado el software.

2.2.6.3. INTERFAZ DE PROGRAMACIÓN DE APLICACIONES (API).

Miller (2009, p. 40), explica muy brevemente lo que es una API,

definiéndola como una interfaz de desarrollo que permite a un programa a

distancia comunicarse o utilizar los recursos de otro programa o servicio. Sin

embargo, Velte y otros (2010, p. 120), lo denominan interface de

programación, y se refieren a éstas como un grupo de instrucciones estándar

para accesar a programas basados en Web; éstas APIs son creadas por

algunas empresas de software para que otros desarrolladores de software

puedan diseñar productos que son alimentados por sus servicios.

En pocas palabras, al ser las API (aplicación que permite a un programa

comunicarse con otro, sin que el usuario tenga que intervenir) de uso casi

exclusivo para los desarrolladores de software, es evidente que en este

proyecto no se han de explicar más a fondo, ya que el mismo se centra en

demostrar y probar que la tecnología del Cloud Computing no sólo es

funcional y factible, sino que además sería muy beneficiosa para las

empresas.

Page 36: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

47

2.2.6.4. RED.

Cabe destacar que el Internet público básico se refiere a la conexión

usada comúnmente en las oficinas y casas, ésta sería la opción más básica

para conectarse a la nube. En ese sentido, cualquiera con Internet puede

usar dicha alternativa, otra ventaja es la gran lista de proveedores

disponibles. Por otra parte. Su principal desventaja es la alta probabilidad de

baja respuesta que aumenta por la ineficiencia de los protocolos TCP, HTTP.

Además del tiempo de inactividad debido a problemas con los cables o con el

Proveedor de Servicio de Internet (ISP) o similares.

Según Velte y otros (2010, p. 102), la Internet acelerada usa funciones

avanzadas de gestión de aplicaciones en la parte superior de la conexión a

Internet, las cuales benefician tanto al prestador del servicio como al cliente.

Afirma que las mejoras en la nube se incrementarían desde un veinte por

ciento a un cincuenta por ciento, mediante la descarga de las funciones

relacionadas con la red del servidor. Este método se orienta principalmente

hacia el proveedor de servicios en la nube, pero también beneficia al usuario

final. En la nube, este método de aceleración requiere la instalación de un

aparato del lado del servidor. Igualmente, el usuario final, precisará la

instalación de un cliente descargable.

2.2.7. VIRTUALIZACIÓN.

Según Rittinghouse y otros (2010, p. 61), con el creciente avance de la

tecnología se ha llegado a un punto en el que la infraestructura se ha vuelto

Page 37: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

48

un aspecto secundario para los proveedores de servicios. Por lo cual, al

permitir que la infraestructura sea virtualizada y compartida entre varios

clientes, éstos proveedores cambian su forma de hacer negocios, al otorgar

servicios de administración a tan bajos precios, haciendo de la

infraestructura, un aspecto interactivo para los clientes. Por lo cual,

Rittinghouse y otros (2010), garantizan que modelos como SaaS, IaaS, PaaS

y similares seguirán creciendo sin freno aparente en los próximos años.

Según VMware (2010, p. 255), se puede reducir la carga administrativa

de 1:10 a 1:30, tomando en cuenta los siguientes factores, a través de una

consola centralizada que facilite el acceso a los servidores, sustituir CDs y

DVDs por imágenes dentro del sistema, lo que permitirá que nuevos

servidores puedan ser implementados rápidamente y servidores virtuales aun

más rápido que los físicos, de igual forma la RAM puede ser localizada de

manera inmediata por los discos duros y los servidores virtuales pueden ser

trasladados fácilmente de un servidor físico a otro.

Para realizar una virtualización, primero debe observarse con

detenimiento el ambiente actual de servidores disponibles. Pueden

identificarse y consolidarse todas las aplicaciones con procesos compatibles

en un solo servidor, o se puede virtualizar la arquitectura existente para que

utilice los recursos comunes disponibles.

Luego, deben identificarse los servidores con tareas criticas, estos son

buenos candidatos para ser conservados dentro de la organización en una

relación de uno a uno. Por lo general, esos servidores son los que soportan

Page 38: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

49

las aplicaciones y servicios referentes al núcleo productivo, como por ejemplo

SAP, PeopleSoft y Siebel. Las aplicaciones que no sean de alto consumo de

recursos como Exchange e impresión deben ser consolidadas, y aplicadas

dentro de servidores virtualizados que aprovechen los recursos comunes.

Después, deben configurarse los servidores donde se encuentren

ubicadas las aplicaciones consolidadas para que compartan sus recursos de

hardware con los servidores de tareas críticas en caso de que sea necesario.

Actualmente los servidores tienen un promedio de uso del diez (10) al quince

(15) por ciento, luego de aplicadas las virtualizaciones, el uso ascenderá

hasta ochenta (80) por ciento.

Velte y otros (2010, p. 255), recomiendan reducir el número de servidores

ocupados para aumentar la capacidad de recursos en demanda. Si se

virtualizan los servidores existentes, puede obtenerse un ahorro significativo

aprovechando al máximo los equipos existentes y eliminando la necesidad

de adquirir nuevos. Los servidores virtualizados serán capaces de identificar

sus propios requerimientos de hardware, localizarlos en servidores físicos

vecinos en caso de necesitarlos y liberarlos una vez haya concluido sus

tareas.

Sin embargo, hay momentos cuando virtualizar aplicaciones y servidores

no es lo ideal, como por ejemplo, las aplicaciones que hacen uso intensivo

de la capacidad grafica del hardware, como los juegos, programas de diseño

en 3D y CAD, por lo general este tipo de aplicaciones depende de

adaptadores gráficos especializados.

Page 39: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

50

Por otra parte, las máquinas virtuales necesitan las mismas

consideraciones de seguridad que se tendrían en una red con terminales y

servidores físicos, como son la protección contra virus, spyware y malware.

Asimismo, aplicaciones fuera de las necesarias podrían generar

complicaciones de administración. Una virtualización defectuosa o con su

seguridad comprometida puede conducir al fallo de otras virtualizaciones

ubicadas dentro del mismo servidor físico. También es ideal, usar

contraseñas fuertes y altamente resguardada y al mismo tiempo ejecutar la

imagen a virtualizar con el menor número de privilegios.

3. SISTEMAS DE VARIABLES.

A continuación se definirán tanto conceptual, como operacionalmente las

variables de la investigación, como lo describe la definición nominal:

3.1. DEFINICIÓN NOMINAL.

- Protocolo para auditar operativamente

- Sistemas basados en tecnologías “Cloud Computing”.

3.2. DEFINICIÓN CONCEPTUAL.

“Para hacer posible el intercambio fiable y eficaz de información entre

computadores y otros dispositivos, es necesario disponer de un conjunto de

reglas y normas denominado Protocolo.” (Alcantud 1997, p. 204).

Page 40: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

51

Auditoría es un proceso de “recoger, agrupar y evaluar evidencias para

determinar si un sistema informatizado salvaguarda los activos, mantiene la

integridad de los datos, lleva a cabo los fines de la organización y utiliza

eficientemente los recursos.” (Piattini y otros 2008, p. 34).

“Cuando se habla de sistemas, se trata de un conjunto de elementos

que cooperan en un todo armónico. En ocasiones se entrelazan unos con

otros para mejor integrarse en el conjunto, de manera que a veces resulta

difícil identificar los componentes parciales”. (Piattini y otros 2008, p. 407).

3.3. DEFINICIÓN OPERACIONAL.

El protocolo para auditar es el procedimiento mediante el cual a través de

la determinación del comportamiento de un sistema se expresa mediante un

informe de auditoría, el nivel de cumplimiento del sistema auditado y los

incumplimientos de determinados parámetros si los hubiera.

En cuanto al sistema basado en tecnología “Cloud Computing”, se

refiere al hardware, el software de, sistemas y aplicaciones que se entregan

sus servicios a través de Internet. Una infraestructura que puede estar

disponible para el público en general o para un gran sector de la industria, y

es provista por una organización que comercializa servicios por demanda se

llamará nube pública. La nube privada término que se utiliza cuando la

infraestructura de nube se utiliza exclusivamente para una empresa o una

organización. Una composición de los dos tipos (pública y privada) se

denomina híbrido. Y agrega Sistemas informáticos cuya plataforma

Page 41: MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se utilizaron herramientas como: Wireshark Network Analizer, Colasoft Packet Analizer,

52

tecnológica se basa en la web (World Wide Web), susceptible de ser

auditado operativamente para comprobar su calidad de servicio(QoS).