110
Inteligencia de Planeamiento Estratégico de la Información 2022

Bi Final Monografia

Embed Size (px)

Citation preview

Page 1: Bi Final Monografia

Inteligencia de Negocios

2023

Page 2: Bi Final Monografia

Página 2

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

FACULTAD DE INGENIERÍA ELECTRÓNICA E INFORMÁTICA

ESCUELA DE INGENIERÍA INFORMÁTICA

“INTELIGENCIA DE NEGOCIOS”

CURSO: Planeamiento Estratégico de la Información

DOCENTE: Dr. Ing. Edward José Flores Masías

INTEGRANTES:

JUAREZ CONTRERAS, SamuelLAZO OSORIO, Sheyla JohanaMALON REYNA, Jeans Enrique

MARCHAND GÓNGORA, Claudia Aracelly

LIMA-PERÚ

2013

Page 3: Bi Final Monografia

Página 3

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

ÍNDICE GENERAL

Índice

Introducción

CAPÍTULO I: BUSINESS INTELLIGENCE

1. ¿Qué Es El Business Intelligence?

2. Historia

3. Objetivo de Business Intelligence

4. Características

5. Evolución de Business Intelligence

6. Niveles de Realización de Business Intelligence

7. Elementos de Business Intelligence

8. Ventajas de Business Intelligence

9. Beneficios de Business Intelligence

10. Factores de Riesgos de Business Intelligence

11. Ciclos de Business Intelligence

12. Como hacer posible el Business Intelligence0

CAPÍTULO II: BUSINESS INTELLIGENCE EN LAS EMPRESAS

1. ¿Qué se puede hacer con BI?1

2. ¿Por qué Inteligencia de Negocios?

3. Áreas en donde se utiliza BI

4. ¿Cómo saber si una Empresa requiere una solucion BI?

5. ¿Quién necesita Soluciones BI?

6. ¿Qué tipo de Informacion puedo obtener?

7. Razones por las que invertir en BI

8. El Mejor análisis de BI

9. Modelo del Negocio

10. Decisiones Empresariales entorno a BI

11. Soluciones de BI mas reconocidas actualmente

12. Pasos para lograr un Proyecto de BI

Page 4: Bi Final Monografia

Página 4

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

CAPÍTULO III: COMPONENTES DE BUSINESS INTELLIGENCE

1. Factores que influyen en BI

2. Factores que influyen a Nivel Organizacional

3. Componentes del BI

4 OLTP

5. OLAP

6. Data Mining

7. Data Mart

8. Data Warehouse

9. Arquitectura del Sistema Informatico de Soporte a la Decision

CAPÍTULO IV: BUSINESS INTELLIGENCE HOY Y MAÑANA

1. Business Intelligence en el presente

2. El futuro de Business Intelligence

3. La Inteligencia de Negocio en cualquier lugar y en cualquier momento

4 Casos de Business Intelligence

5. Ejemplos del mundo real de aplicación de Business Intelligence

Conclusión

Referencias Bibliográficas

Linkografía

Page 5: Bi Final Monografia

Página 5

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

n este ensayo nos hemos planteado el siguiente cuestionamiento: ¿Se puede considerar a la Inteligencia de Negocios (BI) como una ventaja competitiva para las organizaciones? Se señala y analiza las virtudes, ventajas competitivas y los beneficios del enfoque BI,

describiendo los componentes a tomar en cuenta al implantar una solución de BI así como las aplicaciones de software de libre uso y acceso. Se explica la manera cómo la BI ayuda a los gerentes de organizaciones a tomar decisiones que mejoren su rendimiento e impulsen su ventaja competitiva en el mercado.

ELa BI esencialmente significa colocar información relevante en las manos de las personas que toman decisiones en todos los niveles de la organización. Se soporta en sus componentes como fuente de información, proceso de extracción, transformación y carga de los datos en el datawarehouse y su visualización. Además, se nutre del área de la Computación que provee un conjunto de herramientas y aplicaciones de software. BI es una ventaja competitiva para las empresas con la que obtienen los beneficios tangibles, intangibles y estratégicos.

Resumen

Page 6: Bi Final Monografia

Página 6

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

En el presente módulo se ha estructurado algunos capítulos los cuales se describen a continuación:

Capítulo I. INTRODUCCIÓN A SOLUCIONES DE INTELIGENCIA DE NEGOCIOS. Capítulo II. DATA WAREHOUSE Y DATA MARTS. Capítulo III. DISEÑO Y CONSTRUCCIÓN UNA SOLUCIÓN DE INTELIGENCIA DE NEGOCIOS.

OBJETIVO

Conceptualizar y caracterizar terminología de Inteligencia de Negocios mediante la revisión de material de diferentes fuentes.

Introducció

Page 7: Bi Final Monografia

Página 7

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

CAPÍTULO IINTRODUCCIÓN A BUSINESS

INTELLIGENCE

Page 8: Bi Final Monografia

Página 8

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

1.1 Introducción

a información es la clave de nuestros tiempos para poder lograr una ventaja comparativa en el mercado, el problema ha sido que muchas veces esta no logra ser bien decodificada para separar aquella que no tiene utilidad con la que nos permita poder generar escenarios,

reportes y pronósticos para el futuro de nuestra empresa. La idea principal del acumular información es que esta nos pueda ser de utilidad para la toma de decisiones, a partir de esta necesidad nace el concepto de la “inteligencia de negocios”.

LEl BI es un conjunto de sistemas y metodologías que pueden ser enfocadas a diversas áreas de un negocio, tales como ventas, finanzas, marketing, etc. Estos programas lo que hacen en esencia, es transformar los datos existentes en su empresa en información valiosa y útil y a la vez esta información transformarla en conocimiento, el que indicará los cursos de acción más recomendables a seguir para la toma de decisiones.

En un nivel más técnico, podemos decir que este conjunto de metodologías, se traduce en la identificación, análisis, registro y presentación de tanto las amenazas como las oportunidades que influyen directamente a su empresa.En lo concreto el BI se encarga de tomar todos los datos que han sido recopilados por una compañía en el transcurso de los años, luego de un proceso de análisis, adquiere habilidades a partir de las necesidades de esta, como por ejemplo, lograr que la empresa comprenda de mejor manera el mercado de su entorno directo. Además de esto, tiene la capacidad de tomar el “capital intelectual” de las personas que trabajan en la empresa para convertirlo en un recurso activo, para optimizar el beneficio que traerá este en el futuro.

Lo más importante es que el sistema de BI nos permite hacer predicciones y detectar errores de accionar, para así poder tomar decisiones de negocios a tiempo y así evitar consecuencias que podrían ser perjudiciales o nefastas para un negocio.

Probablemente antes de 1996 resultaba impensable algún método que a partir de esos datos ya acumulados, una entidad “no humana” pudiera ejercer una toma de decisiones instantáneas, indicando los pasos más efectivos a seguir para resolver problemas típicos de una empresa, sin necesidad de estar revisando una y otra vez cientos de informes de caso para recién ahí sacar alguna conclusión y diseñar una estrategia.Es en ese año cuando la empresa estadounidense Garner Group publicó un anunció que revolucionaría la forma de comprender y analizar los datos de una empresa para desarrollar estrategias de mercado. En este anuncio dictaba la necesidad de democratizar la información con un conjunto de estrategias denominadas como “Inteligencia de negocios”, en el inglés Business Intelligence más conocido como “BI”.

Un extracto de dicho escrito explica la relevancia que tendría el nuevo sistema:“La clave para prosperar en un mercado competitivo es estar delante de la competencia. Tomar decisiones empresariales basadas en información precisa y actual necesita más que intuición. El análisis de los datos, informes y herramientas de consulta puede ayudar a los usuarios empresariales a navegar a través de un mar de datos para sintetizar la información valiosa que hay en cada uno de ellos…”

Page 9: Bi Final Monografia

Página 9

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

1.2. Inteligencia De Negocios

La Inteligencia de Negocios (Business Intelligence - BI) es un concepto que hace referencia a las técnicas de análisis de datos destinados a encontrar información útil para la toma de decisiones, incluido el conjunto del software que aportan las interfaces y funciones necesarias que apoyan dicho proceso.

Descompongamos detalladamente esta definición:

Proceso interactivo: al hablar de BI estamos suponiendo que se trata de un análisis de información continuado en el tiempo, no sólo en un momento puntual. Aunque evidentemente este último tipo de análisis nos puede aportar valor, es incomparable con lo que nos puede aportar un proceso continuado de análisis de información, en el que por ejemplo podemos ver tendencias, cambios, variabilidades, etc.

Explorar: En todo proyecto de BI hay un momento inicial en el que por primera vez accedemos a información que nos facilita su interpretación. En esta primera fase, lo que hacemos es “explorar” para comprender qué sucede en nuestro negocio; es posible incluso que descubramos nuevas relaciones que hasta el momento desconocíamos.

Analizar: Pretendemos descubrir relaciones entre variables, tendencias, es decir, cuál puede ser la evolución de la variable, o patrones. Si un cliente tiene una serie de características, cuál es la probabilidad que otro con similares características actué igual que el anterior.

Información estructurada y datawarehouse: La información que utilizamos en BI está almacenada en tablas relacionadas entre ellas. Las tablas tienen registros y cada uno de los registros tiene distintos valores para cada uno de los atributos.

Estas tablas están almacenadas en lo que conocemos como datawarehouse o almacén de datos. Más adelante lo definiremos con mayor precisión, pero se trata de una base de datos en las que se almacenan dichas tablas.

Área de análisis: Todo proyecto de BI debe tener un objeto de análisis concreto. Nos podemos centrar en los clientes, los productos, los resultados de una localización, etc. Que pretendemos analizar con detalle y con un objetivo concreto: por ejemplo, la reducción de costes, el incremento de ventas, el aumento de la participación de mercado, el ajuste de previsiones de venta, el cumplimiento los objetivos de venta presupuestados, etc.

Comunicar los resultados y efectuar los cambios: Un objetivo fundamental del BI es que, una vez descubierto algo, sea comunicado a aquellas personas que tengan que realizar los cambios pertinentes en la organización para mejorar nuestra competitividad.

Page 10: Bi Final Monografia

Página 10

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

1.2.1. Evolución de la Inteligencia de Negocios

Los sistemas de información son bastante recientes si los comparamos con otras áreas de conocimiento. Inicialmente, con la introducción de las computadoras en la década del 60, las aplicaciones se corrían de forma individual en archivos maestros que almacenaban los datos en medios magnéticos, con la limitante del acceso secuencial. El problema del acceso secuencial es la necesidad de recorrer todos los registros antes de encontrar el que se está buscando. Además, al almacenar operaciones individuales, pronto existió una cantidad enorme de cintas y medios de almacenamiento con redundancia, que hacía difícil su administración.

En la década del 70, cuando aparecen los dispositivos de almacenamiento de acceso directo, se da un gran paso en cuanto a la velocidad para acceder a los datos, pues con ellos las búsquedas ya no eran lineales, sino directas. Junto con ello también aparecen sistemas de administración de bases de datos (DBMS), cuyo propósito era facilitar al programador el acceso a la información al encargarse del almacenamiento e índices. En ese entonces se definió a la base de datos como "una fuente única de información para todo el procesamiento".

Tanto la implementación de las bases de datos para el procesamiento en línea como las nuevas tecnologías y lenguajes de cuarta generación (4GL), proveyeron al usuario la facilidad de tener el control directo de los sistemas y la información, dando origen a los primeros Sistemas de Información formales. Pero también fueron el inicio del paradigma de una sola base de datos que pudiera servir tanto al procesamiento operativo como al procesamiento de alto nivel.

La información almacenada en las bases de datos mantiene el registro total de lo que sucede en la organización. Cuando un usuario operativo desea consultar transacciones unitarias o pequeños grupos de transacciones, se puede acceder directamente y extraer la información en un lapso muy breve (milisegundos); si la base de datos no es muy extensa, incluso un gerente puede también realizar una consulta (vía Inteligencia de Negocios asistentes) que traiga información resumida sobre muchos registros e, incluso, sobre toda la base de datos, los tiempos para consultas de ese tipo son muy razonables (segundos). ¿Pero qué pasa cuando los datos sobrepasan los límites permisibles para tener la información disponible? Algunos de los factores causales de que las bases de datos se volvieran poco operativas para consultas extensas son las fusiones, la globalización, las alianzas, la diversificación de productos, el crecimiento exponencial de las empresas y, en general, todas las condiciones derivadas de la evolución natural de las empresas que trajo consigo un aumento cuantitativo de los datos que se necesitaba almacenar. A esto hay que agregar que las herramientas o software necesario para obtener la información eran muy especializados y rara vez una persona que toma decisiones tenía el background necesario para manipular información.

La información primitiva se volvió muy extensa y poco práctica para cierto tipo de consultas, había que desarrollar nueva tecnología que permitiera derivar información calculada o sumarizada para satisfacer las necesidades de la administración, además, la información primitiva representa el valor actual, es utilizada y operada en procesos repetitivos, por lo tanto, es posible su modificación. La información derivada no puede ser actualizada porque, normalmente, contiene valores históricos, es operada y utilizada por procesos que se ejecutan aleatoriamente. La información primitiva es operacional apoyando las funciones de empleados de línea, la información derivada es para el soporte de decisiones que normalmente apoya a administradores y ejecutivos. Teniendo tantas diferencias es complicado entender que la misma información pueda residir en una misma base de datos. De hecho así fue, la gente que toma decisiones demandó respuesta a sus necesidades en los almacenes operativos encontrando muchas limitantes en tiempo y forma, a fin

Page 11: Bi Final Monografia

Página 11

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

de cuentas es posible satisfacer los requerimientos, pero no como los necesita quien toma decisiones, la tecnología intervino para desarrollar arquitecturas especializadas para que resida la información según su tipo y que sea operada por el software adecuado para desempeñar sus funciones.

Inteligencia de Negocios (BI) es un concepto que se asocia 100% con los niveles directivos, surge de la necesidad de contar con información para dirigir el rumbo de la empresa por los altos mandos, sin embargo, con el tiempo se ha ido ampliando el alcance de este término hasta llegar prácticamente a toda la empresa.

A pesar de relacionar completamente el término con conceptos 100% computacionales, sobre todo las herramientas utilizadas para lograr implementar un desarrollo de este tipo, la verdad es que el concepto no se construye basándose en herramientas computacionales, sino de la formulación de estrategias efectivas de negocios que respondieran a los nuevos tiempos y sus demandas. El énfasis es en los requerimientos y de ahí se desprenden las aplicaciones, es decir, los hombres de negocio dictan las necesidades y la gente técnica investiga y adapta la tecnología para resolver favorablemente esos requerimientos con todos los medios a su alcance. BI se plantea una sinergia entre los Tomadores de Decisiones y las herramientas que emplean, la tecnología está claramente vinculada al management de las empresas, teniendo como resultado obtener ventajas competitivas, producto de decisiones mejor informadas. En función de esta se puede entender a BI como una combinación de tecnología y desarrollo de negocios (Bitam, 2002).

1.2.2. Definiciones de Inteligencia de Negocios

Como muchos otros conceptos o términos, el de Inteligencia de Negocios no escapa a la diversidad de interpretaciones. Se justifica su uso y se entiende el que sea considerado como una Tecnología de Información, pero no existe un acuerdo en cuanto a su definición.

Existen diversos autores que definen el Business Intelligence. A continuación mencionaremos algunos:

Según la empresa Abits (2005, http), la “Inteligencia de Negocios, es una alternativa tecnológica y de administración de negocios, que permite manejar la información para la toma de decisiones acertadas en todos los niveles de la organización, desde la extracción, depuración y transformación de datos, hasta la explotación y distribución de la información mediante herramientas de fácil uso para los usuarios”.

Según Nader J. (2006), "Es el conjunto de tecnologías que permiten a las empresas utilizar la información disponible en cualquier parte de la organización para hacer mejores análisis, descubrir nuevas oportunidades y tomar decisiones más informadas."

Hackney (2001) nos dice que el Business Intelligence se compone de todas las actividades relacionadas a la organización y entrega de información así como el análisis del negocio. Esto incluye Minería de Datos, Administración del Conocimiento, Aplicaciones Analíticas, Sistemas de Reportes y principalmente Data Warehousing.

Michel (2000) afirma que el conjunto de tecnologías que usan Data Warehousing y OLAP (On-line Analitic Procesing, procesamiento analítico en línea), combinado con herramientas de reporte, son referidas como Business Intelligence, porque ayudan a las compañías a ganar inteligencia en operaciones y desempeño.

Page 12: Bi Final Monografia

Página 12

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Buksard, Mollot y Richards (2000) comentan en su artículo que la necesidad de nuevas herramientas de acceso y reporte de información, para diversos tipos de usuarios, ha impulsado la creación de nuevas herramientas, colectivamente conocidas como Business Intelligence. Business Intelligence no es una sola tecnología o aplicación. No es una "cosa", sino que se trata de un "suite" de productos que trabajan de manera conjunta para proveer datos, información y reportes analíticos que satisfagan las necesidades de una gran variedad de usuarios finales.

Business Intelligence es la habilidad de consolidar información y analizarla con la suficiente velocidad y precisión para descubrir ventajas y tomar mejores decisiones de negocios. Definición compatible con la necesidad actual de los negocios que ante la presión de ser cada día más competitivos, para mantenerse tienen la doble tarea no sólo de permanecer sino de ser lucrativos (Cano, 1999).

Por último, el vicepresidente y director de investigaciones del Grupo Gartner, Howard Dresner, citado en Hilson (2001) coincide con las anteriores definiciones, y el agrega: "Business Intelligence es simplemente la habilidad de los usuarios finales para acceder y analizar tipos cuantitativos de información y ser capaz de actuar en consecuencia".

Business Intelligence ha tomado la delantera en los últimos dos años, los proveedores de soluciones cuentan con tecnología más amigable y presentan datos más fáciles de analizar, apostando hacia la adopción masiva de dichos sistemas por parte de las organizaciones (Sullivan, 2001).

Las compañías actualmente usan una amplia gama de tecnologías y productos para saber qué es lo que está pasando en la organización. Las herramientas más comunes (simple consulta y reporte de datos, procesamiento analítico en línea, análisis estadístico, predicciones y minería de datos) pueden ser usadas de una gran variedad de formas. El objetivo de todo esto es transformar las montañas de datos en información útil para la empresa (McGeever, 2000).

El radical crecimiento de nuevas formas de "inteligencia" generada por computadora es una de las dos revoluciones en materia de TI que se están dando en la actualidad. La segunda es el Internet, del cual ya todo mundo conoce (Martín, 2001). Las dos revoluciones van a soportar y amplificar una a la otra. El conjunto de ambas resultará en una radical reinvención de los negocios.

Como podemos observar, el punto en común que presentan las distintas definiciones es sin duda la ventaja competitiva que una empresa adquiere con la implantación de un sistema inteligente de negocio. Una ventaja competitiva que se adquiere utilizando una estrategia inteligente; esto es, identificar qué información es de vital importancia para la empresa, identificar los factores clave de rendimiento, es decir, aquello que la empresa cree que es importante medir y analizar.

1.2.3 Objetivo

El objetivo primario del BI es ayudar a las personas a tomar decisiones que mejoren el rendimiento de la compañía e impulsen su ventaja competitiva en el mercado. Pero es común una larga brecha entre la información que los responsables en la toma de decisiones requieren, y las grandes cantidades de datos que las organizaciones recopilan cada día. Para saltar esta brecha, las organizaciones hacen significativas inversiones en desarrollar sistemas de BI para convertir los datos originales en información de utilidad.

Page 13: Bi Final Monografia

Página 13

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

1.2.4 Proceso Business Intelligence

A fin de comprender cómo es que una organización puede crear inteligencia de sus datos, para, como ya se ha mencionado, proveer a los usuarios finales oportuna y acertadamente acceso a esta información, se describirá a continuación el proceso de BI. El mismo está dividido en cinco fases, las cuales serán explicadas teniendo como referencia el siguiente gráfico, que sintetiza todo el proceso:

Fase 1 – Dirigir y Planear. En esta fase inicial es donde se deberán recolectar los sado en el entendimiento del pasado. Requerimientos de información específicos de los diferentes usuarios, así como en- tender sus diversas necesidades, para que luego en conjunto con ellos se generen El usuario podrá consultar y analizar los datos de manera sencilla. Efectivamente las preguntas que les ayudarán a alcanzar sus objetivos.

Fase 2 – Recolección de Información. Es aquí en donde se realiza el proceso de extraer desde las diferentes fuentes de información de la empresa, tanto internas como externas, los datos que serán necesarios para encontrar las respuestas a las preguntas planteadas en el paso anterior.

Fase 3 – Procesamiento de Datos. En esta fase es donde se integran y cargan los datos en crudo en un formato utilizable para el análisis. Esta actividad puede realizarse mediante la creación de una nueva base de datos, agregando datos a una base de datos ya existente o bien consolidando la información.

Fase 4 – Análisis y Producción. Ahora, se procederá a trabajar sobre los datos ex- traídos e integrados, utilizando herramientas y técnicas propias de la tecnología BI, para crear inteligencia. Como resultado final de esta fase se obtendrán las respuestas a las preguntas, mediante la creación de reportes, indicadores, etc.

Fase 5 – Difusión. Finalmente se les entregará a los usuarios que lo requieran las herramientas necesarias, que les permitirán explorar los datos de manera veloz y sencilla.

1.2.4 Características

Este conjunto de herramientas y metodologías tienen en común las siguientes características:

Información: Es la esencia de BI. Su finalidad es la de entregar información al usuario final para apoyarlo en la toma de decisiones, y esta información puede provenir tanto de los

Page 14: Bi Final Monografia

Página 14

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

almacenes operacionales como de arquitecturas diseñadas mediante metodologías específicas para el análisis como DataMart y Data Warehouse. El usuario puede necesitar información de cualquier fuente o derivada para apoyarse en su labor, para lo cual una solución de Business Intelligence recurre o construye fuentes de datos o de información ya sea interna o externa, que son la principal materia prima de esta Tecnología.

Apoyo a la toma de Decisiones: Otra característica de Business Intelligence es ordenar y desplegar los datos relevantes para que realmente sea un apoyo un la Toma de Decisiones. Esto implica tecnologías, metodologías, técnicas de análisis y todo lo necesario para obtener de los datos, información relevante y útil al usuario. Recordando el origen de BI, surge en la toma de decisiones para obtener ventajas competitivas producto de decisiones mejor informadas. Si su origen cae en el desarrollo de negocios, es lógico entender que una solución Business Intelligence sea un apoyo para tal efecto.

Las empresas deben formular una estrategia de gestión de la información que sea la base de la gestión del rendimiento empresarial, permitiendo el soporte de decisiones y satisfaciendo los requisitos legales.

Proceso Orientación al Usuario Final: Un factor que incidió en la aparición del BI fue que el usuario final no poseía conocimientos técnicos que le permitieran tener un acceso fácil y directo a los datos operacionales. Por este motivo, el usuario final dependía de otras fuentes para obtener la información que necesitaba y las consultas no definidas, que son las que normalmente realiza un ejecutivo, eran ejecutadas por terceras personas, normalmente de informática, con la dependencia consecuente. El BI incluye herramientas orientadas a usuario final, para eliminar esta dependencia en terceros.

"Business Intelligence es una combinación de tecnologías de colección de datos y manejo de información, que implementa soluciones orientadas al usuario final para apoyar la toma de decisiones, aprovechando la información estratégica disponible en cualquier parte de la organización."

1.2.4 Beneficios

Una organización es altamente competitiva si aplica BI. Sin embargo, una situación muy común es que los responsables del Área de Tecnología de las organizaciones pueden estar seguros de las ventajas de una solución de este tipo, pero los que toman las decisiones, en muchos casos, no comprenden los beneficios de esta inversión y piensan que es un gasto más en tecnología para su organización, más aun si ésta es una Pequeña o Mediana empresa (PyME). Entonces, ¿Cómo plantear los beneficios del BI?

Uno de los objetivos básicos de los sistemas de información es que nos ayuden a la toma de decisiones. Cuando un responsable tiene que tomar una decisión pide o busca información, que le servirá para reducir la incertidumbre. Sin embargo, aunque todos la utilicen, no todos los responsables recogen la misma información: depende de muchos factores, como pueden ser su experiencia, formación, disponibilidad, etc. Del mismo modo, los responsables pueden necesitar recoger más o menos información dependiendo que su mayor o menor aversión al riesgo.

A partir de los datos que nos proporciona el sistema de Business Intelligence podemos descubrir conocimiento. Por ejemplo, en un concesionario de coches descubrimos la relación entre el número de visitas al concesionario y el número de vehículos vendidos en el mes siguiente.

Page 15: Bi Final Monografia

Página 15

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Parece claro que el número de visitas al concesionario parece un indicador clave, pero ¿todos los concesionarios lo recogen? Como hemos visto, Business Intelligence nos servirá como ayuda para la toma de decisiones y, posteriormente, para descubrir cosas que hasta ahora desconocíamos.Los beneficios que se pueden obtener a través del uso de BI pueden ser de distintos tipos:

Beneficios tangibles: por ejemplo: reducción de costes, generación de ingresos, reducción de tiempos para las distintas actividades del negocio.

Beneficios intangibles: el hecho de que tengamos disponible la información para la toma de decisiones hará que más usuarios utilicen dicha información para tomar decisiones y mejorar la nuestra posición competitiva.

Beneficios estratégicos: Todos aquellos que nos facilitan la formulación de la estrategia, es decir, a qué clientes, mercados o con qué productos dirigirnos.

Algunos ejemplos concretos de cómo el Business Intelligence nos puede generar beneficios:

1.2.4.1 Beneficios tangibles:

Generación de ingresos:

Mejorar la adquisición de clientes y su conversión mediante el uso de la segmentación. Reducir la tasa de abandono de clientes, incrementar su fidelidad, teniendo en cuenta cuál es

su valor. Incrementar los ingresos por crecimiento de las ventas. Aumentar los resultados, consiguiendo que nuestros clientes actuales compren más

productos o servicios. Evitar las pérdidas producidas por las ventas de nuestros competidores. Aumentar la rentabilidad por el acceso a información detallada de productos, clientes, etc. Conocer mejor cuáles son las características demográficas de nuestra zona de influencia. Hacer crecer la participación de mercado. Reducir el tiempo de lanzamiento de nuevos productos o servicios. Mejorar aquellas actividades relacionadas con la captura de datos. Analizar la cesta de la compra y la afinidad de venta entre los productos. Facilitar la adopción de los cambios en la estrategia. Proveer el autoservicio de información a trabajadores, colaboradores, clientes y

proveedores. Medir la efectividad de las campañas rápidamente y ser capaces de hacer los ajustes durante

el ciclo de vida de las mismas. Optimizar las acciones de marketing. Identificar clientes rentables en segmentos no rentables. Analizar a la competencia cuando establecemos precios. Crear nuevas oportunidades.

Reducción de costes:

Negociar mejores precios con los proveedores, identificar a los proveedores más importantes, gestionar descuentos por cantidades de compra; permitir el análisis del

Page 16: Bi Final Monografia

Página 16

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

cumplimiento de los proveedores y asignar las compras de acuerdo con ello; medir el nivel de calidad, servicio y precio.

Reducir o reasignar el personal necesario para llevar a cabo los procesos. Incrementar la productividad con información más inmediata y mejor. Aumentar el control de costes. Disminuir los gastos. Eliminar ineficiencias y reducir los costes operativos al generar “una sola versión de la

verdad”. Menguar pérdidas detectando fraude. Reducir los créditos incobrables. Hacer bajar las reclamaciones (por ejemplo en el sector de seguros). Eliminarlas sobreproducciones de productos. Proveer inventarios “just-in-time”; gestionar los inventarios de productos acabados; mejorar

la gestión de materias primas y productos acabados; reducir los costes de mantenimiento del stock.

Acortar los tiempos de respuesta a las peticiones de informes. Analizar los problemas, reparaciones y defectos y proveerla información para hacer un

seguimiento y corregir los problemas recurrentes. Reducir el tiempo para recoger la información para cumplir con las

normativas legales. Evaluar el rendimiento de los activos y generar las

alertas cuando el mantenimiento preventivo se debe llevar a cabo.

Proveer el suministro dentro del plazo. Hacer un seguimiento de los problemas de los

productos desde el inicio de su vida hasta el fin. Retirar los viejos equipos para disminuirlos costes de

actividad. Reducir las devoluciones de

productos. Analizar la productividad de los

empleados. Dar soporte a las reclamaciones

de facturación. Abaratar los costes de las acciones de marketing. Hacer un mejor seguimiento de las acciones delictivas. Saber qué comisiones se deben pagar. Hacer decrecer las pérdidas de créditos, analizando la utilización de los clientes, asignando

un análisis de riesgo.

1.2.4.2 Beneficios intangibles:

Optimizar la atención a los clientes. Aumentar la satisfacción de los clientes. Mejorar el acceso a los datos a través de consultas, análisis informes. Información más actualizada. Dotar a la información de mayor precisión.

Page 17: Bi Final Monografia

Página 17

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Conseguir ventajas competitivas. Controlar mejor de la información. Ahorrar costes. Menor dependencia de los sistemas desarrollados. Mayor integración de la información.

1.2.4.3 Beneficios estratégicos:

Mayor habilidad para analizar estrategias de precios. Y para identificar y nutrir a aquellos clientes con mayor potencial. Mejorar la toma de decisiones, realizándola de forma más rápida, informada y basada en hechos. Mayor visibilidad de la gestión. Dar soporte a las estrategias. Aumentar el valor de mercado.Como vemos, los campos de aplicación son múltiples. Debe tenerse en cuenta que la lista de beneficios no está completa: su objetivo no es ser exhaustiva, sino hacernos dar cuenta de sus posibilidades; probablemente, a partir de la propia experiencia de los lectores podríamos ampliarla todavía más.

1.2.5 Factores de riesgo del Business Intelligence

Muchas son las ventajas que aportan las herramientas Business Intelligence, sin embargo, las factores de riesgo e inconvenientes de éstas también son importantes y deben tenerse en cuenta a la hora de implantar una solución de estas características. Los proveedores de soluciones BI, como profesionales del sector de la Tecnología de la Información, han de identificar en cada implantación los riesgos y decidir qué solución es la más adecuada para cada empresa. Vitt E, Luckevich M, Misner S (2007) aseguran que los principales inconvenientes están relacionados con la inversión económica que la empresas han de realizar y el cambio de mentalidad que este tipo de soluciones originan.

Obligan a cambiar la mentalidad analítica del usuario consumidor de la información, y normalmente este cambio supone un gran esfuerzo para los usuarios de las aplicaciones BI.

Requieren un proceso continuo de extracción de datos y manipulación de la información para generar los informes analíticos.

Generalmente el coste del software Business Intelligence y coste de licencias por usuario es elevado.

Dificultad para identificar aplicaciones o decisiones que pueden ser soportadas por el Business Intelligence.

Resulta complejo conjugar las expectativas de los usuarios con las soluciones implementadas, por lo que los aspectos de definición conceptual y selección de plataforma, junto a la gestión del cambio en la implantación de los proyectos adquieren un papel relevante.

1.2.6 Ciclos de Business Intelligence

Page 18: Bi Final Monografia

Página 18

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

BI es mucho más que una actitud empresarial o una tecnología a disposición de las organizaciones. De hecho, es un marco de referencia para la gestión de rendimiento empresarial, un ciclo continuo por el cual las organizaciones de finen sus objetivos, analizan sus progresos, adquieren conocimiento, toman decisiones, miden sus éxitos y comienzan el ciclo nuevamente.

BI ayuda a los gerentes a tomar mejores decisiones más rápidamente en los niveles estratégicos y operativos.

El ciclo consta de:

Análisis: Está basado en la compresión básica por las suposiciones de cómo nuestro negocio opera incluyendo por ejemplo lo importante para el cliente, proveedores y empleados (modelo mental).

Ideas: La idea es el producto del análisis amplio. Las ideas pueden ser operacionales y estratégicas.

Acción: La acción es lo que sigue a una mejor y más rápida toma de decisiones proporcionada por el BI. Las decisiones bien fundamentadas proporcionan una motivación extra al que emprende la acción.

Medición: A través de una mejor recopilación de información y una mayor frecuencia en la generación de informes BI resulta posible medir los resultados de la compañía en comparación con los estándares cuantitativos, con el fin de desembocar en un nuevo ciclo de análisis, ideas y acciones correctivas. Medimos lo que creemos importante.

1.2.8 Como hacer posible la Inteligencia de Negocios (BI)

Los entes principales que contribuyen a facilitar el BI son: la tecnología, la gente y la cultura corporativa.

Tecnología: Las organizaciones hoy pueden crear amplios sistemas corporativos de BI que calculan y supervisan métricas sobre cada variable

Page 19: Bi Final Monografia

Página 19

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

que sea importante para la gestión de la organización. ¿Cómo es esto posible? La respuesta es la tecnología. Estas tendencias son:

Potencia de procesamiento. Almacenamiento. Tecnologías de redes. Estándares. Software BI.

La Gente: Entender el papel de la gente en el ciclo de BI permite a las organizaciones sistemáticamente crear ideas y convertir éstas ideas en decisiones.

Los sistemas informáticos pueden informar de lo que está pasando en la empresa, pero adquirir conocimiento de estos acontecimientos requiere la motivación de la gente y las organizaciones. Y para que esto suceda necesita a la gente entusiasmada con el cambio (otra forma de pensar).Los sistemas BI sirven a los gerentes en gran medida, de la misma forma que los instrumentos de navegación sirven a los pilotos. El grado en que la instrumentación es esencial, depende del tamaño y complejidad de la organización y del papel del gerente.

Cultura Organizacional: La extensión para la cual la actitud BI florece en una organización depende en gran medida de su cultura organizacional.Las culturas que son exitosas en posibilitar el BI son aquellas que sistemáticamente tienen éxito en lo siguiente:

Proporcionar amplio y fácil acceso a la información. Motivar análisis a amplia escala y tomar decisiones. Motivar el compartir resultados con amplias audiencias - Alentar la experimentación y

tolerar fallos.

Page 20: Bi Final Monografia

Página 20

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

CAPÍTULO IITECNOLOGÍA BUSINESS

INTELLIGENCE

2.1. Introducción

Los antiguos sistemas de información a la Dirección, que convertían datos operacionales en indicadores de gestión (la mayor parte de las veces de naturaleza económico-financiera), se han visto absorbidos y superados por un nuevo concepto del tratamiento de la información para la toma decisiones que, bajo el nombre de Business Intelligence, evoluciona con fuerza en el ámbito de las Tecnologías de la Información. Este cambio ha sido propiciado por la propia evolución de las TIC, que permiten un tratamiento cada vez más rápido, complejo e inmediato de los datos, la información y, en definitiva, el conocimiento. (Ibermática, 2007) Son muchos los conceptos, herramientas y tecnologías que se engloban dentro una solución completa de Business Intelligence. Business Intelligence (la Inteligencia de Negocio) es proporcionar la información adecuada, en el momento adecuado, para la persona adecuada y en el formato adecuado. Los pasos para lograr estos cuatro objetivos es:

Page 21: Bi Final Monografia

Página 21

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Tener la información objeto de análisis registrado. Identificar las distintas fuentes de datos y recolectar toda la información. Transformar, combinar y almacenar la información en un almacén de datos (Data

warehouse). Crear informes a partir de la información almacenada y modelada en el data warehouse. Los

informes por tanto, es el resultado final de la solución BI, y éstos hay que hacerlos llegar en el formato adecuado y en el tiempo adecuado.

Figura0. Esquema solución BI (Ibermática, 2007)

Desde un punto de vista más pragmático, y asociándolo directamente a las tecnologías de la información, podemos definir Business Intelligence como el conjunto de metodologías, aplicaciones y tecnologías que permiten reunir, depurar y transformar datos de los sistemas transaccionales e información desestructurada (interna y externa a la compañía) en información estructurada, para su explotación directa (reporting, análisis OLAP...) o para su análisis y conversión en conocimiento soporte a la toma de decisiones sobre el negocio. (Ibermática, 2007)

Esta definición pretende abarcar y describir el ámbito integral del entorno Business Intelligence, reflejado resumidamente en el gráfico de a continuación. Es importante considerar cualquier proyecto Business Intelligence como un modelo objetivo integral. Algunas organizaciones han desarrollado proyectos parciales, sin tener en cuenta esta visión global, comprometiendo la calidad y efectividad de los resultados obtenidos.

2.2. Arquitectura de Inteligencia de Negocios

Page 22: Bi Final Monografia

Página 22

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Según Rodríguez I. La “Inteligencia de Negocios se compone de diferentes tecnologías que se integran para formar una solución empresarial, los componentes se orientan a transformar los datos en información oportuna y confiable para el usuario final, por consiguiente, una arquitectura BI se divide en las siguientes capas: Sistemas Fuentes, Capa DataWarehouse y la Capa BI”.

Figura 1. Arquitectura Típica de Soluciones Business Intelligence.

Sistemas Fuentes. Los datos administrados por los sistemas de aplicación operacionales son la fuente principal de datos para el data warehouse. Estos sistemas son los encargados de recolectar información diaria de las tareas operativas de la organización. Estos datos operacionales constituyen la base de todo sistema business Intelligence ya que de estos dependen la calidad de información que se entregue al usuario final. En muchas ocasiones también se requiere de datos externos para alimentar al sistema como hojas electrónicas, archivos de texto, debido a que algunas áreas de la institución no se encuentran automatizadas por lo que no cuentan con un sistema transaccional donde almacenar los datos.

Capa Data Warehouse. La capa data warehouse es el centro de la arquitectura en un sistema business intelligence, que se encarga de organizar y almacenar los datos para el análisis de los mismos.

Page 23: Bi Final Monografia

Página 23

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Capa Business Intelligence. Comprende un conjunto de herramientas necesarias para comprender los datos y utilizarlos para tomar decisiones inteligentes. Proporcionan toda la funcionalidad de análisis y creación de informes empresariales dirigidos a una amplia gama de posibles usuarios. Algunas de estas herramientas son: Query and Reporting, Cuadros de mando, OLAP y Datamining.

2.3 Sistemas Operacionales

Por regla general, el punto de inicio de una solución Business Intelligence es identificar las fuentes de datos origen. Esto es, se parte de los sistemas operacionales que la empresa gestiona en su día a día. Sistemas que le permiten tener registrada la actividad corporativa, sistemas que dan soporte a las transacciones del día a día del negocio.

Según (Vitt, Luckevich, Misner. 2002), estos sistemas pueden ser aplicaciones de líneas de negocio tales como el sistema de recursos humanos, el sistema de la cadena de suministro, las aplicaciones de planificación de los recursos empresariales (ERP) o los sistemas de gestión de relaciones con los clientes (CRM). Estos sistemas operacionales son extremadamente eficientes para dar soporte a procesos transaccionales. Sin embargo, no son nada efectivos para desarrollar análisis de negocio, especialmente cuando el análisis requiere recopilar datos registrados en distintas fuentes. De acuerdo a Óscar Alonso (Alonso, 2006), Jefe de Proyectos en Lantares, el objetivo es generar información que pueda ser trabajada y analizada de forma intuitiva, más o menos en tiempo real, y con la posibilidad de integrar diferentes fuentes de datos para ofrecer una visión global que puede ser compartida y distribuida por todos los departamentos de la empresa. No es que todo el mundo tenga acceso a toda la información, se trata de que todo el mundo tenga acceso y genere la información que necesita para que su trabajo sea los más eficiente posible. Para esto, es necesario limpiar e integrar los datos almacenados en las distintas fuentes mediante las herramientas ETL; Extracción, Transformación y Carga (Extract, Transform, Load) y construir un reporsitorio de datos global: el datawarehouse.

2.4 El Data Warehouse

2.4.1 Concepto de data warehouse

El Data warehouse es el repositorio de datos de la compañía. En él encontramos la información contable, de ventas, de recursos humanos, de manufacturación, y de otros sistemas de ingreso que la companía quiere analizar. Este almacén de datos almacena tanto la información histórica como la actual de la compañía. El objetivo es aprovechar al máximo la riqueza de información depositada en él. El concepto Data Warehouse proviene de finales de los años 80, cuando los investigadores de IBM Barry Devlin y Paul Murphy desarrollaron el "Business Data Warehouse".

Esencialmente el Data Warehouse surgió con el propósito de proveer un modelo de arquitectura del flujo de datos de los sistemas operacionales a los ambientes de soporte de decisiones. El

Page 24: Bi Final Monografia

Página 24

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

concepto intentaba enfocarse a varios problemas asociados con este flujo, principalmente los altos costos. En su ausencia se requería de una enorme redundancia en los datos para respaldar múltiples ambientes de soporte de decisiones, situación nada deseable y que empeoraba al momento de reunir, limpiar o integrar nueva información. Es entonces cuando surge el Data Warehouse con el propósito de ser colector, almacén y organizador de la información global de una compañía, es así que la información podía ser recuperada desde un solo punto o distribuida mediante el uso de retail stores o data marts. (SIS KLE, Marzo 2009).

A continuación describiremos las características distintivas de un Data Warehouse, las cuales nos ayudarán a comprender mejor su concepto.

Almacena Información Histórica. El tiempo es parte implícita de la información contenida en un data warehouse. A diferencia de los sistemas transaccionales, que mantienen los datos actualizados a un instante determinado en el tiempo, un DW puede mantener información de más de un instante. La bodega se carga con los distintos valores que toma una variable en el tiempo y de esta manera los datos pueden ser analizados y comparados, facilitando las labores gerenciales.

Contiene Información No volátil. La información de un DW existe para ser leída y no modificada, por lo tanto, se carga una sola vez y permanece igual en adelante. De esta manera la actualización del DW es la incorporación de los últimos valores que tomaron las distintas variables, sin ningún tipo de acción sobre lo que ya existía. Esto está en contraste con la información de un sistema transaccional que está sujeta a permanentes inserciones, actualizaciones, reemplazos o borrados.

Organiza la Información de forma Temática. El almacén de datos está orientado a los principales temas o entidades de la organización lo cual está en contraste con la mayoría de los sistemas de hoy en día cuya orientación se basa en los procesos o funciones.

Administra grandes cantidades de información. La mayoría de los Data Warehouse contienen información histórica que se retira con frecuencia de los sistemas operacionales porque ya no es necesaria para las aplicaciones operativas y de producción. Por el volumen de información que un Data Warehouse debe manejar, también debe ofrecer opciones para la adición y la condensación que clasifiquen esta inmensa cantidad de datos, es decir, un Data Warehouse maneja información a diferentes niveles de detalle. Por lo tanto, el volumen de los datos que debe almacenar es generalmente mayor al de los datos de las bases de datos operacionales.

Gestiona múltiples versiones de un esquema de base de datos. Debido a que el Data Warehouse tiene que guardar la información histórica y administrarla, y como esta información histórica ha sido manejada en distintos momentos por diferentes versiones de esquemas de bases de datos, en ocasiones el Data Warehouse tiene que controlar información originada en organizaciones de bases de datos diferentes.

Condensa y agrega información. Con frecuencia, es muy alto el nivel de detalle de la información almacenada por bases de datos operacionales para cualquier toma de decisiones

Page 25: Bi Final Monografia

Página 25

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

sensata. Un Data Warehouse condensa y agrega información para presentarla en forma comprensible a los usuarios finales.

2.4.2 Cronología del Data Warehouse

A continuación se presentan algunos de los acontecimientos más importantes en los primeros años del desarrollo del Data Warehouse según (SIS KLE, Marzo 2009):

1960s El Gral. Mills y el Colegio Darmouth durante un proyecto de investigación desarrollaron los términos dimensiones y hechos (dimensions and facts).

1970s ACNielsen e IRI proven Data Marts dimensionadaods para retails sales. 1983 Terdata desarrolla un sistema de administración de base de datos específicamente

diseñados para el soporte de decisiones. 1988 Barry Devlin y Paul Murphy publican el artículo " Una arquitectura para un sistema de

negocios e información" en el IBM Systems Journal. Introduce el término "Business Intelligence Data Warehouse".

1991 Bill Inmon publica el libro "Building the Data Warehouse". 1995 Aparece el "Data Warehousing Institute", organización que promueve el uso del data

warehousing. 1996 Ralph Kimball publica el libro "The Data Warehouse Tollkit".

2.4.3 Paradigmas del Data Warehouse

Han sido dos los especialistas en desarrollar una larga teoría sobre el concepto del data warehouse. Aunque ambos coinciden en la definición del término data warehouse, existen diferencias entre los puntos de vista sobre lo que es un data Warehouse, diferencias sobre todo relativas a el concepto y uso del data mart (una parte del DW que contiene un subconjunto de información del mismo, ya sea departamental o sectorial). Fruto de estas diferencias, se establecen dos paradigmas sobre lo que es un data Warehouse. Antes de ver las diferencias, es de gran utilidad introducir el término “data mart”. Este término es base para comprender las diferencias existentes entre los dos paradigmas principales. Según (Ibermática, 2007) un data mart es: una base de datos especializada, departamental, orientada a satisfacer las necesidades específicas de un grupo particular de usuarios (en otras palabras, un data Warehouse departamental, normalmente subconjunto del corporativo con transformaciones específicas para el área a la que va dirigido).

De acuerdo con (SIS KLE, Marzo 2009), las teorías de ambos especialistas de la Tecnología de la Información son:

Bill Inmon: el Data Warehouse es una parte del todo que conforma a un sistema de inteligencia. Una empresa tiene un Data Warehouse, y los data marts tienen como fuente de información ese Data Warehouse. Ésta aproximación también es conocida como "Top-Down"

Ralph Kimball: bajo este paradigma, el Data Warehouse se compone por el conglomerado de todos los Data Marts generados en una empresa. La información siempre se almacena en un modelo dimensional. Otra forma forma de denominar ésta aproximación es como "Bottom-up".

Page 26: Bi Final Monografia

Página 26

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Un reflejo de estas dos teorías puede verse en las dos figuras siguientes. La figura uno representa la teoría de Bill Inmon, mientras que la segunda figura representa el paradigma de Ralph Kimball. (Vitt, Luckevich, Misner. 2002).

Figura1: Data Warehouse (Bill Inmon)

Figura2: Data Warehouse (Ralph Kimball)

Pese a las diferencias que se pueden apreciar de manera inmediata entre ambas arquitecturas, también existen elementos en común. Todas las empresas requieren almacenar recursos, analizar e interpretar la información que generan y acumulan con el fin de tomar decisiones críticas que permitan su existencia pero sobre todo que maximicen su prosperidad; por lo que se vuelve prioritario crear sistemas de análisis y retroalimentación para comprender su información (Data Warehouse) y de esta manera contar con los elementos adecuados para la toma de decisiones.

2.4.4 Problemas que dan origen a un Data Warehouse

Los Data Warehouse surgen por los siguientes problemas:

Falta de integración de la información. Muchos de los datos de que disponen las empresas se encuentra en diversos almacenes de datos porque han evolucionado como sistemas independientes, en diferentes lenguajes, desarrollados por diferentes personas y en diferentes

Page 27: Bi Final Monografia

Página 27

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

momentos. Estos almacenes de datos son incapaces de ofrecer a la empresa una visión consolidada ya que no poseen vinculación entre ellos.

Sobrecarga de información. En las últimas décadas, los sistemas operacionales han producido una gran cantidad de datos, los que son difíciles de analizar para tomar decisiones de negocio. A pesar de las grandes sumas invertidas en tecnología de la información, los distintos departamentos dentro de las empresas todavía carecen de herramientas para explorar esos datos de una manera ágil y eficaz.

Exceso de información genérica y despersonalizada. Por lo general, los informes producidos por un sistema operacional contienen una gran cantidad de datos. Sin embargo, ofrecen muy poca información que ayude a la toma de decisiones. Estos informes no tienen la capacidad de adaptarse a las necesidades actuales de los usuarios, y carecen de información personalizada y/o relevante para los distintos perfiles que existen en un negocio.

2.4.5 Beneficios Asociados al Data Warehouse

Un Data Warehouse puede dar lugar a una serie de importantes beneficios para la organización. En cualquier caso, su utilización permitirá que la información de gestión sea:

Accesible, correcta, uniforme y actualizada. Estas características asociadas a la información contenida en un Data Warehouse, junto con otra serie de aspectos inherentes al mismo dan lugar a la obtención de un conjunto de ventajas.

Menor costo en la toma de decisiones. Se suprime el desperdicio de tiempo que se podía producir al intentar ejecutar consultas de datos largas y complejas con bases de datos que estaban diseñadas específicamente para transacciones más cortas y sencillas.

Posibilidad de encontrar relaciones ocultas. Facilita la aplicación de técnicas estadísticas de análisis y modelización para encontrar relaciones ocultas entre los datos, obteniendo un valor añadido para el negocio.

Aprendizaje del pasado. Proporciona la capacidad de aprender de los datos del pasado y de predecir situaciones futuras en diversos escenarios.

Mayor flexibilidad ante el entorno. El Data Warehouse convierte los datos operacionales en información relacionada y estructurada, que genera el conocimiento necesario para la toma de decisiones. Esto permite establecer una base única del modelo de información de la organización, que puede dar lugar a una visión global de la información en base a los conceptos de negocio que tratan los usuarios. Además, aporta una mejor calidad y flexibilidad en el análisis del mercado, y del entorno en general. Esta visión global puede conllevar también la obtención de otras ventajas competitivas, al permitir el desempeño de tareas que en los sistemas tradicionales sufrirían un costo adicional, por ejemplo:

Mejor servicio al cliente. Lo dicho en el punto anterior implica una importante mejora en la calidad de gestión, lo que también repercute en la relación con el cliente. De hecho, el que un Data Warehouse implique una mayor flexibilidad ante el entorno tiene una consecuencia directa en una mayor capacidad para responder a las necesidades de los clientes.

Page 28: Bi Final Monografia

Página 28

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Rediseño de procesos. Ofrecer a los usuarios una capacidad de análisis de la información de su negocio que tiende a ser ilimitada y permite con frecuencia obtener una visión más profunda y clara de los procesos de negocio propiamente dichos, lo que a su vez permite obtener ideas renovadoras para el rediseño de los mismos.

2.4.6 Data warehouse versus Sistemas Transaccionales (OLTP)

Hoy en día las empresas cuentan en su mayoría con sus procesos automatizados, manejando gran cantidad de datos en forma centralizada y manteniendo sus sistemas en línea. En esta información descansa el conocimiento de la empresa, constituyendo un recurso corporativo primario y parte importante de su patrimonio.

El nivel competitivo alcanzado en las empresas les ha exigido desarrollar nuevas estrategias de gestión. En el pasado, las organizaciones fueron típicamente estructuradas en forma piramidal con información generada en su base fluyendo hacia lo alto; y era en el estrato de la pirámide más alto donde se tomaban decisiones a partir de la información proporcionada por la base, con un bajo aprovechamiento del potencial de esta información. Las empresas han reestructurado y eliminado estratos de estas pirámides y han autorizado a los usuarios de todos los niveles a tomar mayores decisiones y responsabilidades. Sin embargo, sin información sólida para ayudar y apoyar las decisiones, la automatización no tiene sentido.

Esta necesidad de obtener información para una amplia variedad de individuos es la principal razón de negocios que conduce al concepto de. El énfasis no está sólo en llevar la información hacia lo alto sino a través de la organización, para que todos los empleados que la necesiten la tengan a su disposición (Sperley, 1999). El DW (de ahora en adelante los términos Data warehouse, Datawarehousing, Warehouse, Almacén de Datos y DW son utilizados en forma indistinta) convierte entonces los datos operacionales de una organización en una herramienta competitiva, por hacerlos disponibles a los empleados que lo necesiten para el análisis y toma de decisiones.

El objetivo del DW es el de satisfacer los requerimientos de información interna de la empresa para una mejor gestión. El contenido de los datos, la organización y estructura son dirigidos a satisfacer las necesidades de información de los analistas y usuarios tomadores de decisiones. El DW es el lugar donde la gente puede acceder a sus datos. El DW puede verse como una bodega donde están almacenados todos los datos necesarios para realizar las funciones de gestión de la empresa, de manera que puedan utilizarse fácilmente según se necesiten. Los sistemas transaccionales son dinámicos, constantemente se encuentran actualizando datos. Analizar esta información puede presentar resultados distintos en cuestión de minutos, por lo que se deben extraer y almacenar fotografías de datos (snapshots, en inglés), para estos efectos, con la implicancia de un consumo adicional de recursos de cómputo. Llevar a cabo un análisis complejo sobre un sistema transaccional, puede resultar en la degradación del sistema, con el consiguiente impacto en la operación del negocio. Los almacenes de datos (o Data warehouse) generan bases de datos tangibles con una perspectiva histórica, utilizando datos de múltiples fuentes que se fusionan en forma congruente. Estos datos se mantienen actualizados, pero no cambian al ritmo de los sistemas transaccionales. Muchos data warehouse se diseñan para contener un nivel de detalle hasta el nivel de transacción, con la intención de hacer disponible todo tipo de datos y características, para reportar y analizar.

Así un data warehouse resulta ser un recipiente de datos transaccionales para proporcionar consultas operativas, y la información para poder llevar a cabo análisis multidimensional. De esta forma, dentro de un data warehouse existen dos tecnologías que se pueden ver como

Page 29: Bi Final Monografia

Página 29

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

complementarias, una relacional para consultas y una multidimensional para análisis (Sperley, 1999). Puede considerarse que el modelo relacional en el cual se basa OLTP - Procesamiento Transaccional en Línea (OnLine Transational Procesing, en inglés), tiene como objetivo mantener la integridad de la información (relaciones entre los datos) necesaria para operar un negocio de la manera más eficiente. Sin embargo, este modelo no corresponde a la forma como el usuario percibe la operación de un negocio.

DW está basado en un procesamiento distinto al utilizado por los sistemas operacionales, es decir, este se basa en OLAP -Procesos de Análisis en Línea- (OnLine Analysis Process, en inglés), usado en el análisis de negocios y otras aplicaciones que requieren una visión flexible del negocio.

Para ampliar los conceptos anteriores, en la Tabla se exponen las principales diferencias entre los sistemas Transaccionales (OLTP) y los basados en Data warehouse.

Transaccionales Basados en Data warehouseAdmiten el acceso simultáneo de muchos usuarios -miles- que agregan y modifican datos.

Admiten el acceso simultáneo de muchos usuarios -cientos- que consultan y no modifican datos.

Contienen grandes cantidades de datos, incluidos los datos extensivos utilizados para comprobar transacciones

Contienen grandes cantidades de datos, sumarizados, consolidados y transformados. También de detalle pero solo los necesarios para el análisis.

Tienen estructuras de base de datos complejas.

Tienen estructuras de Base de datos simples.

Se ajustan para dar respuesta a la actividad transaccional.

Se ajustan para dar respuesta a la actividad de consultas.

Proporcionan la infraestructura tecnológica necesaria para admitir las operaciones diarias de la empresa.

Proporcionan la infraestructura tecnológica necesaria para admitir análisis de los datos de la empresa.

Los analistas carecen de la experiencia técnica necesaria para crear consultas "ad hoc" contra la compleja estructura de datos.

Pueden combinar datos de orígenes heterogéneos en una única estructura homogénea y simple, facilitando la creación de informes y consultas.

Las consultas analíticas que resumen grandes volúmenes de datos afectan negativamente a la capacidad del sistema para responder a las transacciones en línea.

Organizan los datos en estructuras simplificadas buscando la eficiencia de las consultas analíticas más que del proceso de transacciones.

El rendimiento del sistema cuando está respondiendo a consultas analíticas complejas puede ser lento o impredecible, lo que causa un servicio poco eficiente a los usuarios del proceso analítico en línea.

Contienen datos transformados que son válidos, coherentes, consolidados y con el formato adecuado para realizar el análisis sin interferir en la operatoria transaccional diaria.

Los datos que se modifican con frecuencia interfieren en la coherencia de la información analítica.

Proporcionan datos estables que representan el historial de la empresa. Se actualizan periódicamente con datos adicionales, no con transacciones frecuentes.

Tabla 2. Diferencias entre sistemas transaccionales y basados en data warehouse.Fuente: Nader, Javier, 2006

2.4.7. Introducción a Datamarts (Tienda de datos)

El acceso a los datos de toda la empresa a veces no es conveniente (o necesario) para determinados usuarios que solo necesitan un subconjunto de estos datos, en estos casos se utilizan los Datamarts. El concepto Datamart es una especialización del data warehouse, y está enfocado a

Page 30: Bi Final Monografia

Página 30

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

un departamento o área específica, como por ejemplo los departamentos de Finanzas o Marketing. Permitiendo así un mejor control de la información que se está abarcando (Poe et al., 1998).

Los principales beneficios de utilizar Data marts son: Acelerar las consultas reduciendo el volumen de datos a recorrer Estructurar los datos para su adecuado acceso por una herramienta Dividir los datos para imponer estrategias de control de acceso Segmentar los datos en diferentes plataformas hardware Permite el acceso a los datos por medio de un gran número de herramientas del mercado,

logrando independencia de estas.

2.4.8 Arquitectura Data warehouse (DW)

Antes de describir la arquitectura data warehouse se señala la siguiente consideración ya generalizada, presente en la literatura: el término Data warehouse se utiliza indistintamente para hablar de la arquitectura en sí como también para uno de los componentes que la conforman, específicamente el que tiene relación con el almacenamiento físico de los datos (Poe et al., 1998). Ahora, con el propósito de facilitar el entendimiento por parte del lector, se hace especial énfasis en esta parte del capítulo sobre el contexto del cual se estará hablando al hacer referencia al término data warehouse. La estructura básica de la arquitectura DW incluye:

1. Datos operacionales: un origen o fuente de datos para poblar el componente de almacenamiento físico DW. El origen de los datos son los sistemas transaccionales internos de la organización como también datos externos a ésta.

2. Extracción de Datos: selección sistemática de datos operacionales usados para poblar el componente de almacenamiento físico DW.

3. Transformación de datos: procesos para sumarizar y realizar otros cambios en los datos operacionales para reunir los objetivos de orientación a temas e integración principalmente.

4. Carga de Datos: inserción sistemática de datos en el componente de almacenamiento físico data warehouse

5. Data warehouse: componente de almacenamiento físico.

6. Herramientas de acceso a los datos en el componente de almacenamiento físico data warehouse. Estas herramientas pueden ser de visualización multidimensional específicas para el acceso a un data mart que está contenido en un data warehouse como también aplicaciones desarrolladas dentro de la organización del tipo EIS/DSS.

Page 31: Bi Final Monografia

Página 31

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 17. Estructura básica Data warehouseFuente: Hernández J., 2003

Los pasos 2, 3 y 4 considerados en la figura anterior, conforman el proceso conocido como ETL (Extracción, Transformación y Carga).

2.4.9 Metodologías de diseño y construcción de data warehouse

En los últimos años se han propuesto distintas metodologías para el diseño de Almacenes de Datos (AD) o Data Warehouse (DW), aunque ninguna de ellas ha sido aceptada plenamente. En algunos casos, las metodologías son extensiones de las metodologías clásicas para bases de datos, en otros casos se ha adoptado un enfoque completamente nuevo.

Intentando analizar el trabajo hecho hasta el momento en el área del diseño, las propuestas metodológicas pueden clasificarse en tres grupos: metodologías dirigidas por datos, metodologías dirigidas por procesos y metodologías compuestas (datos-procesos). El objetivo de las metodologías dirigidas por datos es obtener el esquema conceptual del DW a partir de la descripción de las bases de datos operacionales de la organización, por el contrario, las metodologías dirigidas por procesos derivan el esquema conceptual del DW a partir de los requisitos de usuario. Finalmente, las metodologías compuestas realizan una combinación de las dos aproximaciones anteriores, es decir, consideran los requisitos de usuario así como la descripción de la base de datos operacional. A continuación se citan algunas:

Metodología de Kimball. Kimball fue quien determinó que un data warehouse no era más que: "la unión de todos los Data marts de una entidad". Defiende por tanto una metodología ascendente (bottom-up) a la hora de diseñar un almacén de datos.

Figura 18. Arquitectura bottom-up de un DWFuente: BERNABEU, Ricardo

Metodología de Inmon. Inmon defiende una metodología descendente (top-down) a la hora de diseñar un almacén de datos, ya que de esta forma se considerarán mejor todos los datos

Page 32: Bi Final Monografia

Página 32

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

corporativos. En esta metodología los Data marts se crearán después de haber terminado el data warehouse completo de la organización.

Figura 19. Arquitectura top-down de un DWFuente: BERNABEU, Ricardo

Model Driven Architecture 2.0 (MDA 2.0).Desarrollado por “The Object Management Group” (OMG). Consiste en un conjunto de estándares que asisten en la creación, implementación, evolución y desarrollo de sistemas dirigido por modelos. Los estándares que constituyen MDA son: Lenguaje Unificado de Modelado (UML), Meta-Object-Facility (MOF), Meta-Data Interchange (XMI) y Common Warehouse Metamodel (CWM).

Multidimensional FactModel (DFM) propuesta por Golfarelly, M. y Dario. Permite hacer una representación de los hechos y dimensiones con una notación gráfica propia, además proponen una metodología semiautomática para obtener un esquema multidimensional a partir de un diagrama Entidad Relación (ER). Un esquema en DFM se define como una colección de esquemas de hechos, cuyos elementos básicos son los hechos, los atributos, las dimensiones y las jerarquías.

Modelo Multidimensional (MD).Cabibbo y Torlone proponen el método de diseñoMD, que definen como un modelo lógico para sistemas OLAP, sin embargo los autores mencionan que es independiente de cualquier implementación, por lo que lo ubican en el nivel conceptual. El método de diseño que proponen construye un es quema MD a partir de una base de datos operacional existente, el esquema MD consiste de un conjunto finito de Dimensiones y un conjunto finito de F-Tables (Hechos), donde las dimensiones son categorías sintácticas que permiten especificar múltiples caminos para la búsqueda de información y cada dimensión se organiza en una jerarquía de niveles correspondientes.

Metodología HEFESTO. Propuesta por Bernabéu D. Es una metodología fundamentada en metodologías existentes y experiencias propias del autor respecto al proceso de confección de almacenes de datos. La construcción e implementación de un DW puede

Page 33: Bi Final Monografia

Página 33

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

adaptarse muy bien a cualquier ciclo de vida de desarrollo de software, con la salvedad de que para algunas fases en particular, las acciones que se han de realizar serán muy diferentes. Lo que se debe tener muy en cuenta, es no entrar en la utilización de metodologías que requieran fases extensas de reunión de requerimientos y análisis, fases de desarrollo monolítico que conlleve demasiado tiempo y fases de despliegue muy largas. Lo que se busca, es entregar una primera implementación que satisfaga una parte de las necesidades, para demostrar las ventajas del DW y motivar a los usuarios.

2.5 Datamining

2.5.1 Concepto de data minig

La minería de datos (DM, Data Mining) consiste en la extracción no trivial de información que reside de manera implícita en los datos. Dicha información era previamente desconocida y podrá resultar útil para algún proceso. En otras palabras, la minería de datos prepara, sondea y explora los datos para sacar la información oculta en ellos.

Bajo el nombre de minería de datos se engloba todo un conjunto de técnicas encaminadas a la extracción de conocimiento procesable, implícito en las bases de datos. Está fuertemente ligado con la supervisión de procesos industriales ya que resulta muy útil para aprovechar los datos almacenados en las bases de datos.Las bases de la minería de datos se encuentran en la inteligencia artificial y en el análisis estadístico. Mediante los modelos extraídos utilizando técnicas de minería de datos se aborda la solución a problemas de predicción, clasificación y segmentación.

2.5.2 Proceso Datamining

Un proceso típico de minería de datos consta de los siguientes pasos generales:

1. Selección del conjunto de datos, tanto en lo que se refiere a las variables objetivo (aquellas que se quiere predecir, calcular o inferir), como a las variables independientes (las que sirven para hacer el cálculo o proceso), como posiblemente al muestreo de los registros disponibles.

2. Análisis de las propiedades de los datos, en especial los histogramas, diagramas de dispersión, presencia de valores atípicos y ausencia de datos (valores nulos).

3. Transformación del conjunto de datos de entrada, se realizará de diversas formas en función del análisis previo, con el objetivo de prepararlo para aplicar la técnica de minería de datos que mejor se adapte a los datos y al problema, a este paso también se le conoce como pre procesamiento de los datos.

4. Seleccionar y aplicar la técnica de minería de datos, se construye el modelo predictivo, de clasificación o segmentación.

Page 34: Bi Final Monografia

Página 34

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

5. Extracción de conocimiento, mediante una técnica de minería de datos, se obtiene un modelo de conocimiento, que representa patrones de comportamiento observados en los valores de las variables del problema o relaciones de asociación entre dichas variables. También pueden usarse varias técnicas a la vez para generar distintos modelos, aunque generalmente cada técnica obliga a un preprocesado diferente de los datos.

6. Interpretación y evaluación de datos, una vez obtenido el modelo, se debe proceder a su validación comprobando que las conclusiones que arroja son válidas y suficientemente satisfactorias. En el caso de haber obtenido varios modelos mediante el uso de distintas técnicas, se deben comparar los modelos en busca de aquel que se ajuste mejor al problema. Si ninguno de los modelos alcanza los resultados esperados, debe alterarse alguno de los pasos anteriores para generar nuevos modelos.

Si el modelo final no superara esta evaluación el proceso se podría repetir desde el principio o, si el experto lo considera oportuno, a partir de cualquiera de los pasos anteriores. Esta retroalimentación se podrá repetir cuantas veces se considere necesario hasta obtener un modelo válido.

Una vez validado el modelo, si resulta ser aceptable (proporciona salidas adecuadas y/o con márgenes de error admisibles) éste ya está listo para su explotación.

Tradicionalmente, las técnicas de minería de datos se aplicaban sobre información contenida en almacenes de datos. De hecho, muchas grandes empresas e instituciones han creado y alimentan bases de datos especialmente diseñadas para proyectos de minería de datos en las que centralizan información potencialmente útil de todas sus áreas de negocio. No obstante, actualmente está cobrando una importancia cada vez mayor la minería de datos desestructurados como información contenida en ficheros de texto, en Internet, etc.

2.5.3 Etapas de Dataminig

Aunque en datamining cada caso concreto puede ser radicalmente distinto al anterior, el proceso común a todos ellos se suele componer de cuatro etapas principales:

Determinación de los objetivos. Trata de la delimitación de los objetivos que el cliente desea bajo la orientación del especialista en data mining.

Pre procesamiento de los datos. Se refiere a la selección, la limpieza, el enriquecimiento, la reducción y la transformación de las bases de datos. Esta etapa consume

generalmente alrededor del setenta por ciento del tiempo total de un proyecto de data mining.

Page 35: Bi Final Monografia

Página 35

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Carga de trabajo en las fases de un proyecto de datamining

Determinación del modelo. Se comienza realizando unos análisis estadísticos de los datos, y después se lleva a cabo una visualización gráfica de los mismos para tener una primera aproximación. Según los objetivos planteados y la tarea que debe llevarse a cabo, pueden utilizarse algoritmos desarrollados en diferentes áreas de la Inteligencia Artificial.

Análisis de los resultados. Verifica si los resultados obtenidos son coherentes y los coteja con los obtenidos por los análisis estadísticos y de visualización gráfica. El cliente determina si son novedosos y si le aportan un nuevo conocimiento que le permita considerar sus decisiones.

En resumen, el datamining se presenta como una tecnología emergente, con varias ventajas: por un lado, resulta un buen punto de encuentro entre los investigadores y las personas de negocios; por otro, ahorra grandes cantidades de dinero a una empresa y abre nuevas oportunidades de negocios. Además, no hay duda de que trabajar con esta tecnología implica cuidar un sinnúmero de detalles debido a que el producto final involucra "toma de decisiones".

2.5.4 Protocolo de un Proyecto de Datamining

Un proyecto de minería de datos tiene varias fases necesarias que son, esencialmente:

Comprensión del negocio y del problema que se quiere resolver. Determinación, obtención y limpieza de los datos necesarios. Creación de modelos matemáticos. Validación, comunicación, etc. de los resultados obtenidos. Integración, si procede, de los resultados en un sistema transaccional o similar.

La relación entre todas estas fases sólo es lineal sobre el papel. En realidad, es mucho más compleja y esconde toda una jerarquía de subfases. A través de la experiencia acumulada en proyectos de

Page 36: Bi Final Monografia

Página 36

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

minería de datos se han ido desarrollando metodologías que permiten gestionar esta complejidad de una manera más o menos uniforme.

2.5.5 Técnicas de Datamining

Como ya se ha comentado, las técnicas de la minería de datos provienen de la Inteligencia artificial y de la estadística, dichas técnicas, no son más que algoritmos, más o menos sofisticados que se aplican sobre un conjunto de datos para obtener unos resultados.

Las técnicas más representativas son:

Redes neuronales.- Son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas en una red que colabora para producir un estímulo de salida. Algunos ejemplos de red neuronal son:

o El Perceptrón o El Perceptrón multicapa.o Los Mapas Auto organizados, también conocidos como redes de Kohonen.

Regresión lineal.- Es la más utilizada para formar relaciones entre datos. Rápida y eficaz pero insuficiente en espacios multidimensionales donde puedan relacionarse más de 2 variables.

Árboles de decisión.- Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial, dada una base de datos se construyen estos diagramas de construcciones lógicas, muy similares a los sistemas de predicción basados en reglas, que sirven para representar y categorizar una serie de condiciones que suceden de forma sucesiva, para la resolución de un problema. Ejemplos:

o Algoritmo ID3.o Algoritmo C4.5

Modelos estadísticos.- Es una expresión simbólica en forma de igualdad o ecuación que se emplea en todos los diseños experimentales y en la regresión para indicar los diferentes factores que modifican la variable de respuesta.

Agrupamiento o Clustering.- Es un procedimiento de agrupación de una serie de vectores según criterios habitualmente de distancia; se tratará de disponer los vectores de entrada de forma que estén más cercanos aquellos que tengan características comunes. Ejemplos:

o Algoritmo K-means.o Algoritmo K-medoids.

2.5.6 El Alcance de Datamining

El nombre de Datamining deriva de las similitudes entre buscar valiosa información de negocios en grandes bases de datos - por ej.: encontrar información de la venta de un producto entre grandes montos de Gigabytes almacenados - y minar una montaña para encontrar una veta

Page 37: Bi Final Monografia

Página 37

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

de metales valiosos. Ambos procesos requieren examinar una inmensa cantidad de material, o investigar inteligentemente hasta encontrar exactamente donde residen los valores. Dadas bases de datos de suficiente tamaño y calidad, la tecnología de Datamining puede generar nuevas oportunidades de negocios al proveer estas capacidades:

Predicción automatizada de tendencias y comportamientos. Datamining automatiza el proceso de encontrar información predecible en grandes bases de datos. Preguntas que tradicionalmente requerían un intenso análisis manual, ahora pueden ser contestadas directa y rápidamente desde los datos. Un típico ejemplo de problema predecible es el marketing apuntado a objetivos (targeted marketing). Datamining usa datos en mailing promocionales anteriores para identificar posibles objetivos para maximizar los resultados de la inversión en futuros mailing. Otros problemas predecibles incluyen pronósticos de problemas financieros futuros y otras formas de incumplimiento, e identificar segmentos de población que probablemente respondan similarmente a eventos dados.

Descubrimiento automatizado de modelos previamente desconocidos. Las herramientas de Datamining barren las bases de datos e identifican modelos previamente escondidos en un sólo paso. Otros problemas de descubrimiento de modelos incluye detectar transacciones fraudulentas de tarjetas de créditos e identificar datos anormales que pueden representar errores de tipeado en la carga de datos.

2.5.7 Datamining basada en teoría de la información

Todas las herramientas tradicionales de minería de datos asumen que los datos que usarán para construir los modelos contienen la información necesaria para lograr el propósito buscado: obtener suficiente conocimiento que pueda ser aplicado al negocio (o problema) para obtener un beneficio (o solución).El inconveniente es que esto no es necesariamente cierto. Además, existe otro problema mayor aún. Una vez construido el modelo no es posible conocer si el mismo ha capturado toda la información disponible en los datos. Por esta razón la práctica común es realizar varios modelos con distintos parámetros para ver si alguno logra mejores resultados.

Un enfoque relativamente nuevo al análisis de datos soluciona estos problemas haciendo que la práctica de la minería de datos se parezca más a una ciencia que a un arte.En 1948 Claude Shannon publicó un trabajo llamado “Una eoría Matemática de la Comunicación”. Posteriormente esta pasó a llamarse Teoría de la información y sentó las bases de la comunicación y la codificación de la información. Shannon propuso una manera de medir la cantidad de información a ser expresada en bits.En 1999 Dorian Pyle publicó un libro llamado “Data Preparation for Data Mining” en el que propone una manera de usar la Teoría de la Información para analizar datos. En este nuevo enfoque, una base de datos es un canal que transmite información. Por un lado está el mundo real que captura datos generados por el negocio. Por el otro están todas las situaciones y problemas importantes del negocio. Y la información fluye desde el mundo real y a través de los datos, hasta la problemática del negocio.

Con esta perspectiva y usando la Teoría de la información, es posible medir la cantidad de información disponible en los datos y qué porción de la misma podrá utilizarse para resolver la problemática del negocio. Como un ejemplo práctico, podría encontrarse que los datos contienen un 65% de la información necesaria para predecir qué cliente rescindirán sus contratos. De esta

Page 38: Bi Final Monografia

Página 38

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

manera, si el modelo final es capaz de hacer predicciones con un 60% de acierto, se puede asegurar que la herramienta que generó el modelo hizo un buen trabajo capturando la información disponible. Ahora, si el modelo hubiese tenido un porcentaje de aciertos de solo el 10%, por ejemplo, entonces intentar otros modelos o incluso con otras herramientas podría valer la pena.

La capacidad de medir información contenida en los datos tiene otras ventajas importantes.

Al analizar los datos desde esta nueva perspectiva se genera un mapa de información que hace innecesario la preparación previa de los datos, una tarea absolutamente imprescindible si se desea buenos resultados, pero que lleva enorme cantidad de tiempo.

Es posible seleccionar un grupo de variables óptimo que contenga la información necesaria para realizar un modelo de predicción.

Una vez que las variables son procesadas con el fin de crear el mapa de información y luego seleccionadas aquellas que aportan la mayor información, la elección de la herramienta que se usará para crear el modelo deja de tener importancia, ya que el mayor trabajo fue realizado en los pasos previos.

2.5.8 Tendencias

La Minería de Datos ha sufrido transformaciones en los últimos años de acuerdo con cambios tecnológicos, de estrategias de marketing, la extensión de los modelos de compra en línea, etc. Los más importantes de ellos son:

La importancia que han cobrado los datos no estructurados (texto, páginas de Internet, etc.) La necesidad de integrar los algoritmos y resultados obtenidos en sistemas operacionales,

portales de Internet, etc. La exigencia de que los procesos funcionen prácticamente en línea (por ejemplo, que frente a

un fraude con una tarjeta de crédito). Los tiempos de respuesta. El gran volumen de datos que hay que procesar en muchos casos

para obtener un modelo válido es un inconveniente; esto implica grandes cantidades de tiempo de proceso y hay problemas que requieren una respuesta en tiempo real.

2.5.9 Ejemplos de Uso de la Minería de Datos

Negocios: La minería de datos puede contribuir significativamente en las aplicaciones de administración empresarial basada en la relación con el cliente. En lugar de contactar con el

cliente de forma indiscriminada a través de un centro de llamadas o enviando cartas, sólo se contactará con

aquellos que se perciba que tienen una mayor probabilidad de responder positivamente a

una determinada oferta o promoción.

Por lo general, las empresas que emplean minería de datos ven

rápidamente el retorno de la

Page 39: Bi Final Monografia

Página 39

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

inversión, pero también reconocen que el número de modelos predictivos desarrollados puede crecer muy rápidamente.

En lugar de crear modelos para predecir qué clientes pueden cambiar, la empresa podría construir modelos separados para cada región y/o para cada tipo de cliente. También puede querer determinar qué clientes van a ser rentables durante una ventana de tiempo (una quincena, un mes, ...) y sólo enviar las ofertas a las personas que es probable que sean rentables. Para mantener esta cantidad de modelos, es necesario gestionar las versiones de cada modelo y pasar a una minería de datos lo más automatizada posible.

Hábitos de compra en supermercados: El ejemplo clásico de aplicación de la minería de datos tiene que ver con la detección de hábitos de compra en supermercados. Un estudio muy citado detectó que los viernes había una cantidad inusualmente elevada de clientes que adquirían a la vez pañales y cerveza. Se detectó que se debía a que dicho día solían acudir al supermercado padres jóvenes cuya perspectiva para el fin de semana consistía en quedarse en casa cuidando de su hijo y viendo la televisión con una cerveza en la mano. El supermercado pudo incrementar sus ventas de cerveza colocándolas próximas a los pañales para fomentar las ventas compulsivas.

Patrones de fuga: Un ejemplo más habitual es el de la detección de patrones de fuga. En muchas industrias —como la banca, las telecomunicaciones, etc.— existe un comprensible interés en detectar cuanto antes aquellos clientes que puedan estar pensando en rescindir sus contratos para, posiblemente, pasarse a la competencia. A estos clientes —y en función de su valor— se les podrían hacer ofertas personalizadas, ofrecer promociones especiales, etc., con el objetivo último de retenerlos. La minería de datos ayuda a determinar qué clientes son los más proclives a darse de baja estudiando sus patrones de comportamiento y comparándolos con muestras de clientes que, efectivamente, se dieron de baja en el pasado.

Fraudes: Un caso análogo es el de la detección de transacciones de lavado de dinero o de fraude en el uso de tarjetas de crédito o de servicios de telefonía móvil e, incluso, en la relación de los contribuyentes con el fisco. Generalmente, estas operaciones fraudulentas o ilegales suelen seguir patrones característicos que permiten, con cierto grado de probabilidad, distinguirlas de las legítimas y desarrollar así mecanismos para tomar medidas rápidas frente a ellas.

Recursos humanos: La minería de datos también puede ser útil para los departamentos de recursos humanos en la identificación de las características de sus empleados de mayor éxito. La información obtenida puede ayudar a la contratación de personal, centrándose en los esfuerzos de sus empleados y los resultados obtenidos por éstos. Además, la ayuda ofrecida por las aplicaciones para Dirección estratégica en una empresa se traducen en la obtención de ventajas a nivel corporativo, tales como mejorar el margen de beneficios o compartir objetivos; y en la mejora de las decisiones operativas, tales como desarrollo de planes de producción o gestión de mano de obra.

Page 40: Bi Final Monografia

Página 40

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Comportamiento en Internet: También es un área en boga el del análisis del comportamiento de los visitantes —sobre todo, cuando son clientes potenciales— en una página de Internet. O la utilización de la información —obtenida por medios más o menos legítimos— sobre ellos para ofrecerles propaganda adaptada específicamente a su perfil. O para, una vez que adquieren un determinado producto, saber inmediatamente qué otro ofrecerle teniendo en cuenta la información histórica disponible acerca de los clientes que han comprado el primero.

Terrorismo: La minería de datos ha sido citada como el método por el cual la unidad Able Danger del Ejército de los EE. UU. había identificado al líder de los atentados del 11 de septiembre de 2001, Mohammed Atta, y a otros tres secuestradores del "11-S" como posibles miembros de una célula de Al Qaeda que operan en los EE. UU. más de un año antes del ataque. Se ha sugerido que tanto la Agencia Central de Inteligencia y su homóloga canadiense, Servicio de Inteligencia y Seguridad Canadiense, también han empleado este método.

Juegos: Desde comienzos de la década de 1960, con la disponibilidad de oráculos para determinados juegos combinacionales, también llamados finales de juego de tablero (por ejemplo, para las tres en raya o en finales de ajedrez) con cualquier configuración de inicio, se ha abierto una nueva área en la minería de datos que consiste en la extracción de estrategias utilizadas por personas para estos oráculos. Los planteamientos actuales sobre reconocimiento de patrones, no parecen poder aplicarse con éxito al funcionamiento de estos oráculos. En su lugar, la producción de patrones perspicaces se basa en una amplia experimentación con bases de datos sobre esos finales de juego, combinado con un estudio intensivo de los propios finales de juego en problemas bien diseñados y con conocimiento de la técnica (datos previos sobre el final del juego). Ejemplos notables de investigadores que trabajan en este campo son Berlekamp en el juego de puntos-y-cajas (o Timbiriche) y John Nunn en finales de ajedrez.

Ciencia e Ingeniería: En los últimos años la minería de datos se está utilizando ampliamente en diversas áreas relacionadas con la ciencia y la ingeniería. Algunos ejemplos de aplicación en estos campos son:

o Genética: En el estudio de la genética humana, el objetivo principal es entender la relación cartográfica entre las partes y la variación individual en las secuencias del ADN humano y la variabilidad en la susceptibilidad a las enfermedades. En términos más llanos, se trata de saber cómo los cambios en la secuencia de ADN de un individuo afectan al riesgo de desarrollar enfermedades comunes (como por ejemplo el cáncer). Esto es muy importante para ayudar a mejorar el diagnóstico, prevención y tratamiento de las enfermedades. La técnica de minería de datos que se utiliza para realizar esta tarea se conoce como "reducción de dimensionalidad multifactorial".

o Ingeniería eléctrica: En el ámbito de la ingeniería eléctrica, las técnicas de minería de datos han sido ampliamente utilizadas para monitorizar las condiciones de las instalaciones de alta tensión. La finalidad de esta monitorización es obtener información valiosa sobre el estado del aislamiento de los equipos. Para la vigilancia de las vibraciones o el análisis de los

Page 41: Bi Final Monografia

Página 41

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

cambios de carga en transformadores se utilizan ciertas técnicas para agrupación de datos (clustering) tales como los mapas auto-organizativos (SOM: Self-organizing map). Estos mapas sirven para detectar condiciones anormales y para estimar la naturaleza de dichas anomalías.

o Análisis de gases: También se han aplicado técnicas de minería de datos para el análisis de gases disueltos (DGA: Dissolved gas analysis) en transformadores eléctricos. El análisis de gases disueltos se conoce desde hace mucho tiempo como la herramienta para diagnosticar transformadores. Los mapas auto-organizativos (SOM) se utilizan para analizar datos y determinar tendencias que podrían pasarse por alto utilizando las técnicas clásicas (DGA)

2.5 Procesos ETL

El concepto ETL proviene de los términos ingleses Extract, Transform y Load. Las herramientas ETL juegan un papel principal en la creación de los data warehouses, de los que hemos hablado anteriormente. Es además uno de los cuatro principales componentes por los que está formada una solución completa de Business Intelligence; ETL, data Warehouse, reporting y herramientas analíticas.

Figura7. Componentes y estructura de una herramienta ETL (Eckerson, White. 2002)

Como hemos mencionado, los procesos ETL son el corazón de una solución Business Intelligence. Estos procesos combinan información proveniente de distintas fuentes de información y la almacenan en el data Warehouse, permitiendo a los usuarios disponer de un almacén de datos único, con la información integrada, limpia, estructurada, consistente y preparada para el análisis. Como lo definen los autores en (Eckerson, White. 2002), el data warehouse ofrece una sóla versión de la verdad. De acuerdo a las afirmaciones de numerosos desarrolladores de este tipo de soluciones, el diseño y creación de los procesos ETL consume entre el 60 y 80 por cien de un proyecto completo de Business Intelligence. Este consumo se debe a que conlleva la integración de toda la información colorativa, hallándose ésta en distintas fuentes, en distintos formatos, etc.

Es sin duda, el punto más crítico de un proyecto de Business Intelligence, en el cual, las herramientas empleadas juegan un papel fundamental. Una buena herramienta de transformación

Page 42: Bi Final Monografia

Página 42

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

de datos (ETL) en manos de un buen consultor BI, puede acelerar el proceso de creación y consolidación del data warehouse.

• Extraer e integrar información: Una vez especificada la información que se quiere analizar e identificadas las fuentes en donde se encuentra localizada dicha información (ERPs, CRMs, archivos planos, aplicaciones corporativas, etc.), se lleva a cabo el proceso de integración. Esto es, construir las tablas del data Warehouse para albergar los datos en bruto. Extraer la información útil de las fuentes de datos e incorporar dichos datos al data Warehouse.

Figura8. Tipos de fuentes de datos que las herramientas ETL procesan. (Eckerson,White. 2002)

Estandarización de la información: Estando disponibles los datos en bruto en el data Warehouse se llevan a cabo los procesos de transformación: normalización y limpieza de datos. De esta forma que los datos almacenados guarden una coherencia de formato, cambios de unidad, operaciones entre campos, etc.

• Limpieza de datos: Generalmente, tras la extracción en bruto de la información, hay datos que no interesan mantener, o son datos duplicados. Es frecuente realizar procesos de limpieza o de filtrado para eliminar información innecesaria, redundante o errónea.

Page 43: Bi Final Monografia

Página 43

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura9. Importancia que dan las empresas a los beneficios de ETL (Eckerson, White. 2002)

• Carga de datos: Tras aplicar todos los procesos de transformación, se lleva a cabo la carga consolidada de los datos. Es habitual disponer de dos bases de datos separadas físicamente una para la preparación de los datos y otra para el data Warehouse en sí. El proceso de volcado sería pues el paso de la primera de estas bases de datos (llamada staging area o interfaz) al data Warehouse. Es habitual que este proceso requiera el borrado de algunos datos del data Warehouse que van a ser refrescados.

Figura10. Frecuencia de carga (refresco de datos) y previsión futura (Eckerson, White. 2002)

2.6 El Procesamiento Analítico en Línea (OLAP)

La tecnología de Procesamiento Analítico en Línea –OLAP- (Online AnalyticalProcessing) permite un uso más eficaz de data warehouse para el análisis de datos en línea, lo que proporciona respuestas rápidas a consultas analíticas complejas e iterativas utilizada generalmente para sistemas de ayuda para la toma de decisiones. Primero y más importante, el OLAP presenta los datos a los usuarios a través de un modelo de datos intuitivo y natural. Con este estilo de navegación, los usuarios finales pueden ver y entender más efectivamente la información de sus bases de datos, permitiendo así a las organizaciones reconocer mejor el valor de sus datos.

En segundo lugar, el OLAP acelera la entrega de información a los usuarios finales que ven estas estructuras de datos como cubos denominadas multidimensionales debido a que la información es vista en varias dimensiones.

Esta entrega es optimizada ya que se prepararan algunos valores calculados en los datos por adelantado, en vez de de realizar el cálculo al momento de la solicitud. La combinación de navegación fácil y rápida le permite a los usuarios ver y analizar información más rápida y eficientemente que lo que es posible con tecnologías de bases de datos relacionales solamente. El resultado final: se pasa más tiempo analizando los datos y menos tiempo analizando las bases de datos.

A pesar del proceso de almacenamiento de datos de preparar información para el consumo del usuario final se debe facilitar la búsqueda de la información.

Page 44: Bi Final Monografia

Página 44

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Generalmente, las estructuras de datos de las bases tienen cierta complejidad para el usuario final, principalmente para responder a preguntas tales como:

"¿Quiénes fueron los mejores vendedores de cada región durante el año pasado, mensualmente?" son complejas cuando se expresan en lenguaje SQL.

Estos retos son enfrentados con herramientas avanzadas de peticiones (queries), las cuáles ocultan al usuario final la complejidad de las base de datos. Esta es la función de las herramientas OLAP. Todas las organizaciones tienen datos multidimensionales y la complejidad no es necesariamente una función del tamaño de la compañía. Aún a las más pequeñas compañías les gustaría poder rastrear sus ventas por producto, vendedor, geografía, cliente y tiempo. Las organizaciones han buscado durante mucho tiempo herramientas para acceder, navegar y analizar información multidimensional de una manera fácil y natural.

Las aplicaciones OLAP deberían proporcionar análisis rápidos de información multidimensional compartida. Las características principales del OLAP son (Pence&Creeth, 2002):

Rápido: proporciona la información al usuario a una velocidad constante. La mayoría de las peticiones se deben de responder al usuario en cinco segundos o menos.

Análisis: realiza análisis estadísticos y numéricos básicos de los datos, predefinidos por el desarrollador de la aplicación o definido “ad hoc” por el usuario.

Compartida: implementa los requerimientos de seguridad necesarios para compartir datos potencialmente confidenciales a través de una gran población de usuarios.

Multidimensional: llena la característica esencial del OLAP, que es ver la información en determinadas vistas o dimensiones.

Información: acceden a todos los datos y a la información necesaria y relevante para la aplicación, donde sea que ésta resida y no esté limitada por el volumen.

El OLAP es un componente clave en el proceso de almacenamiento de datos (data warehousing) y los servicios OLAP proporcionan la funcionalidad esencial para una gran variedad de aplicaciones que van desde reportes corporativos hasta soporte avanzado de decisiones.

2.6.1 Vistas del Usuario

En un modelo de datos OLAP, la información es vista como cubos, los cuáles consisten de categorías descriptivas (dimensiones) y valores cuantitativos (medidas). El modelo de datos multidimensional simplifica a los usuarios el formular peticiones complejas, arreglar datos en un reporte, cambiar de datos de resumen a datos de detalle y filtrar o seccionar los datos en subconjuntos significativos. Por ejemplo, las dimensiones típicas de un cubo que contenga información de ventas, incluiría tiempo, geografía, producto, canal, organización y escenario (planeado o real). Las medidas típicas

Page 45: Bi Final Monografia

Página 45

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

incluirían ventas en euros (u otra moneda), unidades vendidas, número de personas, ingresos y gastos.

Dentro de cada dimensión de un modelo de datos OLAP, los datos se pueden organizar en una jerarquía que represente niveles de detalle de los datos.

La funcionalidad de los sistemas OLAP se caracteriza por ser un análisis multidimensional de datos corporativos, que soportan los análisis del usuario y unas posibilidades de navegación, seleccionando la información a obtener.

Normalmente este tipo de selecciones se ve reflejada en la visualización de la estructura multidimensional, en unos campos de selección que permitan elegir el nivel de agregación (jerarquía) de la dimensión, y/o la elección de un dato en concreto, la visualización de los atributos del sujeto, frente a una(s) dimensiones en modo tabla, pudiendo con ello realizar, entre otras las siguientes acciones (Pence&Creeth, 2002):

Rotar (Swap): alterar las filas por columnas (permutar dos dimensiones de análisis) Bajar (Down): bajar el nivel de visualización en las filas a una jerarquía inferior Detallar (Drilldown): informar para una fila en concreto de datos a un nivel inferior Expandir (Expand): ídem anterior sin perder la información a nivel superior para éste y el resto

de los valores.

2.6.2 Arquitectura OLAP

Aunque en ocasiones se utilizan indistintamente, los términos data warehouse y proceso analítico en línea (OLAP) se aplican a diferentes componentes de sistemas de ayuda a la toma de decisiones o sistemas de inteligencia empresarial. Los datos contenidos en undata warehouse se encuentran organizados para permitir el análisis por medio de herramientas OLAP.

La tecnología OLAP permite un uso más eficaz de los almacenes de datos para el análisis en línea, lo que proporciona respuestas rápidas a consultas analíticas complejas e iterativas. Los modelos de datos multidimensionales de OLAP y las técnicas de agregados de datos organizan y resumen grandes cantidades de datos para que puedan ser evaluados con rapidez mediante el análisis en línea y las herramientas gráficas. La respuesta a una consulta realizada sobre datos históricos a menudo suele conducir a consultas posteriores en las que el analista busca respuestas más concretas o explora posibilidades.

Los sistemas OLAP proporcionan la velocidad y la flexibilidad necesarias para dar apoyo al analista en tiempo real. La figura 21 muestra la integración del data warehouse y los procesos OLAP, que generalmente se implementan por medio de una aplicación servidora que accede al data warehouse y realiza los procesos de análisis. A través de este servicio OLAP, los usuarios acceden a la información residente en las bases de datos (Microsoft Corp, 2002).

Page 46: Bi Final Monografia

Página 46

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 21. Arquitectura básica para OLAP.Fuente: http://cgmlab.cs.dal.ca/Members/obaltzer/SOLAP/

A continuación se explica el modelo de datos donde se sustenta esta tecnología.

2.6.3 El modelo de datos OLAP

Un reto fundamental en la implementación del OLAP es mapear el esquema inicial de la base de datos a un modelo multidimensional.

En la mayoría de las implementaciones de OLAP, se asume que los datos han sido preparados para el análisis a través del almacenamiento de datos (data warehousing) y que la información se ha extraído de sistemas operacionales, limpiado, validado y resumido antes de incorporarse en una aplicación OLAP. Este es un paso vital en el proceso, que asegura que los datos que son vistos por el usuario OLAP son correctos, consistentes y que llenan las definiciones organizacionales para los datos.

Cada vez más, la información en un data warehouse se organiza en esquemas de estrella o de copo de nieve. El esquema estrella, considerado como jerarquía de dimensiones lineal se basa en una tabla de hechos central (las medidas) que se enlaza a las tablas de dimensiones relacionadas (las categorías descriptivas de las medidas), mientras que el esquema copo de nieve, considerado como estrella jerárquica o modelo no lineal , es una tabla de hechos central se enlaza a una tabla de hechos contiene generalmente los valores o medidas que se quiere analizar, mientras las tablas de dimensiones contienen las vistas en que se quiere analizar esas medidas.

Page 47: Bi Final Monografia

Página 47

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 22. Modelo estrella.

Fuente: Hernández J., 2003.

Luego de analizar los dos tipos de esquemas, cabe una pregunta ¿Se puede recopilar toda la información necesaria en un único esquema estrella o copo de nieve? La respuesta es NO. Realmente se requiere de varios esquemas y cada uno de ellos se denomina data mart como se ejemplifica en la figura.

Figura 24. Ejemplo de un almacén formado por 4 data marts.Fuente: Hernández J., 2003

La figura 9 muestra un ejemplo de esquema de estrella. En este tipo de base de datos, una tabla de hechos central se enlaza a las tablas de dimensiones relacionadas.

Page 48: Bi Final Monografia

Página 48

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 25. Un esquema de estrella.Fuente: Nader, J.,2003

La figura muestra un ejemplo de esquema copo de nieve. Este tipo de esquema se caracteriza por tener tablas dimensionales relacionadas con otras tablas dimensionales además de vincularse a la tabla de hechos. A continuación se enumeran algunas de las principales ventajas del esquema estrella:

Figura 26. Un esquema copo de nieve.Fuente: Nader, J., 2003

Crea una base de datos con tiempos de respuesta rápido.

Page 49: Bi Final Monografia

Página 49

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Diseño fácil de modificar. Simula como ven los datos los usuarios finales. Simplifica la navegación. Facilita la interacción con herramientas.

Los esquemas de estrella y copo de nieve son aproximaciones relacionales del modelo de datos OLAP y son un punto de partida excelente para construir definiciones de cubo OLAP. Pocos productos OLAP han tomado ventaja de este hecho. Generalmente no han provisto herramientas sencillas para mapear un esquema de estrella a un modelo OLAP y como resultado mantienen el costo de construir el modelo OLAP extremadamente alto y el tiempo de desarrollo innecesariamente largo.

Debido a la explosión de datos, las aplicaciones OLAP pueden sufrir aún más cuando los datos de detalle o fuente están distribuidos dispersamente en todo lo amplio del cubo multidimensional. Los valores faltantes o inválidos crean dispersión en el modelo de datos OLAP. En el peor caso, un producto OLAP podría almacenar un valor vacío. Por ejemplo, una compañía podría no vender todos los productos en todas las regiones, así que no aparecerían valores en la intersección donde los productos no se venden en una región particular.

La dispersión de datos, un reto para las compañías de OLAP, se ha vencido con varios grados de éxito. Las peores implementaciones resultan en bases de datos que almacenan valores vacíos, por tanto teniendo baja densidad y desperdiciando espacio y recursos. Los servicios OLAP no almacenan valores vacíos y como resultado, aún los cubos dispersamente poblados no se inflarán de tamaño. Mientras que este asunto es frecuentemente subrayado como un factor decisivo de arquitecturas OLAP, por algunos vendedores de OLAP, las diferencias entre las implementaciones de las compañías en el manejo de la dispersión son mínimas comparadas a las más importantes explosiones de datos causadas por precalcular demasiados agregados.

2.6.4 Implementación del OLAP

Los cubos, las dimensiones y las jerarquías son la esencia de la navegación multidimensional del OLAP. Al describir y representar la información en esta forma, los usuarios pueden navegar intuitivamente en un conjunto complejo de datos. Sin embargo, el solo describir el modelo de datos en una forma más intuitiva, hace muy poco para ayudar a entregar la información al usuario más rápidamente. El Almacén de Datos y las herramientas OLAP se pueden basar físicamente en varias organizaciones:

Sistemas ROLAP: se implementan sobre tecnología relacional, pero disponen de algunas facilidades para mejorar el rendimiento (índices de mapas de bits, índices de JOIN).

Sistemas MOLAP: disponen de estructuras de almacenamiento específicas (arrays) y técnicas de compactación de datos que favorecen el rendimiento del almacén.

Sistemas HOLAP: sistemas híbridos entre ambos.

Page 50: Bi Final Monografia

Página 50

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.7 KPI's

Medimos lo que creemos que es importante. El término empleado por el Business Intelligence para designar las métricas importantes se denomina indicadores de gestión, KPI (Key Performance Indicators). Los sistemas de Business Intelligence están específicamente diseñados para asimilar grandes cantidades de datos complejos de diferentes fuentes y combinar estos datos utilizando algoritmos complejos con el fin de asignar, agregar y, en definitiva, jugar con la información. El resultado es la obtención sistemática de informes con las métricas, ratios e indicadores del negocio; los auténticos KPI que los gerentes necesitan identificar, analizar y utilizar para tomar decisiones de forma frecuente. (Vitt, Luckevich, Misner. 2002). Un indicador de gestión (KPI) ha de cumplir las características recopiladas en el acrónimo SMART, esto es:

Specific (específico) Measurable (medible) Achievable (alcanzable) Realistic (realista) Timely (a tiempo)

Lo que realmente es importante acerca de un indicador de gestión es que los datos de los que dependa el indicador deben ser consistentes y correctos y que dichos datos deben estar disponibles a tiempo. A continuación se muestra una tabla con los KPIs más comunes empleados en distintas áreas funcionales de una empresa:

Figura14. KPI empleados en áreas funcionales (Vitt, Luckevich, Misner. 2002)

Page 51: Bi Final Monografia

Página 51

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

CAPÍTULO IIIHERRAMIENTAS BUSINESS

INTELLIGENCE

Page 52: Bi Final Monografia

Página 52

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.1 Herramientas de Reportes

En este apartado se presenta una introducción a uno de los componentes quedan soporte a la Inteligencia de Negocios, que son los reportes y las herramientas para su construcción. A continuación se explica el estado actual de los reportes, su necesidad y las características principales que deben reunir las herramientas que los construyen y administran.

3.1.1 Estado Actual de los Reportes

Tradicionalmente, los reportes han sido el medio principal para disponer de información. Tanto reportes en papel como en el escritorio, el usuario depende de ellos para comunicar a la gente lo que está ocurriendo en la empresa vía los almacenes de información. Los reportes tienen en las bases de datos su principal fuente de alimentación y han brindado al usuario final entendido éste como cualquier persona que requiera un reporte, la posibilidad de consultar y publicar lo que las bases de datos poseen, la limitante que siempre ha existido en este sentido es que el generar un reporte implica manejar algunas habilidades técnicas relacionadas con las bases de datos y las herramientas de software.

Los reportes o las consultas son requeridos por cualquier persona dentro de la organización, de hecho, no es una labor que esté limitada a un nivel jerárquico opuesto. Cuando un usuario con poca preparación técnica (secretarias, ejecutivos, etc.) requiere de un reporte o consulta, lo hace vía terceros, el tradicional entorno es hacer la solicitud de información a sistemas y obtenerla después de cierto tiempo, el tiempo puede ser irrelevante o puede significar la pérdida de vigencia de la información solicitada.

El usuario técnico realiza los reportes y para ello necesita conectarse a la base de datos, posteriormente, diseñar el formato requerido y, al final, obtener los datos. Tanto la conexión a la base de datos como la construcción del formato del reporte son tareas de sistemas, la obtención de datos se comparte con el usuario final, con esta lógica se entiende que el usuario final no puede manipular sus reportes en caso de necesitar modificaciones o adecuaciones al mismo, por lo tanto continúa la dependencia, incluso, para modificaciones mínimas.

Los usuarios con algunas habilidades computacionales pueden hacer uso delas herramientas de reportes orientadas a los usuarios de sistemas, pero solo para obtener reportes sencillos, no el tradicional reporte complejo que es el más útil, además, la gente que toma decisiones no debe perder su tiempo en procesarla información para después analizarla.

Algunas de las limitantes propias de la generación de reportes en la actualidad son:

Integración Los reportes complejos que necesitan de más de una fuente de información se realizan extrayendo los datos en un primer momento y, posteriormente, procesándolos en una herramienta que los integre (hojas de cálculo, archivos de texto, Access, etc.). Esto implica preparar la información antes de que se encuentre lista para ser enviada al usuario y la preparación normalmente llevan horas o hasta días con la consecuente pérdida de tiempo en funciones secundarias improductivas.

Distribución Los reportes se imprimen y posteriormente se distribuyen de forma manual o mediante fax. También se generan en pantalla y, luego, se envían mediante fax o correo electrónico, con lo

Page 53: Bi Final Monografia

Página 53

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

que hay dos actividades involucradas que generan pérdida de tiempo en su ejecución: la publicación y la distribución.

Dependencias de sistemas Las bases de datos se construyen en general para ser eficaces al almacenar datos no para consultarlos. Los lenguajes de consulta se adaptan a la estructura de las bases de datos. En función del conocimiento necesario, tanto de las bases de datos a consultar como de los lenguajes técnicos necesarios, el usuario final no está en posibilidad real de obtener su propia información, por tal motivo la dependencia de gente de sistemas es muy grande y provoca el que se tengan los reportes cuando la gente de sistemas dispone de tiempo y recursos para hacerlo, visto de otro modo, si la gente de sistemas no lo hace, el usuario final no los tendría a la mano.

Seguridad Al dejar en manos de terceros la generación de reportes se puede incurrir en que la información valiosa para la empresa pueda ser filtrada y utilizada por personas que no son los directamente interesados en utilizarla. Un reporte de sueldos y prestaciones de los empleados, solicitado por Recursos Humanos, puede ser un detonante de conflictos en manos de inconformes.

Herramientas de consulta y reportes Las herramientas de consulta y reportes (Query & Reporting Tools) son una categoría de herramientas de BI. Con las herramientas de reportes orientadas al usuario final se pretende mejorar la obtención de información mejorando el área de sistemas al disminuir una capa intermedia entre complejidad técnica y usuario final.

Las herramientas de reportes orientadas al usuario final son software que aíslala compleja capa técnica propia del lenguaje de sistemas, tal como lenguaje SQL, uniones de tablas y nombres crípticos, al organizar los datos de la terminología de negocios. El resultado es que el usuario final o intermedio tiene una vista mucho más parecida a su concepción del negocio, o al menos lo suficiente como para poder generar sus propios reportes y publicación de los mismos, sin depender delos usuarios técnicos.

El usuario de sistemas continúa participando, pero básicamente en el control sobre el acceso a bases de datos, administración, mantenimiento, seguridad, impacto en la red e incluso, creación única de reportes complejos; el usuario final tiene solo un ambiente amigable en el que es posible crear sus propias consultas y reportes. Una herramienta de reportes puede también publicar los datos que se encuentran almacenados en un Data Warehouse. Desde ese punto de vista, se brinda con la tecnología, la posibilidad de que el usuario final no solo consulte y publique la información a detalle, sino información concentrada y agrupada; de ahí que también sea considerada como el soporte último para el máximo nivel de detalle de un DSS.

Cierta duda ha surgido en cuanto a la verdadera posibilidad para que el usuario final realice sus reportes y posteriormente los explote. Definitivamente depende del nivel en el cual ubiquemos al usuario final y, evidentemente, del nivel de conocimientos en materia de computación que pueda tener. Un usuario final puede ser cualquier persona que requiera hacer una consulta o reporte y éste puede ir desde una secretaria, un asistente, un gerente o un director, cualquiera que necesite información procesada de fuentes de datos es un usuario potencial.

Sin embargo, a pesar de que el manejo de una herramienta como Excel se ha considerado un estándar que pueda utilizar cualquier administrativo de cualquier nivel, no todas las personas

Page 54: Bi Final Monografia

Página 54

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

pueden decir que verdaderamente saben utilizar, para fines prácticos, esa herramienta. Precisamente, para ese tipo de usuarios, las herramientas de reportes no serán útiles más que para explotar los reportes que previamente se hayan realizado, es decir, ejecutar reportes. Otro tipo de usuario, con algunos conocimientos, si podrá construir sus propios reportes, que siguen siendo tarea de gente de sistemas, pues requieren de un procesamiento de la información antes de que sea "pintada" y, para ello, son necesarios procedimientos externos a los datos con lenguajes de consulta altamente técnicos.

Dependiendo del nivel del usuario puede disminuirse o eliminarse la dependencia de sistemas y pueden las herramientas de reportes mantener 3 niveles de dificultad:

Usuarios poco expertos (gerentes tácticos, directores ejecutivos) quienes solicitan la ejecución de reportes o consultas predefinidas, según parámetros predeterminados.

Usuarios con cierta experiencia (asistentes, gerentes operativos, secretarias especializadas) pueden generar consultas o reportes flexibles, apoyándose en una interfaz gráfica intuitiva.

Usuarios muy experimentados (sistemas) pueden crear e incluso escribir, total o parcialmente, la consulta en un lenguaje de consulta.

3.1.2 Características de una herramienta de reportes

Una herramienta de reportes orientada al usuario final debe también poseer algunas utilidades adicionales que faciliten la generación y publicación de reportes.

Intuitivo Como cualquier herramienta de BI, la característica común es su facilidad de uso e intuición. Con apoyo en interfaces gráficas y visuales, un usuario con una formación estándar podrá hacer uso de una herramienta de este tipo.

Seguridad Deben brindar seguridad para el acceso a los reportes, tanto a nivel usuario como por grupos e, incluso, en el grado de profundidad de cada usuario a la información. Esto con la idea de que la información privada no sea accesible por cualquier persona.

Publicación y distribución. Una función importante de las herramientas es eliminar la doble actividad de ejecutar y publicar primero un reporte y, posteriormente, distribuirlo a quien lo necesita. La publicación de una consulta normalmente se realiza mediante fax, correo electrónico, archivo e, incluso, de mano en mano. El objetivo con las nuevas herramientas es facilitar estas actividades. En el momento que un usuario pueda ejecutar, desde cualquier lugar, una consulta y mandarla imprimir on-site, se está eliminando la doble función de publicación y distribución. Las herramientas de reportes deben permitir realizar consultas desde su PC en modo Cliente / Servidor, Intranet o Internet e imprimir cualquier consulta.

Page 55: Bi Final Monografia

Página 55

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.2 Herramientas Para Inteligencia De Negocios

3.2.1 Herramientas Propietarias

El Cuadrante Mágico

Figura 4. Cuadrante mágico de las Plataformas BI.

Según el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado por la empresa Gartner en enero del 2009 (ver Figura 13), se observa que las plataformas de BI predominantes siguen siendo propietarias, destacándose Cognos de IBM, Microsoft, Oracle, SAP, SAS, Micro Strategy e Information Builder.

Page 56: Bi Final Monografia

Página 56

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

A continuación se describen y se muestra la arquitectura de las plataformas BI propietarias más relevantes:

COGNOS

Proveedor de tecnología y servicios para el Business Intelligence (BI) y la Gestión del Rendimiento, ofrece una plataforma basada en estándares abiertos para generación reportes, análisis y scorecards que se integran con los presupuestos, planes, proyecciones e informes financieros conducidos por finanzas.

Según el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado por la empresa Gartner en enero del 2009, se observa que las plataformas de BI predominantes siguen siendo propietarias, destacándose Cognos de IBM, Microsoft, Oracle, SAP, SAS, Micro Strategy e Information Builder.

A continuación se describen y se muestra la arquitectura de las plataformas BI propietarias más relevantes:

Page 57: Bi Final Monografia

Página 57

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 5. Arquitectura BI de IBM Cognos.

MICROSOFT:

La plataforma Business Intelligence de Microsoft comprende aplicaciones de servidor, cliente y programador. Está basada en Microsoft SQL Server 2008, que incluye administración de bases de datos relacionales, SQL Server Integration Services, SQL Server Analysis Services, SQL Server ReportingServices y las capacidades de análisis de datos SQL Server Data Mining y está integrada con la plataforma de desarrollo Microsoft Visual Studio 2010 y con Microsoft Office 2010.

Figura 6. Arquitectura BI de Microsoft.

ORACLE BUSINESS INTELLIGENCE SUITE ENTERPRISE EDITION (OBIEE):

Integra tecnología de Siebel con Oracle Fusion Middleware. Incluye: consulta y análisis relacional y OLAP de entornos Oracle y de otros proveedores, herramientas de análisis y consulta ad-hoc, dashboards analíticos, creación de informes y herramientas de publicación, alertas en

Page 58: Bi Final Monografia

Página 58

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

tiempo real, capacidades analíticas para dispositivos móviles e integración con las herramientas de escritorio de Microsoft.

Arquitectura BI de OBIEE.

BUSINESS OBJECT DE SAP La empresa SAP compró en el 2008 a Business Object, convirtiéndose en un fuerte competidor de tecnologías de inteligencia de negocios. Suministra a los usuarios el poder acceder de forma sencilla a los datos, analizar la información almacenada y creación de informes.

Page 59: Bi Final Monografia

Página 59

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Arquitectura BI de SAP Business Objects XI 3.1.

MICROSTRATEGYProvee soluciones a clientes de cualquier industria y/o área funcional con el fin de ayudarlos en la obtención de un mayor conocimiento sobre la información manejada en su empresa.

Figura 9. Arquitectura BI de Microstrategy

Page 60: Bi Final Monografia

Página 60

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

SAS

SAS provee una Plataforma de Inteligencia abierta y extensible que sirve de base para la creación y entrega de inteligencia a la organización; incluye herramientas: ETL para extracción, transformación y carga independiente a la plataforma; Intelligence Storage para distribuir información a aplicaciones de BI y analíticas desde SAS o terceros; SAS Enterprise BI Server brinda acceso a la información en diferentes formatos; SAS Analytic Technologies para manejo y modelación de información analítica, algorítmica y matemática.

Figura 10. Arquitectura BI de SAS

Page 61: Bi Final Monografia

Página 61

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.3 Herramientas Open Source

El software libre dispone al día de hoy de casi todas las herramientas necesarias para el trabajo informático. Incluso hay campos en donde su supremacía no se discute y ni siquiera se contempla la posibilidad de usar otro tipo de software.

En el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado por la empresa Gartner en enero del 2009, que trata de un estudio de mercado de las plataformas de inteligencia de negocios a nivel mundial, dio seria consideración a la inclusión de proveedores de código abierto de BI; pero aún no generan los suficientes ingresos para su visualización en el Magic Quadrant; sin embargo, destacan la presencia en el mercado a Jasper Soft y Pentaho.

A continuación se describen los productos open source más relevantes para BI:

PENTAHO

De todas las iniciativas, la más completa es la de Pentaho, que abarca una serie de componentes Open Source muy utilizados y fiables: Mondrian OLAP server, JPivot, Firebird RDBMS, Enhrydra ETL, Shark and JaWE, JBoss, Hibernate, JBoss Portal, Weka Data Mining, Eclipse, BIRT, JOSSO, Mozilla Rhino.

Page 62: Bi Final Monografia

Página 62

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 11. Arquitectura BI de Pentaho

JASPERSOFT

JasperSoft a través de su plataforma de BI en código abierto JasperIntelligence proporciona productos propios actualizados como: JasperAnalysis, JasperReports, iReports, JasperETL y JasperServer. JasperAnalysis, diseñado para proporcionar a las empresas medianas análisis online en tiempo real de grandes volúmenes de datos. JasperServer, dirigido a la integración de fuentes de datos y otros servicios, aporta funciones como scheduling y control de la seguridad de acceso de los usuarios. JasperReports e iReport incluyen un plug-in para JasperServer. JasperSoftofrece sus productos sin coste y licencias comerciales que incluyen soporte y servicios.

Figura 12. Arquitectura BI de JasperSoft

Page 63: Bi Final Monografia

Página 63

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

ECLIPSE BIRRT

JasperSoft a través de su plataforma de BI en código abierto JasperIntelligence proporciona productos propios actualizados como: JasperAnalysis, JasperReports, iReports, JasperETL y JasperServer. JasperAnalysis, diseñado para proporcionar a las empresas medianas análisis online en tiempo real de grandes volúmenes de datos. JasperServer, dirigido a la integración de fuentes de datos y otros servicios, aporta funciones como scheduling y control de la seguridad de acceso de los usuarios. JasperReports e iReport incluyen un plug-in para JasperServer. JasperSoftofrece sus productos sin coste y licencias comerciales que incluyen soporte y servicios.

Figura 13. Arquitectura BI de Eclipse BIRT

Page 64: Bi Final Monografia

Página 64

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

SPAGOBI

SpagoBIofrece un conjunto de nuevas funcionalidades para apoyar actividades de usuarios de toma de decisiones y operacional. Consta de 5 módulos: SpagoBI Server que abarca SpagoBI Studio, un entorno de desarrollo único eintegrado, SpagoBI Meta entorno enfocado en metadatos; SpagoBI SDK para integración con aplicaciones externas y Spago BI Applications para mantener los modelos verticales de análisis.

Page 65: Bi Final Monografia

Página 65

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 14. Arquitectura BI de SpagoBI

PALO DE JEDOX

La firma alemana Jedox presenta Palo como una plataforma de código abierto para soluciones BI basado en la planificación, análisis y presentación de informes. Las soluciones que provee PALO son: Indicadores de rendimiento clave (KPI), Gestión de liquidez y Previsión, Presupuesto y Planificación y Balanced Scorecards, Cockpits, Dash boards. Las herramientas que integran esta plataforma son: Palo OLAP Server, Palo ETL Server, Palo Supervisión Server, Palo WorkSheet Server y Open-API

Page 66: Bi Final Monografia

Página 66

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 15. Arquitectura BI de Palo

OPENI.ORG Openi es una aplicación de Inteligencia de Negocios, diseñado para el uso basado en

la web. Basado en J2EE y sus aplicaciones corren sobre Apache Tomcat, OpenI es una solución para la construcción y publicación de informes de XMLA compatible con fuentes de datos OLAP, como Microsoft Analysis Services o Mondrian. Su objetivo es proporcionar análisis consolidado de los principales componentes de datos de una aplicación inteligente, incluyendo: fuentes de datos OLAP, bases de datos relacionales, modelos de datos estadísticos y modelos de minería de datos.

Figura 16. Arquitectura BI de Openi

Page 67: Bi Final Monografia

Página 67

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.4 Comparativa de Herramientas BI Propietarias versus Opensource

3.4.1 Determinación de Categorías y Capacidades de Comparación de Herramientas BI

Para el establecimiento del proceso comparativo, se realizó un estudio las diferentes plataformas de inteligencia de negocios (BI) tanto propietarias como open source; por otra parte se buscaron fuentes científicas que caracterizaran a la tecnología BI, tal es el caso de la empresa Gartner que define una plataforma de BI como una plataforma de software que debe ofrecer 12 capacidades clasificadas en 3 categorías: “Integración, presentación de la información y Análisis”. A continuación se describen las categorías con sus respectivas capacidades.

A. INTEGRACIÓN

1. Infraestructura BI. Todas las herramientas en la plataforma deben utilizar las mismas normas de seguridad, los metadatos, la administración, la integración del portal, el modelo de objetos, el motor de consulta y deben poseer consistencia en el interfaz.

2. Gestión de metadatos. Herramientas para buscar, capturar, almacenar, publicar y reutilizar objetos de metadatos tales como dimensiones, jerarquías, medidas, parámetros de rendimiento y plantillas de diseño de informes. En esta capacidad se incluye ETL y construcción de data marts.

ETL. Es el proceso que permite a las organizaciones mover datos desde múltiples fuentes, reformatearlos y limpiarlos, y cargarlos en otra base de datos, data mart, o data warehouse para analizar, o en otro sistema operacional para apoyar un proceso de negocio.

Cubos de información (Data marts). Son subconjuntos de datos con el propósito de ayudar a que un área específica dentro del negocio pueda tomar mejores decisiones. Los datos existentes en este contexto pueden ser agrupados, explorados y propagados de múltiples formas para que diversos grupos de usuarios realicen la explotación de los mismos de la forma más conveniente según sus necesidades.

3. Herramientas de Desarrollo - Una plataforma BI debe proporcionar un conjunto de herramientas de desarrollo de aplicaciones BI que pueden ser integrados en un proceso de negocio y / o incrustados en otra aplicación. Una plataforma de BI también debe permitir a los desarrolladores construir aplicaciones BI sin codificación mediante el uso de asistentes. El entorno de desarrollo debería utilizar servicios Web para controlar el desempeño de las tareas comunes tales como la programación, la entrega, la administración y la gestión.

4. Flujo de trabajo (Workflow) y colaboración - Esta capacidad permite a los usuarios de BI compartir y discutir información a través de carpetas públicas y foros de discusión y realizar seguimiento de eventos o tareas asignadas a usuarios específicos. A menudo, esta capacidad ha sido controlada mediante un portal o herramienta de trabajo.

Page 68: Bi Final Monografia

Página 68

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

B. PRESENTACIÓN DE LA INFORMACIÓN

5. Presentación de informes (Reporting) - Permitir la posibilidad de crear informes formateados, interactivos y altamente escalables en su distribución y capacidad de programación. Además, los proveedores de plataformas BI deben manejar una amplia gama de estilos de presentación de informes (por ejemplo, financieros, operativos y paneles de rendimiento).

6. Paneles de administración o tableros (Dashboards).Proporcionan una representación gráfica del rendimiento empresarial incluyendo todas las áreas de actividad. Incluyen la capacidad de publicar la información de forma gráfica e intuitiva como tablas, gráficos, indicadores o medidores, semáforos y otros controles. Estas pantallas indican el estado de las métricas de rendimiento, en comparación con una meta o valor objetivo. Cada vez más, los paneles se utilizan para difundir en tiempo real los datos de las aplicaciones operacionales.

7. Consultas específicas (Ad hoc query).Esto implica que el sistema permite al usuario personalizar una consulta en la base de datos en tiempo real, en vez de estar atado a las consultas prediseñadas para informes. En particular, las herramientas deben tener una sólida capa semántica o GUI que permita a los usuarios navegar por las fuentes de datos disponibles. Además, estas herramientas de consulta deberían ofrecer la capacidad de gestión y auditoría para asegurar que las consultas funcionen bien.

8. Integración a distribución. A Microsoft Office. En algunos casos, se utilizan plataformas de BI como un nivel medio para gestionar, asegurar y ejecutar tareas de BI, pero Microsoft Office (especialmente Excel) actúa como cliente de la BI. En estos casos, es indispensable que el proveedor de BI proporcione integración con herramientas de oficina, incluyendo soporte para formatos de documentos, fórmulas, refrescamiento de datos y tablas de pivote.

C. ANÁLISIS

9. OLAP(On-Line Analytical Processing).Permite a los usuarios finales un uso más eficaz de los data warehouse para el análisis de datos en línea, lo que proporciona respuestas rápidas a consultas analíticas complejas e iterativas utilizadas generalmente para sistemas de ayuda para la toma de decisiones; ofrece la capacidad de consultar y estudiar las diferentes dimensiones de un conjunto de datos relacionales, multidimensionales o híbridos.

10. Visualización avanzada (Advanced visualization). Proporcionar la capacidad de mostrar numerosos aspectos de los datos de manera más eficiente mediante el uso interactivo de imágenes y gráficos, en lugar de filas y columnas.

11. Modelado predictivo y data mining. Esta capacidad permite a las organizaciones clasificar por categorías a las variables y estimar su continuidad utilizando avanzadas técnicas matemáticas e inteligencia artificial.

12. Tableros de Control (Scorecards).Proporcionan una representación visual de los indicadores claves de rendimiento (KPI): métricas cuidadosamente seleccionadas que permiten a las empresas medir y gestionar el rendimiento alineado sus objetivos estratégicos (planificación). Además, debe permitir crear un número ilimitado de KPI’s basándose en una metodología específica, como Balanced Scorecard, Six Sigma, gestión basada en actividades o un diseño empresarial concreto.

Page 69: Bi Final Monografia

Página 69

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Debido a que las 3 categorías y 12 capacidades definidas por Gartner corresponden a la Capa BI y Capa Data Warehouse(según Rodríguez I.) y teniendo en consideración que la arquitectura de una solución de inteligencia de negocios abarca también las: Fuente de Datos, entonces se ha visto conveniente incluir la categoría de “Aprovisionamiento” y “Plataformas de soporte”.

D. APROVISIONAMIENTO

13. Fuentes de datos. Los datos administrados por los sistemas de aplicación operacionales son la fuente principal de datos para el data warehouse. Estos sistemas son los encargados de recolectar información diaria de las tareas operativas de la organización. Es posible dividir las fuentes de información en las siguientes: (1) Información generada por los sistemas transaccionales, (2) Información externa, (3) Información generada por los departamentos de la empresa que no corresponden a un sistema transaccional oficial, (4) Datos tomados de bases de datos relacionales que forman parte de los sistemas transaccionales. Estas fuentes pueden ser de varios tipos, dependiendo del tamaño de la organización y de los niveles de tecnología y sistemas de información que se utilicen en la empresa.

E. PLATAFORMAS DE SOPORTE

14. Sistemas operativos. Que soporta la plataforma BI.

15. DBMS Servers para Data Warehouse. Sistemas manejadores de bases de datos que brinde soporte a almacenes de datos.

16. Servidor web y/o aplicaciones web. Que las aplicaciones de BI corran en servidores web o servidores de aplicaciones web.

Además de las categorías citadas se incluye el factor costo como un indicativo preponderante a la hora de decidir por una u otra plataforma.

F. COSTO

17. Costo de Licencia. Involucra el precio de la Licencia(s) de la plataforma BI

3.5 Proveedores Business Intelligence Una vez identificada la necesidad de información en la organización, es hora de seleccionar una herramienta de desarrollo. Para ello, se debe profundizar en los criterios de selección que marcarán la elección.

Cano, J.L (2007) descarta en su libro “Business Intelligence: Competir con Información”, los aspectos fundamentales discutidos en la conferencia mundial The Datawarehouse Institute en Boston (EEUU) en Agosto de 2003. El primer componente a tener en cuenta sobre la selección de las herramientas es a quién van dirigidas: a los usuarios de Business Intelligence. ¿Cuáles son las funcionalidades que necesitan? ¿Lanzar consultas, OLAP, informes dinámicos, informes estáticos?

Page 70: Bi Final Monografia

Página 70

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

El segundo aspecto a tener en cuenta es el proveedor de la herramienta, concretamente:

La estrategia del proveedor:

o Si cuenta con otros productos (ETL, bases de datos propia, etc) o Principales competidores y cuáles son sus diferencias respecto a ellos o Posibles evoluciones de la herramienta

La arquitectura tecnológica del proveedor:

o Arquitectura orientada a servicios (SOA). o Procesamiento en el servidor o en el cliente. o Desarrollo por capas. o Conectividad con terceros (por ejemplo excel). Por otro lado, es recomendable analizar la complejidad o la magnitud del desarrollo:

Las funcionalidades de consultas:

o Proteger a los usuarios de las complejidades del motor de base de datos. o Consultas ad hoc. o Consultas totalizadas y detalladas. o Acceder a distintas fuentes de datos. o Complejidad del lenguaje de las consultas. o Acceso desde cliente servidor o vía web.

• Las funcionalidades de informes:

o Estructura de los documentos y flexibilidad.o Complejidad del documento (distintas fuentes de datos, tablas combinadas, gráficos). o Formatos de tablas.o Tipos de gráficos.o Cálculos basados en el informe.o Entrega de información Planificada (tiempo, eventos, versiones, etc.) o Formatos de entrega (Excel, PDF, HTML, etc.)

Las funcionalidades OLAP:

o Tipo de arquitectura: MOLAP, ROLAP, HOLAP. o Jerarquías alternativas. o Análisis de atributos. o Navegar a detalle (drill through). o Deshacer en análisis que pasaría si (What if). o Tiempo de respuesta. o Ranking. o Alertas y semáforos.

Y por último, pero no por ser menos importante, hay que tener en cuenta el coste que acarrea a la empresa el contar con una solución Business Intelligence, y valorar la inversión.

Page 71: Bi Final Monografia

Página 71

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Los precios:

o Licencias (nominales, concurrentes, por servidor, por CPU). o Mantenimiento (importe, actualizaciones y soporte).

Page 72: Bi Final Monografia

Página 72

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

o 1.4.3.2. CUADRO COMPARATIVO ENTRE HERRAMIENTAS DE BI PROPIETARIAS VERSUS OPEN SOURCE

Categorías y Capacidades de Comparación de

soluciones BI

Plataformas de Business Intelligence Propietarias Plataformas de Business Intelligence Open Source

IBM

C

OG

NO

S

Mic

rosof

t

OB

IEE

(Ora

cle

)

SA

P

Bu

sin

ess

Ob

ject

Mic

rostr

a-t

eg

y

SA

S

Pen

tah

o

Jasp

erS

of

t

Eclip

se

BIR

T

Sp

ag

oB

I

Jed

ox

Palo

Op

en

i

A. INTEGRACIÓN

1. Infraestructura BI COGNOS MS BI OBIEEBusiness Object

Microstra-tegy SAS

Pentaho BI Suite

Jasper Intelligence

Eclipse BIRT SpagoBI Palo BI Suite Openi

2. Gestión de metadatosData

ManagerSql Server

2008Oracle BI:

Server, Administration

SAP Business Objects

MicroStrategy: Desktop, Architect

SAS Metadata

Server

Pentaho Data

Integration

i. ETL XSql Server

2008Enterprise ETL

Option Rapid Marts XSAS

Workspace Server

Kettle Spoon ETL JasperETL

SpagoBI Meta Palo ETL

Server

-i. ETL

ii. Diseño de cubos(Data marts)

Cognos Power Cubes

Sql Server 2008

Warehouse Builder

Rapid MartsX

SAS OLAP Server, OLAP Cube Studio

Workbench, Pentaho

Cube Designer

- -SpagoBI Server

Palo OLAP Server

Workbench

3. Herramientas de Desarrollo Cognos

SDK.NET 2008 DeveloperSuit

J2EE SDK, .NET

SDKX JDK JDK o J2EE JDK o J2EE

Eclipse 3.2 y

JDK, Web con J2EE

SpagoBI Studio con Eclipse IDE,

SpagoBI SDK

MS .NET J2EE, JDK

4. Flujo de trabajo (Workflow) y colaboración

XOffice

SharePoint Server 2007

Workflow SAP Workflow

X X - - - X - -

B. PRESENTACIÓN DE LA INFORMACIÓN

IBM Cognos BI

Office 2007,

SharePoint Server 2007

Report Server, Presentation

Services

SAP B.O.: Xcelsius,

Web Intelligence

MicroStrategy Reporting

Suite

Web application

serverPentaho BI

Suite

JasperReports y

JasperServer

BIRT Report

Designer, BIRT Report Engine

SpagoBI Server, SpagoBI

Applications

Palo Worksheet

Server

JFreeChart and

JasperReports

5. Presentación de informes (Reporting) en

formatos Excel, PDF, XML, HTML y CSV y envío por

correo electrónico

XExcel 2007,

Outlook X X X

SAS Web Report

Studio, OLAP Viewer for

Java

Pentaho Reporting

iReport X X X X

6. Paneles de administración o tableros

(Dashboards).X Excel 2007 X X X

SAS Dashboard

Pentaho Dashboards X X X X X

7. Consultas específicas (Ad hoc query). X

SQL Server ReportingS

ervicesX X X

SAS Web Report Studio

X X X X - -

8. Integración y distribución a:

SAS Data Integration

Studio

Palo Worksheet

Server, Palo Server

Page 73: Bi Final Monografia

Página 73

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Service

i. Microsoft Office(Excel) X X X X X SAS Add-In for

X X X X Palo OLAP -

Microsoft Office

Server, Palo Excel Add-in

ii. Dispositivos móviles X X XSAP

Netweaver Mobile

X - - - - - - -

iii. Portales web IBM WebSpher

e, SAP Enterprise

Portal, Plumtree

Office SharePoint

Server 2007, .NET

2008

Oracle Application

Server Portal, WebSphere

X

MS SharePoint,

IBM WebSphere,

SAP NetWeaver,

BEA WebLogic

SAS Information

Delivery Portal

J2EE serverIBM

WebSphere, BEA

WebLogic

- - - J2EE server

iv. Navegadores web:IE, Firefox,

Opera, otros

IE IE, Firefox IE, Firefox, Netscape

IE, Firefox Mozilla,Safari,

Netscape

IE, Firefox Mozilla

IE, Firefox Mozilla

IE, Firefox Mozilla

X X X IE, Firefox Mozilla

C. ANÁLISISIBM

Cognos BI

Performance-Point,

SqlServer Analysis

Services(SSAS)

Oracle BI PresentationS

ervices

SAP Business Objects

MicroStrategyIntelligence

ServerSAS BI Pentaho BI

SuiteJasperAnaly

sis

SpagoBI Server,

SpagoBIApplications

Palo OLAP Server, Palo Worksheet

Server

Mondrian, SSAS

9. OLAP (On-Line Analytical Processing)

X Excel X Voyager XOLAP Viewer

for Java, Help Viewer

JPivot, servidor Mondrian

OLAP

X -JPivot y servidor Mondrian

OLAP

XJPivot,

Mondrian OLAP

10. Visualización avanzada (Advanced

visualization)X X X X X

SAS Information Map Studio

X X - X - X

11. Modelado predictivo y data mining

X X X PredictiveWorkbench

XSAS

Enterprise Miner

Pentaho Data

Mining con WeKa

- - X X X

12. Tableros de Control (Scorecards-KPI)

X X X Performance Manager

X X X - X X X -

D.APROVISIONAMIENTO

13. Fuentes de datos

i. Bases de datos

DB2, Informix, Oracle,

SQL Server, Sybase,

Teradata, ODBC

Sql Server, ORACLE,

IBM, ODBC

Oracle,SQL Server,

DB2, Teradata, ODBC

SQL Server,HP Neoview, Netezza, Teradata,

ODBC

SQL Server, DB2, Oracle,

Teradata, Sybase, Postgre, MySQL, Otras

Oracle,DB2, Teradata, ODBC, MS

SQL Server, Sybase

JDBC, Oracle, IBM

DB2, MS SQL Server,

MySQL, PostgreSQL

, EnterpriseD

B, otras

JDBC,Oracle, IBM DB2, MS SQL Server,

MySQL, PostgreSQL, EnterpriseD

B, otras

Apache Derby Data Base, MySql, JDBC, otras

RDBM’s accedidos mediante

JDBC

RDBM’sRDBM’s

accedidosmediante JDBC

SAP BW, SAP R/3 y

XMLA, Oracle OLAP Option,

SAP NetWeaver

SAP R/3, Siebel, Oracle

OLAP databases

Page 74: Bi Final Monografia

Página 74

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

ii. Multi-dimensional, ERP’s

Siebel CRM

SAP, Siebel MS Analysis Services, SAP

BW

BI, SAP BW, otros

X applications, PeopleSoft, SAS OLAP

cubes

via XML/A and MDX

standards,

X - - X -

ERP’s

iii. Otras fuentes

Mainframes, Web

services, otras

Mainframe, Microsoft Dinamics

XML, Excel, Text XML, CRM X

SAS data sets, SAS

SPD Engine tables, SAS SPD Server

XXML/A, EJB,

POJO, Hybernate

XML XML X XMLA

E. PLATAFORMAS DE SOPORTE

14. Sistemas operativos

Windows, IBM AIX (UNIX),

Sun Solaris, HP-UX

Windows

Windows, Debian,

Mandriva, Novell, Red Hat, Ubuntu

Windows XP, Server 2003,

Vista

IBM AIX, HP-UX, SuSE

Linux, Redhat Linux, Oracle

Linux, Sun Solaris

HP-UX,UNIX, Windows,

z/OS

Windows, Linux

Windows, Linux,

Novell SUSE Linux, Sun

Solaris, OpenSolaris, Mac OS X,

HP-UX, FreeBSD, IBM AIX

Windows, Linux, UNIX

Windows, Linux,

Windows Windows, Linux,

15. DBMS Servers para Data Warehouse

DB2, Teradata, HP, otros

Sql Server 2008

Oracle DB

SQL Server, HP Neoview,

Netezza, Teradata,

ODBC

SQL Server, DB2, Oracle,

Teradata, Sybase, Postgre, MySQL, Otras

Oracle,DB2, Teradata,

ODBC, SQL Server,

Sybase, SAS SPD Server

JDBC,Oracle, IBM DB2,

MS SQL Server, MySQL,

PostgreSQL, Enterprise DB, otras

RDBM’S accedidos con JDBC

2.0-

RDBM’S accedidos con JDBC

2.0

SQL Server, otros

RDBM’sMySQL, otras

16. Servidor web y/o aplicaciones web

IIS, iPlanet, IBM Http Server, Apache Tomcat,

BEA Weblogic

IISIIS, Tomcat, Websphere,

iPlanet

IIS, Tomcat

IIS, WebSphere,

Apache/Tomcat,

Oracle App. Server, BEA WebLogic

JBoss, WebSphere,

BEA WebLogic

Server

Apache Tomcat,

JBoss

Apache Tomcat, JBoss,

WebSphere, WebLogic,

Sun GlassFish

Apache Tomcat,

JBoss

Apache Tomcat,

JBossIIS

Apache Tomcat,

JBoss

F. COSTO.

17. Costo de Licencia

Licencia por

Usuario: Consumidor: $1100.

BI Profesional

:$4000

SQLServer 2008:

$3900 x 5 clientes ó $12000 x

CPUOffice 2007 profesional

: $1100VS .NET 2008: $1700Share

Point: $500

OBIEE Plus:$ 2000 x user

(min 5)ó $295.000 x

CPUBI Server EE:$580 x user ó $86.500 x CPU

$350 x user No publica costos

$575 x CPU ó $220 x

User min. 5

Versión Comunitari

a: $0.00$0.00 $0.00 $0.00 $0.00 $0.00

Page 75: Bi Final Monografia

Página 75

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Notación: Si se observa una (X) significa que posee la capacidad pero integrada a una herramienta. (-) No posee la capacidad.Tabla 1. Estudio Comparativo Entre Herramientas de BI Propietarias Versus Open Source

Page 76: Bi Final Monografia

Página 76

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.6 Resultados de la Comparación entre Herramientas de BI propietarias VS Open Source

Del estudio realizado, se evidencia que las herramientas de Inteligencia de Negocios propietarias cumplen en su mayoría las Capacidades definidas, se evidencia una fuerte competencia entre las herramientas propietarias como: IBM COGNOS, Oracle, Microsoft, Micro Strategy, SAP Business Object, SAS y otras. Las herramientas BI propietarias por sus altos costos de licencias están dedicadas a grandes empresas; por otra parte, los costos y el tiempo de implementación se ven reducidos por las facilidades que brindan. SAP y SAS parecen ser las de menos costo. En cambio, a las herramientas BI open source aún les falta desarrollarse para cumplir con todas las capacidades planteadas en este estudio, lo que corrobora la investigación realizada por la empresa Gartner, que aún no ubica a ninguna herramienta BI open source en el cuadrante mágico; a pesar de ello, en su informe destaca el esfuerzo realizado por Pentaho y Jaspersoft. A continuación se mencionan algunas conclusiones en base al cuadro comparativo y a la revisión de fuentes bibliográficas:

La mayoría de las herramientas BI open source son jóvenes, tienen máximo unos 5 0 6 años de haber incursionado en el mercado, aún están en proceso de desarrollo y fusión. Por ejemplo Pentaho apareció en el 2004.

De entre todas las herramientas BI open source la más importante es Pentaho, debido a que cumple la mayoría de capacidades y sobre todo porque tiene muchos seguidores que han formado comunidades de desarrollo y aprendizaje a nivel mundial. Se observa en el cuadro comparativo de cumplimiento de capacidades que es la plataforma más destacada entre sus homólogas open source. Pentaho tiene un promedio de 3.8/4 de cumplimiento y la menor desviación estándar (0.45); a este análisis incluimos el costo de licencia comunitaria que es gratis lo que la convierte en una opción viable y conveniente para implementar soluciones BI.

La mayoría de las herramientas BI open source se han desarrollado bajo plataforma Java tal es el caso de Pentaho, JasperSoft, Eclipse BIRT, SpagoBI y Openi. Sólo Jedox Palo se evidencia su desarrollo en plataforma .NET de Microsoft.

Pentaho, SpagoBI y Openi utilizan algunas herramientas comunes, tal es el caso de JPivot, el servidor OLAP Mondrian y WorkBench. Así también ciertos componentes Jasper y Eclipse son igualmentecompartidos.

Tanto Pentaho como las otras herramientas BI opensource no son 100% gratuitas; manejan versiones de costo y una versión comunitaria, en la cual se limita sus capacidades y tanto el soporte técnico como el documental es escaso.

Al proporcionarse escaso soporte técnico y documental de las versiones comunitarias, se elevan los costos y el tiempo de aprendizaje, desarrollo e implementación y esto puede ser un factor decisivo al momento de elegir.

Sin embargo las personas que deciden dedicar su tiempo al aprendizaje de estas herramientas BI open source tienen grandes oportunidades debido a que la mayoría de las empresas existentes son PYMES y es posible proporcionarles soluciones parciales y de bajo costo; de bajo costo porque solo involucra el servicio técnico, más no a las licencias del producto.

A pesar de las conclusiones no tanto favorables para las herramientas BI open source se destaca su importancia y su incursión en el mercado debido a que son una alternativa viable y quizá la única para las pequeñas y medianas empresas (PYMES).

Page 77: Bi Final Monografia

Página 77

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.7 Referencias Bibliográficas

ARIAS, Emilio. Stratebi Business Solutions. (URL: http://www.stratebi.com)

ARIAS, Emilio. El recurso en español sobre Business Intelligence. (URL: http://www.TodoBI.com)

BALLARD, C. HERREMAN, D. SCHAU, D. BELL, R. KIM, E. VALNCIC, A.:Data Modeling Techniques for Data Warehousing. SG24-2238-00. IBM Red Book. 1998.

BIRTREPORT. (2012). http://www.eclipse.org/birt/. Consultado el 08 de junio de 2012.

BITAM. Business Intelligence. Febrero 2002. (URL: http://www.bitam.com/spanish/AcercaDeBI.htm)

BUTTERWORTH, Heinemann. Oracle Database 10 g Data Warehousing. Ed. Digital Pr.

CABENA, Peter; HADJINIAN, Pablo; STADLER, Rolf; VERHEES, Jaap; ZANASI, Alessandro. Discovering Data Mining: From Concept to Implementation. Prentice Hall. 1998. ISBN: 0-13-743980-6.

CABIBBO, L. TORLONE, R.:"A Logical Approach to MultidimensionalDatabases", EDBT, 1998.

CANO, J. L. (2007). Business Intelligence: Competir con Información, ESADE Business School, Universidad Ramon Lluli, España.

CARPANI, F.: CMDM: A conceptual multidimensional model for Data Warehouse. Master Thesis. Advisor: Ruggia. InCo - Pedeciba, UdelaR, Uruguay, 2000.

CASARES, Claudio. Data Warehousing.Programación en Castellano. (URL: http://www.programacion.com/bbdd/tutorial/warehouse/)

CSI, I. Development Datawarehousing. Julio 2002. (URL: http://www.data warehousecenter.com)

ESTEVAS, R. (2012). Social Web Intelligence - SWI. Mánager Responsable de desarrollo SWI. http://socialwebintelligence.com/. Consultado el 08 de junio de 2012.

FRANCONI, E. SATTLER, U.:A Data Warehouse Conceptual Data Model for Multidimensional Aggregation, DMDW’99, Germany, 1999.

Gartner. Magic Quadrant for Business Intelligence Platforms. Enero 2009 (http://mediaproducts.gartner.com/reprints/oracle/article56/article56.html)

GOLFARELLI, M. MAIO, D. RIZZI, S.:Conceptual Design of Data Warehouses from E/R Schemes, HICSS’98, IEEE, Hawaii, 1998.

GROTH, Robert. Data Mining: A Hands On Approach for Business Professionals. Prentice Hall. 1998. ISBN: 0-13-756412-0.

Page 78: Bi Final Monografia

Página 78

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

GUPTA, V. An introduction to Data Warehousing. Febrero 2002. (URL:http://www.system-services.com/dwintro.htm)

HERNANDEZ, José. Análisis y Extracción de Conocimiento en Sistemas de Información: Data warehouse y Datamining. Departamento de Sistemas Informáticos y Computación, Universidad Politécnica de Valencia. (URL. http://www.dsic.upv.es/~jorallo/cursoDWDM/).

HÜSEMANN, B. LECHTENBÖRGER, J. VOSSEN, G.:Conceptual Data Warehouse Design. DMDW’00, Sweden, 2000.

INMON, W. H.; Hackathorn; Richard D. 1994. Using the Data Warehouse. New York: John Wiley & Sons. ISBN: 0-471-05966-8.

Kenan Technologies:An Introduction to Multidimensional Databases. White Paper, Kenan Technologies, 1996.

KIMBALL, R.: The Data warehouse Toolkit. John Wiley & Son, Inc., 1996.

MANZANO, Oscar. A Bit of an apple. (URL:http://oscarmanzano.f2o.org/applebit/)

MICROSOFT. (2012): www.microsoft.com/latam/casos/peru/Farmindustria/Farmindustria.pdf. Consultado el 08 de junio de 2012.

MOSS L., A. S. (2003). Business Intelligence Roadmap. The Complete Project Lifecycle for Decisión-Support Applications. EE.UU.

NADER, Javier. Sistema de Apoyo Gerencial. Tesis de Grado. 2006.

OLSZAK C. M., ZIEMBA E. (2007). Approach to Building and Implementing Business Intelligence Systems, Interdisciplinary Journal of Information, Knowledge, and Management, Volume 2.

OPENPYME. (2012). Catálogo de Software Libre, Oficina de Software Libre de la Universidad de La Laguna - España, bajo el marco de colaboración científico-tecnológico entre la Agencia Canaria de Investigación, Innovación y Sociedad de la Información del Gobierno de Canarias y la Universidad de La Laguna., http://openpyme.osl.ull.es/

PENTAHO. (2012). http://www.pentaho.com/. Consultado el 08 de junio de 2012.

PEÑA A., A. (2006). Inteligencia de Negocios: Una Propuesta para su Desarrollo en las Organizaciones. Instituto Politécnico Nacional, Dirección de Publicaciones, México.

PICERNO, A. FONTAN, M.: Un editor para CMDM. Undergraduate Project. Advisor: Carpani. InCo, UdelaR, Uruguay. 2000.

PINEDA, O. & DÍAZ, C. (2006). Que hace que un proyecto de business intelligence sea exitoso. Memoria para optar al Título en Maestría en administración, Universidad EAFIT, Medellín, Colombia.

RAPIDMINER. (2012). http:// www.rapidminer.com/. Consultado el 08 de junio de 2012.

RODRÍGUEZ, Ivonne.Soluciones Tecnológicas Integrales para las Empresas. Presentación electrónica .PPT.

SAPIA, C. BLASCHKA, M. HÖFLING, G. DINTER, B.: Extending the E/R Model for the Multidimensional Paradigm. DWDM’98, Singapure, 1998.

SCHLEGEL, K. (2006). Components of Business Intelligence — Rationalizing Your Business Intelligence Portfolio.

Page 79: Bi Final Monografia

Página 79

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

SHEN-HSIEH, A. (2008). A Fresh Perspective on Business Intelligence Systems Information Management Special Reports.

SPAGOBI. (2012): http:// www.spagobi.org/. Consultado el 08 de junio de 2012.

THOMSEN, E.:OLAP Solutions. Building Multidimensional Information. John Wiley & Sons, Inc. 1997. VITT E., LUCKEVICH M. y MISNER S. (2002). “Business Intelligence Técnicas de análisis para la toma de decisiones

estratégicas”, España.

Web Site Tic &Tac. (URL:http://tikitak.blogspot.com/)

WILEY, John & SONS. Inmon W.H. Building the Data Warehouse., 3rd edition, 2002.

Page 80: Bi Final Monografia

Página 80

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Glosario

Bajar (Drill-Down): Es una operación de acceso a datos en cubos multidimensionales que significa bajar el nivel de visualización en las filas a una jerarquía inferior.

Balanced Scorecard: Término utilizado para expresar un sistema de medicióndel logro de objetivos de una empresa que permite traducir la visión de la organización, expresada a través de su estrategia, en términos y objetivos específicos.

Colapsar (Collapse): Es una operación de acceso a datos en cubos multidimensionales que significa ocultar los detalles hacia un nivel superior mostrando los resúmenes correspondientes.

Data mart: Conjunto de hechos y datos organizados para soporte decisional basados en la necesidad de un área o departamento específico. Los datos son orientados a satisfacer las necesidades particulares de un departamento dado teniendo sólo sentido para el personal de ese departamento y sus datos no tienen por qué tener las mismas fuentes que los de otro Data mart.

Dataminig: Análisis de los datos para descubrir relaciones, patrones, o asociaciones desconocidas.

Data warehouse: Base de datos que almacena una gran cantidad de datos transaccionales integrados para ser usados para análisis de gestión por usuarios especializados (tomadores de decisión de la empresa).

Dimensión: Entidad independiente dentro del modelo multidimensional de una organización, que sirve como llave de búsqueda (actuando como índice), o como mecanismo de selección de datos.

Drill-Down: Es una operación de acceso a datos en cubos multidimensionales, que significa exponer progresivamente más detalle (dentro de un reporte o consulta), mediante selecciones de ítems sucesivamente.

Drill-Up:Es una operación de accesos a datos en cubos multidimensionales, es el efecto contrario a drill-down. Significa ver menos nivel de detalle. Sobre la jerarquía significa generalizar o sumarizar, es decir, subir en el árbol jerárquico.

DSS (Decisión Support System- Sistema de Soporte de Decisiones): Sistema de aplicaciones automatizadas que asiste a la organización en la toma de decisiones mediante un análisis estratégico de la información histórica.

EIS (Executive Information System – Sistema de Información Ejecutiva): Se refiere a cualquier sistema de software que muestre información ejecutiva delas diferentes áreas del negocio en un solo sistema, facilitando el monitoreo de la empresa.

Esquema Constelación de Hechos: Es un esquema de base de datos en donde varias tablas de hechos se enlazan a las tablas de dimensiones.

Esquema Copo de Nieve: Es un esquema de base de datos en donde una tabla de hechos central se enlaza a las tablas de dimensiones relacionadas, pero éstas a su vez se enlazan con otras tablas dimensionales.

Esquema Estrella: Es un esquema de base de datos en donde una tabla de hechos central se enlaza a las tablas de dimensiones relacionadas.

Page 81: Bi Final Monografia

Página 81

Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Page 82: Bi Final Monografia