20
LEITFADEN Eine Basis zur erfolgreichen Datensammlung und -auswertung Business-Intelligence-Architektur Abb. © NAN - Fotolia.com

Business-Intelligence-Architektur · eller Tools in eine BI-Architektur wissen wollen, erhalten hier einen nützlichen Überblick. Im Anschluss finden Sie ein Glossar mit zusam-

Embed Size (px)

Citation preview

LEITFADEN

Eine Basis zur erfolgreichen Datensammlung und -auswertung

Business-Intelligence-Architektur

Abb. © NAN - Fotolia.com

2

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Impressum HerausgebereBusiness-Lotse Oberschwaben-Ulmwww.eloum.net

c/o Hochschule Ravensburg-Weingarten Doggenriedstraße88250 WeingartenTelefon: +49 (0) 751 501-0

Verantwortlicher Redakteur Prof. Dr. Wolfram Höpken Doggenriedstraße 88250 Weingarten Telefon: +49 (0) 751 501 4917 [email protected]

Redaktionelle BearbeitungThomas Menner

AutorBärbel Häußler

StandJanuar 2015

Träger

Partner

3

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Inhalt1 Einleitung ................................................................. 4

2 Architektur eines BI-Systems .................................. 5

3 Quellsysteme ........................................................... 7

4 Datenintegration - Extraktion, Transformation und Laden (ETL) ............................................................ 7

5 Data Warehouse ..................................................... 9

6 Analyse ...................................................................10

Reporting ................................................................10

OLAP (Online Analytial Processing) ......................11

Performance Management ....................................13

Data Mining ............................................................14

Planung und Simulation .........................................15

7 Zusammenfassung .................................................17

8 Glossar ...................................................................18

9 eBusiness-Lotse Oberschwaben-Ulm .................. 20

3

4

1. Einleitung

Für Unternehmen ist die Bewältigung der täg-lichen Informationsflut zur Herausforderung geworden. Ohne technische Hilfsmittel sind die immer größer werdenden Datenmengen kaum noch zu beherrschen. Business-Intelligence- Systeme (BI-Systeme) können dabei helfen, die Informationsflut in den Griff zu bekommen. Mit ihnen können Daten sinnvoll zusammenge-führt, ausgewertet und zur Entscheidungsunter-stützung aufbereitet werden. Damit werden sie unverzichtbar für die Steuerung des Unterneh-mens und schaffen so eine Basis für Wettbe-werbsvorteile.

Aus technischer Sicht umfassen BI-Systeme die Komponenten Datenhaltung, Datenintegra-tion, Reporting, Data Mining, tiefgreifende Ana-lysen und Planung.

In diesem Leitfaden werden die technischen Aspekte vertieft und die Architektur von BI-Sys-temen erläutert. Das Werk ist für erfahrene Leser gedacht, die sich mit IT-Architekturen im weitesten Sinne auskennen und sich speziell mit der Architektur von BI-Systemen befassen wollen.

Aber auch Interessierte, die mit Business Intel-ligence allgemein vertraut sind und mehr über technische Details sowie die Einordnung spezi-eller Tools in eine BI-Architektur wissen wollen, erhalten hier einen nützlichen Überblick. Im Anschluss finden Sie ein Glossar mit zusam-menfassenden Informationen zu wichtigen Fachbegriffen.

Abb: © stockWERK - Fotolia.com

2. Architektur eines BI-Systems

Aufgaben und Funktionalitäten zu ordnen, hilft eine BI-Architektur. Diese ist in der Regel in vier Schichten unterteilt, wovon jede Schicht jeweils eine bestimmte Rolle bei der Aufgabenbewäl-tigung zugesprochen bekommt. Die Schichten sind dabei allgemeingültig defi niert, sodass eine Realisierung auch mithilfe von Standardtechno-logien ermöglicht wird.

Technisch gesehen verwenden BI-Systeme bereits vorhandene Technologien und Werk-zeuge. BI-Komponenten wie ein Data Ware-house, grafi sche Tools für das Reporting oder ETL-Tools werden kombiniert und müssen deshalb nicht zwangsweise von einem ein-zigen Software-Hersteller stammen. Um die unterschiedlichen Komponenten gemäß ihren

BI-Architektur Abb: © eBusiness-Lotse Oberschwaben-Ulm

Abb: © stockWERK - Fotolia.com 5

6

Die unterste Schicht, die als Quellsysteme bezeichnet wird, gehört nicht direkt zum BI- System. Sie enthält vielmehr die opera-tiven und transaktionalen Systeme wie z. B. ein Enterprise Resource Planning System (ERP-System), ein Customer Relationship Management System (CRM-System) oder andere Datenquellen wie Dateien, gescannte Dokumente oder historische Daten. Aber auch externe Datenquellen wie Adressdatenbanken oder eine Aktienkursdatenbank zählen zu den Quellsystemen.

Innerhalb der Datenintegration werden die Daten aus den unterschiedlichen Vorsystemen extrahiert und evtl. mit weiteren Informationen angereichert. Anschließend werden sie in eine einheitliche Form transformiert und in das Data Warehouse geladen. Während dieses sog. ETL- Prozesses (Extraktion, Transformation und Laden) findet eine Homogenisierung der Daten aus den unterschiedlichen Systemen statt, bei der besonders auf die Datenqualität geachtet werden sollte.

Das Data Warehouse ist eine Datensamm-lung, in der Daten aus den unterschiedlichsten Quellen integriert und gespeichert werden. Die Integration der Daten kann durch einen geeigneten Modellierungsansatz wie z. B. das multidimensionale Datenmodell (Sternschema) erreicht werden.

Die oberste Schicht der Analyse beinhaltet unterschiedliche Tools für die Visualisierung und Analyse der Daten wie Reporting, Planung oder Data Mining. Ziel ist es hierbei, mithilfe dieser Tools entscheidungsrelevante Informa- tionen aus dem Data Warehouse heraus bereitzustellen. Aufgrund der Komplexität von BI-Anwendungen und der unterschiedlichen Nutzertypen gibt es eine Vielzahl von Anwen-derwerkzeugen.

Für die häufig verwendeten, parametrisierbaren Standardberichte können die Daten auf Anfor-derung oder regelmäßig im Batch aufgerufen werden. Schnelle und interaktive Zugriffe (ad-hoc) auf Daten können mit Hilfe des Online Analytical Processing (OLAP) stattfinden, mit dem relativ einfach auch durch einen multidi-mensionalen Datenbestand navigiert werden kann.

Mit Data Mining hingegen sollen Datenbe-stände mit Hilfe von statistischen Verfahren ausgewertet werden, um Muster, Trends, Regeln und Beziehungen zu erkennen.

Business Intelligence beinhaltet viele Methoden und Werkzeuge, um Daten zu sammeln, zu speichern, zu analy-sieren und zu visualisieren. Diese Aufgaben spiegeln sich auch in der Architektur eines BI-Systems wieder. Das Ziel von BI ist es, aus geschäftsrelevanten Informationen Erkenntnisse zu gewinnen und diese als Grundlage für den betrieblichen Entscheidungsprozess zu verwenden, sodass die richtigen operativen und strategischen Entschei-dungen getroffen werden können.

Abb: © mybaitshop - Fotolia.com

Architektur eines BI-Systems

Adressdatenbanken sein. Sie können an die entsprechenden Systeme angebunden werden und bei Bedarf die gewünschten Informationen liefern. Aber auch CDs oder DVDs, beispiels-weise mit Produkt- oder Kataloginformationen, können als externe Datenquellen dienen.

Bei den Quellsystemen kann zwischen internen und externen Datenquellen unterschieden werden.

Zu den internen Datenquellen gehören haupt-sächlich operative Vorsysteme wie ERP-Systeme, Warenwirtschaftssysteme oder CRM-Systeme, die die Durchführung von Geschäfts-prozessen unterstützen. Die erzeugten Daten sind meist transaktions- orientiert und haben den Detaillierungsgrad, der typischerweise für die operative Tätigkeit des Unternehmens notwendig ist. Häufig sind diese Daten nicht historisiert, was bedeutet, dass der jeweilige Datensatz (beispielsweise eine laufende Bestel-lung) immer wieder überschrieben oder auch gelöscht wird.

Externe Datenquellen können beispiels-weise Online-Datenbanken für Aktienkurse, Währungen, Geoinformationssysteme oder

3. Quellsysteme

Operative Systeme unterstützen die Unter-nehmen im Tagesgeschäft, indem die vorhandenen Geschäftsabläufe als Prozesse im System abgebildet werden. Typische operative Systeme sind ERP-Sys-teme, mit denen Einkäufe und Verkäufe abgewickelt werden können oder das Rechnungs-, Finanz- und Personalwesen unterstützt werden. CRM-Systeme helfen den Unternehmen, das Kundenmanagement flexibler und effizienter zu gestalten.

4. Datenintegration – Extraktion, Transformation und Laden (ETL)

Für das Extrahieren der Daten werden sog. Konnektoren benötigt, mit denen die Quellsy-steme an das ETL-Tool angebunden und die Daten ausgelesen werden können. Die Konnek-toren werden normalerweise von den ETL-Tools bereitgestellt und unterstützen die gängigsten Dateiformate oder Quellsysteme wie relationale Datenbanken, XML-Formate, CSV-Dateien usw.

Die Aufbereitung und Bereitstellung aller rele-vanten Daten in einem Data Warehouse ist ein zentraler Prozess innerhalb eines BI-Systems und wird als „ETL-Prozess“ bezeichnet.

Ein ETL-Prozess läuft normalerweise in drei Schritten ab:

1. Die relevanten Daten werden ausge-wählt und aus den Quellsystemen extrahiert.

2. Die extrahierten Daten werden in das vorher festgelegte Format transformiert.

3. Die transformierten Daten werden in das Data Warehouse geladen.

7

Im nächsten Schritt ist es erforderlich, die aus-gelesenen Daten in ein einheitliches Format zu transformieren. So können unterschiedliche Schreibweisen (z.B. amerikanische und deut-sche Schreibweise eines Datums) desselben Sachverhaltes vereinheitlicht werden, was einerseits das Verständnis und andererseits die einheitliche Verarbeitung der Daten erheblich vereinfacht.

In der Folge ist auch die semantische Berei-nigung von inhaltlichen Aspekten der Daten deutlich einfacher. Beispielsweise können feh-lerhafte oder leere Datensätzen schnell erkannt und eliminiert werden. Auch die Bereinigung von Duplikaten, die Umrechnung von Maßein-heiten, das Aggregieren von Werten und die Anreicherung von Daten, beispielsweise durch demografische Daten, ist im Nachgang der Homogenisierung leichter zu handhaben.

Als abschließender Schritt des ETL-Prozesses werden über das Laden die transformierten, bereinigten und aggregierten Daten in das Data Warehouse übertragen. Für das initiale Befüllen

des Data Warehouses müssen zunächst sämt-liche Daten geladen werden. Je nach Daten-menge kann dies sehr zeitaufwändig werden. Bei den anschließenden Aktualisierungen werden meist nur die jeweiligen Änderungen in das Data Warehouse übernommen.

Der gesamte ETL-Prozess kann periodisch oder ereignisgesteuert stattfinden. Der periodi-sche Anstoß des Prozesses erfolgt dabei nach regelmäßigen Intervallen. Damit die Systeme nicht während des laufenden Betriebs zu sehr belastet werden, bietet sich hierbei eine Durch-führung in Ruhezeiten (nachts oder an Wochen-enden) an. Die ereignisgesteuerte Durchfüh-rung richtet sich hingegen nach bestimmten eintretenden Ereignissen. So wird der ETL-Prozess beispielsweise angestoßen, wenn eine bestimmte Anzahl an neuen Datensätzen in der operativen Datenbank erreicht wurde.

ETL-Prozess Abb: © eBusiness-Lotse Oberschwaben-Ulm

8

Datenintegration

Ein Data Warehouse ist eine Sammlung von Daten aus unterschiedlichen Quellen, die in einer vordefinierten Struktur abgespeichert werden und so einen einheitlichen Zugriff auf die vorhandenen Daten erlaubt.

Für ein Data Warehouse wird hierbei in der Regel eine relationale Datenbank verwendet. Dazu werden die Daten meist in einem sog. Sternschema abgespeichert. Bei diesem Schema können zwei verschiedene Arten von Tabellen unterschieden werden: zum einen die Faktentabelle, die der Speicherung von Kenn-zahlen wie beispielsweise Umsatz oder Kosten dient, und zum anderen die Dimensionsta-bellen. Diese enthalten die unternehmerische Sichtweise auf die Fakten. So kann ein Umsatz beispielsweise nach Produkt, Region und Zeit analysiert werden. Dimensionen ermöglichen somit eine multidimensionale Sichtweise auf die vorhandenen Fakten.

5. Data Warehouse

Stern-Schema Abb: © eBusiness-Lotse Oberschwaben-Ulm

Im Allgemeinen haben Controller kein Interesse an Detaildaten, wie sie in einzelnen Geschäfts-vorfällen vorkommen. Interessanter sind eher Fragestellungen wie beispielsweise: „Wie hat sich der Umsatz eines Produktes im Ver-gleich zum Vorjahr in Region A entwickelt?“ Auch die Frage nach der Entwicklung in einem bestimmten Land ist diesbezüglich eine oft gestellte Frage für international operierende Unternehmen. Diese Art der Fragestellung setzt Daten voraus, die entlang unterschiedlicher Dimensionen verdichtet werden können.

9

10

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Über Reportinganwendungen lassen sich indi-vidualisierte Berichte erzeugen und verbreiten. So wird einem Nutzer die Möglichkeit gegeben, bestehende Fragen über eine Analyse jener Kennzahlen zu beantworten, die auch tatsäch-lich für die Beantwortung nötig sind.

Eine Möglichkeit stellen hierbei die Standardbe-richte dar. Sie werden mit den entsprechenden BI-Reporting-Tools erstellt und den Benut-zern regelmäßig (z.B. am Ende jeder Woche) zur Verfügung gestellt. Diese Berichte können von den Usern normalerweise nicht verändert werden und dienen der einheitlichen Sicht auf die Unternehmenskennzahlen. Die Berichte können in Papier- oder elektronischer Form zur Verfügung gestellt werden.

Für zeitkritische Entscheidungen außerhalb des regelmäßigen Berichtsintervalls lassen sich auch sog. Ad-Hoc-Berichte erstellen. Ad-hoc-Berichte sind vom Benutzer interaktiv zusammengestellte Auswertungen, die norma-lerweise nur für einen bestimmten Zweck und aus einer bestimmten Situation heraus erstellt werden. Der User kann dabei den Inhalt und das Aussehen des Berichtes bestimmen.

Um schnell auf die Informationen zugreifen zu können und die entsprechenden Details zu erforschen bzw. Analysen zu starten, ist ein Zugriff auf die Datenbasis (beispielsweise ein Data Warehouse) notwendig. Da für diese Art der Berichtserstellung sehr gute Kenntnisse der Daten und auch der Tools benötigt werden, bleibt diese Art der Berichtserstellung häufig nur einer kleinen Anzahl von Spezialisten vorbe- halten.

Für die Darstellung der Berichtsdaten werden hauptsächlich Tabellen, Listen und Diagramme verwendet, die normalerweise als Templates zur Verfügung stehen und mit Daten aus der Datenbasis befüllt werden. Zusätzliche Ele-mente wie Firmenlogo oder Anpassung der Berichte an das Corporate Design sind grund-sätzlich möglich. Die Ausgabe bzw. Verteilung der erstellten Reports kann in unterschiedli-chen Formaten wie beispielsweise PDF, HTML oder Excel erfolgen. Auch die Integration in ein Unternehmensportal ist bei den meisten Lösungen möglich.

Abb. 1 auf der nächsten Seite zeigt hierzu einen beispielhaften Bericht, welcher über Microsoft Dynamics erstellt wurde. Abgebildet werden hierbei die wichtigsten Zahlen zu den vertriebenen Produktgruppen. Die Aktualisie-rung erfolgt wöchentlich, sodass der verant-wortliche Mitarbeiter in Bezug auf die Produkte nach jeder Woche stets auf dem aktuellsten Stand ist.

Veröffentlicht wurde der Bericht in Form einer HTML-Seite. Der Report kann so von den ent-sprechenden Mitarbeitern unkompliziert über den Browser abgerufen werden, was die Vertei-lung und Aktualisierung gegenüber Berichten in Papierform erheblich vereinfacht.

6 Analyse

Reporting

11

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Der Nachteil klassischer Berichte besteht hauptsächlich darin, dass Diagramme und Tabellen statisch sind. Der Nutzer kann nach der Zusammenstellung des Berichts keine weiteren Interaktionen mehr durchführen, der Bericht kann quasi nur noch gelesen werden.

Mit Hilfe von OLAP-Anwendungen hingegen können multidimensionale Datenstrukturen (beispielsweise eines Data Warehouses) auch interaktiv ausgewertet werden, sodass sie für die betriebliche Entscheidungsunterstützung herangezogen werden können. Dimensionen und Kennzahlen, die zur Beantwortung einer aktuellen Fragestellung notwendig sind, können beliebig selektiert und aggregiert werden. So

kann beispielsweise eine Frage nach dem Umsatz eines Produktes in einer bestimmten Region in einem bestimmten Zeitraum relativ einfach und zeitnah beantwortet werden.

Die Funktionsweise von OLAP lässt sich auch mithilfe eines Würfels (dem sog. OLAP-Cube) grafisch darstellen. In Abb. 2 (nächste Seite) soll hierzu das oben genannte Beispiel veran-schaulicht werden. Bei der Frage nach dem Umsatz eines bestimmten Produkts in einer bestimmten Region zu einer bestimmten Zeit steht der Umsatz als Unternehmenskennzahl im Mittelpunkt der Analyse. Als Fakt ist er bei dieser Analyse deshalb auch im Mittelpunkt des Würfels anzusiedeln.

OLAP (Online Analytical Processing)

Analyse

Abb. 1: BI-Bericht Abb.: © Microsoft. Die Verwendung erfolgt in Übereinstimmung mit den Microsoft-Nutzungsvorgaben

11

12

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Zum Rotieren der Daten kann eine Technik verwendet werden, mit denen Kennzahlen aus unterschiedlichen Blickwinkeln heraus betrachtet werden können. Beispielsweise kann von der Darstellung des Umsatzes nach Regionen auf die Umsatzansicht im zeitlichen Verlauf oder nach Produkten gewechselt werden. Diese sog. Rotation beschreibt das Drehen eines Würfels und somit das Ändern der Perspektive auf eine Kennzahl.

OLAP wird auch als „BI im engeren Sinn“ ver-standen, sodass BI-Systeme in der Regel auch OLAP-Techniken unterstützen. Somit ist es für die Anwender eines solchen Systems relativ einfach, Daten auf unterschiedliche Weise zu betrachten und zu analysieren. Ziel ist es, neue oder unbekannte Zusammenhänge zu erfor-schen und zu erkennen, die letztlich der Ent-scheidungsunterstützung dienen.

Für ein flexibleres Berichtswesen ist auch eine Kombination von Standardberichten und den Analysemöglichkeiten von OLAP-Lösungen denkbar. Ausgehend von Standardberichten können Benutzer so beispielsweise durch die Drill-Down- oder Drill-Up-Möglichkeit in detail-liertere oder verdichtete Daten navigieren. Damit bietet diese Art des Berichtswesens auch den weniger technisch versierten Usern die Möglichkeit, in gewissem Rahmen eigene Ana-lysen durchzuführen.

Fakten stehen stets im Würfelkern. Die drei abgefragten Dimensionen „Produkt“, „Region“ und „Zeit“ stellen die unternehmerische Sicht-weise dar, nach der ein Fakt (hier der Umsatz) aufgeschlüsselt werden kann. Die Dimensionen bilden deshalb die Achsen des Würfels. Für die Abfrage der dahinterliegenden Daten gibt es einige typische OLAP-Operatoren, die ein Navigieren, Auswählen und Rotieren der Daten ermöglichen.

Beim Navigieren kann interaktiv in eine tiefere oder höhere Detaillierungsebene der Daten gewechselt werden. Der sog. Drill-Down ermög-licht es beispielsweise, von der Landesebene in eine bestimmte Region des Landes zu navigieren. Umgekehrt ermöglicht es ein sog. Drill-Up beispielsweise, von einem Monat auf ein Jahr zu verdichten. In beiden Fällen wird der Umsatz für die entsprechend ausgewählte Detaillierungsebene dargestellt.

Für das Auswählen von Daten werden nur Teil-mengen eines OLAP-Würfels betrachtet. Beim sog. Slice kann beispielsweise nur der Umsatz eines bestimmten Zeitraumes mit den Regionen und den Produkten angezeigt werden. Grafisch entspricht das einer Scheibe des Würfels. Über einen sog. Dice wird hingegen ein mehrdimen-sionaler Würfel erzeugt, der einen Teilbereich des Gesamtwürfels enthält.

Abb. 2: OLAP-Würfel Abb.: © eBusiness-Lotse Oberschwaben-Ulm

Analyse

13

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Performance Management geht über das nor-male Reporting hinaus. Ziel ist es, komplexe Zusammenhänge und Sachverhalte zu ver-einfachen und diese verständlich und über-sichtlich auf einen Blick darzustellen. Für diese Darstellung werden deshalb normalerweise keine klassischen Reports gewählt, sondern sog. „Dashboards“ oder „Cockpits“. Mit diesen können Daten in verdichteter Form präsentiert und visualisiert werden. Häufig werden grafi-sche Elemente wie ein Tachometer, ein Zeitrei-henschieber oder eine Ampel zur Visualisierung der Daten und Datenverläufe verwendet.

Voraussetzung für ein solches Performance Management ist die Definition von Schlüssel-kennzahlen. Diese werden als sogenannte Key Performance Indicators (KPIs) bezeichnet und dienen der Abbildung und Messung von Erfolgen bzw. Misserfolgen. KPIs werden in Relation zu definierten Zielwerten gesetzt und zeigen somit den Erfüllungsgrad bzw. die Abweichung zu einer bestimmten Zielsetzung an. So kann beispielsweise im Vertrieb als Ziel

eine Umsatzsteigerung von 20% angestrebt werden. Zur Messung der Zielerreichung wird anschließend der aktuelle Umsatz in Relation zum Umsatz der Vorperiode gesetzt. Der Grad der Zielerreichung kann dem Top-Management dann als Teil eines Dashboards, beispielsweise als Messuhr, angezeigt werden.

Abb. 3 veranschaulicht hierbei einen typischen Aufbau eines solchen Dashboards. So lässt sich anhand dieses Dashboards beispielsweise sofort erkennen, wie viel Umsatz in den jewei-ligen Vertriebsländern gemacht wurde (Sales) und wie diesbezüglich der bisherige Verlauf war. Auch lässt sich sofort erkennen, ob sich die aktuelle Gewinnmarge in den verschie-denen Ländern im optimalen Bereich (grün), im mittelmäßigen Bereich (gelb) oder im kritischen Bereich (rot) befindet. Anhand dieser verdich-teten Übersicht über die KPIs des Unterneh-mens kann das Management somit zeitnah auf etwaige bedrohliche Situationen reagieren und einen potenziellen Schaden für das Unter-nehmen dadurch bestenfalls noch abwenden.

Performance Management

Abb. 3 BI-Dashboard Abb. © Qlik, 2014

13

Analyse

sendes Produktdesign investiert werden, ist es zwingend notwendig, die eigenen Kunden zu kennen. Diesbezüglich bietet die Clusterana-lyse die Möglichkeit, Kunden beispielsweise nach demografischen (Alter, Geschlecht, etc.), soziografischen (Einkommen, Beruf, Wohnverhältnisse, etc.) oder auch regionalen (Wohnort, Wohngegend, etc.) Gesichtspunkten zusammenzufassen. Anhand der daraus resul-tierenden Segmente lässt sich dann unter anderem das eigene Produktspektrum an die Bedürfnisse der jeweiligen Kundensegmente anpassen. Auch eine kundenspezifischere Ansprache im Marketing lässt sich über das erlangte Wissen über die eigenen Kunden-gruppen deutlich gezielter gestalten.

Beim Verfahren der Klassifizierung hingegen werden die zu untersuchenden Objekte vorge-gebenen Gruppen oder Klassen zugeordnet. Ziel ist es dabei, ein Objekt mit seinen Attri-buten der korrekten Klasse zuzuordnen. Wie beim Clustering können auch hier Kunden beispielsweise als kreditwürdig oder nicht kre-ditwürdig erkannt werden. Der Unterschied besteht darin, dass die Klassifizierung jedes Objekt einzeln betrachtet und Klassen zuordnet, welche bereits im Vorhinein definiert wurden.

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Das Ziel von Data Mining besteht darin, aus bestehenden Daten interessante und unter-nehmensrelevante Informationen bzw. neues Wissen zu gewinnen. Dazu werden auf einen Datenbestand (z.B. auf ein Data Warehouse) statistische Methoden oder Verfahren des maschinellen Lernens angewandt und auf Muster, Zusammenhänge und Gesetzmäßig-keiten hin untersucht. Einige wichtige Aufgaben des Data Minings sind die Gruppierung von Objekten (Clustering), die Klassifikation von Objekten sowie die Assoziationsanalyse.

Bei einer Clusteranalyse sollen Objekte mit ähnlichen Eigenschaften identifiziert und zu homogenen Gruppen zusammengefasst werden. Dabei soll keine Fokussierung auf bestimmte Merkmale stattfinden, sondern alle Aspekte neutral betrachtet werden. Die Ele-mente einer Gruppe sollen sich hierbei so ähn-lich wie möglich sein, die Elemente unterschied-licher Gruppe hingegen möglichst unähnlich. Abbildung 4 zeigt hierzu ein klassisches Anwen-dungsbeispiel, wie es häufig im Marketing zum Einsatz kommt – die Kundensegmentierung.

Damit die Geldmittel eines Unternehmens nicht in zweckloses Marketing und ein unpas-

Data Mining

Abb. 4 Clusteranalyse Abb.: © eBusiness-Lotse Oberschwaben-Ulm

14

Analyse

15

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Beim Clustering werden hingegen viele Objekte anhand der Ähnlichkeit ihrer Eigenschaften zusammengefasst. Die Benennung und Inter-pretation der Cluster muss dann im Nachgang durch den Anwender stattfinden.

Als abschließendes Verfahren sollen mithilfe die Assoziationsanalyse Zusammenhänge und Abhängigkeiten erkannt werden, woraus in der Folge Regeln abgeleitet werden können. Als Beispiel kann hier die Warenkorbanalyse (Produkt A wird oft zusammen mit Produkt B gekauft) genannt werden, wie sie bereits bei vielen einschlägigen Online-Shops eingesetzt wird.

Auch bei der Erfolgsanalyse einer Webseite findet eine Assoziationsanalyse in der Regel Anwendung. So kann mithilfe dieser Technik beispielsweise die Frage beantwortet werden, welche Unterseiten der eigenen Webseite häufig zusammen in einer Sitzung aufgerufen werden. Auf Basis der resultierenden Erkennt-nisse kann im Nachgang die Webseite genauer an das Surfverhalten der Webseiten-Besucher angepasst werden. Die erhöhte Benutzer-freundlichkeit kann dann schließlich zu einer längerfristigen Bindung des Benutzers führen.

Zweck solcher Data-Mining-Verfahren ist somit wiederum die Entscheidungsunterstützung, wobei sich die verschiedenen Techniken auf-gabenspezifisch anwenden lassen. Je nach Aufgabenstellung kann ein bestimmtes Ver-fahren sinnvoller sein und bessere Ergebnisse liefern als ein anderes. Oftmals kann auch eine Kombination zweier Verfahren Sinn machen. So können beispielsweise über eine Cluster-analyse im ersten Schritt unterschiedliche Kundengruppen generiert werden, wohingegen im zweiten Schritt mithilfe einer Klassifikation Neukunden schließlich einem dieser Cluster zugeordnet werden.

Bei der konkreten Anwendung solcher Data-Mining-Verfahren bietet sich der Einsatz von spezieller Data-Mining-Software an. Über diese kann der Nutzer sowohl die zu analysierenden Daten, als auch das entsprechende Analysever-fahren wählen. Auch die Darstellung der Ergeb-nisse in interpretierbarer Form wird letztlich von solcher Software übernommen.

Abb. © tashatuvango - Fotolia.com

15

Analyse

16

flexibel, individuell anpassbar und erweiterbar sein. Aus diesem Grund eignet sich die BI-Architektur bestens für Planungsdaten und -werkzeuge. Planungsdaten können über ETL-Transaktionen in das Data Warehouse geladen oder entsprechend den Datenhierarchien direkt im Data Warehouse eingegeben werden. Die Reporting- und Analysefunktionen bieten außerdem die Möglichkeit, Daten zu konsoli-dieren und auszuwerten.

Simulationswerkzeuge ermöglichen im Ver-gleich zu Planungswerkzeugen noch detaillier-tere Prognosen. Mit ihnen können – ebenfalls auf der Basis vorhandener Daten – Szenarien simuliert werden, die mögliche Verläufe ver-schiedener Planungsszenarien präsentieren. Dies ermöglicht dem Nutzer die Durchführung sog. „Was-wäre-wenn-Analysen“. So kann bei-spielsweise schnell erkannt werden, wie sich Veränderungen des Währungskurses auf das aktuelle Geschäft auswirken können, indem die zu erwartende Änderung des Kurses vom Nutzer eingegeben wird und das jeweilige Tool anschließend die Berechnungen auf Basis dieser Eingabe durchführt. Gleichermaßen lassen sich so verschiedene positive oder negative Geschäftsverläufe simulieren wie etwa nach der Einführung eines neuen Produkts.

Planungswerkzeuge innerhalb eines BI-Systems ermöglichen eine integrierte Planung. Das bedeutet, dass die Planung, das Repor-ting und die abschließende Analyse auf eine einheitliche Datenbasis angewendet werden können. Planung bedeutet an dieser Stelle, dass auf der Basis vorhandener historischer Daten auf Handlungen geschlossen wird, die in der Zukunft ausgeführt werden müssen. So kann beispielsweise von den Materialver-brauchszahlen der vergangenen Perioden auf den Materialverbrauch der kommenden Periode geschlossen werden, sodass die zu bestellende Materialmenge dieser Periode bereits im Vor-feld fixiert (geplant) werden kann.

Gleichermaßen kann von vergangenen Absatzzahlen auf die Absatzzahlen zukünf-tiger Perioden geschlossen werden, sodass in jeder laufenden Periode mit geplanten Werten (Soll-Werten) gerechnet werden kann. Abb. 5 veranschaulicht diesen Sachverhalt anhand der Software „BOARD“. Solche Planungen stellen hohe Ansprüche an die Software. So ist beispielsweise ein Schreibzugriff auf die Daten notwendig, während die Ist-Daten nicht verändert werden dürfen. Da der Planungspro-zess dynamisch ist und viele unterschiedliche Bereiche betrifft, sollte das Planungswerkzeug

Planung und Simulation

Abb. 5 BI-Planungsbericht Abb: © BOARD Deutschland GmbH

Analyse

17

7. Fazit BI-Architekturen umfassen sehr viele Bestand-teile mit unterschiedlichen Hard- und Software-Komponenten. Für ein BI-Projekt müssen somit anhand fachlicher Anforderungen und technischer Rahmenbedingungen die benö-tigten Bausteine individuell identifiziert und zusammengestellt werden. Wissen über grund-legende Komponenten und Schichten einer BI-Architektur ist damit notwendig und wichtig. Vor allem bei der Bewertung von Architekturlö-sungen, bei der Auswahl von BI-Werkzeugen oder bei der Abbildung von Anwenderanforde-rungen auf die entsprechenden Technologien ist ein ausgeprägtes Wissen über die Bausteine einer Business Intelligence von großem Vorteil. Gerade für die Auswahl von BI-Werkzeugen bietet der eBusiness-Lotse Oberschwaben-Ulm in Form einer Marktübersicht über verschiedene Tools eine Möglichkeit, das eigene Wissen dies-bezüglich zu erweitern.

Allerdings muss auch berücksichtigt werden, dass BI kein reines IT-Thema ist. Ein technisch funktionierendes System alleine generiert noch keinen Mehrwert. Für ein zielorientiertes BI-System müssen neben technischen auch fachliche und organisatorische Aspekte berück-sichtigt werden. Erst durch die Nutzung des BI-Systems und der gewonnenen Entscheidungs-grundlagen kann ein Mehrwert geschaffen werden. Somit ist im Vorfeld des BI-Einsatzes neben der Erweiterung der technischen Wis-sensbasis auch die Beantwortung der Frage notwendig, wie ein solches BI-System nutzbrin-gend in die eigene Unternehmenslandschaft integriert werden kann.

Abb. © Yeko Photo Studio - Fotolia.com

17

Data Mining Eine Technik, bei der statistische Methoden und Algorithmen auf einen Datenbestand (Data Warehouse) angewandt werden, um Muster und Zusammenhänge zu erkennen. So können beispielsweise Abhängigkeiten beim Kauf von Produkten ermittelt werden, Klassifizierungen von Kunden mittels einer Bonitätsprüfung vorgenommen werden oder im Rahmen einer Abweichungsanalyse Auffälligkeiten bei der Produktion erkannt werden.

Data Warehouse Ein Data Warehouse ist eine Datenbank, in der Daten aus unterschiedlichen Systemen in einem definierten, einheitlichen Format gespei-chert werden. Dies ermöglicht einen einheitli-chen Zugriff auf Daten, die für Analysen benutzt werden können.

ETL (Extraktion, Transformation und Laden) Unter ETL versteht man einen Prozess, bei dem relevante Daten aus einem oder mehreren Systemen in das entsprechende Format und die Struktur einer Zieldatenbank (meist ein Data Warehouse) transformiert und geladen werden. Typische Transformationen können die Datums-formatierung oder die Umrechnung von Maß-einheiten sein. Aber auch die Anreicherung von Daten wie beispielsweise Schufa-Auskunfts-daten fallen in diesen Bereich.

OLAP (Online Analytical Processing) Eine Technik, mit der flexible Analysen auf Datenbestände (typischerweise in einem Data Warehouse) durchgeführt werden können. Es bietet die Möglichkeit, Unternehmensdaten aus unterschiedlichen Sichtweisen darzustellen. Beispielsweise können Umsatzzahlen ohne großen Aufwand nach Datum, Kunde, Region, Vertriebsmitarbeiter oder Produkt dargestellt werden.

Performance Management (Scorecards) Kennzahlen, die Erfolge oder Misserfolge abbilden, werden als Key Perfomance Indica-tors (KPIs) bezeichnet und müssen vom Unter-nehmen festgelegt werden. Ziel ist es, kom-

7 Glossar

plexe Zusammenhänge und Sachverhalte zu vereinfachen und diese möglichst verständlich und übersichtlich auf einen Blick darzustellen. Für die Visualisierung dieser KPIs werden Gra-fikelemente wie Tachographen, Thermometer oder Zeitreihenschieber verwendet und in einem Dashboards oder Cockpit zusammenge-fasst.

Planung und Simulation Planungsanwendungen unterstützen den Pla-nungsprozess (Erfassung und Freigabe der Planungsdaten, Statusverfolgung) im Unter-nehmen. Durch die Integration der Planung in ein BI-System können Planung, Reporting und Analyse verbunden werden und die Ana-lysefunktionalität auch für Plan/Ist-Vergleiche genutzt werden. Außerdem kann die umfang-reiche einheitliche Datenbasis als Grundlage für Simulationen (Was-wäre-wenn-Analysen) dienen. So kann beispielsweise schnell erkannt werden, wie sich Veränderungen des Wäh-rungskurses auf das aktuelle Geschäft aus-wirken können.

Reporting und Analyse Das Standard-Reporting stellt den Anwendern automatisch die Berichte oder Reports in Form von Tabellen, Listen oder Grafiken zur Verfü-gung. Darüber hinaus sollten Anwender aber auch die Möglichkeit haben, aktuelle Fragestel-lungen durch eigene Analysen ad-hoc selbst beantworten zu können.

Sternschema Das Sternschema beschreibt eine besondere Form eines multidimensionalen Datenmodells. Während das Ziel einer relationalen Daten-bank die Normalisierung ist, liegt das Ziel einer multidimensionalen Datenbank darin, die bein-haltenden Fakten in einfacher Art und Weise aus mehreren Dimensionen darzustellen. Wird die Datenbank dann nach dem Sternschema modelliert, so befindet sich – bildlich gesehen – die Faktentabelle in der Mitte, während die Dimensionstabellen in Sternform um die Fak-tentabelle herum modelliert werden.

Glossar

18

19

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Notizen

_________________________________________________________________________________

_________________________________________________________________________________

_________________________________________________________________________________

_________________________________________________________________________________

_________________________________________________________________________________

_________________________________________________________________________________

_________________________________________________________________________________

_________________________________________________________________________________

_________________________________________________________________________________

_________________________________________________________________________________

19

Lorem ipsum dolor sit amet, consetetur sadipscing elitr

Abb. © Yuri Arcurs - Fotolia.com

eBusiness-Lotse Oberschwaben-Ulm

Der eBusiness-Lotse Oberschwaben-Ulm ist Teil der Förderinitiative „eKompetenz-Netzwerk für Unternehmen“, die im Rahmen des Förder-schwerpunkts „Mittelstand-Digital – IKT-Anwen- dungen in der Wirtschaft“ vom Bundesministe-rium für Wirtschaft und Energie (BMWi) geför-dert wird.

Der Förderschwerpunkt unterstützt gezielt kleine und mittlere Unternehmen (KMU) sowie das Handwerk bei der Entwicklung und Nut-zung moderner Informations- und Kommunika- tionstechnologien (IKT).

„Mittelstand-Digital“ setzt sich zusammen aus den Förderinitiativen

► „eKompetenz-Netzwerk für Unternehmen“ mit 38 eBusiness-Lotsen,

► „eStandards: Geschäftsprozesse standardi-sieren, Erfolg sichern“ mit derzeit 16 Förderprojekten, und

► „Einfach intuitiv – Usability für den Mittel-stand“ mit zurzeit 14 Förderprojekten.

Für mehr Informationen besuchen Sie bitte www.mittelstand-digital.de.

Weitere interessante Praxisbeispiele und Leit-fäden finden Sie auf den Seiten des eBusiness- Lotsen Oberschwaben-Ulm unter www.eloum.net im Menü „Publikationen“.