8
Whitepaper Mit Big Data intelligente Unternehmensprozesse schaffen BPM der nächsten Generation

BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

Embed Size (px)

Citation preview

Page 1: BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

Whitepaper

Mit Big Data intelligente Unternehmensprozesse schaffen

BPM der nächsten Generation

Page 2: BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

© OPITZ CONSULTING Deutschland GmbH 2015 Seite 2

Texte und Abbildungen wurden mit größter Sorgfalt erarbeitet. OPITZ CONSULTING kann jedoch für eventuell verbleibende fehlerhafte Angaben und

deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Das Recht an dargestellten Verfahren, Showcases, Implemen-

tierungsbeispielen und Sourcecodes liegt ausschließlich bei OPITZ CONSULTING.

Inhaltsübersicht

Vorwort Geschäftsprozesse Business Process Model and Notation Big Data Apache Hadoop Das Hadoop Ökosystem Workflow Management in Hadoop Nutzwert einer nahtlosen Integration Technologien & Lösungsansätze Schlussbetrachtung Quellen Über OPITZ CONSULTING

BPM der nächsten Generation

Mit Big Data intelligente Unternehmensprozesse schaffen

Autor: Christopher Thomsen für OPITZ CONSULTING

Whitepaper: BPM der nächsten Generation

Vorwort Bei der weitgehend autonomen Steuerung von Prozessen werden in der

Prozessautomatisierung immer größere Datenmengen erzeugt und für

Analysefunktionen verfügbar gemacht. Dies ist vor allem im Bereich der

datengetriebenen Prozesssteuerung, z. B. unter Zuhilfenahme sensorenge-

stützter, prädiktiver Analyse von Maschinendaten, Serverlogs und Text-

nachrichten der Fall. Die zentrale Herausforderung der IT besteht darin,

Lösungen für effektive und effiziente Verknüpfungen von Daten- und

Prozessmanagement mit geeigneten Analysewerkzeugen bereitzustellen.

Obwohl der Kosten- und Innovationsdruck im Bereich der Prozessautoma-

tisierung im Zuge von IoT- und Big Data in den nächsten Jahren weiter

wachsen wird, sind standardisierte Lösungen noch kaum verfügbar. Ist es

wirklich nützlich und notwendig, neue Big-Data Systeme in die bestehende

Prozesslandschaft zu integrieren? Am Beispiel der Integration von Kompo-

nenten aus dem Hadoop-Ökosystems in eine BPM-Engine stellt dieses

Whitepaper methodische und technische Ansätze für die Umsetzung vor.

Haben Sie Fragen zu diesem Thema? Dann sprechen Sie uns gerne an! Ihr Ansprechpartner:

Christopher Thomsen,

Leiter Competence Center Big Data

[email protected]

Page 3: BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

© OPITZ CONSULTING Deutschland GmbH 2015 Seite 3 Whitepaper: BPM der nächsten Generation

Geschäftsprozesse Geschäftsprozesse beschreiben einen betriebswirtschaftlichen Ablauf, des-

sen Ergebnis einen Nutzen für einen internen oder externen Kunden hat.

Aktivitäten und Ereignisse werden in Zusammenhang gebracht und auf die

zeitliche und sachliche Abfolge sortiert.

Bei Geschäftsprozessen unterscheidet man Kernprozesse (z. B. Aufgaben,

die der Erzielung von Umsatz dienen) von Managementprozessen (z. B.

Projektmanagement) und Unterstützungsprozessen (z. B. Personalwesen).

Das Management dieser Prozesse ist für ein Unternehmen von großer

Wichtigkeit und wird als Business Process Management (BPM) bezeichnet.

Es beinhaltet die Planung, Umsetzung, Kontrolle und Optimierung von

Geschäftsprozessen und verfolgt im Wesentlichen diese Ziele:

■ Routinetätigkeiten zusammenfassen und standardisieren

■ Prozesse optimieren

■ Qualität verbessern

■ Durchlaufzeiten beschleunigen

■ Kundenzufriedenheit erhöhen

Die Detaillierung eines Geschäftsprozesses hängt von der Methode der

Modellierung ab. Ein Geschäftsprozess kann textlich, tabellarisch oder

grafisch-textuell beschrieben und modelliert werden. Unified Modeling

Language (UML), Ereignisgesteuerte Prozesskette (EPK) und Business

Process Model and Notation (BPMN) sind die am weitesten verbreiteten

Notationen für die Darstellung von Geschäftsprozessen.

Business Process Model and Notation Die Business Process Model and Notation, kurz BPMN, ist noch eine relativ

neue Notation, deren Bekanntheitsgrad derzeit steigt. Das Interesse an der

BPMN ist deutlich höher als an den Notationen UML und EPK, hinsichtlich

der Praxiserfahrungen steht BPMN allerdings vielfach noch am Anfang. Die

Notation erfüllt Anforderungen für die Prozessautomatisierung mit Work-

flow-Management-Systemen und ist für die fachliche und technische

Prozessmodellierung geeignet.

Ein Workflow besteht aus einer Folge von Aktivitäten und einem klar defi-

nierten Anfang und Ende. Die Aktivitäten stehen in einer logischen und

sachlichen Beziehung sowie einer zeitlichen Reihenfolge zueinander.

Während sich ein Geschäftsprozess auf die unternehmerische Sicht be-

zieht, stellt der Workflow die technische Sicht, also die IT-unterstützte

Realisierung dar.

Eine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse

direkt zu implementieren und auszuführen, bietet der Markt bereits. Der in

XML-Notation serialisierte Prozess dient hierbei als Ablauf- und Entschei-

dungsvorlage für die Engine, während Aktionsknoten durch den BPM-

Entwickler ausimplementiert bzw. konfiguriert werden müssen. In der

Ausführung wird durch jede Auslösung des Startereignisses eine neue

Prozessinstanz (Vorgang) gestartet, z. B. für jede eingehende Kundenbe-

stellung. Per Token ist ein schneller Überblick über die gerade ausführende

Tätigkeit oder mehrerer Tätigkeiten einer Prozessinstanz möglich. Durch

die Abbildung der Implementierung und der Ausführung auf das ursprüng-

liche Prozessbild lassen sich die Prozessbläufe auf das BPMN-Diagramm

projizieren.

Big Data Wie das Internet generieren heute auch Unternehmen Massen an Daten.

Die meisten Firmen speichern diese Informationen zwar, haben aber nicht

genügend Ressourcen, um die Datenmengen für sich zu analysieren und

zu nutzen. Big-Data-Lösungen versprechen hier Abhilfe. Den Begriff Big

Data assoziieren viele mit unterschiedlichen Technologien, Methoden und

Strategien. Manche denken in diesem Zusammenhang an Technologien

wie Social Mining, Predictive Analytics, Real Time, Customer Insights, Sen-

sor Data, Stream Computing und Data Warehousing. In Literatur und Pra-

xis trifft man häufig auf die „3 Vs“: Volume, Velocity, Variety, die die

Kernaspekte und Dimensionen beschreiben, die Big-Data–Technologien

bewältigen sollen.

Im Kerngedanken geht es demnach zuallererst um technische Möglichkei-

ten, übergroße Datenmengen oder aber sehr komplexe Rechenoperationen

auf unterschiedlich strukturierten Daten in kürzester Zeit zu verarbeiten

und zu verwalten. Datenanalytik- und Prognoseverfahren kombinieren die

drei Dimensionen von Big Data zumeist. Deshalb bringen viele Leute Big

Data mit Data Mining oder Advanced Analytics in Zusammenhang. De

facto handelt es sich bei Big-Data-Technologien jedoch um die Lösung, um

Data Mining uneingeschränkt anzuwenden. Das Verfahren selbst existiert

schon seit zehn Jahren, wurde jedoch meist nur auf Datensamples und

einer Auswahl nutzbarer Datenquellen und -formaten ausgeführt.

Apache Hadoop Bei Hadoop handelt es sich um die am häufigsten mit Big Data assozierte

Technologie. Die Big-Data-Referenzplattform verspricht die Bewältigung

gewaltiger Datenmengen.

2012 durchbrach das Internet die Schwelle von zwei Zetabyte gespeicher-

ten Daten. Die Entwicklung begann aber schon in den 90er Jahren. Schon

damals verzeichneten Statistiker eine jährliche Vervielfachung der Daten-

mengen. Eine ähnliche Entwicklung machte in der gleichen Zeit jedoch

auch die Rechenleistung.

Page 4: BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

© OPITZ CONSULTING Deutschland GmbH 2015 Seite 4 Whitepaper: BPM der nächsten Generation

Experten gingen davon aus, dass sich beides in der Waage halten würde.

Doch das Problem bereitet nicht die Datenmenge an sich, sondern die Art

und Weise, wie diese genutzt wird — und so benötigen Unternehmen heu-

te neue Technologien und Ansätze, um dem steigenden Datenwachstum

gerecht zu werden.

Klassischerweise speichert die IT sehr große Datenmengen in mehreren

Datentöpfen. Zur Auswertung werden diese Töpfe jeweils für sich zusam-

mengefasst. Die Ergebnisse werden in einem neuen Datentopf auf einer

weiteren Stage zusammengeführt. Ist die Datenmenge nach wie vor zu

groß, kann dieses Vorgehen mehrstufig ablaufen. Die Schwierigkeit bei

diesem Ansatz ist, dass die Funktionen auf den Datentöpfen isoliert auflau-

fen sollten, da Abgleiche auf den Rohdaten verschiedener Töpfe vom Auf-

wand her sehr teuer sind. Zudem laufen die analytischen Auswertungen

auf den bereits aggregierten Daten, sodass bestimmte Informationsdetails

nicht mehr verfügbar sind.

Hier setzt das Hadoop Distributed File System (HDFS) an und ermöglicht

die Verwaltung auf einer einzelnen virtuellen Partition und die Verwaltung

von Daten jeglicher Formate. Dies koppelt Hadoop mit Google‘s MapRe-

duce zur verteilten, parallelen Ausführung von Operationen. Um diese

transparent zu machen, übernimmt Hadoop die Virtualisierung des Datei-

systems, die Redundanz, die Verteilung und Ausführung von Code. Somit

können auf diesem Dateisystem spezialisierte Werkzeuge aufsetzen, z. B.

diverse Datenbanken, um ihre Daten auf dem HDFS serialisiert abzulegen.

Diese Datenbanken erben die Eigenschaften des HDFS und können für ihre

Job-Durchführung das MapReduce Framework nutzen. Ab Version 2.0 gibt

es bei Hadoop Änderungen in Bezug auf die Kernkomponenten. An der

Stelle von MapReduce steht YARN. Mit YARN kann der Anwender andere

Algorithmen für verteilte Anwendungen wählen als mit MapReduce.

Das Hadoop Ökosystem

Das Hadoop Ökosystem setzt sich aus der Vielzahl spezialisierter Werkzeu-

ge zusammen, die auf dem Core Hadoop (HDFS + YARN) aufsetzen und

einen spezifischen Anwendungsbereich abdecken. Dieses Ökosystem wird

auch Hadoop-Zoo genannt, weil einige dieser Anwendungen Tiernamen

oder Tier-Logos tragen. Einige häufig anzutreffende Vertreter sollen im

Folgenden beschrieben werden:

Apache Pig Apache Pig ist eine in Java implementierte Plattform zur Transformation

und Verarbeitung großer Datenmengen. Yahoo entwickelte Pig im Jahr

2006 und stellte es 2007 der Öffentlichkeit zur Verfügung. Bei Yahoo, dem

Betreiber des größten Hadoop-Clusters, sind mehr als 60 Prozent der Ha-

doop Operationen Pig Jobs.

Mit Pig können komplexe MapReduce Jobs geschrieben und ausgeführt

werden. Das Schreiben von MapReduce Jobs für das Laden, Transformieren

und Speichern von Daten wird mit der Skriptsprache Pig Latin ermöglicht.

Pig Latin besitzt eine im Vergleich zur nativen MapReduce Entwicklung

sehr einfache Syntax und erlaubt die schnelle Entwicklung verteilter Tran-

formationsprozesse.

Apache Hive Apache Hive ist eine Datenflusssprache für die Batch-Datenverarbeitung in

einem Hadoop-System. Hive wurde von Facebook entwickelt und im Jahr

2009 veröffentlicht. Die Nutzung von Hive erinnert an Befehle der Daten-

banksprache SQL. Hive lässt sich sehr gut bei strukturierten bis semi-

strukturierten Daten anwenden. Eine Eigenschaft, die bei der Hinzunahme

von unstrukturierten Daten nicht ausreicht.

Apache Spark Apache Spark gehört ebenfalls zu den Hadoop Anwendungen. Es handelt

sich um ein Open-Source-Framework, das sich unter anderem für Echtzeit-

analysen eignet. Mithilfe von Spark lassen sich Jobs in den Programmier-

sprachen Java, Python oder Scala schreiben, die die Analyse von unstruktu-

rierten Daten ermöglichen.

Sqoop Sqoop ist eine Java-Anwendung des Herstellers Cloudera für den Import

und den Export von Daten. Sie hilft dabei, Daten zwischen Hadoop und

einem relationalen Datenbanksystem (RDB) auszutauschen. Der Name

Sqoop steht für „SQL-to-Hadoop“. Das Tool wird in der Regel über Konso-

lenbefehle oder aus einer Java-Anwendung heraus ausgeführt.

Workflow Management in Hadoop

Apache Oozie ist ein in Java implementiertes Workflow-Management-

System zur Verwaltung, Ausführung und Überwachung von Hadoop Jobs.

Bei Oozie besteht ein Workflow aus einer Sammlung von Aktionen, die in

einem gerichteten, azyklischen Graphen angeordnet sind. „Gerichtet“ be-

deutet, dass die Aktionen in einer Reihenfolge stehen und „azyklisch“

heißt, dass die Aktionen nicht rekursiv oder iterativ aufgerufen werden

können. Die Aktionen bestehen aus Operationen und Befehlen unter-

schiedlicher Werkzeuge des Hadoop-Ökosystems. Durch Sub-Workflows

können Teilprozesse dargestellt und eingebunden werden.

Ein Workflow wird in Oozie mit der Oozie eigenen Notation hPDL beschrie-

ben. hPDL ist XML-basiert und steht für Hadoop Process Defintion Langu-

age. Zwischen den einzelnen Aktionen können Abhängigkeiten von einer

Aktion zur nächsten definiert werden. Oozie unterstützt keine Schleifen,

jedoch Knoten zur Steuerung von Workflows wie Start, Ende und Fehler-

knoten, sowie Verzweigungen, Gabelungen und Vereinigungen zur paralle-

len Ausführung. Abbildung 1 zeigt einen einfachen Beispielprozess.

Oozie wird in zwei Teile gegliedert, in die Workflow-Engine und die Coordi-

nation-Engine. Die Workflow-Engine ist für die Ausführung des Prozesses

zuständig und die Coordination-Engine für den zeit- und datengetriebe-

nen Ablauf eines Prozesses.

Page 5: BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

© OPITZ CONSULTING Deutschland GmbH 2015 Seite 5 Whitepaper: BPM der nächsten Generation

Durch den zeitgetriebenen Ablauf

kann einem Workflow z. B. ein

Ausführungsdatum und auch ein

Wiederholungsintervall zugewie-

sen werden. Ein datengetriebener

Ablauf wird genutzt, wenn ein

Workflow jedesmal nach Eingang

bestimmter Daten ausgeführt

werden soll. Einem Workflow

kann ein Ausführungsdatum,

eine Wiederholung (z. B. wö-

chentlich, täglich) und auch ein

Timeout zugewiesen werden.

Auch der Start eines Workflows

nach Verfügbarkeit der Daten ist

konfigurierbar. Dann startet der

Prozess innerhalb eines Zeitinter-

valls, wenn die benötigten Daten

vorhanden sind.

Nutzwert einer nahtlosen Integration

Durch die Integration von Hadoop in Geschäftsprozesse können bislang-

nicht genutzte Datenpools in den Prozess mit eingebunden werden. So

werden Entscheidungen nicht mehr allein auf Grundlage von einseitigen

Informationen getroffen, die dem Unternehmen in Form strukturierter

Daten vorliegen. Auch nicht aufgrund manueller Entscheidungen durch

Entscheidungsträger. Sondern Entscheidungen werden fortan datengetrie-

ben gefällt, auf Basis selbstlernender Modelle auf semi-strukturierten und

unstrukturierten Daten wie Logdaten, Kundenaktivitäten in einem Online-

Shop, E-Mail-Texten oder Social Media Nachrichten. Dies führt zu einer

Optimierung der Geschäftsprozesse.

In der Folge können beispielsweise Customer Retention Prozesse unter-

stützt werden. So kann der Vertrieb Zielkunden anhand ihres Churn-

Potenzials auswählen und individuelle Vergünstigungen auf Basis von

Logdaten, Nutzungsdaten und Informationen aus den relevanten Inforat-

mationssystemen zuordnen.

Wird die Auswertung mit einem Geschäftsprozess verbunden, könnte der

zuständige Mitarbeiter dem Kunden völlig automatisiert und auf der Basis

von Prognosen ein Angebot vorlegen, das ihn dazu bewegt, eine Kündi-

gung zurückzuziehen. Abgesehen von der Zeitersparnis für den Mitarbeiter

eröffnen sich hier ganz neue Möglichkeiten, Informationen effizienter zu

nutzen. Mit der Vielzahl der Daten lassen sich über einen Kunden Wahr-

scheinlichkeiten berechnen zu Fragen wie: Wird der Kunde kündigen?

Wenn ja, wann wird das sein? Lohnt sich eine Ansprache für eine Erweite-

rung des Angebots? Welche Maßnahmen würden den Kaufreiz für ihn

persönlich steigern?

Allerdings hat der Wert dieser Informationen natürlich nur eine geringe

Haltbarkeit. In genanntem Beispiel beträgt diese oft weniger als einen

Monat bis zur möglichen Kündigung durch den Kunden. Nur eine nahtlose

Integration der Vorhersage- und Analysepotenziale einer Big-Data-Lösung

in den Unternehmensprozess kann daher die umgehende Nutzung und

ständige Prozess- und Modellverbesserung gewährleisten.

In manchen Fällen macht es also Sinn, Hadoop Operationen nicht im sys-

temeigenen Workflow-System Oozie, sondern über eine BPM-Plattform

auszuführen. Insbesondere bei diesen Fällen wäre dies anzuraten:

1. Bei langlaufenden Prozessen, die datengetriebene Entscheidungen

enthalten

2. Bei sich häufig ändernden Prozessen

3. Bei der Vermischung von Big-Data-Operationen und manuellen

Tätigkeiten

Wo dies nicht zutrifft, ist der Rücksprung auf Apache Oozie sinnvoll. Abzu-

raten ist hingegen grundsätzlich von der programmatischen Selbstimple-

mentierung des Prozessverlaufs in einer Anwendung oder via Skript. „Don't

build your own Process Engine!“

Technologien und Lösungsansätze

Führt man Big-Data-System und Unternehmensprozesse zusammen, inter-

agieren diese nach zwei typischen Mustern miteinander:

Big Data Pull: Der Prozess initiiert die Interaktion Ein Task im Prozess wird ausgeführt und startet z. B. einen Pig Batch Job

im Hadoop Cluster, um einen aktuellen Datenstand zu berechnen. Dieser

führt eine Hive Query auf einem Datensatz in Hadoop aus. Das hochaggre-

gierte Ergebnis dieser Daten fließt anschließend in den Prozess zurück und

steht in einer Folgeverarbeitung über eine Regel-Engine oder über einen

einfachen Entscheidungsoperator für eine datengetriebene Entscheidung

zur Verfügung. Dieses Muster unterscheidet sich kaum von der Integration

anderer Datenquellen in den Unternehmensprozess, wie z. B. des Data

Warehouses.

Big Data Push: Die Daten starten die Interaktion Eine spezifizierte Datenkonstellation führt zur Auslösung eines Prozesses

mit Informationen zu den auslösenden Datenbeständen. Dieses Muster

findet vor allem bei Realtime-Use-Cases Anwendung, z. B. zur sensorge-

stützten Vorhersage von Maschinenstörungen und -ausfällen. In diesem

Szenario senden Sensoren einen unablässigen Strom an Einzeldaten. Diese

können in Hadoop via Spark oder Storm in Echtzeit ausgewertet werden.

Nur ein kurzes Zeitintervall des aktuellen Datenstroms wird im Speicher

gehalten. Diese Systeme erkennen ein Fehlermuster und starten einen

Prozess zur Fehlerbehandlung mit den notwendigen Informationen, wie

Modellnummer, Kunde und Fehlertyp.

Page 6: BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

© OPITZ CONSULTING Deutschland GmbH 2015 Seite 6 Whitepaper: BPM der nächsten Generation

Für die technische Realisierung einer Integration zwischen Hadoop und

einer BPM-Engine gibt es für die oben genannten Muster zwei grundsätzli-

che Herangehensweisen:

Steuerung via Service Eine Möglichkeit besteht darin, Hadoop Operationen per Service zugäng-

lich zu machen und per Service Call (REST oder SOAP) anzusteuern. Offen-

sichtlicher Vorteil dieses Vorgehens ist die lose Kopplung der Big-Data-

Umgebung von der Prozess-Engine, die hier als Service Consumer auftritt.

Die Big-Data-Plattform ist im Gegenzug in der Lage, die Services der Pro-

zess-Engine zum Starten von Prozessen und Auslösen von Ereignissen zu

„konsumieren“. Hier zeigt sich der Nachteil dieser Lösung, da die Hadoop

Komponenten größtenteils nicht auf SOA enabled sind. Es müssten also

neue Komponenten als Mediator zwischen den Bausteinen entwickelt

werden. Diese Komponenten wären im Hadoop Cluster angesiedelt und

müssten an dieser Stelle zum Beispiel auch Authentifizierungsprüfungen

durchführen. Wie bei allen servicegetriebenen Verfahren ist hier eine asyn-

chrone Verarbeitung und Benachrichtigung möglich. Beides ist jedoch in

der Umsetzung meist sehr komplex und häufig nur unter Zuhilfenahme

eines Enterprise Service Bus (ESB) sinnvoll verwaltbar.

Ansprache via Prozess-Engine Alternativ können die zu verwendenden Hadoop Komponenten direkt über

die Prozess-Engine angesprochen werden. Dies erfordert die Entwicklung

von Adaptern für die Prozess-Engine, um auf den nativen Schnittstellen

der entsprechenden Werkzeuge mit diesen zu interagieren. Ein Vorteil

dieses Vorgehens ist, dass die Integration vollständig in der Prozess-Engine

gebündelt ist. Asynchrone oder eventgetriebene Kommunikation ist damit-

leichter umsetzbar. Nachteilig ist allerdings die feste Kopplung zwischen

Prozess-Engine und Big-Data-System und die damit verbundenen Abhän-

gigkeiten, z. B. bei Versionsupgrades.

Bei beiden Vorgehensweisen ist zu beachten, dass eine Prozess-Engine

nicht darauf ausgelegt ist, große Datenmengen in ihren Prozessinstanzen

vorzuhalten. Zwischenergebnisse sollten also niemals als Rückgabewert in

den Prozess geladen werden. Damit würden sie möglicherweise den Pro-

zessspeicher zum Überlauf bringen. Stattdessen sollte stets nur mit Poin-

tern auf Tabellen in Hive und Speicherorten im HDFS gearbeitet werden.

Variante 2 klingt zunächst komplizierter in der Umsetzung. Sie ist jedoch

kein „Hexenwerk“. Die freie Prozess-Engine camunda BPM bietet einfache

Möglichkeiten, Task-Implementierungen (hier „Delegates“ genannt) zu

erweitern, um so z. B. Adaptereigenschaften und -operationen zu Interak-

tion mit einer spezifischen Plattform zu ermöglichen. Eine beispielhafte

Adapterimplementierung für Hadoop auf Basis der camunda BPM Platt-

form ist unter https://github.com/opitzconsulting/camunda-hadoop-connector zu finden und bietet ein einfaches BPM Plugin, um die Hadoop

Werkzeuge HDFS, Pig und Hive innerhalb der üblichen Prozesse zu nutzen.

Beispielimplementierungen sowie ein Beispielprozess für einen „Predictive

Maintenance“ Use-Case (siehe Abbildung 2) werden dort ebenfalls zur

Verfügung gestellt.

Schlussbetrachtung

BPM stellt ein wichtiges Werkzeug zur Ausführung und Optimierung der

Firmenprozesse dar. Es verbindet manuelle Interaktion, automatisierte

Prozesse und intelligente datengetriebene Entscheidungsfindung.

Datengetriebene Entscheidungen machen Prozesse intelligenter und redu-

zieren die menschliche Interaktion in BPM – Ziel ist also die inkrementelle

Ablösung von User Tasks zur Entscheidungsfindung durch Big-Data-

Operationen.

Die Integration von Big Data in Unternehmensprozesse ist damit der

nächste Schritt zu intelligenteren, sich selbst optimierenden Prozessen.

Quellen:

https://github.com/opitzconsulting/camunda-hadoop-connector

http://www.omg.org/spec/BPMN/2.0.2

https://camunda.com/bpm

http://hadoop.apache.org/

Page 7: BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

© OPITZ CONSULTING Deutschland GmbH 2015 Seite 7 Whitepaper: BPM der nächsten Generation

Über OPITZ CONSULTING

OPITZ CONSULTING trägt als führender Projektspezialist für ganzheitli-

che IT-Lösungen zur Wertsteigerung von Unternehmen bei und bringt IT

und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem

Partner können sich die Kunden auf ihr Kerngeschäft konzentrieren und

ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.

OPITZ CONSULTING wurde 1990 gegründet und beschäftigt heute an

neun Standorten mehr als 400 Mitarbeiter. Zum Kundenkreis zählen ¾

der DAX30-Unternehmen sowie branchenübergreifend mehr als 600

bedeutende Mittelstandsunternehmen.

Portfolio Das Portfolio von OPITZ CONSULTING umfasst die folgenden Leistungs-

schwerpunkte:

■ IT-Beratung:

Die IT-Experten unterstützen ihre Kunden dabei,

die organisatorischen Grundlagen für eine ver-

besserte Wertschöpfung durch die Informations-

technologie zu schaffen. Transparente und effek-

tive Strukturen im IT-Management sind hier

grundlegend. Mit positiven Konsequenzen für das gesamte Unter-

nehmen: bessere Kontrolle über aktuelle IT-Kosten, effektiverer Res-

sourceneinsatz, stabilere Planungsbasis für die Zukunft und zufriede-

ne Anwender.

■ Business-Lösungen:

In enger Zusammenarbeit mit seinen Kunden

entwickelt das Projekthaus innovative, differen-

zierende und individuelle Business-Lösungen.

Hierbei unterstützen die Spezialisten den gesam-

ten Plan-Build-Run-Zyklus. Auf Wunsch über-

nehmen sie die Verantwortung für Wartung und Weiterentwicklung

der Lösungen über den gesamten Lebenszyklus, mittels Application

Lifecycle Management, kurz: OC|ALM®.

■ Managed Services:

Unsere Teams für Managed Services Application

(OC|MSA®) und Managed Services Infrastructure

(OC|MSI®) kümmern sich rund um die Uhr, remote

oder vor Ort um die Applikationen und Systeme

ihrer Kunden. Dabei übernehmen sie die Wartung,

die Weiterentwicklung und die Modernisierung von Applikationen,

sowie die Administration, die Wartung und den Betrieb von IT-

Infrastrukturen. Proaktiv werden die Kunden auf mögliche Risiken

und Engpässe hingewiesen.

■ Training und Coaching:

Das Oracle University Schulungszentrum von

OPITZ CONSULTING bietet ein umfangreiches

Schulungsprogramm in den Bereichen Oracle, SOA,

Java und Business Intelligence. Die Trainings wer-

den flexibel auf Kunden oder Projekte zugeschnit-

ten und auf Wunsch auch inhouse durchgeführt. Die Trainer kom-

men direkt aus der Praxis und verfügen neben fundiertem theoreti-

schem Wissen über langjährige Projekterfahrung.

■ Trends:

Gemeinsam mit dem Kunden konzipieren und

implementieren die IT-Experten innovative und

differenzierende Lösungen. Hierzu beschäftigen sie

sich permanent mit neuen Trends und evaluieren

diese Hype-Themen hinsichtlich der möglichen

Nutzung in den Kundenprojekten.

Weitere Infos zu unseren Leistungsfeldern finden

Sie auf unserer Homepage:

www.opitz-consulting.com/portfolio

Page 8: BPM der nächsten Generation - opitz- · PDF fileEine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt

Folgen Sie uns:

youtube.com/opitzconsulting

@OC_WIRE

slideshare.net/opitzconsulting

xing.com/net/opitzconsulting

Weitere Infos auf

www.opitz-consulting.com