Upload
alexander-kopriwa
View
160
Download
0
Embed Size (px)
DESCRIPTION
WIE INDUSTRIE UND ÖFFENTLICHE UNTERNEHMEN DIE HERAUSFORDERUNGEN DES 21. JAHRHUNDERTS MEISTERN KÖNNEN Hohe Komplexität erzeugt Ineffizienz und führt zu unnötigen Risiken. Deshalb muss Komplexität reguliert werden.
Citation preview
KOMPLEXITÄT EINFACH
BEHERRSCHEN
WIE INDUSTRIE UND ÖFFENTLICHE
UNTERNEHMEN DIE HERAUSFORDERUNGEN
DES 21. JAHRHUNDERTS MEISTERN KÖNNEN
Unsere vernetzte Gesellschaft wird immer komplexer. Unternehmensprozesse und deren Abhängigkeiten können kaum noch überblickt und kontrolliert werden.
Hohe Komplexität erzeugt Ineffizienz und führt zu unnötigen Risiken. Deshalb muss Komplexität reguliert werden.
Beispiele für Herausforderungen aufgrund wachsender Komplexität:
• Wie können faule Kredite erkannt und künftig vermieden werden?
• Wie können Risiken in einem Projektportfolio rechtzeitig identifiziert werden?
• Wie können Produktionsausfälle verhindert werden?
• Wie kann der Cash-Flow garantiert werden?
• Wie kann die Logistik optimiert werden?
• Wie kann die Sicherheit von IT- und Netzwerk-Infrastrukturen verbessert werden?
Die Wertschöpfung von Unternehmen hängt inzwischen von kritischen Infrastrukturen und dem zuverlässigen, reibungslosen Zusammenspiel von Systemen, Netzwerken und Prozessen ab.
Allerdings geht die wachsende Komplexität zu Lasten von Effizienz und Profitabilität. Moderne Technologien erhöhen gleichzeitig deren Anfälligkeit.
Das extreme Technologie- und
Datenwachstum führt zunehmend
zu unkontrollierbaren Prozessen.
Mit konventionellen Methoden
kann ein Gesamtsystem nicht
mehr ausreichend verstanden
und gesteuert werden.
Bisherige Technologien sind nicht in der Lage einen ausreichenden Gesamt-überblick über große Prozesslandschaften herzustellen.
Konventionelle Analysetechniken sind begrenzt durch ihre lineare Sicht-weise und ihre zu große Detailsicht. Die wichtigsten Verbesserungspotenziale werden deshalb nicht frühzeitig identifiziert.
Viele Infrastrukturen werden nahe an ihrer kritischen
Komplexität betrieben. Das Risiko für Verluste durch
Fehler oder Zusammenbrüche steigt daher dramatisch.
In Kooperation mit CINECA, dem Zentrum für
Supercomputer, bietet Ontonix einen radikalen,
innovativen Ansatz, um Probleme trotz
wachsender Komplexität zu analysieren und
Lösungswege aufzuzeigen.
Dabei messen wir die Komplexität, identifizieren
relevante Datenquellen und analysieren in
mehrstufigen Verfahren Systeme und
Subsysteme bis eine Lösung gefunden wird.
Wer Komplexität nicht messen kann, wird sie auch nicht beherrschen.
Die Theorie zur Quantitativen Komplexität wurde 2003 auf Basis unserer patentierten Technologie zum Quantitative Complexity Management (QCM) entwickelt.
Durch QCM sind wir als erstes Unternehmen in der Lage Komplexität zu messen.
In „A New Theory of Risk and Rating“ (http://www.ontonix.com/Books.htm) hat Dr. Jacek Marczyk erstmals eine Theorie mit einem radikalen, innovativen Ansatz beschrieben und illustriert wie Komplexitätsmanagement zu einer modernen Form des Risiko Managements wird.
In weiteren Arbeiten werden Beispiele zur praktischen Umsetzung aufgezeigt.
Das Angebot von Ontonix umfasst Dienstleistungen und Software zur
• Analyse
• Monitoring
• Benchmarking
der Komplexität Ihres Systems in Bezug auf Prozesse und installierte Techniken.
Als Ergebnis werden Risiken und Verbesserungspotenziale aufgezeigt.
Die Umsetzung erfolgt schrittweise:
• Vorstudie, Problemanalyse
• Verifizieren und umsetzen der Verbesserungspotenziale
Messen der verbesserten Prozesse und Integration in die Steuerungs-systeme des Unternehmens.
• Benchmarking von Prozessen
Copyright 2014 Ontonix Srl. No part of this document may be reproduced in any form without the written permission of Ontonix
ONTONIX S.r.l
Piazza Giuseppe Mazzini 2, 22100 Como, ITALY
www.ontonix.com