Kategorie: Allgemeines, BPM-Lösungen, BPMN

BPM: Prozesse und Qualität – Oxymoron oder schwerlich zu erreichender Idealzustand (4 von 4)

7. April 2014 von

Zur Ausgabe des VKSI Magazins ”Alles kontrolliert?” haben wir mit einer Kurzversion des Artikels“BPM: Prozesse und Qualität – Oxymoron oder schwerlich zu erreichender Idealzustand” beigetragen. Nachfolgend möchten wir in 4 Teilen die komplette Version in Form eines Whitepapers zur Verfügung stellen.

Im dritten Teil ging es um konkrete Maßnahmen zur Qualitätssicherung und wie Geschäftskennzahlen und KPIs bereits bei Prozessbeschreibung definiert werden können. Weiterhin welchen Beitrag BPMN 2.0 bei der Definition von Messpunkten leisten kann und wie diese zur Laufzeit dargestellt werden können. Hier nun der abschließende vierte Teil.

Quality Gates im QM-BPM Zyklus

Durch die Realisierung eines Quality-Gate-Konzepts wird sichergestellt, dass nur bei Einhaltung von vorab eindeutig bestimmten Qualitätskriterien eine Freigabe für die nächste Projektphase erteilt wird. Auch bei der Prozessausführung können Quality Gates eingesetzt werden, hier darf der Prozess nur dann weiterlaufen, wenn die definierten Ergebnisse erreicht wurden. Inhaltlich ist ein Quality Gate in den meisten Fällen eine Checkliste, die es innerhalb des Quality Reviews abzuarbeiten gilt. Auch hier liegt die Schwierigkeit darin, geeignete Messpunkte für Quality Gates innerhalb des Prozesses zu definieren. Im QM-BPM Zyklus ist der Phasenübergang ein geeigneter Zeitpunkt. Für die konkrete Ausgestaltung eines Quality Gates im Prozessumfeld sind folgende Punkte wichtig:

  • die Aktivitäten, Anforderungen und Ergebnisse müssen definiert sein
  • das Ergebnis der Prüfung muss einfach darstellbar sein, z.B. als Ampel
  • die Anwendung von Methoden ist mit Richtlinien hinterlegt

Diese Vorgehensweise stellt sicher, dass frühestmöglich Erkenntnisse über Abweichungen vorliegen und an kritischen Schnittstellen eine Fehlerweitergabe verhindert wird.

Summary

Zusammenfassend kann festgestellt werden, dass es bei der Definition von Prozessqualität gewichtige Herausforderungen gibt. Zum einen ist es zu Beginn äußerst schwierig den klaren Idealzustand eines Prozesse zu definieren. Hier kann meist nur eine schrittweise Annäherung, im Sinne eines agilen Vorgehens, im Rahmen eines QM-BPM-Zyklus erfolgen. Daneben muss differenziert werden in die Ergebnis- und die Prozessqualität, sowie die Qualitätssicherung bei der Prozesserstellung und –weiterentwicklung.

Eine reine Orientierung am Ergebnis des Prozesses ist aus vielerlei Hinsicht nicht mehr zeitgemäß, daher definieren die meisten Unternehmen heute Kennzahlen und KPIs, die auch andere Aspekte wie Kundenzufriedenheit, Qualitätsaspekte und Prozess-SLAs als Teil einer Balanced Scorecard beinhalten.

Vor Beginn eines BPM-Projektes sollten die Verantwortlichkeiten klar geregelt sein: Wer ist der Prozesseigner, wer dokumentiert den Prozess, wer setzt ihn um? Wie und wohin werden Ergebnisse und Schwierigkeiten kommuniziert? Was sind die Freigabemechanismen / Quality Gates?

Bei der Prozessdokumentation an sich ist es wichtig, Konventionen, Pattern, Best Practices und fachliche Muster zu verwenden und diese auch breit im Unternehmen zu streuen. Weiterhin hilfreich ist die Nutzung einer Kombination von grafischer Modellierung (BPMN) bei Prozessmodellen und von Wikis. Durch den Einsatz von BPMN ist man auch weitgehend technologieunabhängig. Besonders wichtig – zwar häufig betont, dennoch meist ausbaufähig – ist die Kommunikation zwischen den Prozessbeteiligten, während der kompletten Laufzeit des Projektes und darüber hinaus. Nur so kann sichergestellt werden, dass auch abteilungsübergreifend ein einheitliches Vorgehen gelebt wird und Prozesslücken, weiße Flecken, Brüche und unnötige Schleifen im Prozessablauf verringert werden.

Sollten die hier genannten Anregungen und Vorschläge auch manchmal etwas zu formalistisch klingen, so sind sie dennoch aus meiner Sicht heraus gerechtfertigt. Zu mindestens sollten man sich vor Projektbeginn darüber Gedanken machen und abwägen was für das konkrete Unternehmen notwendig, sinnvoll und umsetzbar ist. Dennoch ist es manchmal wichtiger pragmatisch an die Prozessumsetzung zu gehen, um rasche Erfolge vorweisen und erst einmal loslegen zu können. Allerdings ist es dann ein einem zweiten Schritt notwendig den Prozess zu formalisieren, damit rasch Skaleneffekte und eine steile Lernkurve eintreten können. Dafür eignet sich die Etablierung eines Process Competence Centers und damit die Konzentrierung der BPM-Kenntnisse. Denn man kann Prozesse nicht nicht managen 

Prozesse mit BPMN zu beschreiben ist einfach, einfach lesbare und qualitativ hochwertige Prozesse mit BPMN zu beschreiben ist eine Kunst für sich“ (camunda, 2012)

3d postman with big red envelope

Geschafft – dies war der vierte von vier Teilen in dieser Beitragsreihe!

Wir freuen uns über Ihre Fragen zum Thema BPM … eine E-Mail an info@logicline.de genügt.

 

 

Literaturverzeichnis
camunda. (2012). BPMCon 2012. Berlin.
David McCoy, G. (2005). Business Process Management: Preparing for the Process-Managed.
Dunn, R. H. (1990). Software quality: concepts and plan.
Fischer, S. (2012). logicline - BPM | SOA | Cloud. Von http://www.logicline.de/home.html abgerufen
IBM. (2012). IBM - BPM Software. Von http://www-03.ibm.com/software/products/de/de/category/bpm-software abgerufen
ISO. (2005). Norm EN ISO 9000:2005.
Kneuper, R. (2011). Was ist eigentlich Prozessqualität? Lecture Notes in Informatics, Band P192.
Lenz Consulting. (kein Datum). Lenz Consulting - Excellente Prozesse gestalten. Von http://www.lenz-consult.com/ abgerufen
Prof. Ayelt Komus, F. K. (2012). Qualität im Geschäftsprozess-Management - Internationale Studie "Experten-Befragung". Von http://www.hs-koblenz.de/www-Q-in-BPM-info.4232.0.html abgerufen
Wikipedia. (2013). http://de.wikipedia.org/wiki/Wikipedia:Hauptseite. Von Wikipedia. abgerufen

Autoren:
Sven Fischer, Managing Consultant BPM bei der logicline GmbH
Edgar Schüber, Managing Director bei der logicline GmbH

 




Retrospektive der BPM Integration Days 2014

21. März 2014 von

Auf den diesjährigen BPM & Integration Days in München gab es am ersten Tag zahlreiche spannende Vorträge – von der “Schuldenfalle der IT” über “Testgetriebene Geschäftsprozessmodellierung” und “IoT mit BPM und SOA” bis hin zu “Technisch lauffähige BPMN” und “Adaptive Case Management (ACM)” wurde der Bogen gespannt. Am zweiten Tag stand dann alles im Zeichen der praktischen Umsetzung und Diskussionen im Workshop-Format. Die folgende Retrospektive zeigt aus unserer Sicht interessante Trends und Themen für 2014 im BPM-Kosmos.

In der Keynote von Dirk Slama (Bosch SI) ging es um die neu gegründete BPM Alliance, die sich zum Ziel gesetzt hat ihre BPM-Methodik als offenen Standard zu etablieren. Diese integrierte BPM-Projektmethodik (IBPM) soll dazu dienen, BPM-Projekte klar strukturiert und mit einheitlichem Vorgehen unter Anwendung von Best Practices durchzuführen. Zusammen mit dem EPBM-Framework (Enterprise BPM-Framework) ist so eine durchgängige Methodik im Bereich Prozessmanagement verfügbar.

In der Session testgetriebene Geschäftsprozessmodellierung (Holisticon AG) wurde eine Möglichkeit vorgestellt Prozesse zu testen. Dies ist auch automatisiert im Rahmen eines Continuous Delivery möglich. Die Notwendigkeit Prozesse zu testen, im Idealfall End-2-End, kann nicht bestritten werden. Interessant sind vielmehr die Probleme, die sich daraus ableiten lassen. Zum Einen ist ein Prozess keine “Unit” und kann somit auch nicht im Rahmen eines gewöhnlichen Unit-Test im eigentlichen Sinne getestet werden. Ein Prozess lässt sich vielmehr als “Behaviour” von unterschiedlichen fachlichen Zuständen beschreiben. Dieses Zustände zu Testen erfordert ein komplexes (sprich nahezu fertiges) System mit seinen angebundenen externen Umsystemen. Da dies aber nur zu einen späten Zeitpunkt in der Softwareentwicklung zur Verfügung steht, ist die Fehlerbehebung sehr teuer!
Dies soll mit dem Ansatz des “In-Memory-Test” von BPMN 2.0 Geschäftsprozessdiagrammen mit Hilfe von Szenarien vermieden werden. Die Besonderheiten bestehen zum einem zum recht frühen Zeitpunkt des Tests (ähnlich eines Unit-Test), der Möglichkeit agil vorzugehen, der potentiellen Wiederverwendbarkeit der Test im Integrationstest und der natürlich-sprachlichen Beschreibung der Szenarien. Dies erfordert aber einen einzuplanenden Implementierungsaufwand für die Testerstellung. Ob sich dieses Konzept durchsetzen kann wird die Zeit zeigen, einen gewissen Charme hat es jedenfalls.

Interessantes und durchgängiges Thema auf den diesjährigen BPM & Integration Days war sicherlich das Internet of Things (IoT). Der Herausforderung, die enorme Datenmenge des IoT Herr zu werden, wurde im Vortrag von Opitz Consulting mit Event Processing und Rule Engines begegnet. Die Grundthese bestand darin, dass nicht alle “Dinge” unbedingt smart sein müssen, sonder es vielfach genügt einen einfachen Sensor zu implantieren, der seine Messwerte ungefiltert ins Netz sendet. Eine höhere Abstrahierungsebene muss dann entscheiden, welche Events, in welchem Zeitraum (man beachte dabei die Lambda-Architektur und Apache Storm als Event Processing Engine) als sinnvoll zu erachten sind. Hierbei muss die Abstrahierungsebene in der Lage sein in einem Stream intervall-basierte Messungen in Real-time durchzuführen und die Ergebnisse aggregiert zu versenden. Erst darauf basierend kann entschieden werden, ob das aggregierte Event relevant ist für einen und im Idealfall für welchen Geschäftsprozess. Der Geschäftsprozess selbst wiederum kann dann auch auf die historisierten Daten und den Live-Daten-Stream zugreifen und basierend darauf Analysen anstoßen, bzw. kann sich der Mitarbeiter Remote auf das jeweilige Gerät aufschalten, prüfen und dann gegebenenfalls neue Prozesse (Beschaffung Ersatzteile, Buchung Wartungstechniker, etc.) starten.

IoT_Big_Data_Analyse

Durch diese Kapselung können die vorhandenen IT-Systeme eingebunden werden und parallel dazu neue Anwendungen und Einstiegspunkte in den bisherige Prozess definiert werden, und damit im Endeffekt ein neuer Gesamtprozess orchestriert werden. Die Real-time Auswertungs- und Monitoringmöglichkeiten, die dieser Ansatz verspricht, haben durchaus Potential. Da der Wert einer Information immer zeitabhängiger wird und daher zukünftig sofort, in der richtigen Qualität und im richtigen Kontext zur Verfügung stehen muss, um fundierte Entscheidungen treffen zu können.

Ob wir allerdings in naher Zukunft die Prozess Engine und eine App bemühen werden, um die Schreibtischlampe an- und auszuschalten (wie hier mit einem Raspberry Pi vorgeführt), bleibt vorerst abzuwarten.

IoT_Raspberry Pi

Eher kritischer ist da eher das Thema “Cloud Service Broker” (Oracle und Opitz Consulting) zu sehen. Hier wurde ein Ansatz präsentiert, mit dem man verschiedene Cloud Service Provider (hauptsächlich IaaS) quasi on-the-fly gegeneinander austauschen können soll. Wie praktikabel das Ganze wirklich ist, konnte die Diskussionsrunde leider nicht klären. Großes Problem ist außerdem, dass die großen Anbieter wie Amazon oder Salesforce dabei nicht mitspielen. Für kleinere Anbieter, die sich hier explizit zusammenschließen aber vielleicht eine Alternative, in den inzwischen aufgeteilten Markt vorzustoßen.

Spannend wurde es wieder beim Adaptive Case Management (wieder Opitz Consulting). Der Versuch, Geschäftsprozesse weiter zu flexibilisieren bringt für einige konkrete Anwendungsfälle (Beispiel aus dem Vortrag: Schadensregulierung bei Versicherungen) sicher einen großen Mehrwert. Hier wartet die BPM Gemeinde gespannt auf die “Hochzeit” zwischen BPMN und CMMN (Case Management Modelling & Notation), wodurch das Thema sicher weiter an Fahrt gewinnen wird.

Obwohl hier nur ein kleiner Rückblick gegeben werden konnte, war dies insgesamt eine sehr gelungene Veranstaltung, die ohne zu Zögern weiter empfohlen werden kann. Beachtlich war vor allem die nahende Konvergenz von BPM und IoT, wobei aber bisher nur wenig abzusehen ist wohin sich dies entwickeln wird. Insbesondere welche Geschäftsmodelle sich daraus entwickeln lassen können oder müssen, um am Markt weiter bestehen zu können. Die Herausforderung wird sein diese Geschäftsmodelle rechtzeitig zu erkennen, mit BPM(N) umzusetzen, in die bestehende IT-System zu integrieren und neue Partnerschaften und Allianzen einzugehen. Somit werden Marktteilnehmer und Branchen miteinander vernetzt, die heute in keiner geschäftlichen Beziehung zueinander stehen. Daraus können, eine gewisse Offenheit der Partner und Systeme vorausgesetzt, völlig neue Produkte, Geschäftsmodelle oder Ökosysteme entstehen.

Autoren: Denny Hahn und Sven Fischer

3d postman with big red envelope

Sollten Sie Interesse an einem ausgewählten Vortrag haben, so können Sie diesen gerne bei uns anfordern. Haben Sie weitere Fragen zum Thema BPM … eine E-Mail an info@logicline.de genügt.

 

 




BPM: Prozesse und Qualität – Oxymoron oder kaum erreichbarer Idealzustand (Teil 3 von 4)

9. März 2014 von

Zu der aktuellen Ausgabe des VKSI Magazins ”Alles kontrolliert?” haben wir mit einer Kurzversion des Artikels“BPM: Prozesse und Qualität – Oxymoron oder schwerlich zu erreichender Idealzustand” beigetragen. Nachfolgend möchten wir in 4 Teilen die komplette Version in Form eines Whitepapers zur Verfügung stellen.

Im zweiten Teil ging es um die Möglichkeiten der organisatorischen Verankerung von BPM QS-Maßnahmen. Hierbei wurde der QM-BPM-Zyklus vorgestellt und die Nachhaltigkeit anhand Process Competence Center und Governance diskutiert. Hier im dritten Teil nun mehr zum Reifegrad von Prozessen und KPIs:

Maßnahmen zur Qualitätssicherung

Reifegrade von Prozessen – Prozess-Benchmarking

Eine Möglichkeit die Qualität von Prozessen „zu messen“ ist der aktive Vergleich mit Prozessen, die dem gleichen Zweck dienen und/oder von verschiedenen Unternehmen oder Organisationen sind – Benchmarking. Dazu müssen aber entweder geeignete Kennzahlen (siehe weiter unten) oder ein Reifegrad des Prozesses bestimmt werden. Prozessreifegrad Modelle sind vor allem bekannt durch das CMM (Capability Maturity Modell) oder das SPICE (Software Process Improvement and Capability Determination). Hierdurch soll eine objektive Beurteilung, Vergleichbarkeit mit anderen Unternehmen oder Abteilungen (Benchmarking) und Eingruppierung von Prozessen ermöglicht werden.

Wie können nun die Reifegrade von Prozessen in der Praxis ermittelt werden? Hilfreich ist hier meist eine Checkliste zu jeder der 5 Stufen (siehe unten), um eine Eingruppierung des konkreten Prozesses zu erleichtern. Nützlich für die Bestimmung des Reifegrades können auch Prozess-Assessment-Tools (wie SPiCE-Lite oder MyBusinessQuest) sein. Folgende Stufen oder Reifegrade werden zumeist unterschieden (Wikipedia, 2013):

  1. Initial: Keine Anforderungen. Diesen Reifegrad hat jede Organisation automatisch.
  2. Managed: Die Projekte werden geführt. Ein ähnliches Projekt kann erfolgreich wiederholt werden.
  3. Defined: Die Projekte werden nach einem angepassten Standardprozess durchgeführt und es gibt eine organisationsweite kontinuierliche Prozessverbesserung.
  4. Quantitatively Managed: Es wird eine statistische Prozesskontrolle durchgeführt.
  5. Optimizing: Die Arbeit und Arbeitsweise werden mit Hilfe einer statistischen Prozesskontrolle verbessert.

BPM_ReifegradAbb.: Reifegrade von Prozessen in Anlehnung an ISO15504 und (Lenz Consulting)

Es ist indes ein weit verbreiteter Irrtum zu glauben, dass mit einem höheren Reifegrad automatisch eine höhere Prozessqualität einhergeht. Diese Reifegrade müssen in einem Gesamtkontext betrachtet werden. Allerdings sollten sinnvolle Prozess Verbesserungsinitiativen erst ab einem gewissen Grad an Reife verfolgt werden. Davor können mit einfacheren Methoden größere Leistungssteigerungen erreicht werden. Wichtig ist aber immer zu wissen, welchen Mehrwert und welche Risiken mit der Initiative verbunden sind.

Geschäftskennzahlen und KPIs bereits bei Prozessbeschreibung

Geschäftskennzahlen beschreiben die für eine Überwachung relevanten Aspekte des Leistungsmanagements in einem Unternehmen. Diese vorab definierten Leistungsindikatoren umfassen Messwerte, KPIs (Key Performance Indicator), Zähler und Stoppuhren. KPIs sind Voraussetzung für die Verbesserung oder Verschlechterung der Prozesse: nur durch Messung, Vergleich und Einleitung von Maßnahmen ist eine Steigerung der Prozessqualität möglich.

Erst nach Definition und Bereitstellung dieser fachlichen Geschäftskennzahlen sollten Geschäftsprozesse modelliert, implementiert und ausgeführt werden. Die definierten Kennzahlen und KPIs können dann stetig gesammelt, ausgewertet und weiteren Prozessen zur Verfügung gestellt werden. Diese Qualitätskennzahlen-Datenbasis ist notwendig, um die Prozessqualität zu messen, eventuell notwendige Anpassungen an den Prozessen, der Aufbau- und Ablauforganisation oder den Kennzahlen selbst vorzunehmen. Die Abbildung zeigt mögliche KPIs und Grenzwerte aus einem Logistik-Beispiel.

KPI_1Abb.: Messung und Darstellung von KPIs

Die Darstellung der KPIs in Dashboards kann in den meisten BPM-Tools relativ frei gewählt werden.

KPI_2Abb.: Grafische Aufbereitung von KPIs

Die KPIs dienen anschließend als Auslöser, um etwa Alarmmeldungen oder Benachrichtigungen zu verschicken, falls bestimmte Grenzwerte (Indikation für Probleme im Prozessablauf) erreicht werden. Entsprechend konfigurierte BPM-Systeme können diese Kennzahlen im laufenden Betrieb erheben und sich auf diese Weise potentiell selbst steuern (Stichwort Dunkelverarbeitung).

Alarm_1Alarm_2Abb.: Business Monitoring – Alarmmeldung

Diese Mittel dienen in erster Linie zur operativen Überwachung, Steuerung und Automatisierung von Prozessen (Stichwort Business Activity Monitoring). Übergreifend müssen die daraus abgeleiteten Erkenntnisse aber im Rahmen des QM-BPM Zyklus an die für Prozessverbesserung verantwortliche Stelle, idealerweise ein Process Competence Center oder den Prozesseigner, weitergeleitet werden.

BPMN 2.0

Bereits zu Beginn einer Prozessdefinition ist es wichtig sich einerseits über geeignete Kennzahlen Gedanken zu machen, andererseits aber auch schon die dafür notwendigen Messpunkte (Stoppuhren und Counter) zu bedenken. Die Notation BPMN 2.0 bietet hierfür einige Konstrukte, die je nach Modellierungsvorlieben gewählt werden könne (aber einheitlich im ganzen Unternehmen): als einfache Annotation, als Datenobjekt, als Nachricht oder sogar als definierte System-Aktivität oder Service. Eventuell muss eine Abweichung vom Ideal-Sollzustand in Kauf genommen werden, um eine saubere, eindeutige und vergleichbare Messung des Prozesses zu erreichen, dies sollte aber die absolute Ausnahme sein.

3d postman with big red envelope

Halten Sie durch! Schon in Kürze können Sie den nächsten Teil Quality Gates im QM-BPM Zyklus” und “Summary” hier lesen.

Sollten Sie nicht so lange warten mögen: die Kurzfassung im VKSI-Magazin ist online. Oder Sie haben weitere Fragen zum Thema BPM … eine E-Mail an info@logicline.de genügt.

 




Continuous Monitoring – alter Wein in neuen Schläuchen oder notwendig zur Wettbewerbsfähigkeit – Business Activity Monitoring

5. Dezember 2013 von

In einem durchaus interessanten Artikel in der ComputerwocheContinuous Monitoring – Risiken erkennen, Transparenz schaffen” schreibt Thomas Erwin über das Continuous Monitoring (CM) als “ein automatisiertes, echtzeitnahes System für das Monitoring von Daten und Systemen”. Er unterscheidet hierbei drei technische Komponenten: Extraktions-, Analyse-  und Komponente zur Weiterverarbeitung der Ergebnisse. Wobei für ihn der Prozess – im Sinne von KVP (hier Regelkreis genannt) – ausschlaggebender ist als die konkrete technische Infrastruktur. Die Vorteile liegen für ihn klar auf der Hand:

  • Transparenz über die unternehmensübergreifenden Abläufe (End-to-End Prozesse)
  • Prozess Qualität und Performance steigt, da zeitnahes Monitoring von Kennzahlen
  • Einhaltung von Compliance aller relevanten Prozesse

Die Einsatzmöglichkeiten von CM sind aber nicht nur auf einzelne Teilbereiche des Unternehmens beschränkt, sondern können auch unternehmensweit ausgerollt werden. Kurz erwähnt er auch die Schritte und Stolpersteine bei der Einführung eines CM-Systems. Wichtiger sind aber für ihn die Prozesse um die Technik herum – “Erst das Zusammenspiel der technischen und fachlichen Expertise ermöglicht deshalb die Einführung eines Systems, das in der Lage ist, effizientes und sicheres Prozessmanagement sowie Problemidentifikation und Problembehandlung zu integrieren“. Der Artikel stellt das CM somit in den Kontext von größeren Prozessanpassungen im Unternehmen.

Regelkreis eines Continuous Monitoring Systems. Quelle: CW / KPMG AG

Dass das Thema Monitoring von Prozessen eine immer zentralere Bedeutung in Unternehmen bekommt bzw. hat steht außer Diskussion. Wir beschäftigen uns schon seit einiger Zeit mit der Thematik (siehe unter anderem auch “BPM Monitoring as a Service“). Einzig was der konkrete Unterschied zwischen Continuous Monitoring (CM) und Business Activity Monitoring (BAM) nun ist wurde uns aus dem Artikel nicht klar. Gerne sind wir hier in diesem Blog für Ideen, Anregungen oder Erklärungen offen … hinterlassen Sie einen Kommentar!




Heißer BPM-Herbst eingeläutet – BPMCon, BPM Best-of-Breed, Mine your own business, Mobile BPM und Monitoring

11. Oktober 2013 von

Der diesjährige BPM Veranstaltungs-Herbst begann mit der von camunda organisierten BPMCon 2013 Ende September im Berliner Umspannwerk Kreuzberg. Neben zahlreichen Vorträgen aus der Praxis nach dem Motto von Kunden für Kunden - wobei insbesondere zalando sehr plastisch den Einsatz von BPM darstellen konnte – gab es auch zwei erwähnenswerte eher theoretisch angehauchte Vorträge.

BPMCon in Berlin

Dr. Anne Rozinat, Mitgründerin der Process-Mining-Firma Fluxicon, erläuterte wie sich Prozesse in der Ist-Analyse nicht modellieren, sondern auf Basis von bestehenden Transaktionsdaten automatisch generieren lassen. Dabei sind nur die einfachsten Daten, wie eine Transkations-Id, Zeitstempel und die eigentliche Aktion/Task notwendig. Dadurch können die Datenflüsse der realen IT-Systeme und damit der reale Prozess dargestellt werden. Es ist zwar kein Prozessdiagramm in BPMN, aber ein erster Ansatzpunkt, um gestärkt mit Fakten in die Diskussion mit dem Fachbereich gehen zu können. Auch liefert das Diagramm erste Indizien wo sich Flaschenhälse, nicht korrekte Pfade und unnötige Schleifen befinden können. Diese noch junge, aber meines Erachtens vielversprechende Disziplin innerhalb von BPM hat das Potential die Process-Discovery Phase deutlich zu vereinfachen.

fluxicon_discoQuelle: Fluxicon - Tool Disco

Ein Kritikpunkt an der Methodik ist die Verfügbarkeit der Daten in ausreichender Qualität. Dies wurde unter den Teilnehmern in der Kaffeepause heftig diskutiert. Wenn auch heute sehr viele Daten gespeichert werden (Stichwort Big Data), dann ist es insbesondere über Systemgrenzen hinweg häufig schwierig, eine einheitliche Struktur und eine eindeutige ID zu definieren. Hierfür müsste vorab eine Bereinigung oder Konsolidierung der Datenstrukturen stattfinden.

BPM Best-of-Breed

In der Keynote von Jakob Freund und Bernd Rücker ging es darum, BPM noch präsenter in der Wirtschaft zu machen und durch zu starten. Hierfür sehen die beiden einen Trend weg von den kompletten BPM-Suiten hin zu “Best-of-Breed” und Open Source (inklusive BPaaS). Diesen Trend, wenn auch nur in Teilbereichen wie z.B. Monitoring sehen wir auch, da ein Einsatz von großen und komplexen BPM-Suiten für den Mittelstand häufig nicht rentabel erscheint.

Übrigens: Ebenfalls einen Blick Wert ist die neu geschaffene BPM Community!

Zum Abschluss des informativen Tages gab es noch eine Runde “Fishbowl” zum Thema “Wie kann BPM erfolgreich gestartet und entwickelt werden?“. Hier diskutierten die Teilnehmer, Referent und Gastgeber im kleinem Rahmen vor dem Auditorium. Anschließend gab es die gewohnte Grillparty …

IBM BPM-Symposium in Wiesbaden

Im Wiesbadener Kurhaus fand ebenfalls eine interessante BPM Veranstaltung statt, das IBM BPM Symposium 2013. Hier waren am ersten Tag sogenannte Hands-on Workshops, die den Teilnehmern einen Eindruck von der Modellierung von Prozessen in BPMN geben sollen. Die anschließend immer stattfindende Abendveranstaltung in der Kupferberg Sektkellerei brannte im wahrsten Sinne des Wortes “ein Feuerwerk” ab.

Am nächsten Morgen ging es zunächst um die IBM und wie sie ihre eigenen Tools einschätzt, weiterentwickelt, intern einsetzt und wie sie am Markt angenommen werden.

In einem bemerkenswerten Vortrag “Mine Your Own Business” erläuterte Prof. Dr .ir. Wil van der Aalst wie sich vorhandene Prozesse mittels Daten analysieren lassen. Auch er bezog sich wie Dr. Rozinat auf die Initiative processmining.org und kommerzielle Spin-offs wie Fluxicon. Weiterhin gab er einen Ausblick wohin die Reise in der Methodik gehen soll und welche Herausforderungen er sieht:

  • Big Data, da immer größere Datenmengen analysiert werden müssen, eventuell in Echtzeit
  • Was tun mit nicht persistierten Datenströmen von Sensoren und RFID Chips (Stichwort IoT)
  • Das Ziel ist eine Art “TomTom” für BPM, das in Echtzeit Ratschläge zur Prozesssteuerung gibt, aber so flexibel ist, auch auf Änderungen und Nicht-Beachten zu reagieren und den wahrscheinlichen Prozessausgang vorauszusagen. Dies ist freilich noch Zukunftsmusik.

Mobile BPM und Monitoring

Ein eher technisch ausgelegter Vortrag betraf “Mobile BPM“, die Nutzung von Prozessen auf mobilen Geräten.Hierbei muss beachtet werden, dass mobile Geräte über bestimmte Eigenschaften verfügen, die normale / stationäre Prozesse in der Regel nicht haben, zum Beispiel GPS, Barcode Scanner oder Foto. Diese müssen in den Prozess eingebunden werden.

Als Anwendungsbeispiel sei ein Außendienstmitarbeiter genannt, der einen Schaden aufnimmt, die exakte Position markiert und ein Foto für den Innendienst anhängt. Dieser kann nun anhand der übermittelten Positionen eine optimale Route für die Servicemitarbeiter berechnen. Dieser wiederum könnte den Barcode des Gerätes einscannen und so vom Backendsystem des Unternehmens die Reparaturanleitung oder die Ersatzteilnummer erhalten. Nach erfolgreicher Reparatur kann der Kunde wiederum auf dem Tablett quittieren. Für diese Einsatzszenarien gibt es verschiedene technische Umsetzungsmöglichkeiten (z.B eine vollwertige App vs. Portal Rendering), die je nach konkretem Bedarf eingesetzt werden können. Zusätzlich kommen bei Enterprise Anwendungen auf mobilen Geräten häufig besondere Sicherheitsanforderungen ins Spiel, die berücksichtigt werden müssen.

Neben den oben genannten Vorträgen gab es noch eine Vielzahl an weiteren interessanten und spannenden Themen zu hören. Allgemein war bei beiden Veranstaltungen das Thema Monitoring in aller Munde, zwar meist als Randthema, aber immer präsent. Hier empfehle ich gerne einen Blick auf unseren Monitoring BPaaS Ansatz.