Tag Archiv: Prozessmodell

Nachdenklicher Rückblick auf den Process Solutions Day 2014 der #gfo #bpm

16. Juni 2014 von

Einen gemischten Eindruck hinterließ der Process Solutions Day 2014 der gfo (Gesellschaft für Organisation) am 13. und 14. Mai in Köln, der laut Veranstalter größten Tagung für BPM-Softwarelösungen im deutschsprachigen Raum. Am ersten der auf zwei Tage angelegten Veranstaltung standen BPM-Tools diverser Hersteller (Signavio, MID, Scheer oder Prologics um nur einige zu nennen) im Vordergrund. Diese als Workshops “getarnten” Produktvorstellungen boten einen interessanten ersten Eindruck, was momentan auf dem Markt für Prozessdokumentation und -analyse en vogue ist. Der Tag endete mit der Verleihung des diesjährigen Process Solutions Award.

Am zweiten Tag standen die Anwender im Vordergrund und es waren zahlreiche Praxisberichte in zwei Tracks zu hören. Interessant war hier der durchgängige Fokus auf die Prozessanalyse, -dokumentation und -steuerung. Wobei unter Prozesssteuerung nicht die Kontrolle der Ausführung eines Prozesses im Sinne eines automatisierten Monitorings gemeint war, sondern eher die Transparenz und eine Möglichkeit zum Vergleichen der Soll- und Ist-Werte. Besonders deutlich wurde dies auch im Vortrag von Frank Hohmann (Frankfurter Sparkasse), hier werden die Kennzahlen wie Durchlaufzeiten teilweise manuell erhoben, bzw. von verschiedensten Stellen beigesteuert. Dies könnte mit einem einheitlichen Monitoring-Modell, definierten Schnittstellen und einem dezidierten Event-Handling deutlich vereinfacht werden (siehe auch hier >> BPM Monitoring as a Service). Dann wäre auch eine Vergleichbarkeit im Sinne eines Benchmarking möglich, wobei die sensiblen Daten auch Sparkassen-intern gehostet werden könnten.

In den meisten Vorträgen wurden die Vorteile der reinen Prozessanalyse und -dokumentation hervorgehoben, dabei teilweise ohne den Nutzen einer Standardisierung mittels BPMN zu betrachten. Auch waren die eingesetzten Tools teilweise proprietär. Dies war für uns befremdlich, da wir gewohnt sind stets weiter voraus in Richtung Ausführung, Übertragbarkeit, Automatisierung und Integration von Geschäftsprozessen in bestehende IT-Landschaften zu denken. Hier sind die wirklichen Potenziale von BPM zu finden, sei es in der Kosteneinsparung, der Transparenz oder der Erfüllung von rechtlichen Regularien. Einzig Bernd Hagemann von der comdirect bank AG ging auf diese Punkte in seinem sehr unterhaltsamen Vortrag “Marktführer trotz Prozessmanagement? näher ein. Hier wurde anschaulich dargestellt, welche Gründe es für die Einführung von BPM gab:

  1. Rechtliche / regulatorische Anforderungen >> harte Anforderung
  2. Dokumentation, Anleitungen für neue Mitarbeiter (Arbeitsanweisungen) und Transparenz
  3. Prozessoptimierung >> Automatisierung, Monitoring und ständige Verbesserung (mind. alle 18 Monate durch den Prozessowner)

schematische_Darstellung_ Prozesslebenszyklus_comdirect

Quelle: comdirect bank AG - schematische Darstellung eines „Prozesslebenszyklus“

Zusammenfassend war die Veranstaltung trotz der teilweise hochkarätigen Aussteller und berichtenden Unternehmen eine kleine Enttäuschung. In unserem Verständnis von Prozessen spielt die Integration und die Standardisierung bzw. Offenheit mittels BPMN eine viel größere Rolle, wir betrachten die reine Prozessdokumentation (als “Wandtapete“) als ersten Schritt auf einem Weg Richtung Prozess-/Kundenorientierung des gesamten Unternehmens.

Auch waren Themen wie IoT (Internet der Dinge) oder Cloud bestenfalls als Randthemen vertreten. Dies mag zum Einen an der Ausrichtung der Veranstaltung gelegen haben, zum anderen stellt sich die Frage, ob diese Themen bereits in der Unternehmenswirklichkeit angekommen sind?! Wir denken ja! Allerdings ist hier noch viel Erklärungs- und Aufklärungsarbeit zu leisten. Hier müssen sicherlich Vorteile und Nutzen noch besser dargestellt werden (siehe auch hier >> BPM für das Internet der Dinge), die konsequente Umsetzung kann durchaus zu einer spürbaren Veränderung des Unternehmens führen. Es können – eine gewisse Offenheit und Vertrauen der Partner und Systeme vorausgesetzt - durch die Vernetzung von eigentlich “simplen Dingen” völlig neue Produkte, Geschäftsmodelle oder Ökosysteme entstehen.

Sich immer wieder selbstkritisch zu hinterfragen sollte eine Selbstverständlichkeit sein, v.a. in dieser sich schnell wandelnden IT-Zeit mit ihren vielen Begrifflichkeiten und wechselnden Hypes. Daher sollten wir uns Fragen wie diese stellen: Sind unsere Ansätze zu technologisch, zu modern, zu weit weg vom Kunden? Ich denke nein!

Müssen wir uns mehr auf den Kunden, seine Probleme und Gegebenheit vor Ort fokussieren, ihm die Lösungen, die Nutzen-Kosten-Relation und die Möglichkeiten unabhängig vom konkreten Tool besser erklären? Ich denke ja!! Daher sollten wir weg kommen von einer rein technologischen Betrachtung der Features eines Tools, hin zur Problemlösung des Kunden …

Seit letzter Woche stehen nun auch die Vorträge und eine kleine Nachlese zum Download zur Verfügung. Bei weitergehenden Fragen oder Anregungen zum Thema Prozesse können Sie sich gerne jederzeit an uns wenden. Eine E-Mail an info@logicline.de genügt!




Process Mining – das Schürfen nach Prozessinformationen – fluxicon – BPM und Big Data

14. Dezember 2013 von

FluxiconAn der Schnittstelle wischen BPM, Workflow Management (WfM) und Big Data, Business Intelligence (BI) hat sich eine noch recht junge, aber äußerst vielversprechende Disziplin herausgebildet, das “Process Mining“. In der Tat geht es hier darum, Informationen (typischerweise aus Event Logs oder Datenbanken) herauszuschürfen, anzureichern, zu analysieren und darzustellen. Eine schöne Einführung zum Thema gibt die Gesellschaft für Informatik (GI). Prof. Wil van der Aalst, einer der Vorreiter in dieser Disziplin, meint zu den Aufgaben des Process Mining:

  1. Process discovery: Erlernen eines Prozessmodells aus Mustern, wie sie in Ergebnisprotokollen (event logs) aufgezeichnet sind.
  2. Conformance checking: Diskrepanzen zwischen beobachtetem Verhalten und modelliertem Verhalten zu diagnostizieren und zu quantifizieren.

Aus diesen analysierten Daten können Engpässe, Ineffizienzen und Risiken heraus gelesen werden. Insbesondere der Vergleich zwischen dem tatsächlichem Verlauf des Prozesses / der Events durch die Systeme und dem angenommen bzw. modellierten Geschäftsprozess kann sehr aufschlussreich sein. Z.B. wenn Pfade eingeschlagen werden, die laut Dokumentation eigentlich gar nicht möglich sind … Das vollständige Interview zum Thema Process Mining können Sie hier lesen >> WeDoWebSphere: Wil van der Aalst <<.

Neben einer aktiven Open-Source Community gibt es auch einige kommerzielle Anbieter. Hier möchte ich besonders das Tool “Disco” der Firma Fluxicon nennen. Dieses kann Daten in verschiedenen Formaten importieren, die erstellte Process Map kann gefiltert und gezoomt werden und es liefert detaillierte Statistiken (Durchlaufzeiten, Häufigkeiten, Schleifen, etc.). Kombiniert mit einem ansprechenden Look&Feel ist dies momentan das stärkste Tool am Markt.

Der unten dargestellte Ansatz von Process Minig (siehe auch Tom Thaler)  hat aber einen entscheidenden Nachteil, wenn die Datenbasis nicht einheitlich ist (wie bei heterogenen Systemlandschaften häufig der Fall) oder eindeutige Bezeichnungen mehrfach für unterschiedliche Sachverhalte verwendet werden – sprich wenn die Auftragsnummer eben nicht in allen Systemen dieselbe ist.

vorgehen_process_mining

Dann muss diese Datenbasis (Event Data) erst aufbereitet werden. Damit sind die importierten Daten streng genommen auch keine vollständigen Echt- und Livedaten mehr. Dies kann zu Verwirrungen führen, wenn die Auftragsnummer in einem anderen fachlichen Kontext gesetzt wird, als man es in der eigenen Abteilung gewöhnt ist.

Aus unserer Sicht ist dies ein spannendes Thema, das wir weiter verfolgen werden. Hinsichtlich der ersten Abstimmungen im Rahmen der Prozessanalyse mit dem Fachbereich/Business erleichtert eine valide Bestandsaufnahme der Ist-Situation anhand der Echtdaten die Diskussion enorm. Es gibt keine Diskrepanz zwischen gewünschten, dokumentiertem und realem Prozessfluss mehr. Die Konzentration richtet sich allein auf die gewünschten Prozessverbesserungen. Allerdings bleibt die Problematik der Datenqualität vorab zu lösen, und dies kann sich durchaus dann um ein eigenes (kleines) Projekt handeln.

Hier eine kurze Video-Einführung von fluxicon zum Thema:

Haben Sie Interesse an der Thematik? Eine E-Mail an info@logicline.de genügt.




BPMN 2.0 im Praxistest – zu komplex oder gerade passend? – Anwendertag am HPI

13. Oktober 2011 von

Hasso Plattner InstitutBerichte aus der Praxis und Forschung sowie Produktvorstellungen kennzeichneten den BPMN Anwendertag 2011, der am 29. und 30. September 2011 am Hasso-Plattner-Institut (HPI) in Potsdam stattfand. Das wunderschöne Spätsommerwetter lud eigentlich eher zum Flanieren ein, aber die Vorträge entschädigten allemal für den Verzicht. Nachfolgend möchte ich einen kurzen Abriss über die sehr interessante Veranstaltung geben.

Dieses Jahr wurde das Programm in drei Tracks gegliedert um allen Teilbereichen der BPMN gerecht zu werden. Anbei einige Notizen, die ich während der Vorträge gemacht habe:

Track I: Fachliche Modellierung (Moderator: Prof. Dr. Thomas Allweyer, FH Kaiserslautern):
In einer Studie des Fraunhofer Instituts wurde festgestellt, dass beim Requirements Engineering mit Use Case die meisten Fehler/Ungenauigkeiten auftraten. EPKs eignen sich vor allem bei einfachen Zusammenhängen, da sie sehr schnell recht komplex werden. BPMN ist (unter der Vorraussetzung der genauen Kenntnisse der Notation und deren Einhaltung!) daher am ehesten geeignet, um komplexere Anforderungen zu modellieren.

Weiterhin wurde in den Vorträgen deutlich, dass “one shapeset doesn’t fit all” meist zutrifft und daher eine zielgruppenspezifische Auswahl der BPMN-Elemente notwendig ist. Diese Auswahl kann (sollte) aber im Laufe eines Projektes mit den steigenden Kenntnisse erweitert werden. Für das obere Management genügt meist eine einfache Darstellung des Happy-Path, erst in den weiteren Detaillierungsebenen sollten auch Exceptions modelliert werden. Als hilfreich erweist sich auch immer, zu Beginn ein Glossar der Begrifflichkeiten anzulegen.

Auch in der öffentlichen Verwaltung spielt BPMN eine Rolle, zumindest in BaWü. Hier wurden die Prozesse in der Forstverwaltung analysiert und dokumentiert. Nun wird geprüft, ob mit dem verwendeten Tool (MID Innovator) die Handbücher und jegliche weitere Dokumentation mit BPMN abgelöst werden können. Sicher auch ein interessanter Ansatz für ähnliche dokumentationsintensive Bereiche wie Banken und Versicherungen oder das Gesundheitswesen.

Mit einem Vortag der Opitz Consulting ging der Tag fast dann zu Ende. Beachtenswert in diesem SOA-Projekt waren die Notwendigkeit der exakten Nachvollziehbarkeit und die Traceability des BPMN-Modells, der zugehörigen Artefakte, der abgeleiteten SOA-Services und der Dokumentation mindestens zu definierten Zeitpunkten (Quality Gates). Dies wurde mit BPM in Kombination mit UML in einer Toolchain aus Oracle und MID gewährleistet.

Am Abend gab es dann noch eine gelungen Veranstaltung zum Netzwerken im Potsdamer Kutschstallensemble.

Track II: Prozessautomatisierung (Moderator: Jakob Freund, camunda services GmbH):
Im Rahmen der Prozessautomatisierung wurde mehrfach die Problematik der notwendigen Versionierung (technische vs. fachliche Änderungen der Modells) thematisiert. Wobei keine allgemeingültige Lösung genannt werden konnte.

Ebenfalls bemerkenswert zu erkennen war, dass es viele Eigenentwicklungen gibt. Sei es im Rahmen von generischen Pattern mit Sprüngen (Prozess wird mit goto neu gestartet), implementierten Geschäftsregeln mit BPMN, einer Universal Work List oder gleich ganze Parser und Transformatoren. Man wird gespannt sein dürfen, ob dieser Trend bei der neueren Tool-Generation anhält?!

Track III: Fallstudien (Moderator: Prof. Dr. Andreas Gadatsch, FH Bonn Rhein-Sieg):
In diesem Track wurden einige interessante praktische Aspekte genannt:

  • Prozess Owner / Prozessmanager (operativ) / Prozesskoordinator sollte immer definiert sein
  • Prozesslandkarten für das Management (und auch für die Mitarbeiter) sind hilfreich
  • Einführung von Prozessen (mit BPMN) führt fast zwangsläufig auch zu Änderungen in der Organisationsstruktur
  • Transparenz und Einbeziehung aller Mitarbeiter enorm wichtig:
    - durch Dokumentation im Intranet
    - durch Multiplikatoren
    - durch klar definierte Regel und Verantwortlichkeiten
  • Klare Vorgaben für die Modellierung:
    - Styleguide für Layout
    - Verwendung der Elemente
    - Leitfaden

Die meisten Vorträge können auch online mittels tele-TASK angesehen werden. Leider gibt es die Präsentation nicht zum Download…

Allgemeine Anmerkungen zu den Entwicklungen im BPM(N) Bereich:

  1. Viele Unternehmen nutzen die BPMN Notation in den sogenannten oberen Ebenen (Management-Ebene) und halten sich dann nicht streng an die Modellierungsregeln. Man könnte es auch BPMN “light” nennen. Es ist aber de-facto eine Trennung vom Prozess (als Prozesslandkarte) und dem BPMN Regelwerk. Der Hintergrund dieser Trennung ist die Notwendigkeit der Darstellung auch von Hierarchien und Beziehungen. Diese Trennung muss dann spätesten bei der Prozessautomatisierung, vorzugsweise aber schon weit davor, wieder aufgehoben werden. Dieser Nachteil wird aber dadurch kompensiert, dass eine einheitliche Symbolik verwendet werden kann.
  2. Trotz der Problematik der Komplexität der Notation und die Vielzahl der vorhandenen Elemente modellieren auch Fachabteilungen Kollaborationsmodelle mit Kundenbeziehungen. Dies zeigt deutlich, dass die strikte Trennung von IT und Business immer mehr aufgeweicht wird und sich die IT diesen Herausforderungen stellen muss.
  3. Generische Pattern sind momentan nicht Bestandteil des BPMN 2.0 Standards werden aber in der Community stark diskutiert und es gibt Bestrebungen diese in der nächsten Version des Standards mit aufzunehmen. Wobei SAP bereits eigene Pattern anbietet (Stichwort Enterprise Integration Patterns).
  4. Immer wieder wird in den Vorträgen und bei den Diskussionen darauf hingewiesen, dass nicht die Wahl des Tools entscheidend ist, sondern die Einbeziehung und das Engagement der beteiligten Menschen. Besonders interessant in diesem Zusammenhang war die Vorführung eines t.BPM (tangible business process modeling) Methodenkoffer des HPIs, mit dem ein Prozess in einem Workshop gemeinsam definiert werden kann. Hierzu ein paar Impressionen. Besonders imposant war dabei zu sehen wie gemeinsam auf einem Tisch ein Prozess entsteht, verbessert wird, Rollen und Verantwortlichkeiten geklärt werden und dies im Vergleich zu einem Flipchart sehr dynamisch geschehen kann. Das HPI (Herr Alexander Lübbe) legt momentan eine Kleinserie auf. Meiner Ansicht nach für Weiterbildungen ideal, ob es im Unternehmen in der Praxis eingesetzt werden kann hängt wahrscheinlich stark von der Experimentierfreudigkeit der Fachabteilung oder der Überzeugungskraft des Consultants ab.

Zusammenfassend war es eine äußerst interessante und informative Veranstaltung, die ich nur jedem empfehlen kann…




Kurz und prägnant: BPMN White Paper – Termine und Events zu BPM und BPMN

7. September 2011 von

Die Dr. Schniz GmbH hat ein interessantes White Paper als Einführung in BPM erstellt. Hier wird auf die einzelnen Bereiche der BPMN eingegangen. Insbesondere werden die Kern-Elemente (Ereignisse, Aktivitäten, Gateways und Artefakte) mit Beispielen vorgestellt.

Insgesamt eine schön kurze und prägnante Einführung zur Thematik. Allerdings wird der Tool-Aspekt etwas vernachlässigt. Hier sollte stärker auf aktuelle Tools wie IBM BlueworksLive mit Business Process Manager dahinter, bizagi, Visio (ja, wird auch noch benutzt) oder die ARIS Toolset eingegangen werden. Wer sich für mehr Details zu aktuellen Tools und Entwicklungen interessiert, der sei auf die aktuelle Studie “Business Process Management Tools 2011″ vom Fraunhofer Institut verwiesen.

Einige interessante Termine im Herbst 2011 zum Thema BPM:

Ich persönlich werde in Potsdam beim BPMN Anwendertag sein. Vielleicht sieht man sich ja…

Wenn jemand in die Thematik BPM noch schneller einsteigen will: What every Enterprise Architect needs to know about BPM and Workflow (zwar etwas älter, aber immer noch nett anzusehen).




BPM/BPMS Roundtrip Demo – Vom Prozessmodell zur Software

7. Juli 2010 von

Gesagt, getan. Der Ankündigung möchte ich gleich Taten folgen lassen und die erste Demo aus unser Reihe “Agile Business TV” live stellen.

Es geht um eines unserer Lieblingsthemen – BPM. Weniger  um die reine Managementtheorie des Business Process Management, als die unterstützenden IT-Technologien wie BPM-Suiten, BPMN, SOA und ähnliches.

Auch wenn wir bei logicline mit unseren Hoffnungen bezüglich BPM nicht gerade zu einer Randgruppe gehören, so bin ich doch davon überzeugt, dass man mit Hilfe moderner BPM-Plattformen schneller und besser zu langfristig nutzbarer Business Software kommt.

Viele Anforderungen (gerade die nichtfunktionalen) an typische Business Software werden immer noch viel zu oft und zu schlecht in jedem Projekt neu erfunden/implementiert. Und blähen damit Projektdauer und -budget auf, ohne dass mit dem Aufwand auch Mehrwert geschaffen wird. Der liegt nämlich weniger im “Was” als im “Wie”, also den Prozessen die die Software (teil-)automatisiert oder unterstützt.

Wir glauben, dass BPM-Technologie genau hier ansetzt. Sie standardisiert wichtige, aber immer ähnliche Aspekte von Business Software und lenkt den Fokus der Entwickler (im weiteren Sinn) auf die Bereiche in denen Wert geschaffen werden kann – Prozesse, Messbarkeit, Effizienz, Automatisierung und Standardisierung.

Das zu zeigen ist das Ziel des folgenden Videos. Wir verwenden die “Business Operations Platform” der niederländischen Firma Cordys, um einen Prozess (einen sehr einfachen) zu modellieren und zu teilautomatisieren. Wir binden eine externe Datenbank als Webservice ein, erzeugen uns daraus automatisch ein schickes User Interface inkl. – jetzt haltet Euch fest ;-) – einer Google Map.

Anschnallen, losfahren!

(Das Video dauert 14 Minuten. Zu lang für Youtube. Daher der etwas ungelenke Java-Player.)