Poster zu BPM Pattern

Cloud, Integration of Everything oder Big Data – OC besetzt so viele spannende Themen und haut jetzt noch ein neues BPM Poster raus?!

Na klar, all die ausgetüftelten Algorithmen, Chatbots, restful 3rd party services und vernetzten „Dinge“ wollen zu etwas Großem kombiniert werden: Zu einem Geschäftsprozess.

BPMN 2.0 bietet nach wie vor den besten Kompromiss aus Verständlichkeit, technischer Ausführung und Verbreitungsgrad. Geschäftsprozesse sollten für alle Stakeholder transparent anstatt im Quellcode nur für Entwickler und Compiler lesbar sein.

Der Digitalisierungs-Hype rückt zurzeit andere Konzepte ins Rampenlicht, sicherlich auch zurecht. Trotzdem hat BPM nichts an Bedeutung verloren. Deshalb haben wir ein paar wiederkehrende Prozessschnipsel mit Hilfe von BPMN 2.0 als BPM Pattern zusammengetragen und in einem Poster kombiniert.

OC-Poster_BPM-Pattern-min

Ich wünsche euch weiterhin einen guten Flow …

Liebe Grüße,

Hendrik

Veröffentlicht unter BPM & System Integration | Kommentar hinterlassen

The journey to user-centric innovation in 5 simple steps

“Experience the journey to user-centric innovation in 5 simple steps” this was the title of our workshop at the OOP conference this year. Our workshop addressed people who are looking for innovations in digital products and services, but run short of new ideas. People who have ideas, but can’t decide whether they are brilliant or a dead end were welcome as well.

So what did we do? During our workshop our participants experienced Design Thinking in order to avoid the trap of conventional thought patterns and to boost creativity and innovation to find new solutions for issues that have proven to be tough to crack. The challenge we provided was:

“How might we redesign the parking situation in urban environments to improve the living quality?”

So how did we start? After a short introduction to Design Thinking we explored all five steps of the Design Thinking process:

Design Thinking Process

Keep in mind that a core principle of Design Thinking is to question, evaluate and revise your assumptions – what you think you already know – in order to break complacency and bad habits. During the Empathize-Phase we tried to dig deeper into our users minds, needs, behaviours and pain points. We opened up the problem space to identify what users really need. During the Define-Phase we defined different problems and selected the most promising one. For example: Laura needs an easy to reach parking lot in order to have more time for her child, doing sports and shopping.

Various ideas emerged during the Ideation-Phase. We first collected them silently. After everybody has freed his mind we got together in groups and discussed the various ideas. While presenting ideas to others our participants continuously came up with new ideas. At the end of the Ideation-Phase we selected the most promising one and built a prototype during the upcoming Prototype-Phase. For prototyping we provided elements of the story telling box, Lego as well as paper materials. Beyond others prototypes were built for the following ideas:

  • An autonomous cars that works similar to car sharing providers.
  • Drones that store the cars either on houses or other car parking places up in the air.
  • An autonomous trolley that transports the stuff of a sales person from one appointment to another.

Finally we did a short Testing-Phase using presentations. Here are some impressions:

The keep my personal summary short I want to stress three points:

  • Although the prototypes were cheap and easy made I was pretty impressed by the quality of the ideas and how well thought through they were!
  • The time slot was fucking short. We only did a half day workshop and we had to keep a good time management to go through all five steps of the Design Thinking process.
  • And the most beautiful words came from a participant when he noticed, that they came up with a lot of new ideas during the prototyping.
Veröffentlicht unter Strategy & Methods, Uncategorized | Verschlagwortet mit , , , , , , | Kommentar hinterlassen

AWS News KW 4 – 6

DynamoDB Verschlüsselung

Ab sofort ist es möglich Daten in DynamoDB automatisch verschlüsselt abzulegen. Die Verschlüsselung muss dafür lediglich beim Erzeugen der Tabelle aktiviert werden. Ist die Option aktiv, werden alle Daten mit AES-256 und einem service-default KMS key verschlüsselt.

Mit der Datenbank kann wie gehabt gearbeitet werden. Die Verschlüsselung hat dabei keine Auswirkungen auf die Performance.

Das neue Feature ist ab sofort für die Regionen US East (N. Virginia)US East (Ohio)US West (Oregon), und EU (Ireland) kostenlos verfügbar. Es werden lediglich Kosten für die Anfragen an KMS abgerechnet.

Weitere Informationen zu DynamoDB Verschlüsselung hier.

WordPress Polly Plugin

Nutzer von WordPress haben ab sofort die Möglichkeit Amazon Polly als WordPress Plugin einzubinden.

Mit Amazons Text to Speech Engine Polly ist es damit möglich die Blogposts vorlesen zu lassen. Die Erzeugten MP3 Dateien können entweder in WordPress direkt oder in S3 abgespeichert werden.

Eine kleine Kostprobe von Polly:

Weitere Informationen zum WordPress Plugin hier.

Veröffentlicht unter Cloud & Infrastructure | Verschlagwortet mit , , , | Kommentar hinterlassen

Compliance – ein immer wieder unterschätztes Risiko

Wer spricht denn heute noch von Software-Lizenzen, im Zeitalter von Open Source, Digitalisierung und Cloud?

Nun, für die Zukunft mag das Thema Lizenzierung an Relevanz verlieren. Aber dass es sich derzeit noch lohnt, die eigene Lizenzsituation unter die Lupe zu nehmen – oder vielmehr: dass das essentiell wichtig ist – zeigt das folgende Beispiel. Aber der Reihe nach …

Im Anschluss an eine Veranstaltung zum Thema Lizenzierung von Oracle Software kam ein Teilnehmer auf mich zu und bat mich, einmal persönlich bei ihm und seinem Chef vorbeizukommen. Er habe da so ein ungutes Gefühl …

Einige Tage später nun saßen wir zusammen und sprachen über die Situation, die bei meinem Gegenüber das besagte ungute Gefühl erzeugt hatte. Nach einer ersten Diskussion und einer groben Abschätzung der Rahmenbedingungen entschieden wir, die Compliance der Oracle Datenbanken des Unternehmens einmal im Detail zu überprüfen.

Insgesamt war das alles gar nicht so viel. Es ging um knapp 50 Datenbank-Instanzen, die größtenteils als Oracle Standard Edition (SE) lizenziert und weltweit in verschiedenen unternehmenseigenen Rechenzentren installiert und betrieben wurden. Ein paar Datenbanken der Oracle Enterprise Edition (EE) waren auch darunter. Mithilfe eines Vermessungsskripts analysierten wir sämtliche Instanzen, sammelten zusätzliche Informationen über die eingesetzte Hardware- und Betriebssystem-Infrastruktur und nahmen natürlich auch den Lizenzbestand auf.

Schon bei der technischen Analyse der Instanzen gab es erste Überraschungen: Einige der SE Datenbanken waren tatsächlich als EE Datenbanken installiert. Teilweise wurden Optionen eingesetzt (z. B. Partitioning, Advanced Compression), und auch die Enterprise Management Packs waren größtenteils freigeschaltet und daher auch teilweise in Verwendung, hier insbesondere Funktionalitäten der Diagnostics und Tuning Packs. Die Lizenzsituation war also nicht ganz „sauber“. Alles in allem waren die Unstimmigkeiten in diesem Bereich aber noch überschaubar und hätten im Falle eines formalen Audits durch Oracle zwar zu ärgerlichen Nachzahlungen geführt, blieben aber noch in einem vertretbaren Rahmen.

Bei der Analyse der Hardware- und Betriebssystem-Infrastruktur stellte sich die Lizenzsituation dann schon kritischer dar. Wie in vielen Unternehmen üblich trennte auch dieser Kunde den Sytembetrieb vom Betrieb der Oracle Datenbanken. Und so passierte, was passieren musste: Die Rechenzentren waren weltweit komplett mittels VMware virtualisiert. Sie konnten untereinander so transparent kommunizieren, dass von jedem Standort aus jedes System erreichbar war. Die Systeme wurden zwar in diversen vCentern verwaltet, aber eine weitergehende Trennung gab es nicht. Und eines Tages wurden sämtliche VMware-Umgebungen der Reihe nach auf die Version 6.0 aktualisiert.

Wer sich ein wenig mit der Lizenzpolitik von Oracle auskennt, weiß, dass dieser Umstand unweigerlich zu großen Problemen führt. In den Lizenzbedingungen von Oracle (Oracle Master Agreement, OMA) heißt es wörtlich „… alle Prozessoren, auf denen die Oracle Programme installiert sind und/oder ablaufen.“

Die Lizenzierung entsprach schon unter VMware 5.5 nicht ganz dieser Regel. Durch das Upgrade auf 6.0 musste nun die virtualisierte Hardware komplett aufgenommen und durchkalkuliert werden.

Zum Hintergrund: Durch vMotion Live Migration kann jede virtuelle Maschine vCenter-übergreifend in der gesamten Infrastruktur des Unternehmens verschoben werden, und zwar zur Laufzeit. Entsprechend nimmt Oracle an, dass auf allen Systemen eine Installation vorliegt – und da gemäß der Regelung im Oracle Master Agreement „alle Prozessoren, auf denen die Oracle Programme installiert sind und/oder ablaufen“ zu lizenzieren sind, wird dies auch hier verlangt. Dazu kommt, dass SE und EE als zwei verschiedene Produkte auch für die komplette Umgebung zu berücksichtigen sind. Das heißt, das Unternehmen meines Gesprächspartners hätte seine komplette Infrastruktur nicht nur einmalig weltweit lizenzieren müssen , sondern sogar doppelt, einmal für SE, einmal für EE inkl. einiger Optionen und Enterprise Management Packs.

Um die Größenordnung einzuschätzen: Nach Listenpreisen hätte sich für diesen Kunden eine Lizenzunterdeckung in Höhe von ca. 95 Mio. Euro ergeben, zuzüglich 22 % Support pro Jahr!

Man reagierte unvermittelt: Die Verantwortlichen gingen umgehend und mit höchster Priorität an die Bereinigung der Situation. Heute ist die Umgebung neu aufgesetzt und entsprechend den Lizenzbedingungen von Oracle installiert und konfiguriert. Ein Audit fand bislang nicht statt, aber man wäre dafür nun bestens gewappnet.

Compliance ist eben doch ein relevantes Thema …

Veröffentlicht unter Cloud & Infrastructure, Strategy & Methods | Kommentar hinterlassen

Camunda Roadshow 2018 München – BPM und Microservices

Am Freitag, den 19.01., war ich zusammen mit meinem Kollegen Stefan Frena zu Gast bei der Camunda Roadshow 2018 in München. Es wird langsam zur Tradition, dass das Camunda-Team Anfang des Jahres zwei Wochen lang durch ganz Deutschland (und natürlich auch Österreich und die Schweiz) zieht um in komprimierter Form (drei Stunden müssen reichen) den aktuellen Stand des Camunda Produktportfolios zu präsentieren.

In letzter Zeit hört man immer öfter Aussagen wie „BPM ist tot, das macht heutzutage doch eh keiner mehr“; da stellt sich dann natürlich auch für uns als OPITZ Consulting die Frage, ob das denn eigentlich richtig ist und ob wir noch auf Camunda als Partner setzen sollten. Und auch wenn es auf den ersten Blick widersprüchlich wirkt: man muss beide Fragen mit einem klaren „Ja“ beantworten!

Der Hype um BPM ist schon längst vorbei und viele Hersteller haben Probleme damit ihre BPM-Lösungen an den Kunden zu bringen. Diese suchen nämlich nach in jeglicher Hinsicht flexiblen Tools – sei es was das Lizenzmodell betrifft oder auch die Integrationsmöglichkeiten in ihre bestehende Enterprise-Architektur. Hier punktet Camunda ganz enorm: man kann es klassisch als Prozessengine auf dem Server laufen lassen aber auch als Modul mit in einen Microservice packen. Dazu gab es von Bernd Rücker, einem der beiden Mitbegründer von Camunda, eine beeindruckende Präsentation zu sehen. Und genau hier liegt dann auch aus unserer Sicht der Grund für den immer weiter zunehmenden Erfolg von Camunda: man will den Kunden keine Suite verkaufen auf der alle Geschäftsprozesse eines Unternehmens laufen sollen (Stichwort: Enterprise BPM). Da wurde in der Vergangenheit in vielen Firmen erst mal sehr viel Geld investiert um dann auf halber Strecke stehen zu bleiben. Vielmehr sollte man Camunda als Baustein sehen den man individuell in seiner Architektur verwenden kann – sobald man es mit einem Workflow zu tun hat dessen Zustand gespeichert werden muss, lohnt es sich an Camunda zu denken.

Wer das Thema vertiefen will: unter https://blog.bernd-ruecker.com/orchestrating-azure-functions-using-bpmn-and-camunda-a-case-study-ff71264cfad6 findet man beispielsweise einen Artikel von Bernd Rücker in dem er erläutert wie man Stateless Functions durch die Verwendung von Camunda orchestrieren kann – es muss ja schließlich eine Instanz geben, die das Wissen hat, in welcher Reihenfolge diese Funktionen gerufen werden und was passieren soll wenn beispielsweise mal bei einem Aufruf ein Fehler passiert. Sehr empfehlenswert!

Diesen technischen Exkurs in Richtung Microservices fand ich wie schon erwähnt superinteressant. Der Rest der Agenda zielte dann eher auf die Besucher aus den Fachbereichen ab: hier waren einige Vertreter von Firmen vor Ort, die noch gar keine Prozesslösung im Einsatz haben aber aktuell drüber nachdenken es zu tun. Hier schlummert also definitiv noch jede Menge Potential, das wir als seit dem Sommer 2017 offiziell zertifizierter Camunda Partner gerne angehen werden.

Was lässt sich nun zusammenfassend sagen? Vielen Dank an das Camunda-Team für eine wie immer super organisierte und sehr gut besuchte Veranstaltung. Wir werden auch im kommenden Jahr wieder gerne dabei sein!

Veröffentlicht unter BPM & System Integration, Software Engineering | Verschlagwortet mit , , | Kommentar hinterlassen

AWS News KW 4

Mehr Netzwerkbandbreite für EC2

Amazon hat die zur Verfügung stehende Bandbreite für EC2 Instanzen erhöht.

  • EC2 zu S3:  Erhöhung von 5 Gbps auf 25 Gbps
  • EC2 zu EC2: Für Instanzen innerhalb einer Region gilt, bis zu 5 Gbps für single-flow traffic und bis zu 25 Gbps für multi flow Verbindungen (Ein „flow“ definiert eine einzelne Point to Point Verbindung).
  • EC2 zu EC2 (Cluster Placement Group): EC2 Instanzen einen Cluster Placement Group können jetzt mit 10 – 25 Gbps kommunizieren.

Weitere Informationen hier.

Github Enterprise als Quelle für CodeBuild

Ab sofort ist es möglich, Github Enterprise Repositories als  Quelle für AWS CodeBuild zu verwenden.

Weitere Informationen zu CodeBuild hier.

Veröffentlicht unter Cloud & Infrastructure | Verschlagwortet mit , , | Kommentar hinterlassen

Hochverfügbarkeit mit Dbvisit Standby in der Cloud

Bei einem Single Instance Oracle System in der Standard Edition, das hohen Verfügbarkeitsanforderungen genügen muss, bietet sich die Verwendung einer Replikationslösung mittels Dbvisit Standby an. Problem sind die initial hohen Kosten für die neue Hardware und für die Lizenzen von Oracle und Dbvisit Standby. Je nach System kann das ein Betrag im mittleren fünfstelligen Euro Bereich sein.

Betreibt man aber das Standby System in der Cloud, beispielsweise bei Amazon oder Oracle, ergeben sich je nach Systemgröße Kosten von einigen Hundert Euro monatlich. Dies auch inclusive des hohen Kostenanteils für die Oracle Lizenzen!

Kosten können zudem eingespart werden, indem eine geringe CPU-Leistung für den Normalbetrieb im Standby Modus definiert wird, da lediglich die Änderungen der Primärdatenbank eingearbeitet werden müssen. Nur im Fall eines Switch- oder Failover kann die CPU-Leistung entsprechend des Bedarfs für den Betrieb als Primärdatenbank angepasst werden.

Welche Unterschiede bringt die Cloud-Lösung mit sich und was ist besonders zu beachten?

Der Betrieb der Standby Lösung in der Cloud unterscheidet sich in keiner Weise von dem einer lokalen Lösung. Lediglich beim Setup sind ein paar Dinge zu beachten, die im Folgenden noch für die technisch interessierten Leser beschrieben werden.

Was sich für den Administrator ändert, ist vor allem, dass ein tieferes Verständnis in den Bereichen Netzwerk und Sicherheit vorhanden sein sollte. Beispielsweise empfiehlt es sich, den kompletten SQL Netzwerkverkehr zu verschlüsseln. Der Aufwand ist nur gering und es fallen schon seit längerem keine zusätzlichen Lizenzkosten dafür an. Dbvisit Standby verschlüsselt den systemeigenen Netzwerkverkehr per Default. Natürlich müssen die unten genannten Ports in der firmeneigenen Firewall freigeschaltet werden. Ist dies nicht möglich, ist eine Replikation in die Cloud leider keine Alternative.

Ein nicht zu unterschätzender Aspekt ist auch die Netzwerkanbindung vom lokalen Standort in die Cloud. Die Hauptfrage ist hier, ob die Verbindung den Anforderungen gewachsen ist. Der notwendige Durchsatz der Anbindung hängt von der verwendeten Applikation ab. Eine Messung des Durchsatzes der Netzwerkkarte des lokalen Datenbankservers liefert hier eine erste valide Orientierung.

Was ist nun technisch zu beachten?

  • Für den Betrieb der Remotedatenbank muss zunächst ein sogenannter Key Pair definiert werden.
  • Die Firewalls müssen für die benötigten Ports freigeschaltet werden (Default sind hier 1521 für den Oracle Listener und 4433, 7890 und 7891 für die Dbvisit Funktionalitäten). Ob dies der Fall ist, kann durch den Befehl telnet <remote_ip_address> <port_number> überprüft werden.
  • In den Dateien

$DBV_HOME/dbvagent/conf/dbvagent.conf

und

$DBV_HOME/dbvnet/conf/dbvnetd.conf

muss der Eintrag listener_address=<hostname> von <host_name> auf 0.0.0.0 gesetzt werden.

  • Wichtig ist auch, die IP-Adresse des Primärsystems im öffentlichen Netzwerk zu kennen (Ermittlung z. B. mittels https://ipleak.net).

Fazit

Eine Internetanbindung, die nicht leistungsfähig genug ist, stellt aber ebenso ein Hindernis für diesen Lösungsansatz dar, wie sehr sensible Informationen, z. B. Patientendaten.

Für viele andere Anwendungen aber ist eine solch hybride Architektur, der Betrieb sowohl lokal, als auch in der Cloud, eine kostengünstige und wenig aufwändige Lösung.

 

PS: Hier noch ein Screenshot einer Konsole eines so definierten virtuellen Cloud Standby Systems:

xx

Veröffentlicht unter Uncategorized | Kommentar hinterlassen