TDWI Young Guns Barcamp @Hamburg

Am 27.10.2017 fand in der Superbude in St. Pauli / Hamburg das Business-Intelligence-Barcamp, organisiert vom TDWI, statt. Das lockere Treffen in einer sehr coolen Location wurde extra für die „Young Guns“ ausgerichtet. Somit waren vor allem Studenten, Berufseinsteiger, Young Professionals oder erfahrene BI-Experten in Begleitung eines Juniors anwesend. 20171027_140240 (2)

Der Sinn dahinter ist, dass der jüngeren Generation der Einstieg in die BI-Welt durch offene Diskussionen auf Augenhöhe vereinfacht wird.

Durch vorbereitete oder spontane (auch von Opitz Kollegen gehaltene) Vorträge wurde eine offene Diskussion zu verschiedensten Themen angestoßen.

Zu Beginn des Events gab es keine feste Agenda. Diese wurde – ganz agil natürlich – aus den Interessen der Teilnehmer aufgestellt. Dabei konnte jeder der wollte ein Thema vorstellen, über welches anschießen abgestimmt wurde, ob es Teil der Tagesagenda wird.

 
Das Hauptaugenmerk lag auf Business Intelligence, Big Data und Analytics Themen. Jedoch wurden weitere große Themen wie IoT, Machine Learning und Cloud-Computing auch angerissen.

20171027_151415

Das Barcamp startete direkt mit einem spannenden Vortrag zu einer Digitalen Plattform, die bei WMF entwickelt wurde. Hierbei ging es um die Möglichkeiten der Datenanalyse an dem Beispiel einer Kaffeemaschine. Das Aufzeichnen der Nutzungsdaten bot viel Potenzial für spannende Analysen. Beispielsweise wurde eine App entwickelt, die dem Nutzer ein Dashboard anzeigt, das die tägliche Nutzung der Maschine darstellt, Fehlermeldungen oder Alarm ausgibt und bei Bedarf direkt einen Techniker rufen kann. Ein sehr spannender Teil in diesem Vortrag war als über die weiteren zukünftigen Möglichkeiten diskutiert wurde. Ein Beispiel wäre, dass es durchaus realistisch ist, dass es in wenigen Jahren Kaffeemaschinen mit Gesichtserkennung geben könnte, die den Konsumenten erkennen und ihnen direkt ihr gewünschtes Getränk zubereiten ohne etwas einstellen zu müssen. Auch das selbstständige Reparieren eines Vollautomaten könnte mit Hilfe einer VR-Brille umgesetzt werden.

Diese Ideen werden scheinbar in einigen Unternehmen tatsächlich evaluiert und für die Zukunft angedacht. Auch wenn die Maschinen vielleicht bald die Welt übernehmen – technisch gesehen ist das auf jeden Fall spannend!

Ein weiterer Slot wurde mit einem Impulsvortrag zu „Realtime Analytics“ gefüllt. Hierbei ist mir vor allem der Spruch „Batch Analysis ist wie Autofahren und nur in den Rückspiegel schauen“ im Kopf geblieben. Weiter ging es in dem Vortrag um den Aufbau eines Azure Stacks, der Realtime Analytics mit Hilfe von IoT Daten darstellte. Durch das Hinzufügen von größeren Batch-Loads und dem anschließenden Abgreifen beider Datenströme mit Machine Learning Algorithmen für Predictive Analytics, zog großes Interesse auf sich. Besonders spannendend war für mich in diesem Kontext vor allem die komplette Bereitstellung der Ressourcen in der Microsoft Cloud.

Auch von Opitz-Consulting wurde eine Diskussionsrunde geleitet, in welcher die Datenmodellierung mit Data Vault behandelt wurde. Hierbei entstand eine kontroverse Diskussion über die Handhabbarkeit und Langfristigkeit der Modellierung. Außerdem flossen verschiedene Erfahrungsberichte von Projekten mit ein.

20171027_173811

Nach einigen weiteren Vorträgen und Diskussionen wurde der Name des Barcamps auch Programm.

Nachdem das Barcamp offiziell vorbei war, blieben wir noch mit einigen anderen Teilnehmern eine Weile bei Drinks und Snacks, da es noch einigen Gesprächsbedarf zu verschiedenen Themen gab. Anschließend ließen wir mit den Hamburgern (Christoph, Arjuna, Daniel, Björn) und den angereisten Kollegen (Luka aus Bad Homburg und Clarissa aus Essen) entspannt den Abend ausklingen.

Fazit: Cooles Event, nette Leute – wir (Daniel und Arjuna) können das BI-Barcamp auf jeden Fall sehr empfehlen!

20171027_163045

 

 

Veröffentlicht unter Analytics & BigData, News | Verschlagwortet mit , , , , , , | Kommentar hinterlassen

DAS GANZE IST MEHR ALS SEINE TEILE

Am 16.11.2017 haben Torsten Jaeschke und ich einen Vortrag zu diesem Thema im Rahmen der Continuous Lifecycle Konferenz in Mainz gehalten. Es ist eine gute Idee sich die Folien als Ergänzung anzusehen.

Wir Softwareentwickler beschäftigen uns mit Methoden, wie wir Fachdomänen strukturieren und Prozesse erheben. Aber wann haben wir dies das letzte Mal auf unsere eigene Domäne angewandt? Sind unsere Produktionssysteme, d.h. von der Entwicklungsumgebung, über Ticketsysteme, Versionskontrolle, CI/CD Tools, Staging Umgebungen etc. einfach so gewachsen? Erliegen wir Entwickler, Architekten, IT-Leute also selber zu schnell der Gefahr, dass wir uns mit dem Lösungsraum auseinandersetzen und unseren Problemraum eigentlich gar nicht genau kennen?

Problem- vs Lösungsraum

Was hat es eigentlich mit diesen Begriffen vom Problem- und Lösungsraum auf sich? Warum ist es wichtig, erst das Problem genau zu verstehen und erst dann über die Lösung nachzudenken?

Weiterlesen

Veröffentlicht unter Software Engineering | Kommentar hinterlassen

Innovation im Mittelstand

Ein Kunde der im Bau von Maschinen und Bearbeitungslinien zur Fischverbeitung in Deutschland tätig ist, möchte nicht nur seinen Fertigungsprozess effizienter gestalten, sondern auch eine innovative und smarte Steuerung für seine Maschinen entwickeln. Das Unternehmen hat erkannt, dass für den Wirtschaftsstandort Deutschland die Unternehmensstrategie angepasst werden muss, um die Marktposition ausbauen zu können und als Innovator in der Industrie 4.0 wahrgenommen zu werden.

Um die Aktivität in der Industrie 4.0 zu demonstrieren, hat das Unternehmen eine Fachmesse für seine Kunden veranstaltet wo effektiv veranschaulicht wird, wie das Unternehmen mit der Digitalisierung umgeht. Ein Teil der digitalen Transformation, mit der sich Opitz Consulting Deutschland GmbH und das OC|Lab für das Unternehmen beschäftigt hat, ist die smarte Interaktion mit einer Maschine für die Fischverarbeitung.

Dazu wurde ein Case entwickelt, in der eine Datenbrille, die HoloLens von Microsoft, als ein Werkzeug zur Bedienung der Maschine dient und statistische Daten der Maschine als Hologramme in einem reellen Raum visualisiert. Dies wird durch die Kameras der MS HoloLens ermöglicht, welche mehrmals die Sekunde die Umgebung scannen und die aktuellen Daten der Maschine auf einem virtuellen Dashboard darstellen können. Des Weiteren bietet die HoloLens die Möglichkeit, per Gesten mit der Maschine zu interagieren. Wie die Realisierung des Cases aussieht, ist auf dem unteren Bild veranschaulicht.

opcua_hololens_interaktion

Für die Interaktion mit einem modernen Client wie der Microsoft HoloLens, ist die Maschine mit einen OPC UA Server ausgestattet. Der OPC UA Server ist das Kommunikationsprotokoll, welches sich als Standard in der Industrie durchgesetzt hat. Der Server stellt die Sensoren als Nodes zu Verfügung, mit denen nach dem Publish/Subscribe Verfahren kommuniziert werden kann.

Im ersten Schritt wurden die Nodes zur Interaktion mit der Maschine für die HoloLens identifiziert. Nachdem dem abonnieren der Nodes, standen die Daten der Maschine zur Visualisierung in einem Hologrammdashboard bereit. Das Hologrammdashboard welches mit Unity designt worden ist, ist mit C# Scripten versehen, welche die Publish/Subscribe Methoden enthalten. Die Hologramme visualisieren zum einen die Maschinendaten in der realen Umgebung in Echtzeit und zum anderen bieten sie die Möglichkeit durch Gesten die Maschine zu steuern.

Im Bild unten sind einige virtuelle Objekte/Hologramme, die mit Blender und Unity entwickelt worden sind und zur Interaktion mit der Maschine dienen. Links auf dem Bild wird durch einen „AirTap“ auf den blauen Button, die Statistik des aktuell verarbeitenden Fisches angezeigt. In der Mitte bietet das Hologramm die Gesamtanzahl der Fische an, die mit der Maschine verarbeitet worden sind. Darüber hinaus werden die kritischen Fehler der Maschine durch ein Warnsymbol als Hologramm auf der Maschine dargestellt. Die Minus/Plus Buttons verändern in Echtzeit die Verarbeitungsgeschwindigkeit der Maschine die durch die Gesten ausgelöst werden.

hologramme

Mit diesem Industrie 4.0 Case hat das Unternehmen, mit Hilfe von Opitz Consulting Deutschland GmbH, seinen Fachbesuchern veranschaulicht, dass man in die Zukunft investiert und Innovationen in laufenden Prozessen testet. Die Hologramme und der Einsatz von Datenbrillen zur Steuerung der Maschinen, hat einen bleibenden Eindruck bei den Messebesuchern hinterlassen und war die Innovation, die auf der Messeparty zum Gesprächsthema wurde.

Der Case hat auch intern die Herausforderungen verdeutlicht die in der industriellen Revolution 4.0 zu bewältigen sind. Die wichtigste Herausforderung ist jedoch, Ressourcen zu schaffen um digitale Strategien zu erproben. In solchen Fällen ist es unabdingbar auf IT Consultants zurückzugreifen und auf einen starken Partner in der digitalen Transformation zu setzen.

 

Veröffentlicht unter Analytics & BigData, Cloud & Infrastructure, IoT & Industry 4.0 | 1 Kommentar

Besuch der Anwenderkonferenz Internet of Things / Industrial Internet in Berlin

Am 08.11.2017 fand in Berlin die IoT Anwenderkonferenz statt, die als Folgetermin eines IoT Workshops und über den GITO Verlag gemeinsam mit der Uni Potsdam organisiert wurde. Wir hatten das Glück um einen Vortrag gebeten zu werden, so dass Daniel Rock und Dominik Bial mit ihrem Talk „Mit Volldampf in die Digitalisierung – IoT als zentraler Treiber“ vor Ort waren.

Weiterlesen

Veröffentlicht unter Cloud & Infrastructure, IoT & Industry 4.0 | Kommentar hinterlassen

AWS News KW 44

100 CloudFront Points of Presence

Amazon CloudFront ist Amazons Content Delivery Network. Mit der Eröffnung des 5. Endpoints in Tokio besteht das Netzwerk jetzt aus 100 „Points of Presence“ die sich wiederum aufteilen in 89 Edge Locations und 11 regionale Edge Caches.

Weitere Informationen zu CloudFront hier.

AWS Direct Connect Gateway

Mit DirectConnect ist es möglich das eigene Netz mit einem VPC zu verbinden. Bisher war für jedes VPC eine eigene Verbindung notwendig. Mit dem Direct Connect Gateway können nun mehrere VPCs mit einer Verbindung angebunden werden. Vorausgesetzt sie haben keine überlappenden CDIR Konfigurationen.

Weitere Informationen zu Direct Connect hier.

IAM Authorisierung für RDS Aurora und MySQL

Ab sofort kann IAM für die Autorisierung für RDS Aurora und MySQL verwendet werden. Dadurch muss beim Zugriff auf die Datenbank nicht mehr der Benutzername und das Passwort verwendet werden. Stattdessen werden temporäre Credentials benötigt, die durch den IAM Security Token Service erstellt werden.

Weitere Informationen zur IAM Autorisierung  für RDS Aurora und MySQL hier.

SES Reputation Dashboard

Bei der Verwendung von Amazons E-Mail Service SES müssen einige Dinge beachtet werden. Der Grund dafür ist, das Amazon sehr viel Wert darauf legt, das Ihre Endpunkte nicht dafür bekannt sind als Spam Sender zu gelten.

Das neue Dashboard liefert mehrere Informationen die zeigen ob man vor einer Sperrung steht, da die eigenen Mails zu oft als Spam angesehen werden.

Weiter Informationen zu neuen Dashboard hier.

 

16 weitere Services HIPAA und HITECH kompatibel

Folgende Services sind jetzt HIPAA und HITECH konform.

  • Amazon Aurora mit PostgreSQL
  • Amazon Cloudwatch Logs
  • Amazon Connect
  • Amazon ElastiCache for Redis
  • Amazon Kinesis
  • Amazon RDS für MariaDB
  • Amazon RDS SQL Server
  • Amazon Route53
  • AWS Batch
  • AWS CloudHSM
  • AWS Key Management Service
  • AWS Lambda
  • Lambda@Edge
  • AWS Snowball Edge
  • AWS Snowmobile
  • AWS Storage Gateway

 

 

Veröffentlicht unter Cloud & Infrastructure, Uncategorized | Verschlagwortet mit , , , | Kommentar hinterlassen

AWS News KW 38 – 43

Da ich die letzten Wochen Urlaub hatte, gab es keine Zusammenfassung der AWS News. Während meines Urlaubs war ich auch in Seattle und entdeckte durch Zufall das das Hotel nur eine Straße vom Amazon HQ entfernt war.

_1060088

Die Kugeln sind nicht das HQ sondern nur zukünftige Meetingräume. Das Gebäude links davon ist das HQ. Schön fand ich vor allem, das die Mitarbeiter animiert werden Ihre Hunde mit ins Büro zu bringen. Im Ergebnis gibt es dann auch ein Auslaufgebiet direkt am Haupteingang.

Nun aber zu den eigentlichen News.

Amazon Aurora mit PostgreSQL Kompatibilität

Wie bereits auf dem AWS Summit in Berlin erwähnt und als Preview verfügbar kann ab sofort Aurora als PostgreSQL kompatible Datenbank betrieben werden. Aurora ist dabei zu PoastgreSQL Version 9.6.3 kompatibel.

Alle bekannten Features von Aurora sind verfügbar. Besonders zu erwähnen sind dabei die autoscaling Funktion bis zu 64TB Speicher, 6-fache Datenreplikation und die out of the Box verfügbaren Monitoring Informationen.

Amazon spricht von bis zu 3-facher Performance im Vergleich zu einer gewöhnlichen PostgreSQL Installation.

Weiter Informationen zu Aurora hier.

Amazon Linux AMI 2017.09

Eine neue Version des von Amazon verwalteten Linux AMI wurde released. Mehrere Bibliotheken wurden aktualisiert.

Weitere Informationen zum AMI hier.

Microsoft SQL Server 2017 für EC2

Es können jetzt mehrere AMI´s für EC2 Instanzen gewählt werden, die Windows Server 2016 sowie SQL Server 2017 in den Versionen Web, Express, Standard und Enterprise beinhalten.

Als Lizensierungsoptionen existieren folgende Varianten:

  • Pay As You Go: Ist vor allem geeignet wenn keine langfristigen Lizenzmodelle gewünscht sind. Beispielsweise für Evaluierungen
  • License Mobility und Bring Your Own Licenses: Sind gute Modelle für bereits vorhandene Lizenzen.

Weitere Informationen zu Microsoft SQL Server 2017 hier.

Support für mehrere TLS/SSL Zertifikate für den Application Load Balancer mit SNI

Ab sofort unterstützt der Application Load Balancer mehrere TLS/SSL Zertifikate. Eine wildcardbasierte Auswahl der Zertifikate war bereits möglich. Hinzugekommen ist der Support für SNI (Server Name Indication).

Weitere Informationen zum ALB hier.

Gluon, ein Maschine Learning Framework von AWS und Microsoft

AWS und Microsoft haben gemeinsam das Gluon Framework entwickelt. Es soll den Einstieg sowie die Implementierung von Deep Learning Methoden vereinfachen.

Weitere Informationen zu Gluon hier.

Amazon Lightsail Unterstützung von Windows

Lightsail, Amazons Dienst für Virtuelle Private Server unterstützt ab Sofort Windows. Angeboten werden die Versionen Windows Server 2012 R2, Windows Server 2016 sowie Windows Server 2016 mit SQL Server 2016 Express.

Die Server selber haben 512MB – 8GB Arbeistspeicher, 1 oder 2 vCPU´s und bis zu 80GB SSD Speicher. Die Preise beginnen bei 10 Dollar pro Monat. Die kleinste Instanz ist für den ersten Monat kostenlos.

Das neue Feature ist ab sofort in folgenden Regionen verfügbar. US East (Northern Virginia)US East (Ohio)US West (Oregon)EU (London)EU (Ireland)EU (Frankfurt)Asia Pacific (Singapore)Asia Pacific (Mumbai)Asia Pacific (Sydney), und Asia Pacific (Tokyo).

Weitere Informationen zu Amazon Lightsail hier.

VPC Support für Amazon Elasticsearch

Bisher war es notwendig um von innerhalb eines VPC aus auf Elasticsearch zuzugreifen dieses VPC für das Internet zu öffnen, da Amazon Elasticsearch nur per Internet erreichbar war.

Mit dem VPC Support ist dies in Zukunft nicht mehr notwendig und das VPC muss nicht für das Internet geöffnet werden, was die Sicherheit erhöht.

Weitere Informationen zum VPC Support für Amazon Elasticsearch hier.

Cost Allocation Tags für Amazon Simple Queue Service

Mit dem Support von Tags können Kosten anhand dieser Tags überwacht werden. Mit diesem Feature ist es Beispielsweise möglich die Kosten einer bestimmten Abteilung im Blick zu behalten.

Nachdem in den letzten Jahren immer mehr Services Tag Support erhalten haben (DynamoDB, Lambda …) ist dieses Feature ab sofort auch für SQS aktiv.

Weitere Informationen zu Tags in SQS hier.

EC2 Instanzen mit bis zu 8 NVIDIA Tesla V100 GPU´s

Mit den neuen P3 Instanz Typen erweitert Amazon sein Angebot GPU optimierter Instanztypen. Die Instanzen sind in folgenden Konfigurationen in den Regionen US East (Northern Virginia)US West (Oregon)EU (Ireland), und Asia Pacific (Tokyo) verfügbar.

Model NVIDIA Tesla V100 GPUs GPU Memory NVIDIA NVLink vCPUs Main Memory Network Bandwidth EBS Bandwidth
p3.2xlarge 1 16 GiB n/a 8 61 GiB Up to 10 Gbps 1.5 Gbps
p3.8xlarge 4 64 GiB 200 GBps 32 244 GiB 10 Gbps 7 Gbps
p3.16xlarge 8 128 GiB 300 GBps 64 488 GiB 25 Gbps 14 Gbps

Diese Instanztypen eigenen sich vor allem für grafikintensive Anwendung oder für Machine Learning. Natürlich könnten sie auch genutzt werden um Bitcoins zu schürfen. Die Preise beginnen bei ca 3$ pro Stunde für die p3.2xlarge und enden bei knapp 25$ pro Stunde für die p3.16xlarge.

Weitere Informationen zu den neuen P3 Instanzen hier,

 

Veröffentlicht unter Analytics & BigData, Cloud & Infrastructure | Verschlagwortet mit , , , , , , , , | Kommentar hinterlassen

React vs. Angular – When to Choose Which?

A couple of days ago, Marius Hofmeister and I held a talk about „Angular vs. React“ at the International JavaScript conference iJS at Munich. Which one is better, Angular or React?

Truth to tell, we can’t answer the question. Actually, it’s the wrong question, anyway. The real question is „Which one is better for my project?“

It depends!

Because that’s what we found out during our investigation: During the last couple of years, Angular and React have learned a lot from each other. Each team is watching the progress of the other team. Good ideas tend to be adopted by the other team after a while, provided they match the general philosophy of the framework.

So we came to believe you can do anything with either framework. We’ve collected a couple of technical criteria helping you choose the right tool for the job. But you should base your decision on technical considerations alone.

Take performance, for example

For instance, we’ve been frequently asked about performance. Raw speed seems to be an important topic to JavaScript developers. The answer of React.js is: „We’re the fast ones“, and I’m tempted to believe them. On the other hand, the Angular answer is „We’re fast enough. Plus, we’re rapidly catching up!“

That matches my personal experience, too. Granted, there are use cases requiring as much performance as you can get. But these are corner cases. More often than not, being fast enough is all you need.

Ask your team!

Cutting a long story short, we identified a couple of technical considerations you should take in mind. But there are more important topics. I’ve never seen a project failing because of technical problems. But I’ve seen a lot of projects failing because of human factors. So you should ask your team. If your team members have a lot of experience with JavaScript, choose React. If they prefer functional programming over object-oriented programming, choose React. If you’ve got a large web page containing lots of interactive elements, each interacting with each other, choose React.

On the other hand, if you’re coming from a Java or C# background, choose Angular. If you’re working for a big enterprise, developing an application consisting of hundreds of forms, you’ll prefer Angular. If you feel familiar with TypeScript after an hour, choose Angular.

Wrapping it up

You get the idea. Most discussions in the blogosphere are sort of misleading. They concentrate on their pet topics: „I hate TypeScript!“ or „I need performance!“. Take them with a grain of salt. Maybe the slides of our talk help you. Plus, you may be interested in our interview with Jaxenter.com. It provides you with some additional information neither this article nor our slides cover.

There’s also my previous article comparing Angular with React on BeyondJava.net. Not that I’ve published the article during our research phase, so I’m sure it has a couple of issues. Even so, it contains some additional info that didn’t make it into the final slides.

Veröffentlicht unter Frontend Development | Verschlagwortet mit | Kommentar hinterlassen