Gegenüberstellung der Ansätze und Fazit Moderne Datenplattformen stehen vor der Herausforderung, stetig wachsende Datenmengen aus unterschiedlichsten Quellen zuverlässig, reproduzierbar und skalierbar zu verarbeiten. In diesem Kontext haben sich Cloud Data Warehouses, Lakehouse-Architekturen und ELT-Ansätze als Quasi-Standard etabliert. Zwei Werkzeuge, die dabei häufig genannt werden, sind Delta Live Tables (DLT) von…
Was ist dbt und was bietet mir das Tool? Data Build Tool (dbt), ist ein Open-Source-Framework, das entwickelt wurde, um…
Databricks ist eine cloudbasierte Datenanalyse- und KI-Plattform, die auf Apache Spark basiert und die Zusammenarbeit zwischen Data-Scientists, Data-Engineers und Analysten…
Datenmengen wachsen in rasantem Tempo – Studien zufolge verdoppeln sie sich alle zwei Jahre. Klassische Architekturen geraten dabei schnell an…
In dieser Blog-Serie möchte ich euch das Full Stack Framework Remix als eine vielversprechende Alternative vorstellen, insbesondere für die Entwicklung…
Während sich im Backend eine fachliche Trennung von Monolithen in unterschiedliche Module (Modulithen) oder gar Microservices etabliert hat, ist die…
Anschub für IT-Modernisierung – Teil 4: Negativbeispiele und ihre Lösung Ich hatte es versprochen: Nach den eher theoretischen Überlegungen des…
Anschub für IT-Modernisierung – Teil 3: Wie hilft Context Mapping, die Modernisierung erfolgreich aufzusetzen? Im letzten, 2. Teil dieser Serie…
Anschub für IT-Modernisierung – Teil 2: Context Mapping und seine Bausteine Im ersten Teil Mehr als eine Wand voll Post-its…