Datenmengen wachsen in rasantem Tempo – Studien zufolge verdoppeln sie sich alle zwei Jahre. Klassische Architekturen geraten dabei schnell an ihre Grenzen. Immer mehr Informationen aus Transaktionssystemen, IoT-Geräten oder sozialen Medien müssen integriert, verarbeitet und für Analysen verfügbar gemacht werden. Für IT-Architekten stellt sich deshalb die zentrale Frage, wie sie eine Infrastruktur aufbauen können, die nicht nur heute funktioniert, sondern auch in Zukunft flexibel und skalierbar bleibt.

Genau hier setzt Databricks an. Die Plattform vereint eine cloudbasierte Umgebung mit der Fähigkeit, große Datenmengen performant zu speichern, zu transformieren und für Analysen oder Machine-Learning-Szenarien bereitzustellen. Unternehmen erhalten damit die Möglichkeit, ihre Datenlandschaft kontinuierlich zu erweitern, ohne dass die Leistungsfähigkeit leidet.

Stärken von Databricks

Was Databricks besonders interessant macht, ist die Kombination aus Offenheit und Integration. Die Plattform baut auf offenen Standards auf und lässt sich durch eine Vielzahl von Open-Source-Tools erweitern. Das gibt Architekten die Freiheit, bestehende Technologien weiterzuverwenden und neue Lösungen nahtlos einzubinden. Gleichzeitig sorgt die modulare Architektur dafür, dass sich einzelne Komponenten flexibel austauschen oder ergänzen lassen.

Die Vorteile lassen sich im Kern so zusammenfassen:

  • Databricks wächst flexibel mit den Anforderungen und bleibt dabei performant.
  • Daten unterschiedlichster Herkunft und Formate können integriert und verarbeitet werden.
  • Sowohl einfache Analysen als auch komplexe Machine-Learning-Szenarien finden in der Plattform einen geeigneten Rahmen.

Für die Praxis bedeutet das, dass IT-Architekten nicht nur ein leistungsfähiges Werkzeug, sondern auch eine strategische Grundlage erhalten, um ihre Datenarchitektur langfristig zukunftsfähig zu gestalten.

Delta Live Tables und dbt: Zwei Wege zur modernen Datenpipeline

Ein zentrales Thema in jeder Datenplattform ist das Management von Pipelines – also die Frage, wie Rohdaten zuverlässig in eine für Analysen nutzbare Form gebracht werden. In Databricks existieren dafür unterschiedliche Ansätze.

  • Delta Live Tables ist ein nativer Service, der die Erstellung, Überwachung und Wartung von Pipelines weitgehend automatisiert. Fehlerhandling, Monitoring und Skalierung sind direkt integriert, was den Betrieb spürbar vereinfacht. Wie in diesem Blogbeitrag beschrieben, wird DLT durch die Weiterentwicklung zu Spark Declarative Pipelines (SDP) abgelöst. Auf SDP als Nachfolger von DLT gehen wir in einem eigenen Kapitel dieser Blogserie im Detail ein.
  • Mit dbt (Data Build Tool) steht ein ganz anderer Ansatz zur Verfügung. Hier werden Transformationen deklarativ beschrieben, meist mit starkem Fokus auf SQL.

dbt hat sich vor allem im Umfeld von Analysten etabliert, wo mit vertrauten Werkzeugen gearbeitet werden soll und man gleichzeitig von einer großen Community profitieren möchte. Während Delta Live Tables die Plattformintegration in den Vordergrund stellt, bietet dbt eine Arbeitsweise, die sich gut in bestehende Teams und Prozesse einfügt.

Die Medaillon-Architektur als Demo-Szenario

Um die Unterschiede und Gemeinsamkeiten der beiden Frameworks greifbar zu machen, haben wir ein Beispiel-Szenario auf Basis der Medaillon-Architektur entwickelt. Diese Architektur unterteilt Daten in drei Schichten.

  1. Im Bronze-Layer werden die Rohdaten möglichst unverändert importiert – etwa aus CSV-Dateien, die automatisiert erkannt und eingelesen werden.
  2. Der Silver-Layer dient anschließend dazu, die Daten zu bereinigen, anzureichern und historisch konsistent zu speichern. So entsteht eine solide Grundlage für Analysen.
  3. Im Gold-Layer schließlich werden Fakt- und Dimensionstabellen erstellt, die sich unmittelbar für Dashboards, Reports oder weiterführende Data-Warehouse-Konzepte nutzen lassen.

Die Abbildung zeigt den Weg der Daten durch diese Schichten. Besonders interessant ist dabei, wie Delta Live Tables und dbt jeweils – oder auch in Kombination – eingesetzt werden können, um diese Prozesse effizient und zuverlässig zu gestalten.

Die Abbildung zeigt eine Medaillon-Architektur in Databricks
Modellzeichnung unserer Projektarchitektur

Mehr als nur Technik: Organisatorische Faktoren

Die Wahl zwischen Delta Live Tables und dbt ist jedoch keine rein technische Frage. Sie hängt stark von organisatorischen Rahmenbedingungen ab. Verfügt das Team bereits über Erfahrung mit einem der Tools, oder sind zusätzliche Schulungen notwendig? Wie leicht lassen sich Fachkräfte mit den entsprechenden Kenntnissen am Markt finden? Und welche strategische Ausrichtung verfolgt das Unternehmen – setzt es lieber auf ein stark integriertes Plattform-Feature oder auf ein weit verbreitetes Open-Source-Werkzeug mit aktiver Community?

Auch die Zukunftssicherheit spielt eine Rolle. Datenarchitekturen müssen so ausgelegt sein, dass sie sich mit den Anforderungen des Geschäfts entwickeln können. Die Entscheidung für ein bestimmtes Tool sollte deshalb immer im Kontext des gesamten Unternehmens betrachtet werden. Letztlich geht es darum, die richtige Balance zwischen technologischen Möglichkeiten, organisatorischen Ressourcen und strategischen Zielen zu finden.

Ausblick auf die Blogserie

Dieser erste Teil hat die Grundlagen gelegt und gezeigt, warum Databricks als Plattform eine Relevanz hat und wie Delta Live Tables und dbt ins Bild passen.

In den nächsten Beiträgen gehen wir ins Detail:

  • Teil 2: Projektumsetzung mit Delta Live Tables

  • Teil 3: Projektumsetzung mit dbt

  • Teil 4: Gegenüberstellung der Ansätze und Fazit

  • Teil 5: Delta Live Tables und der Übergang zu SDP

Es lohnt sich also dran zu bleiben!

Foto: Thomas Eichler, OPITZ CONSULTING
Alle Beiträge von Thomas Eichler

Thomas Eichler ist seit vielen Jahren Lead Consultant für Analytics bei OPITZ CONSULTING. Er unterstützt Unternehmen aus der Banken-, Medien- und Telekommunikationsbranche dabei, Datenplattformen so aufzubauen, dass sie verlässliche Analysen und fundierte Entscheidungen ermöglichen – von klassischen On-Premise-Systemen bis hin zu modernen Cloud-Technologien.

Foto: Maximilian Wilhelmi, OPITZ CONSULTING
Alle Beiträge von Maximilian Wilhelmi

Maximilian Wilhelmi ist Lead Consulting für Analytics bei OPITZ CONSULTING und unterstützt Unternehmen aus dem Einzelhandel, der Pharmaindustrie und der Telekommunikation dabei, aus Daten echten Mehrwert zu schaffen. Sein Schwerpunkt liegt auf skalierbaren BI-Lösungen – von klassischen On-Premise-Systemen bis hin zu modernen Cloud-Technologien.

Schreibe einen Kommentar