Am 12. bis 14. Mai 2025 war es wieder so weit: Gartner lud Business-Analysten und Datenverantwortliche aus der ganzen Welt zum Gartner Data & Analytics Summit nach London ein. Wir waren zu dritt dabei und freuten uns auf drei Tage geballte Informationen zu den unterschiedlichsten Data-&-Analytics-Themen.

Der Gartner Summit findet zu unterschiedlichen Themen jährlich mehrmals an verschiedenen Orten statt. Bei dieser Gelegenheit berichten die Analysten von Gartner über ihre Erkenntnisse und Erfahrungen aus den Gesprächen mit ihren Kundenfirmen weltweit und aus ihrer Forschungsarbeit. Neben den Trends, die sie am Markt wahrnehmen, kann man auf dem Summit aber auch Unternehmen und Produkthersteller näher kennenlernen und sich deren Produkte zeigen lassen.

Es war nicht immer leicht, sich aus den über 200 verschiedenen Sessions die spannendste herauszusuchen, da meist fünf oder mehr Sessions parallel stattfanden. Neben den Vorträgen der Gartner Analysten gab es auch viele Projekt- und Produktvorstellungen der fast 100 Aussteller.  Hier nun meine notwendigerweise subjektive Sicht auf spannende und relevante Themen der Konferenz.

Generative KI & Decision Intelligence

Wie erwartet war das Thema Künstliche Intelligenz, insbesondere generative KI (GenAI), allgegenwärtig. In den Vorträgen ging es zum einen darum einzuordnen, wie stark diese Technologie zukünftig unsere Arbeit verändern wird (erheblich) und wo sie überall eine Rolle spielen wird (in vielen Bereichen). Zum anderen gab es viele technische Hilfestellungen, wie KI-Projekte angegangen und auch erfolgreich umgesetzt werden können.

Zwei von vielen Themenbereichen des Summit möchte ich hier besonders hervorheben:

  • Wie verbessert KI die Tools, die wir benutzen
  • Wie treffen wir bessere Entscheidungen, auch mit Hilfe von KI

Toolunterstützung durch KI

Im Bereich Tools geht es um die KI-Unterstützung bei der Erstellung von z. B. Berichten und Datenpipelines. Zwei einfache Beispiele:

  • Microsoft, das die Copilot-Funktionalitäten in nahezu allen Bereichen integrieren wird, insbesondere zur Verbesserung der Berichtserstellung (z. B. in Power BI) und der Datentransformationen (z. B. in der Data Factory).
  • Auch Plotly plant die Einführung eines Assistenzsystems, das in der Lage sein soll, natürliche Sprachbefehle zu verstehen und darauf basierend Reporting-Anwendungen zu bauen.

GenAI soll uns also dabei helfen, schneller und einfacher zu Ergebnissen zu kommen. Es zeigt sich, dass die Hersteller hier unterschiedlich weit sind, meist aber noch nicht so weit, wie man sich das erhofft. KI-Funktionalität ist bisher häufig nur in Form von Beta-Features umgesetzt, die in den Produkten erst im Laufe des Jahres ausgerollt werden.

Generell befindet sich das Thema GenAI im Hype-Zyklus (siehe: https://de.wikipedia.org/wiki/Hype-Zyklus) nach anfänglicher Euphorie nun auf dem Weg ins  „Tal der Enttäuschung“, was man an den mittlerweile immer häufiger werdenden Berichte über die Grenzen der Technologie sieht. So musste der Finanzdienstleister Klarna z. B. feststellen, dass seine Idee, seine gesamte Kundenbetreuung auf Chatbots umzustellen, so (noch) nicht funktioniert. Also ruderte er zurück und stellte wieder „echte“ Mitarbeiter:innen für die schwierigen Fälle ein. (siehe: https://futurism.com/klarna-openai-humans-ai-back).

Trotz allem war der Grundtenor auf dem Summit aber positiv: Man freut sich auf die neue Welt, in der viele Mitarbeitende enorm von den Möglichkeiten der KI profitieren werden.

Entscheidungsunterstützung mit KI

Der zweite Themenbereich ist die weitergehende Unterstützung und idealerweise auch Automatisierung von Entscheidungen. Schlussendlich wollen wir mit unserer Arbeit im Bereich Data und Analytics ja immer die Fachbereiche bei ihren Entscheidungen unterstützen. Und das in einer Welt, in der einerseits immer mehr und komplexere Entscheidungen getroffen werden müssen und uns auf der anderen Seite immer mehr Daten und Analysetechniken zur Verfügung stehen.

Decision Intelligence (siehe: https://www.gartner.com/en/information-technology/glossary/decision-intelligence) versteht sich als Fachgebiet, bei dem es darum geht, den Entscheidungsprozess genauer zu betrachten, zu verstehen und zu verbessern. Die Idee, mit Hilfe von Daten (liefert Data & Analytics) Entscheidungen (trifft der Fachbereich) zu verbessern, ist ja nicht neu, scheint aber schwieriger umzusetzen zu sein als gedacht.

Das Thema war gleich in mehreren Vorträgen präsent. Neben Hinweisen wie man es angeht, Entscheidungen zu formalisieren und gezielt zu verbessern, wurde immer wieder das Thema „Wert“ betont: Vielleicht ist es an der Zeit den Begriff „data-driven“ endgültig durch den Begriff „value-driven“ zu ersetzen; denn schließlich wollen wir mit den Daten und Analysemöglichkeiten den Fachbereichen ja zu Entscheidungen verhelfen, die dann einen Mehrwert liefern. Sich etwas methodischer mit der Art und Weise zu beschäftigen, wie Entscheidungen getroffen werden und wie man dies verbessern kann, ist auch deshalb keine schlechte Idee.

Hier schließt sich dann auch wieder der Kreis zur (generativen) KI, die als Technologie dabei helfen soll, Entscheidungen besser zu unterstützen und weiter zu automatisieren.

Data Governance & Data Observability

Auch die Themen Data Governance und Data Observability waren beim Gartner Data & Analytics Summit prominent vertreten. Data Observability, unter allen Konferenzthemen vermutlich das neueste – bezeichnet die Fähigkeit, den Zustand von Daten sowie deren Transformationen innerhalb eines Unternehmens kontinuierlich zu überwachen, zu analysieren und nachzuvollziehen. Ziel ist es, frühzeitig Unregelmäßigkeiten zu erkennen, Fehlerquellen zu identifizieren und die Integrität datenbasierter Prozesse sicherzustellen.

Im Rahmen des Summit stellten viele Anbieter aus diesem Bereich ihre Tools vor, darunter auch einige, die mir noch nicht bekannt waren. Diese Tools erlauben die Definition von Datenqualitätstests,  zeigen Data Lineage an,  integrieren dafür Informationen aus anderen Tools, wie ELT-Tools, Reportingools und Datenkatalogen, oder integrieren sich in solche.

Die Tools hinterließen einen ersten guten Eindruck und scheinen schon einen guten Reifegrad zu haben. Der Übergang zu Datenkatalogen ist fließend und vermutlich muss man sich die Frage stellen, ob der Einsatz eines eigenen Tools gerechtfertigt ist, oder ob Data Observability nicht einfach Teil der Funktionalität eines Datenkatalogs oder der Datenplattform an sich wird.

Doppelstrategie

Auffällig: Viele Anbieter fahren mittlerweile eine Doppelstrategie und richten ihre Tools sowohl an die Zielgruppe der technischen Nutzer, als auch an Nutzer aus den Fachbereichen. Einerseits sollen damit beide Gruppen in die Lage versetzt werden Datenqualitätschecks o. ä. zu definieren, andererseits soll die Zusammenarbeit gestärkt werden, indem sie z. B. toolgestützt gemeinsam Datenprodukte oder -kontrakte definieren können.

Hier kann man dann auch wieder den Bogen zum Thema KI schlagen: GenAI kann hier an der Schnittstelle zwischen Technik und Business übersetzen und die Zusammenarbeit verbessern. In natürlicher Sprache vom Fachbereich beschriebene Tests, Produkte, Kontrakte, etc. übersetzt die KI in Programmcode, genauso wie von der Technik geschriebener Code in SQL, Python, etc. in natürliche Sprache übersetzt werden kann.

Datenarchitekturen & Organisationen

Was Datenarchitekturen angeht, fiel vor allem dies auf: Vor 5-10 Jahren gab es beim Gartner Summit noch viele Vorträge über die Unterschiede zwischen Data Lake und Data Warehouse und unter welchen Umständen was zu verwenden ist. Jetzt ging es dagegen eher um die Frage, wie man die Konzepte Data Fabric und Data Mesh voneinander abgrenzen kann und wie man diese einsetzt. Der Fokus hat sich mit der Zeit also von der Technik in Richtung Organisation verschoben.

Generell scheint auch die Zeit der unerbittlichen Debatten vorbei zu sein (wenn es sie denn je gegeben hat…!?):

  • Lake oder Warehouse? – Egal, beides koexistiert und erfüllt seinen Zweck!
  • Fabric oder Mesh? – Kann man nicht so richtig vergleichen, beides koexistiert, oder beides wird nicht genutzt.
  • Zentral oder dezentral organisiert? In der IT oder im Fachbereich angesiedelt? – Man benötigt jeweils beides, je nachdem.

Aus dem gefühlten Entweder-oder hat sich ein entspanntes Sowohl-als-auch ergeben, was ich sehr begrüßenswert finde.

Neue Teamorganisation

Mit der Zeit ändern sich nicht nur Architekturen, sondern auch Teamorganisationen und Rollen. Gartner berichtet hier in einigen Vorträgen, wie die durchschnittliche Teamgröße der Data-&-Analytics-Funktionen in Unternehmen in Abhängigkeit von Umsatz oder Gesamtmitarbeiterzahl derzeit aussieht. Aber auch über beobachtete prozentuale Verteilungen von Data-&-Analytics-Rollen:

  • Die klassischen Rollen wie Data Engineer, Data Analyst, Data Architect und Data Scientist dominieren weiterhin und machen fast 60 % aus.
  • Neuere Rollen wie Model Validator oder AI Product Manager zeigen die wachsende Bedeutung von KI.
  • Spannend sind auch neue Rollen an der Grenze zwischen Technik und Fachbereich wie z.B. der Data Translator. Der Data Translator soll als Rolle zwischen Technik und Fachbereich übersetzen, die Transformation vorantreiben, sich um die Themen Data Literacy und Data Culture kümmern und generell das Thema Data & Analytics voranbringen.

Solche Zahlen und Trends sind spannend und können als grobe Anhaltspunkte für die Größe und Aufgabenspektren seiner eigenen Data & Analytics Organisation dienen. Allerdings lassen sie auch die jeweiligen Eigenarten der eigenen Organisation außer Acht und haben vermutlich noch nicht die Einflüsse von KI mit eingepreist.

Fazit

Alle paar Jahre lohnt sich der Besuch das Gartner Data & Analytics Summit, um sich in drei Tagen kompakt mit den aktuellen Trends und Themen auseinanderzusetzen. Nicht immer ist alles neu, aber es wird kompakt und sehr gut präsentiert und bietet einen vielfältigen und ganzheitlichen Blick auf die Dinge, und wie sie zusammenhängen. Natürlich darf man nicht vergessen, dass alles durch die Gartner-Brille präsentiert wird.

Es darf also immer hinterfragt werden, inwieweit der deutsche Markt und die eigene Organisation nicht doch ein wenig anders tickt als der Rest der Welt. Neben den Vorträgen war auch die Vielzahl der Aussteller beeindruckend und bot einen guten Überblick über die derzeitige Anwendungslandschaft.

Alle Beiträge von Jens Bleiholder

Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet in der Division Analytics der OPITZ CONSULTING Deutschland GmbH.

Schreibe einen Kommentar