Generative KI gilt aktuell als das neue Must-have – kaum eine moderne Analytics-Plattform verzichtet noch auf die Integration von Large Language Models (LLMs). Auch Pyramid bewirbt sich als Gamechanger: Wer Daten in natürlicher Sprache abfragt, soll ohne Umwege zu Tabellen, Visualisierungen oder Prognosen gelangen.
Doch wie so oft im echten Leben ist der Weg von der Vision zur Praxis steinig. Für einen Kunden haben wir die GenAI-Integration in Pyramid getestet. Das Ergebnis ist gemischt: KI kann tatsächlich unterstützen. Allerdings nur dann, wenn man einige Voraussetzungen schafft – sowohl auf technischer als auch auf organisatorischer Ebene – und typische Stolperfallen kennt.
Erwartungen an GenAI in Pyramid
Die Vorstellung ist verlockend: Statt SQL-Abfragen zu schreiben, reicht eine einfache Frage wie „Zeig mir die Umsätze der letzten sechs Monate“. Pyramid übersetzt das Anliegen automatisch in eine Abfrage und liefert die passenden Ergebnisse.
Gerade für Fachbereiche eröffnet das einen niedrigschwelligen Zugang zu Daten. Sie können selbst explorieren, ohne auf die Unterstützung der IT angewiesen zu sein. Für BI- und Analytics-Experten wiederum bedeutet das mehr Freiraum für komplexere Aufgaben.
Die Realität zeigt jedoch: Dieses Versprechen erfüllt sich nur, wenn Modell, Organisation und Anwender vorbereitet sind.
Modellstruktur – das Fundament der Ergebnisse
Im Test wurde schnell klar, dass die Qualität des Datenmodells über die Qualität der Antworten entscheidet. Ein zu großes, unübersichtliches Modell produziert nicht nur schwer nachvollziehbare Ergebnisse, sondern treibt auch die Kosten in die Höhe. Denn jede natürlichsprachliche Anfrage wird vom LLM in eine technische Abfrage übersetzt. Informationen zum „Verhalten“ des LLMs, Modelldefinition und Anfrage des Anwenders werden an das LLM gesendet. Dieses liefert eine technische Definition des Outputs zurück. Dabei werden sogenannte Tokens verbraucht, die je nach Modellgröße stark variieren. Ein Token umfasst hierbei bis zu 4-5 Buchstaben, also kurze Wörter oder Wortteile. In einem Fall erzeugte ein Modell mit über 1.000 Objekten bis zu 150.000 Tokens pro Anfrage – in längeren Dialogen summiert sich das schnell.
Wer Pyramid mit GenAI einsetzt, sollte deshalb Modelle möglichst schlank halten, klare und sprechende Feldnamen verwenden und kurze, präzise Beschreibungen ergänzen.
So versteht nicht nur das LLM besser, worum es geht – auch die Anwender finden sich leichter zurecht.
Prompting – ohne Übung kein Gewinn
Die zweite große Stellschraube ist das Prompting. Pyramid erlaubt sowohl einfache als auch komplexe Fragestellungen. Aber: Je genauer die Formulierung, desto hilfreicher das Ergebnis.
Während eine Standardfrage wie „Zeig mir die Umsätze“ meist problemlos funktioniert, erfordert eine komplexe Anweisung („Erstelle eine Prognose der nächsten drei Monate und visualisiere sie als Liniendiagramm“) ein gewisses Verständnis dafür, wie man mit dem System kommuniziert.
Das bedeutet: Unternehmen sollten ihre Anwender schulen. Nur wer weiß, wie man gute Prompts formuliert, schöpft das volle Potenzial aus.
Sicherheit und Datenschutz
Ein weiteres wichtiges Thema ist die sichere Anbindung der LLMs. Pyramid erlaubt die Integration externer Anbieter wie OpenAI. Wer hier unvorsichtig agiert, läuft jedoch Gefahr, dass API-Keys in falsche Hände geraten. Ein geleakter Key ermöglicht Zugriff auf das gesamte Konto – inklusive Abrechnungsdaten.
Sicherer ist der Betrieb über Azure AI. Damit lassen sich Modelle in europäischen Datenzonen hosten, Endpunkte absichern und Zugriffe kontrollieren. Einschränkungen gibt es aber auch hier: Einige Funktionen wie Bildgenerierung oder Entra-ID-Authentifizierung sind noch nicht verfügbar.
Technische Grenzen der aktuellen Implementierung
So tief die Integration in die Oberfläche wirkt – sie bleibt aktuell auf die Modellebene beschränkt. Dashboards oder gespeicherte Objekte lassen sich nicht per KI öffnen oder steuern. Auch ein plattformweiter Chatbot, der Anwender durch alle Module führt, ist noch Zukunftsmusik.
In der Praxis bedeutet das: LLMs agieren derzeit vor allem als intelligente Assistenten, nicht als umfassende Copiloten. Sie erleichtern die Arbeit innerhalb eines klar definierten Rahmens, ersetzen aber keine End-to-End-Steuerung.
Fazit: Viel Potenzial, aber kein Selbstläufer
Die Integration von GenAI in Pyramid kann echte Mehrwerte schaffen – aber ohne schlanke Modelle, ohne durchdachtes Sicherheitskonzept und ohne geschulte Anwender bleiben die Ergebnisse oft hinter den Erwartungen zurück.
Wer die Einführung strategisch plant, Pilotprojekte aufsetzt und die organisatorischen Rahmenbedingungen berücksichtigt, kann jedoch profitieren: Datenanalysen werden zugänglicher, schneller und für mehr Nutzergruppen verständlich.
Sie möchten herausfinden, wie GenAI Ihre BI- und Analytics-Prozesse unterstützen kann?
Sprechen Sie mich an – Wir begleiten Sie von der ersten Pilotierung bis zum sicheren, produktiven Einsatz. Vereinbaren Sie jetzt einen Beratungstermin oder fordern Sie eine individuelle Demo an.
