Das 30-Sekunden-Dashboard und das Sechs-Wochen-Dashboard
Die Betriebsleiterin einer Regionalbank zeigte uns ein Dashboard, das ihr Team mit einem beliebten KI-Tool in unter einer Minute erstellt hatte. Es sah gut aus. Es zog Daten aus einer Beispiel-CSV. Es hatte Filter, ein Diagramm, eine KPI-Leiste. Dasselbe Dashboard, verbunden mit der echten Kreditverwaltungsdatenbank mit den richtigen RBAC-Regeln und der richtigen Audit-Protokollierung, brauchte ihr Team sechs Wochen.
Dieser 6000-fache Unterschied ist die Geschichte der KI-generierten Dashboards im Jahr 2026.
Was KI heute gut macht
LLMs sind bei den Teilen der Dashboard-Erstellung genuinely gut, die früher eine Woche verschlangen. Sinnvolle Diagrammtypen für ein gegebenes Schema auswählen. Passables SQL gegen ein gut dokumentiertes Warehouse schreiben. Ein Grid layouten, das sich auf einem 27-Zoll-Monitor nicht blamiert. Texte für Leerzustände und Tooltips verfassen.
Wir haben dies über rund 400 interne Testläufe gemessen. Die anfängliche Layout-Qualität liegt konsistent über dem, was ein Mid-Level-Entwickler beim ersten Versuch produziert. Die Diagrammtyp-Auswahl stimmt mit der eines Datenanalysten in etwa vier von fünf Fällen überein.
Was KI noch falsch macht
Die Fehlermodi bündeln sich in drei Bereichen, und es sind die teuren.
Der erste sind Datenverträge. Ein Dashboard, das gegen das Notebook des Analysten funktioniert, funktioniert nicht gegen das Produktions-Warehouse, weil das Produktions-Warehouse andere Spaltennamen, striktere Typen und Row-Level-Security hat, die das Notebook ignorierte. Freiform-Generierung produziert routinemäßig Abfragen, die eine RBAC-Schicht zur Laufzeit ablehnt.
Der zweite sind Aktualisierungssemantiken. Ist diese Zahl in Echtzeit, stündlich oder zum Tagesende? Berücksichtigt sie die Zeitzone des Benutzers? Stimmt sie mit der Zahl überein, die der CFO im letzten Vorstandsmeeting zitiert hat? LLMs fragen selten danach. Dashboards, die diese Fragen falsch beantworten, sind schlechter als kein Dashboard.
Der dritte ist der Long Tail der Enterprise-Spezifika: Export nach Excel mit dem richtigen Format, Drill-Through zu einer Detailmaske, die dieselben Filter respektiert, eine Gespeicherte-Ansicht-Funktion, die die VP Operations erwartet, weil ihr alter Cognos-Bericht eine hatte.
Warum Freiform-Generierung an eine Wand stößt
Jeder dieser Fehlermodi hat dieselbe Ursache. Das Modell schreibt Code, nicht Absicht. Ein Dashboard, das als 800 Zeilen React und SQL codiert ist, lässt sich schwer prüfen, schwer diffen und schwer anpassen, ohne das Ganze neu zu generieren. Die Betriebsleiterin, die tatsächlich weiß, was der KPI bedeuten soll, kann es nicht anfassen.
Tools wie Retool, Mendix und OutSystems lösten einen Teil davon vor einem Jahrzehnt, indem sie Dashboards in eine Konfigurationsschicht verlegten. Sie hatten keine LLMs. Die Kombination ist das Neue.
Was funktioniert: Deskriptoren plus KI
Das Muster, das wir erfolgreich gesehen haben, setzt das LLM vor einen Deskriptor, nicht hinter einen Code-Editor. Das Modell schlägt eine Dashboard-Spezifikation vor: Datenquellen, Metriken, Filter, Layout-Regionen, Aktualisierungskadenz, Zugriffsregeln. Ein Mensch prüft die Spezifikation. Die Laufzeit rendert sie.
Die Spezifikation ist kurz genug, dass ein Nicht-Entwickler sie lesen kann. Die Laufzeit übernimmt die Teile, die jedes Mal stimmen müssen — Auth, Audit, Export, i18n — damit das Modell sie nicht selbst richtig hinbekommen muss.
Was im nächsten Jahr kommt
Drei Dinge werden die Form dieser Arbeit verändern.
Semantische Schichten holen endlich auf. dbt, Cube und die Warehouse-Anbieter stellen Metrik-Definitionen bereit, die das LLM namentlich aufrufen kann, statt sie neu zu erfinden. Ein Dashboard, das „Net Revenue Retention” per Metrikname abfragt, ist dramatisch zuverlässiger als eines, das eine SQL-Abfrage anfordert.
Personalisierung pro Benutzer wird günstig. Wenn die Generierungskosten um das 5- bis 10-fache sinken, lohnt es sich, jedem Benutzer Anpassungen an seiner eigenen Ansicht zu ermöglichen, ohne ein Ticket.
Und die Review-Schleife wird enger. Die Dashboards, die 2026 in Produktion gehen, werden diejenigen sein, bei denen ein Fachverantwortlicher und ein LLM gemeinsam an einem Deskriptor iterieren — nicht diejenigen, bei denen ein Entwickler Modell-Output aufräumt.
Die Erkenntnis
KI-generierte Dashboards sind kein Demo-Problem mehr. Sie sind ein Produktionsproblem, und die Produktionsantwort sieht aus wie ein Deskriptor, eine semantische Schicht und eine Laufzeit, die die langweiligen 90 % bewältigt. Die Teams, die das richtig machen, bauen weniger Dashboards schneller, und die Dashboards stimmen tatsächlich mit den Zahlen im Vorstandsdeck überein.