Die Bedeutung von Daten-Storytelling in Großprojekten: Mehr als nur Datenqualität
- Von Dr. Michael Mederer
- Daten Storytelling, Datenqualität, Geschäftsprozesse
Share post:
In der Diskussion über Datenqualität bei Großprojekten konzentrieren sich viele auf offensichtliche Probleme wie Daten-Ausreißer oder falsch erfasste manuelle Eingaben. Diese Herausforderungen sind ohne Frage wichtig, aber sie stellen nur einen kleinen Teil der tatsächlichen Problematik dar. Viel bedeutender für den Erfolg eines Projekts ist die Fähigkeit, die Geschichte, die in den Daten steckt, korrekt zu erzählen – ein Konzept, das als “Daten-Storytelling” bekannt ist.
Daten als Erzählung des Geschäftsprozesses
Alle operativen Geschäftsprozesse in einem Großunternehmen erzeugen im Laufe der Zeit eine enorme Menge an granularen Daten, die in ERP-Systemen (Enterprise Resource Planning) abgelegt werden. Diese Daten und die zugehörigen Tabellen spiegeln nicht nur den Ist-Zustand wider, sondern erzählen auch die Geschichte des zugrunde liegenden Prozesses. In ihnen sind Muster, Abhängigkeiten und Entwicklungen versteckt, die den gesamten Ablauf eines Unternehmens abbilden.Die eigentliche Herausforderung bei der Nutzung dieser Daten liegt darin, diese Geschichten korrekt zu identifizieren und zu interpretieren. Wenn dies gelingt, können nicht nur bestehende Prozesse besser verstanden werden, sondern auch neue, wertschöpfende oder sogar disruptive Algorithmen entwickelt werden, die diese Erkenntnisse nutzen. Dies setzt jedoch voraus, dass die Daten in einem konsistenten und zusammenhängenden Rahmen betrachtet werden.
Fragmentierung als Herausforderung für das Daten-Storytelling
In Großunternehmen kommt es häufig vor, dass unterschiedliche Geschäftsbereiche – wie Vertrieb, Einkauf, Produktion und Auslieferung – ihre Prozesse in eigenen, oft isolierten Silos betreiben. Diese Silos bestehen aus separaten Prozesszentralen, die unabhängig voneinander agieren. In anderen Großunternehmen gibt es zudem dezentrale Strukturen, die nicht nur unterschiedliche organisatorische Einheiten, sondern auch verschiedene Systemlandschaften umfassen. Diese Fragmentierung ist eine natürliche Folge davon, dass Menschen große und komplexe Aufgaben in kleinere, leichter zu bewältigende Einheiten zerlegen.Für Data-Science-Teams und KI-Projekte ist diese Fragmentierung zu Beginn eines Projekts eine der größten Herausforderungen. Es stellt sich die Frage, ob es möglich ist, ein konsistentes und End-to-End-Data-Storytelling zu gewährleisten. Denn nur wenn die Daten als Teil einer zusammenhängenden Geschichte betrachtet werden, können sie ihre volle Wirkung entfalten und das Potenzial für neue Erkenntnisse und Innovationen freisetzen.
Lokale Lösungen und das große Ganze
Es ist nicht nur möglich, sondern oft auch sinnvoll, dass Lösungen lokal, also innerhalb einzelner Geschäftsbereiche, entwickelt werden. Diese lokalen Lösungen können spezifische Probleme adressieren und wertvolle Erkenntnisse liefern. Doch es ist von entscheidender Bedeutung, dass die zugrunde liegenden Daten in den Kontext des gesamten Unternehmens gestellt werden. Die Daten müssen als Teil ein und derselben Geschichte gesehen werden, die über den gesamten Unternehmensprozess hinweg erzählt wird.
Fazit
Während Datenqualität ein wichtiger Aspekt in der Datenverarbeitung bleibt, liegt die größere Herausforderung in Großprojekten oft im Bereich des Daten-Storytellings. Die Fähigkeit, aus den granularen Daten eines ERP-Systems eine kohärente und durchgängige Erzählung zu entwickeln, ist entscheidend für die erfolgreiche Implementierung von Data-Science- und KI-Projekten. Nur so können die verborgenen Potenziale gehoben und wirklich transformative Lösungen entwickelt werden. Die Fragmentierung der Prozesse und Systeme innerhalb eines Unternehmens macht diese Aufgabe besonders komplex, aber ihre Bewältigung ist der Schlüssel zu nachhaltigem Erfolg.