alphaspirit.it/Shutterstock
Wie funktionieren Datenstrategien und brauchen Unternehmen so etwas überhaupt? Diese Frage beschäftigt heute viele Verantwortliche in den Unternehmen. Gleichzeitig stehen sie zunehmend unter Druck, wettbewerbsfähig und innovativ zu bleiben. Ein Schlüsselfaktor, dieses Ziels zu erreichen, ist die effektive Nutzung von Daten: Sie erlauben es, Effizienzreserven in Prozessen zu erkennen, Kunden besser zu verstehen, um Produkte und Dienstleistungen anzupassen oder gar neue Angebote zu entwickeln.
Besteht Konsens darüber, was man mit den Daten erreichen möchte, so lässt sich daraus eine Datenstrategie ableiten – also ein konkreter Handlungsrahmen, um Maßnahmen zu strukturieren und das übergeordnete Ziel, den „Nordstern“, zu verfolgen. Aus vielen verschiedenen Einzelentscheidungen in unterschiedlichen Unternehmensbereichen entsteht mit einer Datenstrategie ein kohärentes Bestreben, ein gemeinsames Ziel zu erreichen.
Im Beispiel betrachten wir ein Unternehmen, das das Ziel verfolgt, der führende Online-Optiker zu sein: Um Brillen erfolgreich online verkaufen zu können, muss das Unternehmen Daten aus unterschiedlichen Quellen zusammenführen, angefangen bei den Produktdaten von den Glas- und Rahmenproduzenten über Marketingdaten bis hin zu medizinischen Daten von Kunden oder Informationen über die Auslastung von Lagern und Fertigungskapazitäten.
Darüber hinaus muss der Online-Optiker eine erhebliche Menge an Fachwissen von Optikern in seinen Produktdaten kodieren. Dieses Fachwissen bestimmt beispielsweise die optimale Brillengröße, wobei Faktoren wie die Sehkraft des Kunden und die Geometrie der Gläser berücksichtigt werden. Durch die Kodierung dieses Wissens in den Produktdaten kann das Unternehmen sicherstellen, dass die Kunden die richtige Brille erhalten.
Auf Basis all dieser Daten können die verschiedenen am Prozess beteiligten Abteilungen – Beschaffung, Produktion und E-Commerce – nahtlos zusammenarbeiten, um ein hochwertiges Ergebnis zu liefern, die Materialeinsatzplanung zu optimieren und Prognosen für zukünftige Entwicklungen zu erstellen.
Bei einer Datenstrategie geht es nicht nur darum, Daten zu verwalten, sondern darum, wie Geschäftswissen am besten in Daten gespeichert und durch sie verstanden werden kann. Begleitet wird eine Datenstrategie von einer geeigneten Organisationskultur, die Mechanismen für den Ausgleich der Bedürfnisse verschiedener Interessengruppen bereithält und dabei unter anderem die Zusammenarbeit und den Wissensaustausch fördert.
Studie Data-Driven Enterprise 2023: Das datengetriebene Unternehmen in der Praxis
Ohne eine Datenstrategie zur Strukturierung unterschiedlicher Bemühungen bleibt in jeder Organisation ab einer gewissen Größe beziehungsweise Komplexität die Wertschöpfung aus Daten weit hinter den Möglichkeiten zurück. Daten werden dann im Wesentlichen nur lokal genutzt oder entlang relativ starrer Pfade aggregiert. Die Folge: Die Agilität des Unternehmens in Bezug auf notwendige Veränderungen bleibt gehemmt. Fehlt eine solche Strategie, können auch technische Konzepte und Architekturen diesen Wert kaum steigern.
Eine gut durchdachte Datenstrategie kann auf unterschiedlichste Weisen formuliert sein. Sie umfasst eine Vielzahl verschiedener Facetten wie zum Beispiel Verfügbarkeit, Auffindbarkeit, Sicherheit, Schutz personenbezogener Daten, Kostenkontrolle, etc. Aus einer Vielzahl datenbezogener Projekte lassen sich jedoch vier Schlüsselaspekte identifizieren, die die Grundlage für eine Datenstrategie bilden: Identität, Bitemporalität, Vernetzung und Föderalismus.
Identität – Die Identität ist das erste zentrale Element einer Datenstrategie: Wie werden die Entitäten, die Attribute und ihre Werte identifiziert, das heißt, wie wird es möglich, eindeutig zu entscheiden, auf welches physische oder virtuelle Artefakt sich ein Datensatz bezieht und/oder ob sich mehrere Datensätze auf das Gleiche beziehen? Wer verantwortet die Entscheidung, ob zwei Entitäten identisch sind? Welche Bedeutung ist mit der Identität verknüpft?
Im Beispiel unseres Online-Optikers müssen wir uns fragen, ob eine Art von Fassung oder eine Fassung in einer bestimmten Größe, Farbigkeit oder Materialausprägung oder gar eine konkrete individuelle Fassung identifiziert werden muss.
In den einfachsten Fällen wird Identität bestimmt durch eine Single Source of Truth (SSOT), eine einzige Quelle beziehungsweise eine zentrale Referenzstelle, die Entitäten identifiziert. Alle nachfolgenden Systeme können dann die Identität aus der SSOT verwenden. Bei vielen Daten ist dieses einfache Modell jedoch nicht anwendbar. Bei Produktdaten zum Beispiel: Die Daten von Produkten unterschiedlicher Kategorien werden, zum Beispiel aus historischen Gründen, in unterschiedlichen Systemen und unter der Verantwortung unterschiedlicher Abteilungen identifiziert. Mitunter werden dabei auch unterschiedlich zusammengesetzte Schlüssel zur Identifikation verwendet, wenn etwa Produktvarianten den gleichen Code verwenden, konkret aber noch durch Farb- oder Größenattribute spezifiziert werden müssen. Die Datenstrategie muss also beantworten, wie Entitäten beziehungsweise Attribute und Attributwerte identifiziert werden.
Bitemporalität – Das zweite zentrale Element einer Datenstrategie ist die sogenannte Bitemporalität, lose übersetzt also die Zwei-Zeitigkeit. Diese trennt den Zeitpunkt der Datenabfrage von dem Zeitpunkt, auf den sich die Anfrage bezieht: Ist ein Produkt aktuell (also genau jetzt, zum Zeitpunkt der Abfrage) lieferbar? Wird es (voraussichtlich) in 14 Tagen lieferbar sein? War das Produkt am 3. März 2024 um 10:17 CET lieferbar und wenn ja, welche Vor-Produkte steckten in dem am 3. März 2024 verkauften Produkt? Wie sah die Supply Chain dafür aus? Die Datenstrategie muss also klären, wie sich Informationen über den aktuellen Status einer Entität von Informationen über einen früheren Status abgrenzen.
Vernetzbarkeit – Der dritte Faktor einer Datenstrategie muss die Frage klären, welche Informationen vernetzt, also sinnvoll zueinander in Beziehung gesetzt werden können. So können zum Beispiel im eCommece ähnliche oder zueinander passende Produkte miteinander vernetzt werden, um sie zum Beispiel zu empfehlen.
Föderalismus – Föderalismus ist per Definition ein Ordnungsprinzip, das auf weitgehender Unabhängigkeit einzelner Einheiten beruht, die zusammen aber ein Ganzes bilden. Dieser vierte Aspekt einer Datenstrategie betrifft also die Organisation von Verantwortung für die betrachteten Daten. Föderalismus bedeutet, dass es zwar auf lokaler Ebene Verantwortung für die Daten gibt, aber auch über diese Ebene hinaus geklärt ist, wie mit Daten umgegangen wird. In föderalistischen Strukturen ist geregelt, wie weit die Verantwortung auf jeder Verantwortungsebene reicht. Das heißt, wer was mit Daten machen darf und wie sie abgelegt/bereitgestellt werden müssen, damit auch andere Ebenen Zugriff haben.
Ein sehr konkretes Beispiel, nämlich Markenlogos, verdeutlichen diese vier Elemente einer Datenstrategie:
Identifiziert wird die Marke und erst darüber das Logo in einer konkreten Ausprägung (zu Beispiel Dateiformat oder Auflösung). Die Daten für Marke und Logo sind offensichtlich miteinander vernetzt, wie schon aus der Identifikation deutlich wird. Bei einem Wechsel des Logos beispielsweise bei einem Re-Branding kann so sichergestellt werden, dass die Referenz Bestand hat.
Die Berücksichtigung der Bitemporalität stellt sicher, dass der Logowechsel in allen beteiligten Systemen zu einem definierten Zeitpunkt umgesetzt wird: Die Bitemporalität berücksichtigt Benachrichtigungen über zu erwartende Änderungen und erlaubt hier die Abfrage zukünftiger Inhalte, um die neuen Logos vorbereitend cachen zu können. Umgekehrt kann auch eine in die Vergangenheit gerichtete Abfrage sinnvoll sein, typischerweise aber eher bei Inhaltsstoffen, Preisen, Lieferbedingungen, etc. als bei einem Markenlogo.
Die Festlegung, welche Marken es gibt, wie die Formate identifiziert werden, etc. kann nicht allein der Einkauf oder das Marketing festlegen. Dafür braucht es die notwendige Vernetzung.
Diese Entscheidungen müssen durch eine gemeinsame Autorität festgelegt werden, eine Institution im föderalen System der Datenstrategie.
Wie essentiell eine Datenstrategie für Unternehmen ist, beweist auch das Phänomen Produktdaten. Sie haben viele Quellen, beispielsweise die eigene Produktentwicklung, aber auch „fremde“ Hersteller und Zwischenhändler. Sie sind wesentlicher Bestandteil wichtiger Geschäftsprozesse, werden in den unterschiedlichsten Abteilungen benötigt und sie werden in einer Vielzahl von Systemen genutzt:
Im Katalog, gemeinsam mit Preisinformation, Verfügbarkeiten, Abbildungen,
in der Bestandsverwaltung,
im Retourenmanagement gemeinsam mit Lager- und Logistikinformation,
zum Planning und zum Reporting,
auf Artikel- oder Kategorieebene,
zur Aggregation von Absatz- und Umsatzzahlen gemeinsam mit zeitlichen oder räumlichen Kriterien,
im Stammdaten-,
Bestellabwicklungs-,
eCommerce- und
Controlling-System und
in vielen anderen Zusammenhängen.
Wenn nicht klar ist, was Produktdaten identifizieren, in welchem Zusammenhang sie miteinander stehen und welche Regeln für ihre Domänen übergreifende Bereitstellung gelten, entsteht aus ihnen ein undurchdringlicher Datensumpf, der weder produktiv noch analytisch sinnvoll eingesetzt werden kann. Das gilt umso mehr, je größer und differenzierter ein Unternehmen ist. Viele große Unternehmen betreiben schließlich zahlreiche E-Commerce-Systeme, etliche Produktionsstraßen in unterschiedlichen Ländern und managen verschiedene Marken und Produktkategorien.
Eine Datenstrategie legt ferner fest, wie Unternehmen das Wissen um ihre Produkte, Services, Prozesse und Geschäftsmodelle codieren. Damit werden Lösungen möglich, die auch eine automatisierte Entscheidungsunterstützung erlauben. Dazu kurz zurück zu unserem Online-Optiker: Um Brillen online zu verkaufen, muss viel Optikerfachwissen codiert werden, damit der Kunde bei der Konfiguration seiner Brille nicht gravierende Fehler macht. Die optimale Größe der Gleitsicht-Brillengläser hängt nämlich unter anderem von der Sehstärke und der Glasgeometrie ab. Um erfolgreich Brillen online zu verkaufen, muss dieses Erfahrungswissen von Optikern in den Produktdaten codiert werden, und die verschiedenen Zuständigkeiten (Beschaffung, Produktion, eCommerce) müssen diese Daten pflegen, verbinden und nutzen.
Ein Wissensgraph (Knowledge Graph) erfasst die Bedeutung der Daten und spielt eine besondere Rolle bei der Identifikation und der Vernetzung der Daten: Das dreischichtige Wissensgraph-Modell nach Dave McComb erweitert einen typischerweise zweischichtigen Blick auf Schemata beziehungsweise Klassen einerseits und Daten beziehungsweise Instanzen andererseits. McComb führt eine mittlere Ebene ein, die eine Zwitter-Rolle einnimmt und bezeichnet diese drei Ebenen als Konzepte, Kategorien und Daten.
Ganz praktisch hat Katariina Kari, Lead Ontologist bei Inter Ikea Systems, mit Ihrem Team einen solchen Knowledge Graph eingeführt. An diesem Beispiel orientieren wir uns, übertragen das aber auf das Online-Optiker-Beispiel.
In der obersten Schicht befinden sich die zentralen Konzepte, beispielsweise „Gestell“ mit „Eigenschaften“. Die Anzahl der Konzepte bewegt sich im Bereich von Hunderten. Sie werden eng abgestimmt und unterliegen einer rigorosen zentralen Governance.
Auf der mittleren Ebene, den Kategorien, ist „Farbe“ als eine Eigenschaft definiert mit den Ausprägungen „Tortoise“ oder „Havana“. Die Zahl der Kategorien geht typischerweise in die Tausende, die Kategorien lassen sich aber thematisch unterteilen und die einzelnen thematischen Bereiche werden durch entsprechende Fachexperten definiert.
Die unterste Schicht bezeichnet McComb als Daten und diese Schicht umfasst hier, was gefärbt wird, also zum Beispiel der Steg einer Brillenfassung. Die Zahl der Entitäten auf der Datenebene geht potentiell in die Millionen. Die Datenebene zerfällt in Bereiche, die jeweils der Kontrolle der Domänen unterliegen. Das Föderalismus-Prinzip ist hier also besonders gut zu erkennen.
Die Integration der Kategorien und insbesondere der Daten in die gesamte Landschaft erfolgt über die Referenz auf die übergeordneten Ebenen, so dass eine Vernetzung darüber möglich ist. Es können also beispielsweise alle Fassungen mit der Steg-Farbe Tortoise verknüpft werden. Über Ähnlichkeiten können beispielsweise ähnliche Produkte im eCommerce-System vorgeschlagen werden.
Das zurzeit viel diskutierte Konzept Data Mesh von Zhamak Dehghani, Technologiedirektorin des IT-Beratungsunternehmens ThoughtWorks ist nichts anderes als die konkrete Ausprägung einer Datenstrategie. Dieses soziotechnische Konzept basiert auf den vier Prinzipien Domain Ownership, Daten als Produkt, Self-Service-Datenplattform und föderierte Governance. Wir setzen dieses Konzept in Relation zu den vier Schlüsselaspekten Identität, Bitemporalität, Vernetzung und Föderalismus.
Domain Ownership: Dieses Prinzip besagt, dass die Verantwortung für Daten nicht von einem zentralen Datenteam getragen wird, sondern in den Domänen, in denen sie entstehen. Das heißt konkret: Das Team, das eine Fachlichkeit Ende-zu-Ende verantwortet, ist auch für die Daten verantwortlich, die in Zusammenhang mit dieser Fachlichkeit entstehen.
Data as a Product: Sammeln, Aufbereiten und Bereitstellen von Daten ist kein Selbstzweck, sondern muss – wie jedes Produkt für seinen Nutzer – einen Wert stiften. Dies bedarf aber auch strategischer Planung, eines passenden Product-Market-Fits und der Vermarktung des jeweiligen Datenprodukts: Datenprodukte stellen den Daten-Konsumenten und seine Bedürfnisse in den Mittelpunkt, balancieren aber auch die unterschiedlichen Wünsche verschiedener Konsumenten aus. Die Gestalt eines Datenprodukts, beispielsweise als API, als Datenbank-Zugang, oder als Visualisierung, richtet sich dabei nach den Bedürfnissen der Konsumenten, und für unterschiedliche Bedürfnisse können durchaus unterschiedliche Datenprodukte aus den gleichen Daten erzeugt werden.
Self Service Data Platform: Damit die Produktteams ihre Datenprodukte schnell und effizient bereitstellen können, benötigen sie entsprechende Werkzeuge, quasi eine Produktions- und Vertriebsstrecke für Datenprodukte. Diese Werkzeuge sollten dabei idealerweise so ineinandergreifen, dass auch für die Konsumenten die Vernetzung verschiedener Datenprodukte einfach möglich ist. „Self Service“ – oder vielleicht besser ausgedrückt, „dem Subsidiaritätsprinzip folgend“ – bedeutet dabei, dass die Data Owner eigenständig in der Lage sind, Datenprodukte anzubieten. Es ist also entgegen des Namens „Data Plattform“ gleichermaßen eine Frage der verfügbaren Infrastruktur und der Organisationsstruktur, die Teams so zu schneiden, dass diese Eigenständigkeit realisiert werden kann.
Dieses Prinzip stellt in der Komplexität die größte Hürde für die Realisierung eines Data-Mesh-Ansatzes dar. Nicht etwa, weil die Verfügbarkeit von entsprechenden Datenplattformen fehlt, sondern weil die Balance von Kompetenzen innerhalb der Organisation entsprechend neu austariert werden muss.
Federated Governance: Um Mehrwert zu erzeugen, betont der Data Mesh Ansatz Datenprodukte in lokaler Verantwortung. Unseren oben dargestellten Punkten entsprechend entsteht der Mehrwert gerade in der Vernetzung unterschiedlicher Domänen, in der Beziehung von Datenproduzenten und -konsumenten. Es gibt also Bereiche, spätestens vorgegeben durch externe Regulatorik in Bezug auf Sicherheit, Datenschutz, etc., die nicht lokal von den Data Ownern reguliert werden können. Es muss also übergeordnete Strukturen und Leitplanken geben, die festlegen, wie Daten in größeren Zusammenhängen organisiert und verwendet werden. Dabei gilt das föderale Prinzip der Subsidiarität: Ähnlich wie beim Zusammenspiel von Kommunen, Ländern und dem Bund werden Entscheidungen auf derjenigen institutionellen Ebene getroffen, deren Kompetenz dafür gerade ausreicht. Fehlen dem Einzelnen, der kleinsten Gruppe, der niedrigsten institutionellen Ebene die Kompetenzen, so greift eine entsprechend höhere Instanz.
Je nach Business-Anforderungen und Komplexität der Datenströme in einem Unternehmen kann ein Data-Mesh die sinnvollste Realisierung einer Datenstrategie darstellen. Allzu oft wird dabei vor allem die technische und weniger die soziologische Seite betont. Wir sehen aber auch, dass die vier Prinzipien Domain Ownership, Data as a Product, Self Service Data Platform und Federated Governance wenig konkrete Orientierung geben: Was enthält ein Data Product? Wie steht es zu anderen Data Products in Verbindung? Was soll eine Self Service Data Platform ermöglichen?
6 Gründe: Warum Sie an Data-driven scheitern
Hier kommen wir zurück zu den vier Schlüsselaspekten einer Datenstrategie: Identität, Bitemporalität, Vernetzung und Föderalismus. Diese Schlüsselaspekte fokussieren die Datenstrategie auf konkrete Punkte und können so beispielsweise der Realisierung eines Data Mesh Struktur geben:
Welche Identitäten werden in den Datenprodukten exponiert? Welche Datenprodukte müssen gemeinsame Identitäten referenzieren, um Vernetzung zu ermöglichen? Müssen Datenprodukte nur „für den Moment“ realisiert werden oder für einen Blick nach vorne oder zurück – Stichwort Bitemporalität.
Und über allem thront die Frage: Wer hat die Kompetenz, Entitäten zu identifizieren? Kompetenz bedeutet dabei sowohl das fachliche, technische und gestalterische Wissen als auch den allgemein anerkannten Auftrag zur Gestaltung der entsprechenden Informationsräume.
Der Data Mesh Ansatz bezieht das föderale Prinzip explizit auf Governance, also auf die Verwaltung inklusive der Gestaltung der Verwaltung. Wir gehen mit unserem Verständnis von Föderalismus darüber hinaus und verstehen darunter explizit auch die Gestaltung der Datenräume: Auch die Erstellung und Pflege der Konzepte, Kategorien und Daten in einem Knowledge Graphen wird als föderale Struktur organisiert: Für die oberste Schicht, die Konzepte, ist eine zentrale Gestaltung notwendig. Die Ebene der Kategorien kann aufgebrochen und lokaler realisiert werden. Insbesondere können verschiedene Teilbereiche der zweiten Ebene von unterschiedlichen Teams verwaltet werden. Die Daten-Ebene entsteht dann wirklich lokal in den Domänen und unterliegt dem jeweiligen Owner eines Data Products.
In Anerkennung von Peter Druckers “Culture eats strategy for breakfast” ist auch für eine erfolgreiche Datenstrategie eine entsprechende Kultur quasi zwingende Voraussetzung. (Unternehmens-) Kultur umfasst die immateriellen Grundlagen gestaltender Leistungen einer Organisation.
In Bezug auf die Daten-Kultur stellt sich also beispielsweise die Frage der Ausgestaltung der föderalen Strukturen: Betont eine Organisation eher zentrale Verantwortung oder lokale Verantwortung? Entsprechen föderale Ebenen auch hierarchischen Ebenen, werden Entscheidungen also über Führungskräfte eskaliert oder werden kompetente, das heißt entscheidungsfähige, Gremien auf andere Weise zusammengesetzt? Wie wird die dezentralisierte Kompetenz der Domänen ausbalanciert im Vergleich mit zentral bereitgestellten Plattformen, die mit möglichst geringer Lernkurve für die Nutzer aus den Domänen zu verwenden sind, dafür aber mit erheblichem Aufwand betrieben werden müssen.
Unternehmen, die ihre Datenstrategie überdenken, sollten einen Nordstern entwickeln, dann aber sehr pragmatisch vorgehen. Der Nordstern steht für das Zielbild, das angestrebt wird: Will man Effizienz steigern, auf der Basis von Erkenntnissen aus den vorhandenen Daten Produkte oder Services verbessern und neue Geschäftsfelder erschließen? Wenn das Ziel einer Datenstrategie und entsprechender Initiativen nicht klar ist, dann ist die Realisierung zum Scheitern verurteilt. Erst wenn die Richtung klar ist, können praktisch realisierbare Schritte zum Erfolg führen.
Die Organisation kann behutsam verändert werden, um beispielsweise föderale Governance-Strukturen aufzubauen, eine zentrale Steuerung des obersten Ontology-Layers realisiert und im Wechselspiel mit den Domänen angepasst und verbessert werden. Die Domänen müssen in die Lage versetzt werden, eigenständig Datenprodukte realisieren zu können, bei zentraler Definition der Policies, die für alle gelten müssen, beispielsweise in Bezug auf Identitäts- und Zugriffsmanagement. Und hier, beim Schaffen einer Plattform – geplant oder emergent als Ergebnis nur lose koordinierter Initiativen zur Reduktion des Kommunikations-Overheads – nähert sich die Datenstrategie der klassischen IT-Strategie, insbesondere in Bezug auf Cloud-Architekturen.
Wettbewerbsfähigkeit durch Innovation braucht eine gut durchdachte Datenstrategie. Durch die Orientierung an den Schlüsselaspekten Identität, Bitemporalität, Vernetzung und Föderalismus können Unternehmen das Potenzial ihrer Daten erschließen und fundierte Entscheidungen treffen.
7 Data-Strategy-Trends: Ist Ihre Datenstrategie noch zukunftsfähig?
Dabei geht es nicht nur um das Sammeln und Analysieren von Daten, sondern um die Schaffung einer Kultur der datengesteuerten Entscheidungsfindung. Sie erfordert die Fähigkeit, ein Gleichgewicht zwischen Zentralisierung und Dezentralisierung herzustellen. Dabei wird ein Kernelement unserer Gesellschaft, der Föderalismus, zum strukturierenden Element.
loading=”lazy” width=”400px”>Wer das Potenzial seiner Daten ausreizen möchte, muss sich eine Strategie überlegen. Dazu gehört nicht nur die Technik – auch Prozesse, Organisation und die Kultur sollten dabei bedacht werden.alphaspirit.it/Shutterstock
Wie funktionieren Datenstrategien und brauchen Unternehmen so etwas überhaupt? Diese Frage beschäftigt heute viele Verantwortliche in den Unternehmen. Gleichzeitig stehen sie zunehmend unter Druck, wettbewerbsfähig und innovativ zu bleiben. Ein Schlüsselfaktor, dieses Ziels zu erreichen, ist die effektive Nutzung von Daten: Sie erlauben es, Effizienzreserven in Prozessen zu erkennen, Kunden besser zu verstehen, um Produkte und Dienstleistungen anzupassen oder gar neue Angebote zu entwickeln.
Besteht Konsens darüber, was man mit den Daten erreichen möchte, so lässt sich daraus eine Datenstrategie ableiten – also ein konkreter Handlungsrahmen, um Maßnahmen zu strukturieren und das übergeordnete Ziel, den „Nordstern“, zu verfolgen. Aus vielen verschiedenen Einzelentscheidungen in unterschiedlichen Unternehmensbereichen entsteht mit einer Datenstrategie ein kohärentes Bestreben, ein gemeinsames Ziel zu erreichen.
Im Beispiel betrachten wir ein Unternehmen, das das Ziel verfolgt, der führende Online-Optiker zu sein: Um Brillen erfolgreich online verkaufen zu können, muss das Unternehmen Daten aus unterschiedlichen Quellen zusammenführen, angefangen bei den Produktdaten von den Glas- und Rahmenproduzenten über Marketingdaten bis hin zu medizinischen Daten von Kunden oder Informationen über die Auslastung von Lagern und Fertigungskapazitäten.
Darüber hinaus muss der Online-Optiker eine erhebliche Menge an Fachwissen von Optikern in seinen Produktdaten kodieren. Dieses Fachwissen bestimmt beispielsweise die optimale Brillengröße, wobei Faktoren wie die Sehkraft des Kunden und die Geometrie der Gläser berücksichtigt werden. Durch die Kodierung dieses Wissens in den Produktdaten kann das Unternehmen sicherstellen, dass die Kunden die richtige Brille erhalten.
Auf Basis all dieser Daten können die verschiedenen am Prozess beteiligten Abteilungen – Beschaffung, Produktion und E-Commerce – nahtlos zusammenarbeiten, um ein hochwertiges Ergebnis zu liefern, die Materialeinsatzplanung zu optimieren und Prognosen für zukünftige Entwicklungen zu erstellen.
Keine Datenstrategie – kein Datenwert
Bei einer Datenstrategie geht es nicht nur darum, Daten zu verwalten, sondern darum, wie Geschäftswissen am besten in Daten gespeichert und durch sie verstanden werden kann. Begleitet wird eine Datenstrategie von einer geeigneten Organisationskultur, die Mechanismen für den Ausgleich der Bedürfnisse verschiedener Interessengruppen bereithält und dabei unter anderem die Zusammenarbeit und den Wissensaustausch fördert.
Studie Data-Driven Enterprise 2023: Das datengetriebene Unternehmen in der Praxis
Ohne eine Datenstrategie zur Strukturierung unterschiedlicher Bemühungen bleibt in jeder Organisation ab einer gewissen Größe beziehungsweise Komplexität die Wertschöpfung aus Daten weit hinter den Möglichkeiten zurück. Daten werden dann im Wesentlichen nur lokal genutzt oder entlang relativ starrer Pfade aggregiert. Die Folge: Die Agilität des Unternehmens in Bezug auf notwendige Veränderungen bleibt gehemmt. Fehlt eine solche Strategie, können auch technische Konzepte und Architekturen diesen Wert kaum steigern.
Eine gut durchdachte Datenstrategie kann auf unterschiedlichste Weisen formuliert sein. Sie umfasst eine Vielzahl verschiedener Facetten wie zum Beispiel Verfügbarkeit, Auffindbarkeit, Sicherheit, Schutz personenbezogener Daten, Kostenkontrolle, etc. Aus einer Vielzahl datenbezogener Projekte lassen sich jedoch vier Schlüsselaspekte identifizieren, die die Grundlage für eine Datenstrategie bilden: Identität, Bitemporalität, Vernetzung und Föderalismus.
Die vier Schlüsselaspekte einer Datenstrategie
Identität – Die Identität ist das erste zentrale Element einer Datenstrategie: Wie werden die Entitäten, die Attribute und ihre Werte identifiziert, das heißt, wie wird es möglich, eindeutig zu entscheiden, auf welches physische oder virtuelle Artefakt sich ein Datensatz bezieht und/oder ob sich mehrere Datensätze auf das Gleiche beziehen? Wer verantwortet die Entscheidung, ob zwei Entitäten identisch sind? Welche Bedeutung ist mit der Identität verknüpft?Im Beispiel unseres Online-Optikers müssen wir uns fragen, ob eine Art von Fassung oder eine Fassung in einer bestimmten Größe, Farbigkeit oder Materialausprägung oder gar eine konkrete individuelle Fassung identifiziert werden muss.In den einfachsten Fällen wird Identität bestimmt durch eine Single Source of Truth (SSOT), eine einzige Quelle beziehungsweise eine zentrale Referenzstelle, die Entitäten identifiziert. Alle nachfolgenden Systeme können dann die Identität aus der SSOT verwenden. Bei vielen Daten ist dieses einfache Modell jedoch nicht anwendbar. Bei Produktdaten zum Beispiel: Die Daten von Produkten unterschiedlicher Kategorien werden, zum Beispiel aus historischen Gründen, in unterschiedlichen Systemen und unter der Verantwortung unterschiedlicher Abteilungen identifiziert. Mitunter werden dabei auch unterschiedlich zusammengesetzte Schlüssel zur Identifikation verwendet, wenn etwa Produktvarianten den gleichen Code verwenden, konkret aber noch durch Farb- oder Größenattribute spezifiziert werden müssen. Die Datenstrategie muss also beantworten, wie Entitäten beziehungsweise Attribute und Attributwerte identifiziert werden.
Bitemporalität – Das zweite zentrale Element einer Datenstrategie ist die sogenannte Bitemporalität, lose übersetzt also die Zwei-Zeitigkeit. Diese trennt den Zeitpunkt der Datenabfrage von dem Zeitpunkt, auf den sich die Anfrage bezieht: Ist ein Produkt aktuell (also genau jetzt, zum Zeitpunkt der Abfrage) lieferbar? Wird es (voraussichtlich) in 14 Tagen lieferbar sein? War das Produkt am 3. März 2024 um 10:17 CET lieferbar und wenn ja, welche Vor-Produkte steckten in dem am 3. März 2024 verkauften Produkt? Wie sah die Supply Chain dafür aus? Die Datenstrategie muss also klären, wie sich Informationen über den aktuellen Status einer Entität von Informationen über einen früheren Status abgrenzen.
Vernetzbarkeit – Der dritte Faktor einer Datenstrategie muss die Frage klären, welche Informationen vernetzt, also sinnvoll zueinander in Beziehung gesetzt werden können. So können zum Beispiel im eCommece ähnliche oder zueinander passende Produkte miteinander vernetzt werden, um sie zum Beispiel zu empfehlen.
Föderalismus – Föderalismus ist per Definition ein Ordnungsprinzip, das auf weitgehender Unabhängigkeit einzelner Einheiten beruht, die zusammen aber ein Ganzes bilden. Dieser vierte Aspekt einer Datenstrategie betrifft also die Organisation von Verantwortung für die betrachteten Daten. Föderalismus bedeutet, dass es zwar auf lokaler Ebene Verantwortung für die Daten gibt, aber auch über diese Ebene hinaus geklärt ist, wie mit Daten umgegangen wird. In föderalistischen Strukturen ist geregelt, wie weit die Verantwortung auf jeder Verantwortungsebene reicht. Das heißt, wer was mit Daten machen darf und wie sie abgelegt/bereitgestellt werden müssen, damit auch andere Ebenen Zugriff haben.
Ein sehr konkretes Beispiel, nämlich Markenlogos, verdeutlichen diese vier Elemente einer Datenstrategie:
Identifiziert wird die Marke und erst darüber das Logo in einer konkreten Ausprägung (zu Beispiel Dateiformat oder Auflösung). Die Daten für Marke und Logo sind offensichtlich miteinander vernetzt, wie schon aus der Identifikation deutlich wird. Bei einem Wechsel des Logos beispielsweise bei einem Re-Branding kann so sichergestellt werden, dass die Referenz Bestand hat.
Die Berücksichtigung der Bitemporalität stellt sicher, dass der Logowechsel in allen beteiligten Systemen zu einem definierten Zeitpunkt umgesetzt wird: Die Bitemporalität berücksichtigt Benachrichtigungen über zu erwartende Änderungen und erlaubt hier die Abfrage zukünftiger Inhalte, um die neuen Logos vorbereitend cachen zu können. Umgekehrt kann auch eine in die Vergangenheit gerichtete Abfrage sinnvoll sein, typischerweise aber eher bei Inhaltsstoffen, Preisen, Lieferbedingungen, etc. als bei einem Markenlogo.
Die Festlegung, welche Marken es gibt, wie die Formate identifiziert werden, etc. kann nicht allein der Einkauf oder das Marketing festlegen. Dafür braucht es die notwendige Vernetzung.
Diese Entscheidungen müssen durch eine gemeinsame Autorität festgelegt werden, eine Institution im föderalen System der Datenstrategie.
Wie essentiell eine Datenstrategie für Unternehmen ist, beweist auch das Phänomen Produktdaten. Sie haben viele Quellen, beispielsweise die eigene Produktentwicklung, aber auch „fremde“ Hersteller und Zwischenhändler. Sie sind wesentlicher Bestandteil wichtiger Geschäftsprozesse, werden in den unterschiedlichsten Abteilungen benötigt und sie werden in einer Vielzahl von Systemen genutzt:
Im Katalog, gemeinsam mit Preisinformation, Verfügbarkeiten, Abbildungen,
in der Bestandsverwaltung,
im Retourenmanagement gemeinsam mit Lager- und Logistikinformation,
zum Planning und zum Reporting,
auf Artikel- oder Kategorieebene,
zur Aggregation von Absatz- und Umsatzzahlen gemeinsam mit zeitlichen oder räumlichen Kriterien,
im Stammdaten-,
Bestellabwicklungs-,
eCommerce- und
Controlling-System und
in vielen anderen Zusammenhängen.
Wenn nicht klar ist, was Produktdaten identifizieren, in welchem Zusammenhang sie miteinander stehen und welche Regeln für ihre Domänen übergreifende Bereitstellung gelten, entsteht aus ihnen ein undurchdringlicher Datensumpf, der weder produktiv noch analytisch sinnvoll eingesetzt werden kann. Das gilt umso mehr, je größer und differenzierter ein Unternehmen ist. Viele große Unternehmen betreiben schließlich zahlreiche E-Commerce-Systeme, etliche Produktionsstraßen in unterschiedlichen Ländern und managen verschiedene Marken und Produktkategorien.
Daten sind codiertes Mitarbeiterwissen
Eine Datenstrategie legt ferner fest, wie Unternehmen das Wissen um ihre Produkte, Services, Prozesse und Geschäftsmodelle codieren. Damit werden Lösungen möglich, die auch eine automatisierte Entscheidungsunterstützung erlauben. Dazu kurz zurück zu unserem Online-Optiker: Um Brillen online zu verkaufen, muss viel Optikerfachwissen codiert werden, damit der Kunde bei der Konfiguration seiner Brille nicht gravierende Fehler macht. Die optimale Größe der Gleitsicht-Brillengläser hängt nämlich unter anderem von der Sehstärke und der Glasgeometrie ab. Um erfolgreich Brillen online zu verkaufen, muss dieses Erfahrungswissen von Optikern in den Produktdaten codiert werden, und die verschiedenen Zuständigkeiten (Beschaffung, Produktion, eCommerce) müssen diese Daten pflegen, verbinden und nutzen.
Ein Wissensgraph (Knowledge Graph) erfasst die Bedeutung der Daten und spielt eine besondere Rolle bei der Identifikation und der Vernetzung der Daten: Das dreischichtige Wissensgraph-Modell nach Dave McComb erweitert einen typischerweise zweischichtigen Blick auf Schemata beziehungsweise Klassen einerseits und Daten beziehungsweise Instanzen andererseits. McComb führt eine mittlere Ebene ein, die eine Zwitter-Rolle einnimmt und bezeichnet diese drei Ebenen als Konzepte, Kategorien und Daten.
Ganz praktisch hat Katariina Kari, Lead Ontologist bei Inter Ikea Systems, mit Ihrem Team einen solchen Knowledge Graph eingeführt. An diesem Beispiel orientieren wir uns, übertragen das aber auf das Online-Optiker-Beispiel.
In der obersten Schicht befinden sich die zentralen Konzepte, beispielsweise „Gestell“ mit „Eigenschaften“. Die Anzahl der Konzepte bewegt sich im Bereich von Hunderten. Sie werden eng abgestimmt und unterliegen einer rigorosen zentralen Governance.
Auf der mittleren Ebene, den Kategorien, ist „Farbe“ als eine Eigenschaft definiert mit den Ausprägungen „Tortoise“ oder „Havana“. Die Zahl der Kategorien geht typischerweise in die Tausende, die Kategorien lassen sich aber thematisch unterteilen und die einzelnen thematischen Bereiche werden durch entsprechende Fachexperten definiert.
Die unterste Schicht bezeichnet McComb als Daten und diese Schicht umfasst hier, was gefärbt wird, also zum Beispiel der Steg einer Brillenfassung. Die Zahl der Entitäten auf der Datenebene geht potentiell in die Millionen. Die Datenebene zerfällt in Bereiche, die jeweils der Kontrolle der Domänen unterliegen. Das Föderalismus-Prinzip ist hier also besonders gut zu erkennen.
Die Integration der Kategorien und insbesondere der Daten in die gesamte Landschaft erfolgt über die Referenz auf die übergeordneten Ebenen, so dass eine Vernetzung darüber möglich ist. Es können also beispielsweise alle Fassungen mit der Steg-Farbe Tortoise verknüpft werden. Über Ähnlichkeiten können beispielsweise ähnliche Produkte im eCommerce-System vorgeschlagen werden.
Elemente der Datenstrategie korrespondieren mit Data-Mesh-Prinzipien
Das zurzeit viel diskutierte Konzept Data Mesh von Zhamak Dehghani, Technologiedirektorin des IT-Beratungsunternehmens ThoughtWorks ist nichts anderes als die konkrete Ausprägung einer Datenstrategie. Dieses soziotechnische Konzept basiert auf den vier Prinzipien Domain Ownership, Daten als Produkt, Self-Service-Datenplattform und föderierte Governance. Wir setzen dieses Konzept in Relation zu den vier Schlüsselaspekten Identität, Bitemporalität, Vernetzung und Föderalismus.
Domain Ownership: Dieses Prinzip besagt, dass die Verantwortung für Daten nicht von einem zentralen Datenteam getragen wird, sondern in den Domänen, in denen sie entstehen. Das heißt konkret: Das Team, das eine Fachlichkeit Ende-zu-Ende verantwortet, ist auch für die Daten verantwortlich, die in Zusammenhang mit dieser Fachlichkeit entstehen.
Data as a Product: Sammeln, Aufbereiten und Bereitstellen von Daten ist kein Selbstzweck, sondern muss – wie jedes Produkt für seinen Nutzer – einen Wert stiften. Dies bedarf aber auch strategischer Planung, eines passenden Product-Market-Fits und der Vermarktung des jeweiligen Datenprodukts: Datenprodukte stellen den Daten-Konsumenten und seine Bedürfnisse in den Mittelpunkt, balancieren aber auch die unterschiedlichen Wünsche verschiedener Konsumenten aus. Die Gestalt eines Datenprodukts, beispielsweise als API, als Datenbank-Zugang, oder als Visualisierung, richtet sich dabei nach den Bedürfnissen der Konsumenten, und für unterschiedliche Bedürfnisse können durchaus unterschiedliche Datenprodukte aus den gleichen Daten erzeugt werden.
Self Service Data Platform: Damit die Produktteams ihre Datenprodukte schnell und effizient bereitstellen können, benötigen sie entsprechende Werkzeuge, quasi eine Produktions- und Vertriebsstrecke für Datenprodukte. Diese Werkzeuge sollten dabei idealerweise so ineinandergreifen, dass auch für die Konsumenten die Vernetzung verschiedener Datenprodukte einfach möglich ist. „Self Service“ – oder vielleicht besser ausgedrückt, „dem Subsidiaritätsprinzip folgend“ – bedeutet dabei, dass die Data Owner eigenständig in der Lage sind, Datenprodukte anzubieten. Es ist also entgegen des Namens „Data Plattform“ gleichermaßen eine Frage der verfügbaren Infrastruktur und der Organisationsstruktur, die Teams so zu schneiden, dass diese Eigenständigkeit realisiert werden kann.Dieses Prinzip stellt in der Komplexität die größte Hürde für die Realisierung eines Data-Mesh-Ansatzes dar. Nicht etwa, weil die Verfügbarkeit von entsprechenden Datenplattformen fehlt, sondern weil die Balance von Kompetenzen innerhalb der Organisation entsprechend neu austariert werden muss.
Federated Governance: Um Mehrwert zu erzeugen, betont der Data Mesh Ansatz Datenprodukte in lokaler Verantwortung. Unseren oben dargestellten Punkten entsprechend entsteht der Mehrwert gerade in der Vernetzung unterschiedlicher Domänen, in der Beziehung von Datenproduzenten und -konsumenten. Es gibt also Bereiche, spätestens vorgegeben durch externe Regulatorik in Bezug auf Sicherheit, Datenschutz, etc., die nicht lokal von den Data Ownern reguliert werden können. Es muss also übergeordnete Strukturen und Leitplanken geben, die festlegen, wie Daten in größeren Zusammenhängen organisiert und verwendet werden. Dabei gilt das föderale Prinzip der Subsidiarität: Ähnlich wie beim Zusammenspiel von Kommunen, Ländern und dem Bund werden Entscheidungen auf derjenigen institutionellen Ebene getroffen, deren Kompetenz dafür gerade ausreicht. Fehlen dem Einzelnen, der kleinsten Gruppe, der niedrigsten institutionellen Ebene die Kompetenzen, so greift eine entsprechend höhere Instanz.
Identität, Bitemporalität, Vernetzung und Föderalismus in einem Data Mesh
Je nach Business-Anforderungen und Komplexität der Datenströme in einem Unternehmen kann ein Data-Mesh die sinnvollste Realisierung einer Datenstrategie darstellen. Allzu oft wird dabei vor allem die technische und weniger die soziologische Seite betont. Wir sehen aber auch, dass die vier Prinzipien Domain Ownership, Data as a Product, Self Service Data Platform und Federated Governance wenig konkrete Orientierung geben: Was enthält ein Data Product? Wie steht es zu anderen Data Products in Verbindung? Was soll eine Self Service Data Platform ermöglichen?
6 Gründe: Warum Sie an Data-driven scheitern
Hier kommen wir zurück zu den vier Schlüsselaspekten einer Datenstrategie: Identität, Bitemporalität, Vernetzung und Föderalismus. Diese Schlüsselaspekte fokussieren die Datenstrategie auf konkrete Punkte und können so beispielsweise der Realisierung eines Data Mesh Struktur geben:
Welche Identitäten werden in den Datenprodukten exponiert? Welche Datenprodukte müssen gemeinsame Identitäten referenzieren, um Vernetzung zu ermöglichen? Müssen Datenprodukte nur „für den Moment“ realisiert werden oder für einen Blick nach vorne oder zurück – Stichwort Bitemporalität.
Und über allem thront die Frage: Wer hat die Kompetenz, Entitäten zu identifizieren? Kompetenz bedeutet dabei sowohl das fachliche, technische und gestalterische Wissen als auch den allgemein anerkannten Auftrag zur Gestaltung der entsprechenden Informationsräume.
Der Data Mesh Ansatz bezieht das föderale Prinzip explizit auf Governance, also auf die Verwaltung inklusive der Gestaltung der Verwaltung. Wir gehen mit unserem Verständnis von Föderalismus darüber hinaus und verstehen darunter explizit auch die Gestaltung der Datenräume: Auch die Erstellung und Pflege der Konzepte, Kategorien und Daten in einem Knowledge Graphen wird als föderale Struktur organisiert: Für die oberste Schicht, die Konzepte, ist eine zentrale Gestaltung notwendig. Die Ebene der Kategorien kann aufgebrochen und lokaler realisiert werden. Insbesondere können verschiedene Teilbereiche der zweiten Ebene von unterschiedlichen Teams verwaltet werden. Die Daten-Ebene entsteht dann wirklich lokal in den Domänen und unterliegt dem jeweiligen Owner eines Data Products.
Datenstrategie setzt Kultur voraus
In Anerkennung von Peter Druckers “Culture eats strategy for breakfast” ist auch für eine erfolgreiche Datenstrategie eine entsprechende Kultur quasi zwingende Voraussetzung. (Unternehmens-) Kultur umfasst die immateriellen Grundlagen gestaltender Leistungen einer Organisation.
In Bezug auf die Daten-Kultur stellt sich also beispielsweise die Frage der Ausgestaltung der föderalen Strukturen: Betont eine Organisation eher zentrale Verantwortung oder lokale Verantwortung? Entsprechen föderale Ebenen auch hierarchischen Ebenen, werden Entscheidungen also über Führungskräfte eskaliert oder werden kompetente, das heißt entscheidungsfähige, Gremien auf andere Weise zusammengesetzt? Wie wird die dezentralisierte Kompetenz der Domänen ausbalanciert im Vergleich mit zentral bereitgestellten Plattformen, die mit möglichst geringer Lernkurve für die Nutzer aus den Domänen zu verwenden sind, dafür aber mit erheblichem Aufwand betrieben werden müssen.
Pragmatisch – Schritt für Schritt zum Nordstern
Unternehmen, die ihre Datenstrategie überdenken, sollten einen Nordstern entwickeln, dann aber sehr pragmatisch vorgehen. Der Nordstern steht für das Zielbild, das angestrebt wird: Will man Effizienz steigern, auf der Basis von Erkenntnissen aus den vorhandenen Daten Produkte oder Services verbessern und neue Geschäftsfelder erschließen? Wenn das Ziel einer Datenstrategie und entsprechender Initiativen nicht klar ist, dann ist die Realisierung zum Scheitern verurteilt. Erst wenn die Richtung klar ist, können praktisch realisierbare Schritte zum Erfolg führen.
Die Organisation kann behutsam verändert werden, um beispielsweise föderale Governance-Strukturen aufzubauen, eine zentrale Steuerung des obersten Ontology-Layers realisiert und im Wechselspiel mit den Domänen angepasst und verbessert werden. Die Domänen müssen in die Lage versetzt werden, eigenständig Datenprodukte realisieren zu können, bei zentraler Definition der Policies, die für alle gelten müssen, beispielsweise in Bezug auf Identitäts- und Zugriffsmanagement. Und hier, beim Schaffen einer Plattform – geplant oder emergent als Ergebnis nur lose koordinierter Initiativen zur Reduktion des Kommunikations-Overheads – nähert sich die Datenstrategie der klassischen IT-Strategie, insbesondere in Bezug auf Cloud-Architekturen.
Fazit: Mit einer Datenstrategie zu fundierten Entscheidungen
Wettbewerbsfähigkeit durch Innovation braucht eine gut durchdachte Datenstrategie. Durch die Orientierung an den Schlüsselaspekten Identität, Bitemporalität, Vernetzung und Föderalismus können Unternehmen das Potenzial ihrer Daten erschließen und fundierte Entscheidungen treffen.
7 Data-Strategy-Trends: Ist Ihre Datenstrategie noch zukunftsfähig?
Dabei geht es nicht nur um das Sammeln und Analysieren von Daten, sondern um die Schaffung einer Kultur der datengesteuerten Entscheidungsfindung. Sie erfordert die Fähigkeit, ein Gleichgewicht zwischen Zentralisierung und Dezentralisierung herzustellen. Dabei wird ein Kernelement unserer Gesellschaft, der Föderalismus, zum strukturierenden Element.