Dezentrales Datenmanagement
Data Mesh: Ein alternatives Modell, um Datenpotenziale voll auszuschöpfen

Ein Gastbeitrag von Arjan van Staveren* 4 min Lesedauer

Anbieter zum Thema

Mit der fortschreitenden Digitalisierung der Unternehmenswelt werden immer größere Datenmengen gesammelt. Dafür werden oft zentrale Lösungen verwendet, die sich allerdings negativ auf Agilität und Qualität der Daten auswirken. Eine Alternative bietet das Data-Mesh-Konzept.

Das Data-Mesh-Konzept verbindet Software-Engineering-Prinzipien mit dezentralen Ansätzen aus der modernen Softwareentwicklung.(Bild:  gemeinfrei /  Pixabay)
Das Data-Mesh-Konzept verbindet Software-Engineering-Prinzipien mit dezentralen Ansätzen aus der modernen Softwareentwicklung.
(Bild: gemeinfrei / Pixabay)

Vom Onlineshop über Social Media bis hin zu IoT-Geräten: Jedes Gerät und System generiert neue Daten, die ausgewertet, analysiert und genutzt werden wollen. Auch innerhalb der modernen, vernetzten Fabrik werden angesichts unterschiedlichster Daten- und Informationsebenen, Transparenz und automatisierte Prozesse immer wichtiger, um Kosten zu senken und die Produktivität zu steigern. Denn nur, wer schnell auf neue Entwicklungen reagieren kann, wird auch in der Lage sein, größere Störungen zu vermeiden, und sich dadurch auch auf lange Sicht auf dem Markt behaupten.

Data-Warehouse- oder Data-Lake-Technologien galten lange als die Lösung, wenn es darum ging, sämtliche Daten eines Unternehmens zu speichern und allen Bereichen zur Verfügung zu stellen. Viele Firmen implementierten entsprechende zentralisierte Plattformen – in der Hoffnung, Silobildung zu vermeiden und den größtmöglichen Mehrwert aus ihren verfügbaren Daten herauszuholen. Das erwies sich jedoch vielfach als Trugschluss: Das liegt in der Regel am zentralen Datenteam, das zwischen den vielen Datenquellen auf der einen und der ständig wachsenden Zahl der Datenkonsumenten auf der anderen Seite steht. Es soll zwar alle Datenströme in einem zentralen Depot integrieren, verfügt häufig jedoch nicht über ausreichendes Wissen hinsichtlich des fachlichen Inhalts und der geforderten Struktur. Das hat zur Folge, dass nicht nur die Integration sehr lange dauert, sondern auch Datenagilität und -qualität leiden.