Die neue Realität: Erweiterung des Data Warehouse um Hadoop, NoSQL & Co

von Stefan Müller (it-novum GmbH)

Etwas angestaubt und in die Jahre gekommen wirkt das Konzept des Data Warehouse in Zeiten von Big Data, MapReduce und NoSQL. Dabei besitzt eine standardisierte und zentrale Datenbasis größere Aktualität als zu den Anfangszeiten des Data Warehouse-Ansatzes: Für viele Unternehmen sind Daten ein wertvoller Rohstoff, um Entscheidungsprozesse zu unterstützen und Wettbewerbsvorteile zu erzielen.

Der klassische Ansatz des Data Warehouse stößt in Zeiten explodierender Datenmengen und -heterogenität an seine Grenzen. Zudem machen moderne Technologien wie Hadoop, NoSQL und analytische Datenbanken den effektiven und effizienten Umgang mit extrem großen Datenmengen möglich. Das Data Warehouse ist damit aber nicht überflüssig geworden. Nach wie vor liegt der Fokus darauf, entscheidungsrelevante Informationen zu identifizieren und zu verteilen. Neben den neuen Data Scientists existieren nach wie vor die unterschiedlichen Berichtsempfänger und Analysten mit Zugriff auf die klassischen BI-Tools. Big Data-Technologien helfen, das Data Warehouse sinnvoll zu erweitern, so dass die Datenmengen kostengünstig gespeichert und schnell vorverarbeitet werden können. Data Blending heißt die Antwort, um alle neuen Quellen sinnvoll miteinander zu kombinieren und die Vorteile ganzheitlich nutzen zu können.

Ãœber den Autor Stefan Müller:

Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management leitet Stefan Müller den Bereich Business Intelligence beim Open Source- und SAP-Dienstleister it-novum. Stefans Herz schlägt für die Möglichkeiten, die Open Source-Lösungen wie Pentaho, Hadoop, Infobright etc. bieten und ihre Integration in die SAP-Welt. Seine Begeisterung für Business Open Source für Datenanalyse und -aufbereitung gibt Stefan regelmäßig in Fachartikeln, Statements und Vorträgen weiter.