DWH und Data Lake Lösungen in der Cloud / Next Generation Analytics Plattformen / IoT und Streaming
Am Anfang steht zunächst das Sammeln und Verwalten Ihrer Daten. Ob Streamingtechnologien, ETL-Entwicklung oder Aufbau von Data Lakes und Data Warehouse: Unsere Spezialisten für Datenaufbereitung und Datenhaltung beraten und begleiten Sie auf dem Weg zu Ihrer individuellen Lösung.
Data Lake
Im Rahmen von Big Data Analytics oder auch generell für operative Daten, besteht der Bedarf nach einem unternehmensweiten Datenpool der für die Durchführung von Analytics zur Verfügung steht - ein integrierter Data Lake. In diesem werden Rohdaten unabhängig vom Quellsystem über eine einheitliche Technologie gespeichert und in einem gemeinsamen Datenkatalog inventarisiert. Im Data Lake werden alle Daten als Unternehmenswerte professionell gemanaged und über leistungsfähige Schnittstellen zur weiteren Verarbeitung oder Analyse bereitgestellt.
IoT
Das Internet of Things (IoT) ist die globale Vernetzung von Informationstechnologie im Rahmen der zunehmenden Digitalisierung unseres Alltags. Mit fortschreitender Technologisierung werden physische Gegenstände im globalen Internet vernetzt und es entstehen auf dieser Basis neue Dienstleistungen und Anwendungsfälle für die dabei anfallenden Daten. Für Unternehmen entsteht hierbei Potenzial für die Verbesserung von Produkten und Dienstleistungen oder neue Möglichkeiten mit Kunden digital in Kontakt zu treten. Im Unternehmenskontext werden IoT Daten z.B. als Schlüsseltechnologie neuer Geschäftsmodelle genutzt oder zur Verbesserung von Servicedienstleistungen im Kontakt zum Kunden herangezogen.
Big Data Analytics
Bevor wir zu Big Data Analytics kommen, gilt es erst einmal zu klären, was unter Big Data überhaupt zu verstehen ist: Grundsätzlich sind damit Daten jenseits der üblichen operativen Kernanwendungen gemeint, das können zum Beispiel Daten zu Events aus Webapplikationen, IoT Daten aus Sensoren, Maschinen und Produktionsdaten, Prozessdaten, Geodaten und viele mehr sein. Darüber hinaus steht Big Data auch für schwer zu analysierende Daten wie Bild- oder Audiodaten und allgemein nicht-tabellarische Daten mit großen Datenvolumen oder hoher Aktualisierungsrate. Solche Datenbestände werden durch Big Data Analytics für Analysen zugänglich. So kann die Datenbasis erweitert und das Nutzungspotential von Daten vergrößert werden.
Stream Processing
Für viele Anwendungsfälle ist die Aktualität von Daten und abgeleiteten Analysen elementar für die Qualität der jeweiligen Prozesse. Datenaktualität im Rahmen von Stream Processing wird dadurch erreicht, dass Datenänderungen zum Beispiel aus operativen Systemen kontinuierlich an Datenplattformen oder Analyse-Systeme weitergeleitet werden. Kennzahlen auf Dashboards sind so immer aktuell und Entscheidungen werden auf einer möglichst aktuellen Datenbasis getroffen. Auf diese Weise kann generell Analytics stärker in operative Prozesse und Anwendungen integriert werden.
Data Architecture
Innerhalb der Datenarchitektur eines Unternehmens werden Prinzipien, Prozesse und Technologien zur Speicherung und Verarbeitung von Daten zum Beispiel im Rahmen von Analyticssystemen definiert. Im Rahmen der Datenarchitektur wird festgelegt, wie Daten katalogisiert werden, wie Datenschutz und Datensicherheit gewährleistet wird und welche Datenverarbeitungsprozesse zur Verarbeitung und Speicherung existieren.
Entwicklungsautomation
In der Entwicklung besteht an unterschiedlicher Stelle die Möglichkeit zur Automation von Entwicklungsprozessen zum Beispiel durch Code Generierung oder Parametrisierung auf der Basis von Metadaten. Hierbei werden unter anderem manuelle Entwicklungsaufwände reduziert und allgemein die Entwicklungsgeschwindigkeit und Skalierbarkeit von Entwicklung erhöht. Die Automation von Abläufen dient darüber hinaus der Standardisierung von gut strukturierten Entwicklungsschritten und somit der Reduktion von manueller Entwicklung und möglichen Fehlerquellen. Die Automation führt sich über die Entwicklung hinaus weiter in Test- oder DevOps-Prozesse, zum Beispiel im Rahmen von Continuous Integration/Development (CI/CD) oder im Betrieb.
Data Virtualization
Die herkömmliche Datenverarbeitung zum Beispiel zur Berechnung von Kennzahlen wird in der Regel zu festgelegten Zeitpunkten ausgeführt und die Ergebnisse gespeichert. Zu einem späteren Zeitpunkt erfolgt dann die Nutzung durch Datenanfragen in Analysen oder Berichten. Mit der Datenvirtualisierung werden die Analyseergebnisse erst zum Zeitpunkt Anfrage/Nutzung berechnet. Hierdurch ergibt sich unter anderem der Vorteil, dass Kennzahlen auf einer aktuelleren Datenbasis berechnet werden, was insbesondere im Rahmen einer kontinuierlichen Datenaktualisierung eine höhere Aktualität der Ergebnisse ermöglicht.
Data Vault
Data Vault ist eine Methodensammlung zum Aufbau eines Enterprise Data Warehouse Systems. Sie beinhaltet klar definierte Vorgehensweisen zur Datenmodellierung, Datenverarbeitung und Architekturgrundsätze. Die besonderen Stärken der Methodik liegen in der einfachen Automation von Entwicklungsprozessen auf der Basis von Metadaten, Beschleunigung von Ladeprozessen durch massive Parallelisierung und Unterstützung von agilen Vorgehensweisen. Mit Data Vault bleiben Data Warehouse Systeme durch eine hohe Entwicklungsautomation langfristig wartbar und änderbar. Hierbei bietet die gute Entkopplung einzelner Evolutionsschritte langfristig Vorteile gegenüber alternativen Ansätzen, da sonst in einer komplexen Systemarchitektur mit steigender Systemgröße die Aufwände für Impact-Analysen, Regressiontesting und Reengineering immer weiter anwachsen.
Data Governance
Für datengetriebene Unternehmen sind Datenbestände erfolgswirksame Vermögensgegenstände, die professionelles Datenmanagment erfordern. Im Rahmen einer Data Governance werden klare Prinzipien, Prozesse und Maßnahmen definiert, die einerseits regulatorischen beziehungsweise gesetzlichen Anforderungen genügen müssen (z.B. DSGVO) und andererseits das Nutzungspotenzial von Daten aktiv entfalten sollen. Mit einer Data Governance werden Daten im Sinne eines Assetmanagements als Datenprodukte inventarisiert, dadurch fachlich beschrieben und Verantwortlichkeiten (Ownership) transparent festgelegt. Dies vereinfacht die Freigabe und Nutzung der Daten für Analysezwecke, reduziert Risiken durch klare Kennzeichnung von Datenschutzklassen und regelt den Austausch oder die Integration mit anderen Daten über Schnittstellen.
Kontaktieren Sie uns, wir beraten Sie gern.