PASO SOLUTIONS
REFERENCES THAT ARE CONVINCING

Kunden auf Erfolgskurs

 

PASO SOLUTIONS
SUCCESS STORIES

Kundenerfolg spricht für sich

THE NEXT
GENERATION DATA WAREHOUSE

 

Ausgangsbasis

Gemeinsam mit unserem Kunden haben wir im Jahr 2008 ein Data Warehouse für die Erstellung von einfachen Reports umgesetzt. Da sowohl die Nutzerzahl in den letzten Jahren stark gestiegen ist als auch die Ansprüche der Fachbereiche an die Analysierbarkeit, Steuerbarkeit und die Qualität der Kernprozesse im Unternehmen immer höher wurden, hat sich unser Kunde dazu entschieden, ein Data Warehouse der nächsten Generation mit uns als Partner umzusetzen.

 

Anforderungen

In einem ersten Schritt sollten die Daten aus allen Fachbereichen des Unternehmens im Data Warehouse für Reports und Analysen zur gezielten Prozesssteuerung bereitgestellt werden.

 

In einem weiteren Schritt war es wichtig, die Perfomance und die Leistungsfähigkeit des Data Warehouses auf die steigende Anzahl an Benutzern aus den verschiedenen Fachbereichen sowie die steigende Anzahl an unterschiedlichen Abfragen auszulegen, um diese optimal bedienen zu können. Die steigende Anzahl an Benutzern brachte aber noch weitere Anforderungen mit sich. Somit wurde der Fokus auch auf die Themen Sicherheit und Zugriffsberechtigungen für Benutzer und Benutzergruppen, sowie die Bereitstellung der Reports und Analyseergebnisse in verschiedenen IT-Systemen gelegt.

Technologien und Umsetzung

Zu Projektbeginn wurden gemeinsam mit dem Kunden die eingesetzten Technologien definiert. Es wurde entschieden, dass das Data Warehouse auf Basis von Microsoft SQL Server 2017 aufgesetzt wird. Zudem sollten die Reports auf Basis von Microsoft Power BI und Microsoft Reporting Services umgesetzt werden. Nun galt es noch, die ETL Methodik festzulegen. Zur Auswahl standen folgende Methodiken:

 

  • Kundenspezifische ETL Methodik
  • Service Broker Technologie
  • SSIS (Integration Services)

 

Hier wurden anfänglich verschiedenste Ansätze und Methoden zur Simulation von Datenströmen genau unter die Lupe genommen. Letztendlich entschied man sich aufgrund der Performance sowie der Skalierbarkeit auf die Integration Services von Microsoft zu setzen.

 

In einem nächsten Schritt sollte die Architektur des Datawarehouses festgelegt werden. Hier standen ebenfalls mehrere Ansätze zur Auswahl. Konkret handelte es sich um folgende Ansätze:

 

  • Corporate Information Factory (Inmon)
  • Bus Architecture (Kimball)
  • Data Vault (Lindstedt)

 

Nachdem alle Methoden genau unter die Lupe genommen wurden, entschieden wir uns aus mehreren Gründen für die Data Vault Methode von Lindstedt. Der ausschlaggebende Grund war, dass bei Data Vaults eine parallelisierte Beladung des Data Warehouses möglich ist, was in Bezug auf die Performance der Lösung zwingend notwendig war. Des Weiteren arbeiten wir in der Projektabwicklung mit agilen Vorgehensmodellen. Somit war es für uns wichtig, auf eine Architektur zu setzen, die auch eine gewisse Agilität im Projekt zulässt. Dies ist bei Data Vaults der Fall. Zudem erlauben Data Vaults auch Automatisierungen, die die Komplexität in den Projekten reduzieren und somit auch Kosteneinsparungen bringen.

 

KUNDENNUTZEN

Der Einsatz von Data Vaults bringt neben kürzeren Entwicklungszeiten und Kostenreduktion durch Automatisierungen einen weiteren großen Vorteil: Agilität. Die Architektur von Data Vaults zielt darauf ab, auch im Bereich von Datawarehouses die starren Strukturen aufzubrechen und Agilität zuzulassen. Mit dem flexiblen und erweiterbaren Ansatz der Data Vaults können zu einem späteren Zeitpunkt Daten ohne Weiteres dazu geladen werden. Dadurch kann auf geänderte Kundenanforderungen während der Projektumsetzung jederzeit einfach und rasch reagiert werden. Zudem bedeutet Agilität für den Kunden Budget- und Terminsicherheit.

Der Einsatz von Power BI bedeutet für den Kunden Flexibilität und Kosteneinsparungen, da der Kunde mit Power BI die Möglichkeit erhält, selbst Analysen zu erstellen bzw. bestehende Analysen zu bearbeiten.

Aus technischer Sicht ist besonders hervorzuheben, dass die neu umgesetzte Lösung um den Faktor 100 schneller ist, als die ursprüngliche Lösung. Dazu tragen einerseits das neu aufgebaute Data Warehouse sowie andererseits der Einsatz einer leistungsfähigeren Hardware bei. Damit können ca. 100.000 Datensätze pro Sekunde abgearbeitet werden.

XING