Konzeption und Implementierung einer verteilten Big-Data-Architektur zum Erfassen und Auswerten von Energiesensordaten in Rechenzentren

Concept and Implementation of a distributed Big Data Architecture to gather and analyse Energy Sensor Data of Data Centers

  • Ziel dieser Thesis war es, eine Softwarearchitektur zu konzipieren, die auf dynamisch wachsende Datenmengen angepasst werden kann und den Anforderungen des Auftraggebers entspricht. Darauf aufbauend sollte eine prototypische Implementierung realisiert werden, um die Leistungsfähigkeit der entstandenen Architektur abschätzen zu können. Die Herausforderung an dieser Thesis war die Entwicklung einer Architektur, die mit einer stetig wachsenden Anzahl von Zeitreihendaten umgehen kann. Das machte die Verwendung von Technologien erforderlich, die für solche Datenmengen konzipiert wurden. Um zu ermitteln, was die zu entwickelnde Big Data-Architektur leisten muss, war eine Anforderungsanalyse unter Einbeziehung der Stakeholder erforderlich. Durch Einsatz ausgewählter Ermittlungstechniken entstand ein Katalog priorisierter Anforderungen. Da nur eine prototypische Implementierung der Architektur entwickelt werden sollte, wurden lediglich die wichtigsten Anforderungen als Grundlage für die Realisierung übernommen. Anhand der von den Stakeholdern erhobenen Anforderungen musste ermittelt werden, welche Werkzeuge in der Konzeption einer Big Data-Architektur untersütztend wirken können. Aus diesem Grund wurde die Wirkung von ausgewählten Architekturmustern, Kommunikationsservern und Datenbanksystemen auf die Architektur untersucht. Als am Besten geeignetes Werkzeug zur Kommunikation wurde der Message-Broker RabbitMQ evaluiert. Der Vergleich verschiedener Datenbanksysteme für die bei Raritan entstehenden Zeitreihendaten, wurde im Vorfeld bereits durchgeführt. Nach einer Prüfung der Anwendbarkeit der Ergebnisse auf diese Arbeit wurde MongoDB als geeignetes Datenbanksystem bestätigt. Basierend auf den ermittelten Anforderungen wurde ein Konzept für die Big Data-Architektur entworfen. Dabei wurde anhand der evaluierten Architekturmuster eine Aufteilung in verschiedene Komponenten vorgenommen. Zur Steigerung der Qualität wurden während dieser Konzeptionsphase die SOLID-Prinzipien auf die Architektur und ihre Komponenten angewendet. Es entstand eine detaillierte Beschreibung und Dokumentation einer verteilten Big Data-Architektur, um die Zeitreihendaten beliebig vieler Raritan PDUs horizontal und vertikal zu skalieren. Auf Basis der konzipierten Big Data-Architektur wurde eine prototypische Implementierung entwickelt. Dabei kamen beispielsweise das Vermittler- und Fassade-Entwurfsmuster zum Einsatz. Alle Komponenten der Architektur wurden dabei mit der Java Standard Edition entwickelt. Es entstand eine verteilte Software, die alle an sie gestellten funktionalen Anforderungen erfüllt. Da die Implementierung des Prototypen nur direkte Aussagen über die Realisierung funktionaler Anforderungen zulässt, muss untersucht werden, ob die nicht funktionalen Anforderungen ebenfalls erfüllt wurden. Dazu wurde die Analysemethode SAAM zur Untersuchung der Architektur verwendet. Die Untersuchung ergab, dass fast alle Qualitätsanforderungen von der Big Data-Architektur erfüllt werden und somit eine gute Qualität gewährleistet ist.

Export metadata

Additional Services

Metadaten
Author:Benjamin Schunn
Advisor:Georg Beier, Thomas Franke
Document Type:Master's Thesis
Language:German
Name:Raritan Deutschland GmbH
Kornmarkt 7, 08056 Zwickau
Date of Publication (online):2017/02/13
Year of first Publication:2016
Publishing Institution:Westsächsische Hochschule Zwickau
Date of final exam:2016/07/15
Tag:Big Data; Kommunikationsserver; Message Oriented Middleware; NoSQL-Datenban; Softwarearchitektur; Softwaredesign; Verteilte Anwendung; Zeitreihendaten
Page Number:191 Seiten, 82 Abb., 7 Tab., 104 Lit.
Faculty:Westsächsische Hochschule Zwickau / Physikalische Technik, Informatik
Release Date:2017/02/13