Refine
Has Fulltext
- no (49) (remove)
Year of publication
- 2015 (49) (remove)
Document Type
- Bachelor Thesis (49) (remove)
Institute
- Physikalische Technik, Informatik (49) (remove)
Language
- German (49) (remove)
Is part of the Bibliography
- no (49)
Sichere Authentifizierung spielt in Zeiten der stetig wachsenden Vernetzung und Mobilität von Anwendungen eine immer größer werdende Rolle. Es gibt eine Vielzahl verschiedener Authentifizierungsmethoden mit unterschieldichen Sicherheitsniveaus. Abgeleitete Identitäten können verschiedene Authentifizierungsmethoden miteinander verbinden und haben das Potential, mögliche Herausforderungen zu lösen. Zu diesen Herausforderugen gehören unter anderem die Fragen der Usability. Im Rahmen der Arbeit soll ein prototypisches Konzept entwickelt werden, welches sich auf die Ableitung der elektronischen Identität aus dem neuen Personalausweis, fokusiert. Auf Basis des Konzepts erfolgt das proof-of-concept in Form einer Smartphoneapp für Android.
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
In der Welt der 3D-Engines gewinnt die Großbildprojektion immer höherer Auflösungen zunehmend an Bedeutung. Ins Besondere im Simulations- und Entertainmentbreich werden die Anforderungen vor allem an die Projektion immer vielseitiger. In der vorliegenden Arbeit soll es nun darum gehen, eine in der 3D-Render-Engine Unity erzeugte 3D-Szene auf eine vertikal zylindrisch gekrümmte Projektionsfläche zu ermöglichen. Dabei handelt es sich um den Fahrsimulator der Fakultät Kraftfahrzeugtechnik der Westsächsischen Hochschule Zwickau. Für jenen Anwendungsfall muss dies ohne Verzerrungen vor allem im Randbereich der Darstellung geschehen, um so eine realistische und realitätsgetreue Darstellung der Umwelt zu ermöglichen. Als Ziel soll eine bessere Geschwindigkeitswahrnehmung, sowie eine geringe "Motion-Sickness" auftreten.
Einleitung Das Lehren und Lernen im Digitalen Zeitalter ist geprägt von Felxbilität und Ereichbarkeit zu jeder Zeit. Nutzer von Lernplattformen (LMS) möchten zu vermittelnde Inhalte einfach und schnell von jedem Ort aus erreichen. Teamfähikeit spielt ebenso eine Rolle, wie selbständiges Erwerben von neuem Wissen und die Fertigkeit es anzuwenden. Diese Ziele sollen möglichst zu annehmbaren Bedingungen ermöglicht werden. Deshalb greifen Ausbildungseinrichtungen und auch Unternehmen zur Unterstüzung auf solche Lernmanagementsysteme (LMS) zurück. In dieser Arbeit wird das Content Management eines LMS untersucht. Herzu ist zunächst in einer Diskusion zu ermitteln, welche Anforderungen für die Inhaltliche Bearbeitung, das Bedienverhalten der Software und dessen Administration erforderlich sind. Als Diskusionsgrundlage dient ein zu schaffender Überblick über mögliche LMS. Dieser wird anhand einer Webrecherge erzeugt, der einige Bedingungen erfüllen muss. Ein sich daraus ergebender Favourite, ist im Bereich Content Management zu untersuchen. Für diese Analyse dienen die nun nach der Diskusion ermittelten Anforderungen an das System.
Analyse und Optimierung der Kommunikation zwischen den Komponenten des Fahrsimulators an der WHZ
(2015)
Mit verteilten Systemen können die Ressourcen mehrerer Rechnersysteme gebündelt und komplexe Berechnungen gegenüber einem einzelnen Rechnersystem schneller ausgeführt werden. Solch ein System wird auch für den Fahrsimulator am Institut für Energie und Verkehr an der Westsächsischen Hochschule Zwickau eingesetzt. Die aufwendigen Berechnungen sind dabei das Rendering der Szenen für die Leinwände und das Verhalten des Fahrzeugs in der virtuellen Welt, nach den Gesetzen der Physik. Diese sollen dabei möglichst schnell berechnet werden, denn Lenkbewegungen und andere Eingaben sollten natürlich so schnell es geht auch auf den Leinwänden als solche zu erkennen sein, damit ein realistisch wirkende Simulation entsteht. Neben schnellen Berechnungen ist dazu auch eine schnelle Kommunikation zwischen allen beteiligten Software- und Hardware-Komponenten notwendig. Diese Bachelorarbeit untersucht den Fahrsimulator am Institut für Energie und Verkehr hinsichtlich der Kommunikationsvorgänge. Dabei werden die Gesamtarchitektur vorgestellt, die verwendeten Technologien diskutiert, Schwachstellen im System erörtert und alternative Ansätze aufgezeigt. Es erfolgt dabei gleichzeitig eine Einordnung in den jeweiligen fachlichen Kontext. Die vorgestellten Möglichkeiten zur Optimierung legen dabei sowohl den Fokus auf Effizienz, als auch auf Effektivität. Es werden also Optimierungen vorgeschlagen, die mit kleinem Änderungsbedarf an der Gesamtarchitektur spürbare Performance-Steigerungen erzielen. Gleichermaßen werden auch solche Optimierungen diskutiert, die sogar noch bessere Ergebnisse erzielen würden, aber einen höheren Änderungsbedarf erforderlich machen.
Diese Arbeit soll einen Überblick über REST und dessen Anwendung auf eine Web-Schnittstelle geben. Im ersten Teil wird REST als Architekturstil beschrieben und die Prinzipien, welche REST allgemein zugrundeliegen. Dabei wird starker Bezug auf die Dissertation von Roy Fielding [Fie00] genommen, in welcher er die Ideen von REST entwickelt und beschreibt. Da sich REST nicht zwangsläufig auf HTTP bezieht, sondern ein allgemeines Architekturmuster darstellt, soll im folgenden Abschnitt die Implementation von REST mittels HTTP betrachtet werden. Aufgrund der hohen Verbreitung und Universalität von HTTP bildet dies meist die Grundlage von RESTful-Webschnittstellen. Weiterhin analysiert diese Arbeit eine vorhandene Schnittstelle auf die Einhaltung der REST-Prinzipien. Diese Analyse soll exemplarisch verdeutlichen, welche Anforderungen an eine REST-Schnittstelle bestehen. Als Prüfkriterium wird das Richardson-Maturity-Model vorgestellt und die Schnittstelle darin eingeordnet. Dabei wird erkennbar, in welchen Aspekten REST-Prinzipien beim Schnittstellenentwurf berücksichtigt bzw. verletzt wurden. Weitergehend wird untersucht, welche Veränderungen an dieser Schnittstelle vor- genommen werden können um den REST-Prinzipien zu entsprechen. Dabei wird analysiert, welche Vorteile diese Veränderungen in Hinsicht auf das Design der Schnittstelle haben.
Anwendung des navigations Moduls von ROS auf eine mobile Testplattform mit Mecanum Rädern. Es behandelt das Erstellen von Kartendaten mithilfe einer Tiefenbildkamera und die Ansteuerung der Testplattform mit Hilfe eines Arduino. Des weiteren werden alle Funktionen auch virtuell in einer Simulation abgebildet und getestet.
Die Aufgabe dieser Arbeit bestand darin, einen möglichst einfachen Versuchsaufbau eines Laser-Doppler-Anemometers zu realisieren. Der Versuchsaufbau soll Studenten im Praktikumsversuch anschaulich den allgemeinen Aufbau eines LDA-Systems verdeutlichen. Zudem soll die Strömungsgeschwindigkeit einer Flüssigkeit in einem Rohr vermessen werden und der Druckverlust an einer Rohrwandung veranschaulicht werden.
Der Gegenstand dieser Abschlussarbeit ist ein exemplarischer Konvertierungsprozess der 3D-Daten des proprietären Formates zum Zielformat. Es geht dabei um das proprietäre Format ema der Firma imk automotive und das Format 3DPDF, das als Zielformat zusammen mit U3D-Format betrachtet wird. Im Zuge der Abschlussarbeit kann man drei Hauptteile der Arbeit hervorheben. Dabei lässt sich der Teil mit der Auswahl des Zielformates für die Konvertierung, der Teil mit der Umsetzung der Daten von ema-Format in das U3D-Format und der Teil mit der Integration von U3D-Datei in PDF-Dokumente unterscheiden. Für die Umsetzung und die Integration werden mehrere Lösungsansätze in Anspruch genommen, um die optimale Variante auswählen zu können. Die Umsetzung der ema-Daten in das U3D-Format erfolgt sowohl direkt als auch mit Hilfe des IDTF-Zwischenformates. Die Integration der beim Konvertierungsprozess entstandenen U3D-Datei in PDF-Dokumente hat auch mehrere Lösungswege. Einer von diesen ist die Möglichkeit der Integration über Latex, die Realisierung von welcher auch im Zuge der vorliegenden Abschlussarbeit betrachtet wird. Es gibt auch weitere Lösungswege, sie sind aber nicht getestet.
Diese Arbeit beschreibt ein Konzept zur Implementierung eines Schaltplan- Vergleichs und der intelligenten Ergebnisdarstellung. Mit dem Konzept soll das Design-Center von Transim Technology Corp. erweitert werden. Für die Umsetzung wurde eine Anforderungsanalyse erstellt und eine theoretische Betrachtung mittels Graphentheorie durchgeführt.
Ziel der vorliegenden Bachelorarbeit ist die Erstellung einer grafischen Benutzeroberfläche für den Bereich des Ambient Assisted Living, welche von älteren Menschen bedient werden kann, ohne dass diese dabei an ihre körperlichen Grenzen stoßen werden. Dazu erfolgte eine Analyse darüber, welchen Beeinträchtigungen die Zielgruppe unterliegt und mit welchen Methoden der Oberflächengestaltung diese ausgeglichen werden können. Anschließend wurde ein Designkonzept für eine derartige Bedienoberfläche erstellt und diese dann mittels der Programmiersprache Java in eine lauffähige Android-Applikation umgesetzt.
Die vorliegende Bachelorarbeit leistet einen Beitrag zum Aufbau eines in situ arbeitenden Laserpartikelzählers mit Echtzeitmessung für Ionenimplanter. Es werden unterschiedliche Komponenten, wie z.B. Lichtdetektoren, untersucht und diese zu einem Partikelzählmessplatz, der in atmosphärischer Umgebung betrieben wird, kombiniert. Das Funktionsprinzip des Messplatzes und das Auftreten von Partikelsignalen in Koinzidenz werden gezeigt. Es werden Möglichkeiten zur Verknüpfung der beiden Detektorausgangssignale vorgestellt und die Auswirkungen bei Koinzidenzverletzung untersucht. Ein weiterer Bestandteil ist die Automatisierung der Partikelerkennung. Dazu wird ein Auswertealgorithmus vorgestellt, der Partikel zählt und nach Höhe und Breite klassiert. Unter dessen Verwendung werden Einflüsse wie Samplerate der Messwerterfassung und Ausrichtung der Polarisationsebene der Laserstrahlung zu den Detektoren auf die Effizienz der Partikelzählung untersucht. Zum Abschluss werden Messabweichungen infolge der Messwerterfassung diskutiert.
Bestimmung der Dichte und Gasaufnahme aufgedampfter reiner Siliziumschichten mittels Quarzmikrowaage
(2015)
Der erste Teil der Arbeit beschäftigt sich mit der Untersuchung eines alternativen Verfahrens zur Dichtebestimmung E-Strahl-aufgedampfter amorpher Silizium-Schichten (a-Si) mittels Schwingquarzmessung. Ziel war es einen Kompromiss zwischen hoher Genauigkeit und geringem apparativem Aufwand zu finden. Durch Messung der Si-Schichtdicke mittels Tastschnittgerät und der Massenbelegung aus der korrelierten Frequenzänderung des Schwingquarzes (SQ) nach Sauerbrey wurde die Schichtdichte bestimmt. Hierbei wurde der Einfluss des Quarzes (Oberflächenrauheit, Behandlungshistorie) und der Versuchsbedingungen (Substrattemperatur, Abscheiderate) auf die Dichte der Schichten und deren Genauigkeit untersucht. Im zweiten Teil wurde der Effekt der Gasabsorption auf diese Schichten in Abhängigkeit der Abscheidebedingungen untersucht. Dazu wurden frisch abgeschiedene a-Si-Schichten definierten Atmosphären (Druck, Gasart) ausgesetzt und mittels Schwingquarz in-situ die Massenbelegung aufgenommen.
Datenmodell für Track&Trace
(2015)
Ziel dieser Arbeit ist es, die Entwicklung einer Webseite auf Grundlage des AngularJSFrameworks darzustellen und zu analysieren. Die Webseite besitzt dabei eine auf der REST-Architektur basierende Anbindung zu einem vorgegebenen Server. Die realisierte Webanwendung beinhaltet exemplarische Funktionen einer Finanzanwendung um die Entwicklung in einen praktischen Kontext zu setzen. Das verwendete AngularJS Framework ist ein von Google entwickeltes HTML- und Javascript Framework für auf einem Model-View-Controller-Muster basierende Single-PageWebanwendungen. Um die Visuelle Umsetzung des Projekts zu unterstützen kommt das Bootstrap CSS Framework zum Einsatz.
Diese Arbeit beschreibt ein Modell, eine Architektur und eine beispielhafte Implementierung für einen sicheren behördlichen Internetzugang, basierend auf überwiegend freier Software. Dabei werden zuerst aktuelle, relevante Bedrohungen und Angriffstechniken eruiert und analysiert. Für den Entwurf eines Sicherheitsmodells zur Abwehr von Angriffen werden mehrere verbreitete Muster und Standards bewertet und auf diesen Erkenntnissen ein eigenes Modell entwickelt. Aufbauend auf diesem Modell wird unter Berücksichtigung der behördlichen Anforderungen ein Sicherheitskonzept entwickelt. Abschließend wird eine exemplarische Umsetzung dieses Konzeptes beschrieben.
Untersuchung und Charakterisierung eines Sandwich-Materialverbundes aus Hart-Coating und Polyisocyanurat-Hartschaum (PIR) als materialtechnische Lösung für Klimaprüfkammertüren. Ausgehend von einer Darstellung der eingesetzten Geräte und derer technischer Grundlagen, ist PIR-Hartschaum auf seine Temperaturbeständigkeit im Hoch- als auch im Minustemperaturbereich untersucht worden. In Kombination mit der Messung der Temperaturverteilung hinter dem Innensegment des Materialverbundes wird eine Entscheidungshilfe gegeben, wie der PIR-Hartschaum als Isoliermaterial im Türelement der Klimaprüfkammer Einsatz findet. Ein Ausblick beschreibt andere Anwendungsmöglichkeiten der neuen materialtechnischen Lösung in diesem Einsatzgebiet.
Entwicklung eines Dekodierers für binäre Korrektursignale als Grundlage für ein Differential-GPS
(2015)
Viele Anwendungen von Satellitengestützer Navigation gehen nicht über das Auswerten der Positionsdaten hinaus. Zum Herstellen eines eigenen Empfangsgeräts, welches Korrekturdaten des Radiobeacon DGPS berücksichtigt, ist eine Dekodierung dieser Korrekturdaten unerlässlich. Im Dokument beschrieben wird der Aufbau und eine Lösung zum Herstellen eines Software-Dekoders von RTCM2-Daten, welche über einen Mittelwellenempfänger erfasst wurden. Die Kommunikation mit dem Empfänger via Serieller Schnittstelle, dessen Konfiguration und das Zusammensetzen der empfangenen Bytes entsprechend des RTCM2-Standards werden behandelt.
Diese Arbeit zeigt einen Lösungsansatz für die Entwicklung eines Messverfahrens zur quantitativen Erkennung von Lungenkrebszellen in Mikroskopiebildern mithilfe von Bildauswertungsalgorithmen. Dies erfordert eine Auseinandersetzung mit bestehenden Bildverarbeitungsprogrammen und deren Bildfiltern und startet mit dem spezifischen Einsatz gewählter Bildauswertungssoftware bis hin zur Lösungsvariante einer Zellenerkennung. Zunächst setzt man sich mit den Grundlagen der Bildverarbeitung auseinander, um das gestellte Bildmaterial zu verstehen. Dieses wird im Laufe des Projektes vertieft, damit eine Nutzung zur Auswertung der gewünschten Ziele erreicht werden kann. Als erstes werden die Bildfilter und deren Eigenschaften und Funktionsweise erläutert, um zu verstehen wie sie die vorhandenen Bilder verändern. Danach wird eine Auswertung durchgeführt, ob diese Veränderungen die optimalen Ergebnisse erzielt haben. Daraufhin werden zwei Lösungswege für positive und negative Zellen entwickelt. Diese werden durch statistische Auswertungen überprüft und zum bestmöglichen Ergebnis entwickelt.
Mit der Energiewende und dem weiteren Ausbau von erneuerbaren Energien, rückt die The-matik der Energiespeicherung immer weiter in den Vordergrund. Das Ziel dieser Arbeit bestand darin, den Autarkiegrad eines Photovoltaiksystems mit integriertem Akkumulator zu prognostizieren. Dabei wurde ein Algorithmus entwickelt, welcher die Basis der Simulation bildet. Für eine Beispielrechnung wurde das Speichersystem Senec.Home G2 von der Deutschen Energieversorgung, eine 7,87 kWp Photovoltaikanlage und ein privater Haushalt mit 4.000 kWh Jahresstromverbrauch ausgewählt. Es konnte nachgewiesen werden, dass die Prognose des Autarkiegrades durch das Simulationsprogramm nur geringe Abweichungen zum tatsächlichen Wert aufweist. Ebenfalls wurde die Wirtschaftlichkeit ohne Berücksichtigung einer Förderung betrachtet. Es wurde festgestellt, dass eine Photovoltaikanlage ohne Akkumulator rentabler als das Photovoltaiksystem mit dem Speicher Senec.Home G2 ist. Dabei liegt die Hauptursache bei den hohen Investitionskosten der Photovoltaikspeicher. Unter Annahme des weiterhin steigenden Strompreises, einer Förderung und eines Preisverfalls von Photovoltaikakkumulatoren können die elektrochemischen Speicher ein wichtiger Bestandteil der Photovoltaik werden und somit einen Beitrag zur Energiewende leisten.
Im Rahmen dieser Ausarbeitung ist eine Serversoftware implementiert worden. Die programmierte Software stellt einen Dienst zur Verfügung, der Metadaten von Clients entgegen nimmt und diese verwaltet. Die zugesendeten Metadaten werden versioniert und vor inkonsistenten Speichervorgängen geschützt. Ziel dieser Arbeit ist, die Notwendigkeit der Software zu beschreiben und die Implementierung zu erläutern. Dafür werden die Softwaresysteme und die damit verbundenen Prozesse in der Götz Günther GmbH analysiert und beschrieben. Aus den entstehenden Informationen werden die Anforderungen an das Softwaresystem abgeleitet. Anschließend werden verschiedenste Technologien ausgewertet und ihre Qualifikation für die Verwendung im Projekt ermittelt. Dafür wird eine Diskussion durchgeführt, die die Technologien anhand verschiedenster Kriterien untersucht. In der Diskussion werden die Vor- und Nachteile der Technologien besprochen, damit der Grund der Entscheidung für eine bestimmte Technologie ersichtlich wird. Weiterhin wird die erstellte Serversoftware in ihrem Aufbau und ihrer Arbeitsweise erläutert. Dafür wird die Implementierung in verschiedenen Detailgraden betrachtet und schematisch mit UML-Diagrammen dargestellt. Die Implementierung wird in Komponenten unterteilt, die gemeinsam ein Aufgabenfeld realisieren und deren Arbeitsweise wird erläutert. Es wird auf die Modularität des Softwaresystems eingegangen, wobei verdeutlicht wird, in welcher Art und Weise die Komponenten miteinander verknüpft sind und wie diese ausgetauscht werden können. Danach wird die interne Struktur der Komponenten anhand von Klassendiagrammen geschildert und auf implementationsspezifische Besonderheiten eingegangen. Es wird dargestellt, warum sich für diese Klassenarchitekturen entschieden wurde, dafür werden Modelle der C#-Entwicklung charakterisiert. Zum Schluss folgt ein Fazit, das die entstandene Software evaluiert und Mängel in der Systemarchitektur identifiziert. Es werden Lösungen für die Bereinigung der Mängel besprochen.
Die vorliegende Arbeit befasst sich mit der theoretischen Auseinandersetzung von Architekturkonzepten in Bezug auf eine verteilte IT-Infrastruktur. Dabei werden verschiedene Modelle, die von Client-Server-Architekturen bis hin zu Cloud Computing Ansätzen reichen, untersucht. Anhand verschiedener Kriterien wird eine Lösungsmöglichkeit ausgewählt und prototypisch implementiert. Als Grundlage dient hierbei ein Basissystem aus dem Kontext der Gemeinschaftsverpflegung, welches um ein mobiles Menü-Bestellsystem erweitert wird. Beginnend mit einer Dokumentation der Anforderungs- und Geschäftsprozessanalyse werden die wichtigsten Funktionen des mobilen Menü-Bestellsystems erläutert, um anschließend einen Lösungsansatz für die IT-Infrastruktur zu modellieren. Den Abschluss bildet die Realisierung, von der Anbindung des bestehen Basissystems, über das verteilte Informationssystem bis hin zum mobilen Client für den Nutzer.
Ziel der Bachelorarbeit ist es, eine Lösung zur Verarbeitung großer Datensätze (Big Data) zu gewinnen. Dabei wird ein Augenmerkt auf das Framework Hadoop geworfen werden, welches ab dem kommenden Sommersemester 2015 an der Westsächsischen Hochschule in Zwickau den Studenten gelehrt werden soll. Um neben den theoretischen Informationen ebenfalls das zu Lehrende im Praktischen demonstrieren zu können, ist ein funktionstüchtiger Hadoop-Server aufzusetzen. Dieser soll in Form einer fertig erstellten Virtuellen Maschine für die Studierenden vorliegen, an welcher diese praktisch tätig werden können.
Als Ergebnis dieser Bachelorarbeit wurde eine Softwarelösung entwickelt, die ein Fernupdate für den Live-Ticker repräsentiert. Der Schwerpunkt dieser Aktualisierungsanwendung ist die Zuverlässigkeit. Die Konzeption des sicheren Update-Vorgangs wurde dabei in dieser Arbeit entworfen. Um ein atomares Update durchzuführen, sind die häufigsten Fehler bei einem Fernupdate herausgefunden und die entsprechenden Massnahmen vorgenommen wurden, um diese Fehler zu beheben.
Das CSS-Framework Bootstrap hat in der weltweiten Webdeveloper Community eine hohe Popularität erlangt. Das Framework macht die Entwicklung von Webseiten und Blogs sehr einfach und unterstützt dabei bereits durchgängig die verschiedensten Geräteklassen vom PC bis zum Smartphone. Geht es jedoch um umfangreiche Webapplikationen, welche beispielsweise Daten erfassen, verändern oder darstellen, stellen sich für den Entwickler besondere Anforderungen an die Benutzeroberfläche, die auf statischen Webseiten oder Blogs nicht benötigt werden. Diese Arbeit soll ein Nutzerinteraktionskonzept vorstellen, bei dem die Features und Vorteile des Bootstrap Frameworks für die Erstellung von Webapplikationen genutzt werden können.
Während die Hardware eine lange Zeit auf dem neuesten Stand ist, benötigt die Software ständige Updates, weil jeden Tag neue Produkte im Bereich der Softwareentwicklung erzeugt werden und in die bestehenden Software-Produkte weiterentwickelt werden. Nicht zu vergessen ist, dass ein Programm von Menschen geschrieben wird und einige Bugs und Mängel im Endprodukt immer behoben werden müssen. Diese Bachelorarbeit befasst sich mit der Überblick über bestehende Update-Verfahren des Linux-Betriebssystem und der prototypischen Implementierung eigenes Verfahrens auf Basis von Raspberry Pi 2 für den Live-Ticker. In der Arbeit werden zuerst die bestehende Update-Verfahren des Linux-Betriebssystem und die Anforderungen, die während deren Entwicklung erfüllt wurden, betrachtet. Danach werden die Anforderungen zum Update-Prozess des Live-Tickers beschrieben und ein Überblick über die verwendete Technologien und Werkzeuge gegeben, mit denen eine eigens entwickelte Konzeption und Implementierung realisiert wurde. Diese Bachelorarbeit hängt mit der Abschlussarbeit "Erkennung abgebrochener/ungültiger Updates und Implementierung eines Fail-Safe-Verfahrens für einen Life-Ticker auf dem Rasperry Pi 2" von Frau Gafurova zusammen.
Diese Bachelorarbeit behandelt die Evaluierung von nicht-relationalen Datenbanksystemen für die Restrukturierung des Dokument-Archivsystems der XCOM AG. Die Evaluierung wurde im Rahmen eines unternehmensinternen Projekts durchgeführt, dessen Ziele und Ablauf ebenfalls Bestandteil dieser Arbeit sind. Beim Archivsystem der XCOM AG handelt es sich um ein System zur elektronischen Ablage von Dokumenten, welches in erster Linie bei Banken zum Einsatz kommt. Durch diese Form der Archivierung können Arbeitsabläufe optimiert und beschleunigt werden. Voraussetzung dafür ist jedoch eine performante Umsetzung. Da das hier vorliegende System mittlerweile seit über zehn Jahren im Einsatz ist, entsprechen die eingesetzten Technologien nicht mehr dem Stand der Zeit, was sich unter anderem auf die Performance auswirkt. Daher soll mit diesem Projekt die Einsetzbarkeit von modernen Technologien untersucht werden, um die Nutzung des Archivsystems effizienter zu gestalten. Da es sich um ein System zur Speicherung von Dokumenten und somit Daten handelt, stammen die zu untersuchenden Technologien alle aus dem Bereich der Datenbanksysteme. Hier erfreuen sich seit einigen Jahren besonders nicht-relationale Datenbanksysteme großer Beliebtheit. Diese unterscheiden sich sowohl in ihren Konzepten, als auch in ihren Einsatzbereichen mitunter stark von klassischen, relationalen Datenbanken. Es ist daher Bestandteil dieses Projekts, die Besonderheiten derartiger Systeme darzustellen und anschließend einige Vertreter hinsichtlich ihrer Einsatzmöglichkeiten für das Archivsystem näher zu untersuchen. Darüber hinaus wird eine Implementierung vorgestellt, welche die Nutzung eines solchen nicht-relationalen Systems im Archivsystem demonstriert. Hierfür erfolgt die Auswahl eines der näher untersuchten Datenbanksysteme. Es gilt, die Implementierung im Rahmen dieses Projekts zunächst zu planen und anschließend umzusetzen. Abschließend wird die Performance des neuen und alten Systems miteinander verglichen. Der Vergleich wird durch die Messung von Zeiten vorgenommen, die das Archivsystem für die Ausführung bestimmter Aufgaben benötigt. Dies stellt den Abschluss des Projekts dar und soll zeigen, inwiefern sich durch den Einsatz des ausgewählten Datenbanksystems Optimierungsmöglichkeiten ergeben. Auf diesen Ergebnissen aufbauend kann anschließend eine fundierte Entscheidung darüber getroffen werden, ob eine Restrukturierung des Archivsystems tatsächlich durchgeführt werden soll.
Evaluierung von unterschiedlichen optischen Fasern für die Winkelmessung an einem Stützgelenk
(2015)
In Rahmen dieser Bachelorarbeit wurden verschiedene optische Fasern auf ihre Auskopplung von Licht durch Biegung dieser untersucht. Das Ziel war es, Erkenntnisse über die Auskopplungsmechanik zu gewinnen, um den genannten Effekt später für die Winkelmessung an einem Stützgelenk zu verwenden. Es wurden viele verschiedene Messaufbauten gewählt, um eine umfangreiche Abdeckung der Möglichkeiten Auskopplung von Licht aus einer Faser durch Biegung zu ermöglichen. Unterschiedliche Einflussgrößen, wie zum Beispiel verwendeter Laser, Mikroskoobjektiv und Faserlänge sind statistisch abgesichert gemessen und bilden eine Grundlage für die Weiterverarbeitung der optischen Fasern. Zusätzlich ist der Effekt der Evaneszenz beim Biegen einer Duplexfaser untersucht wurden. Abschließend kommt es zu einem Vergleich von anderen optischen Messverfahren zu diesem genannten Verfahren.
Die Arbeit beschäftigt sich mit den theoretischen Grundlagen der optischen und chemischen Eigenschaften der Haut und von Hautkrebs und dessen bislang gängigen Detektionsmöglichkeiten in der Dermatologie. Der zweite Teil der Arbeit befasst sich mit der spektralen Analyse der Haut und eines Nävuszellnävus. Dabei werden grundlegende Eigenschaften wie Absorption, Reflektanz und Kontrast analysiert.
Kalibrierung und Freilandtest von Passivsammlern für ausgewählte organische Gewässerschadstoffe
(2015)
Passivsammler sind schon seit einigen Jahren in der Entwicklung. Mit ihnen können zeitgemittelte Konzentration über einen längeren Zeitraum in einem Umweltmedium ermittelt werden. Typische Vertreter sind der POCIS, der Chemcatcher oder der am UFZ entwickelte MESCO. Weiterhin wird in einer Studie am UFZ derzeit ein anderes Passivsammlermaterial untersucht, Polyethersulfon (PES). Bereits seit Jahren sind PES-Membranen Bestandteile von Passivsammlern. Sie dienen als Schutz-membranen um das eigentliche Sammlermaterial vor zu starker Verschmutzung oder Bioaufwuchs zu schützen. Es existieren jedoch Untersuchungen die belegen, dass manche Schadstoffe sehr gut im PES aufgenommen werden, wenn nicht sogar besser als in der eigentlichen Sammelphase. Aus diesem Grund sollte Poly-ethersulfon in dieser Arbeit auf seine Eignung als Passivsammler, bzw. auf seine Sammeleigenschaften (Verteilungskoeffizienten und Sammelraten), für bestimmte Gewässerschadstoffe untersucht werden. Es wurden elf Substanzen ausgewählt und die PES-Membranen in zwei mehrwöchigen Laborexperimenten und einem Freilandtest untersucht. Im Labor wurde ein Glasgefäß mit Wasser befüllt, welches mit einem Schadstoffcocktail kontaminiert war. Nach der Befestigung der Sammler im Gefäß, wurde mithilfe eines Magnetrührers eine leichte Strömung erzeugt. Im ersten Versuch wurden die Verteilungskoeffizienten der Stoffe ermittelt und im zweiten Versuch die Sammelraten. Beide Parameter sind wichtig und müssen bekannt sein wenn ein Passivsammler für die Untersuchung von Gewässern genutzt werden soll. Zusätzlich wurden die Sammler im 20-tägigen Feldversuch in der Saale bei Halle und im Ablauf des Klärwerks Halle Nord getestet.
Das Ziel ist es, mögliche vorkommende Varianzfälle zu identifizieren und zu untersuchen, um eine Software entwickeln zu können, die es ermöglicht, Vari- anzfragmente in bestehende Basismodelle zu integrieren, sodass aus einem Basismodell durch das Hinzufügen von Fragmenten ein konkreter Geschäftsprozess hergestellt werden kann.
Oft existiert, trotz einer wahren Flut von verschiedenen Softwareprodukten, für bestimmte Anwendungsgebiete keine auf die Kundenwünsche genau abgestimmte Lösung. Auch zukünftig werden Unternehmen weiterhin auf die Neuentwicklung spezieller Software und die Anpassung geeigneter Standardsoftware angewiesen sein. Die Arbeit verfolgt zwei Aufgaben. Hauptaugenmerk liegt auf der Konzeption und Erstellung eines Bestellsystems für die Essensversorgung für die GK Software AG. Das bestehende Altsystem soll durch eine webbasierte Lösung ersetzt werden. Es wird ein Prototyp erstellt, der den Funktionsumfang des Altsystems um die erweiterten Anforderungen durch die Nutzergruppen ergänzt. Im Anschluss wird dieser Prototyp in die Infrastruktur des Unternehmens eingegliedert. Weiterhin soll überprüft werden, ob die erstellte Software gängigen Standards bezüglich der Usability genügt.
Lösungsansätze der automatisierten Auswertung mikrobiologischer Befunde in der Krankenhaushygiene
(2015)
Die vorliegende Arbeit befasst sich mit der Recherche, der Anforderungsanalyse und der Anwendbarkeit auf InterSystems Technologien für eine Software, die die Inhalte von den in der Krankenhaushygiene genutzten mikrobiologischen Befunden automatisiert auswerten kann. Ziel der Arbeit ist es, eine Grundlage für die Entwicklung einer prototypischen Software zu schaffen.
G-Protein-gekoppelte Rezeptoren (GPCRs) bilden eine Gruppe von Membranproteinen mit sehr dynamischer Eigenschaft, die für die Aufrechterhaltung der zellulären Homöostase auf-grund ihrer vielfältigen Wirkungsweise im menschlichen Körper unerlässlich ist. So ist es wichtig, nicht nur den strukturellen Aufbau dieser Rezeptoren zu kennen, sondern auch ihre dynamischen Eigenschaften zu verstehen. In den letzten Jahren wurden viele Kristallstruktu-ren von GPCRs bekannt, die aber lediglich eine Momentaufnahme darstellen. Daher ist das Ziel dieser Arbeit, mit dem Neuropeptid Y-Rezeptor Typ 2, ein besseres Verständnis über die molekulare Beweglichkeit innerhalb seiner Umgebung zu erlangen. Dies soll als Grundlage dienen, um künftig die Wechselwirkung mit einem Agonisten besser beurteilen zu können. Der Y2-Rezeptor spielt bei neuronalen Funktionen, wie z.B. Ängsten und Suchterkrankungen, eine wichtige Rolle. Für die Untersuchung der Dynamik des Rezeptors wurde dieser in verschiedene Modell-membranen, bestehend aus einfach-ungesättigten Phospholipiden, rekonstituiert und an-schließend mittels Festkörper-NMR-Spektroskopie untersucht. Da die Lipidumgebung einen großen Einfluss auf die Struktur und Dynamik der Rezeptoren ausübt, wurde zusätzlich der Einfluss von Cholesterol, Phosphatidylethanolamin oder negativ geladenen Phosphatidylserin als Bestandteile der Modellmembran auf den Y2-Rezeptor untersucht. Zudem wurde durch selektive Unterdrückung von Signalen durch paramagnetische Manganionen und Spin-markierten Lipiden die Dynamik einzelner Bereiche näher untersucht (sog. quenching). Zur Quantifizierung der Dynamik wurde das Verhältnis von bewegungsgemittelter und vol-ler dipolarer Kopplung für den H-C Bindungsvektor als Ordnungsparameter dargestellt. Dieser reicht von 0 (isotrop beweglich) bis 1 (starr). Statische 15N-NMR-Spektren und quantitative 1H-13C Ordnungsparameter Bestimmungen, durch 1H-13C dipolare Kopplungsmessungen der CH-, CH2-, und CH3-Gruppen, offenbarten für den gesamten Rezeptor axial-symmetrische Bewegungen in der Membran und molekulare Fluktuationen mit verschiedensten Amplituden aller Segmente. Ordnungsparameter (SRückgrat = 0,65 ± 0,04, SGly = 0,56 ± 0,04, SCH2 = 0,26 ± 0,02 - 0,40 ± 0,03, SCH3 = 0,20 ± 0,02) aus den direkt polarisierten 13C-MAS-NMR-Experimenten zeigten, dass der Rezeptor in den Membranen höchst beweglich ist und im Mittel die Bewegungsamplituden des Rückgrats bei ~40°-50° und für die Seitenketten bei ~60°-70° liegen. Interessanterweise zeigt der Neuropeptid Y-Rezeptor Typ 2 eine geringfügig höhere Rigi-dität in der einfach-ungesättigten Phospholipidmembran, im Gegensatz zur gesättigten Membran. Das könnte mit der gesteigerten Kettenlänge der einfach-ungesättigten Lipide und der damit einhergehenden Streckung des α-helikalen Anteils des Rezeptors zusammenhän-gen. Die unterschiedliche Lipidkomponenten in den Modellmembranen zeigten hingegen keinen signifikanten Einfluss auf den Y2-Rezeptor. Es konnte zudem gezeigt werden, dass durch gezieltes Quenching der Loops und Termini des Rezeptors der transmembrane helikale Anteil eine höhere Rigidität besitzt (SRückgrat = 0,70 ± 0,05, SGly = 0,65 ± 0,04, SCH2 = 0, 28 ± 0,02 - 0,40 ± 0,03, SCH3 = 0,21 ± 0,02). Die Unterdrückung der Signale des transmembranen Bereiches offenbarten einen tendenziellen Anstieg der Ordnungsparameter um ≤ 7% für die Segmente des Rückgrates. Das könnte an einer zu geringen Konzentration der Spin-markierten POPC-Lipide liegen, wodurch es lediglich zu einer Unterdrück der mobilen Sei-tenketten der α-Helices kommt.
Kernthema dieser Bachelor Thesis ist die Erarbeitung eines grundlegenden Ablaufplans zur Qualifikation und Freigabe eines neuen Lötstopplacks und dessen beispielhafte Durchführung anhand einer neuen weißen Lötstoppmaske. Diesbezüglich werden wissenschaftliche Hintergründe zu den gewählten Testmethoden erläutert und die durchgeführten Versuche sowie die verwendeten Anlagen, Geräte und Parameter präsentiert. Unter Bewertung der Eignung der genutzten Prüfverfahren und Berücksichtigung der gestellten Anforderungen an eine Stopplackschicht erfolgt eine rationale Auswertung und Diskussion der gewonnenen Versuchsergebnisse und Erkenntnisse.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die Arbeit befasst sich mit einer technische Reorganisation des Bewerber-Management-Systems. Dabei sind neue Anforderungen entstanden, die bei der Reorganisation berücksichtigt werden sollten. Zunächst werden die verwendeten Webtechnologien näher erläutert. Anschließend erfolgt die technische Umsetzung. Die Arbeit wird durch eine Testphase und dem Aufzeigen zukünftiger Erweiterungsmöglichkeiten beendet.
In diesem Bachelorarbeit wurde von der Analyse des Nachrichteneditors über den Standard hin alles ermittelt um nach einem umfangreichen Konzept einen neuen Teil im Nachrichteneditor zu implementieren. Diese Arbeit ist mit umfassenden Quellenangabe und Datein aller Arten bezüglich des Optik und Konzepte auf beiligenden CD versehen
Die Weltweite Nachfrage an Leistungshalbleiter ist in den vergangen Jahren rapide angestiegen. Um den stetig wachsenden Bedarf auf einem kostengünstigen Weg nachkommen zu können, wurde die Produktion der von Infineon Technologies produzierten Produkte (CoolMOSTM) von der 200 auf die 300 mm Waferproduktion transferiert. Die Herausforderungen für die Produktion dieser Technologie bleiben dennoch die gleichen. Besonders in der Lithographie stoßen die für die CMOS Technologie vorhandenen optischen Systeme an die Grenzen der Verwendungsmöglichkeiten. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von Einflussgrößen auf den Produktfokus, sowie auf die notwendige Dosis bei der Strukturierung von Silizium-Leistungshalbleitern, wobei alle Untersuchungen auf CoolMOSTM Produkten durchgeführt wurden. Nach einer Einleitung und Erläuterung der für diese Arbeit wichtigen Lithographischen Grundlagen, wird auf die Durchgeführten Experimente eingegangen und die resultierenden Erkenntnisse dargelegt. Am Schluss werden die in dieser Arbeit gesammelten Ergebnisse zusammengetragen und weitere Schritte, sowie der Einfluss der derzeitig verwendeten Dosis diskutiert. Abschließend werden die Resultate in die aktuelle internationale Forschung eingeordnet und diskutiert.
Diese Bachelorarbeit behandelt das Thema Vergleich statischer Website Generatoren. Am Beispiel von Hugo, Octopress und Ghost wird beschreiben wie eine statische Webseite erzeugt und verwaltet werden kann. Vor dem Hintergrund, das bekannte CMS wie Wordpress viel zu komplex für kleine Seiten sind, wurde nach Lösungwegen gesucht Webseiten auch ohne CMS zu erstellen. Ziel war es eine Empfehlung für geben, Vor- und Nachteile deutlich zu machen.
In dieser Arbeit werden webbasierte Alternativen zur nativen App untersucht. Dazu zählen Web-Apps und hybride Apps. Diese portablen Mobile-Apps werden anhand von verschiedenen Bewertungskriterien, über eine jeweils eigen entwickelte App, getestet, verglichen, ausgewertet und diskutiert. Zu den Bewertungskriterien zählen verschiedene Hardwarezugriffe und eine möglichst gute Realisierung eines nativ-ähnlichen Design.
Die Bachelorarbeit befasst sich mit der Entwicklung der Visualisierungskomponente von anwendungsbezogenen Standorte und Route für Fuhrparkmanagement Software - comm.fleet von Community4you AG. Bei der Arbeit mit den geographischen Daten werden verschiedene APIs von Google und OpensStreetMap verwendet. Für die Entwicklung der Anwendung wurden folgende Technologien, wie Bootstrap JS Framework, Javascript Prototyping verwendet.Im Rahmen dieser Bachelorarbeit soll analysiert werden, die Verwendung von Kartendiensten von Google Maps und Openstreetmap - Projekt für die Visualisierung von Standorte und Route in comm.fleet. Zudem soll es eine prototypische clientseitige Anwendung entstehen, die in der Zukunft als internes Tool in comm.fleet integriert werden kann. Dadurch erlaubt die neue prototypische Visualisierungskomponente mittels eines Kartenmaterials die Darstellung von Standorte des Objektes und Route anhand der geographischen Koordinaten.
Im modernen Gesundheitswesen ist für die Patientenversorgung heute eine einrichtungsübergreifende Kooperation und Datenaustausch notwendig, damit kein Missverständnis entstehe und Tests, Verfahren der Diagnosen, Behandlungen, Dokumentationen usw. nicht unnötig wiederholt werden. HL7 ist ein internationaler Standard für den Austausch und die Integration der medizinischen, administrativen und finanziellen Daten zwischen Informationssystemen im Gesundheitswesen, welcher zurzeit über 50 Ländern benutzt wird. Ziel dieser Bachelorarbeit war die Weiterentwicklung der im ehealth-Labor der Westsächsischen Hochschule vorhandenen Software (Nachrichteneditor), welches grundsätzlich zum Verständnis für Nachrichtenstandards beim Datenaustausch im Gesundheitswesen dienen soll. Zunächst sind dafür die Strukturen der HL7-Nachrichten analysiert worden. Anschließend ist eine Konzeption entstanden, welche zur Implementierung der Erstellung sowie Einlesen und Interpretierung der verschiedene HL7 Version 2.x Nachrichten- und Entitätstypen dient. In diesem Bericht sind die Analyse (wie oben), Konzeption, Implementierung des Nachrichteneditors sowie Weiterentwicklungsmöglichkeiten und Ausblicke erklärt worden.