Refine
Year of publication
- 2015 (229) (remove)
Document Type
- Bachelor Thesis (229) (remove)
Institute
- Gesundheits- und Pflegewissenschaften (65)
- Physikalische Technik, Informatik (54)
- Wirtschaftswissenschaften (37)
- Architektur (26)
- Sprachen (24)
- Angewandte Kunst (21)
- Elektrotechnik (2)
Is part of the Bibliography
- no (229)
HTML5 und mobile Geräte wie Smartphones und Tablets sind zwei Bereiche, welche in den vergangenen Jahren eine deutliche Weiterentwicklung erfahren haben. Browserentwickler stellen ihre Software auch für mobile Betriebbsysteme zur Verfügung und dank der wachsenden Möglichkeiten aktueller Webtechnologie wird es zusehens attraktiver, Software nach dem Motto "Write once, run anywhere" auf Webbasis zu entwickeln und damit viele Hard- und Softwareplattformen zu erreichen. Die Andersartigkeit mobilen Geräte verglichen mit PCs, gekennzeichnet beispielsweise durch Hardwareausstattung und -leistung, Bildschirmgröße und Touchbedienung, erzeugt jedoch neue Problemfelder. Diese Arbeit beschäftig sich exemplarisch anhand des HTML5-Spiels "Letti ABC" mit dem Aspekt der vergleichweise geringen Hardwareleistung und damit verbundenen Performance-einschränkung. Es werden Analysemethoden für Webanwendungen vorgestellt und Lösungen unter anderem für die Bereiche Renderperformance, Audio und Speichernutzung aufgezeigt. Im Ergebnis dieser Arbeit ist das Spiel sowohl auf PCs als auch auf mobilen Geräten gleichermaßen spielbar.
Analyse und Optimierung der Kommunikation zwischen den Komponenten des Fahrsimulators an der WHZ
(2015)
Mit verteilten Systemen können die Ressourcen mehrerer Rechnersysteme gebündelt und komplexe Berechnungen gegenüber einem einzelnen Rechnersystem schneller ausgeführt werden. Solch ein System wird auch für den Fahrsimulator am Institut für Energie und Verkehr an der Westsächsischen Hochschule Zwickau eingesetzt. Die aufwendigen Berechnungen sind dabei das Rendering der Szenen für die Leinwände und das Verhalten des Fahrzeugs in der virtuellen Welt, nach den Gesetzen der Physik. Diese sollen dabei möglichst schnell berechnet werden, denn Lenkbewegungen und andere Eingaben sollten natürlich so schnell es geht auch auf den Leinwänden als solche zu erkennen sein, damit ein realistisch wirkende Simulation entsteht. Neben schnellen Berechnungen ist dazu auch eine schnelle Kommunikation zwischen allen beteiligten Software- und Hardware-Komponenten notwendig. Diese Bachelorarbeit untersucht den Fahrsimulator am Institut für Energie und Verkehr hinsichtlich der Kommunikationsvorgänge. Dabei werden die Gesamtarchitektur vorgestellt, die verwendeten Technologien diskutiert, Schwachstellen im System erörtert und alternative Ansätze aufgezeigt. Es erfolgt dabei gleichzeitig eine Einordnung in den jeweiligen fachlichen Kontext. Die vorgestellten Möglichkeiten zur Optimierung legen dabei sowohl den Fokus auf Effizienz, als auch auf Effektivität. Es werden also Optimierungen vorgeschlagen, die mit kleinem Änderungsbedarf an der Gesamtarchitektur spürbare Performance-Steigerungen erzielen. Gleichermaßen werden auch solche Optimierungen diskutiert, die sogar noch bessere Ergebnisse erzielen würden, aber einen höheren Änderungsbedarf erforderlich machen.
Diese Bachelorarbeit behandelt die Evaluierung von nicht-relationalen Datenbanksystemen für die Restrukturierung des Dokument-Archivsystems der XCOM AG. Die Evaluierung wurde im Rahmen eines unternehmensinternen Projekts durchgeführt, dessen Ziele und Ablauf ebenfalls Bestandteil dieser Arbeit sind. Beim Archivsystem der XCOM AG handelt es sich um ein System zur elektronischen Ablage von Dokumenten, welches in erster Linie bei Banken zum Einsatz kommt. Durch diese Form der Archivierung können Arbeitsabläufe optimiert und beschleunigt werden. Voraussetzung dafür ist jedoch eine performante Umsetzung. Da das hier vorliegende System mittlerweile seit über zehn Jahren im Einsatz ist, entsprechen die eingesetzten Technologien nicht mehr dem Stand der Zeit, was sich unter anderem auf die Performance auswirkt. Daher soll mit diesem Projekt die Einsetzbarkeit von modernen Technologien untersucht werden, um die Nutzung des Archivsystems effizienter zu gestalten. Da es sich um ein System zur Speicherung von Dokumenten und somit Daten handelt, stammen die zu untersuchenden Technologien alle aus dem Bereich der Datenbanksysteme. Hier erfreuen sich seit einigen Jahren besonders nicht-relationale Datenbanksysteme großer Beliebtheit. Diese unterscheiden sich sowohl in ihren Konzepten, als auch in ihren Einsatzbereichen mitunter stark von klassischen, relationalen Datenbanken. Es ist daher Bestandteil dieses Projekts, die Besonderheiten derartiger Systeme darzustellen und anschließend einige Vertreter hinsichtlich ihrer Einsatzmöglichkeiten für das Archivsystem näher zu untersuchen. Darüber hinaus wird eine Implementierung vorgestellt, welche die Nutzung eines solchen nicht-relationalen Systems im Archivsystem demonstriert. Hierfür erfolgt die Auswahl eines der näher untersuchten Datenbanksysteme. Es gilt, die Implementierung im Rahmen dieses Projekts zunächst zu planen und anschließend umzusetzen. Abschließend wird die Performance des neuen und alten Systems miteinander verglichen. Der Vergleich wird durch die Messung von Zeiten vorgenommen, die das Archivsystem für die Ausführung bestimmter Aufgaben benötigt. Dies stellt den Abschluss des Projekts dar und soll zeigen, inwiefern sich durch den Einsatz des ausgewählten Datenbanksystems Optimierungsmöglichkeiten ergeben. Auf diesen Ergebnissen aufbauend kann anschließend eine fundierte Entscheidung darüber getroffen werden, ob eine Restrukturierung des Archivsystems tatsächlich durchgeführt werden soll.
Ziel dieser Arbeit ist es, die Entwicklung einer Webseite auf Grundlage des AngularJSFrameworks darzustellen und zu analysieren. Die Webseite besitzt dabei eine auf der REST-Architektur basierende Anbindung zu einem vorgegebenen Server. Die realisierte Webanwendung beinhaltet exemplarische Funktionen einer Finanzanwendung um die Entwicklung in einen praktischen Kontext zu setzen. Das verwendete AngularJS Framework ist ein von Google entwickeltes HTML- und Javascript Framework für auf einem Model-View-Controller-Muster basierende Single-PageWebanwendungen. Um die Visuelle Umsetzung des Projekts zu unterstützen kommt das Bootstrap CSS Framework zum Einsatz.
Die vorliegende Arbeit befasst sich mit der theoretischen Auseinandersetzung von Architekturkonzepten in Bezug auf eine verteilte IT-Infrastruktur. Dabei werden verschiedene Modelle, die von Client-Server-Architekturen bis hin zu Cloud Computing Ansätzen reichen, untersucht. Anhand verschiedener Kriterien wird eine Lösungsmöglichkeit ausgewählt und prototypisch implementiert. Als Grundlage dient hierbei ein Basissystem aus dem Kontext der Gemeinschaftsverpflegung, welches um ein mobiles Menü-Bestellsystem erweitert wird. Beginnend mit einer Dokumentation der Anforderungs- und Geschäftsprozessanalyse werden die wichtigsten Funktionen des mobilen Menü-Bestellsystems erläutert, um anschließend einen Lösungsansatz für die IT-Infrastruktur zu modellieren. Den Abschluss bildet die Realisierung, von der Anbindung des bestehen Basissystems, über das verteilte Informationssystem bis hin zum mobilen Client für den Nutzer.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Diese Arbeit soll einen Überblick über REST und dessen Anwendung auf eine Web-Schnittstelle geben. Im ersten Teil wird REST als Architekturstil beschrieben und die Prinzipien, welche REST allgemein zugrundeliegen. Dabei wird starker Bezug auf die Dissertation von Roy Fielding [Fie00] genommen, in welcher er die Ideen von REST entwickelt und beschreibt. Da sich REST nicht zwangsläufig auf HTTP bezieht, sondern ein allgemeines Architekturmuster darstellt, soll im folgenden Abschnitt die Implementation von REST mittels HTTP betrachtet werden. Aufgrund der hohen Verbreitung und Universalität von HTTP bildet dies meist die Grundlage von RESTful-Webschnittstellen. Weiterhin analysiert diese Arbeit eine vorhandene Schnittstelle auf die Einhaltung der REST-Prinzipien. Diese Analyse soll exemplarisch verdeutlichen, welche Anforderungen an eine REST-Schnittstelle bestehen. Als Prüfkriterium wird das Richardson-Maturity-Model vorgestellt und die Schnittstelle darin eingeordnet. Dabei wird erkennbar, in welchen Aspekten REST-Prinzipien beim Schnittstellenentwurf berücksichtigt bzw. verletzt wurden. Weitergehend wird untersucht, welche Veränderungen an dieser Schnittstelle vor- genommen werden können um den REST-Prinzipien zu entsprechen. Dabei wird analysiert, welche Vorteile diese Veränderungen in Hinsicht auf das Design der Schnittstelle haben.
Diese Arbeit zeigt einen Lösungsansatz für die Entwicklung eines Messverfahrens zur quantitativen Erkennung von Lungenkrebszellen in Mikroskopiebildern mithilfe von Bildauswertungsalgorithmen. Dies erfordert eine Auseinandersetzung mit bestehenden Bildverarbeitungsprogrammen und deren Bildfiltern und startet mit dem spezifischen Einsatz gewählter Bildauswertungssoftware bis hin zur Lösungsvariante einer Zellenerkennung. Zunächst setzt man sich mit den Grundlagen der Bildverarbeitung auseinander, um das gestellte Bildmaterial zu verstehen. Dieses wird im Laufe des Projektes vertieft, damit eine Nutzung zur Auswertung der gewünschten Ziele erreicht werden kann. Als erstes werden die Bildfilter und deren Eigenschaften und Funktionsweise erläutert, um zu verstehen wie sie die vorhandenen Bilder verändern. Danach wird eine Auswertung durchgeführt, ob diese Veränderungen die optimalen Ergebnisse erzielt haben. Daraufhin werden zwei Lösungswege für positive und negative Zellen entwickelt. Diese werden durch statistische Auswertungen überprüft und zum bestmöglichen Ergebnis entwickelt.
Der Gegenstand dieser Abschlussarbeit ist ein exemplarischer Konvertierungsprozess der 3D-Daten des proprietären Formates zum Zielformat. Es geht dabei um das proprietäre Format ema der Firma imk automotive und das Format 3DPDF, das als Zielformat zusammen mit U3D-Format betrachtet wird. Im Zuge der Abschlussarbeit kann man drei Hauptteile der Arbeit hervorheben. Dabei lässt sich der Teil mit der Auswahl des Zielformates für die Konvertierung, der Teil mit der Umsetzung der Daten von ema-Format in das U3D-Format und der Teil mit der Integration von U3D-Datei in PDF-Dokumente unterscheiden. Für die Umsetzung und die Integration werden mehrere Lösungsansätze in Anspruch genommen, um die optimale Variante auswählen zu können. Die Umsetzung der ema-Daten in das U3D-Format erfolgt sowohl direkt als auch mit Hilfe des IDTF-Zwischenformates. Die Integration der beim Konvertierungsprozess entstandenen U3D-Datei in PDF-Dokumente hat auch mehrere Lösungswege. Einer von diesen ist die Möglichkeit der Integration über Latex, die Realisierung von welcher auch im Zuge der vorliegenden Abschlussarbeit betrachtet wird. Es gibt auch weitere Lösungswege, sie sind aber nicht getestet.
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
Kalibrierung und Freilandtest von Passivsammlern für ausgewählte organische Gewässerschadstoffe
(2015)
Passivsammler sind schon seit einigen Jahren in der Entwicklung. Mit ihnen können zeitgemittelte Konzentration über einen längeren Zeitraum in einem Umweltmedium ermittelt werden. Typische Vertreter sind der POCIS, der Chemcatcher oder der am UFZ entwickelte MESCO. Weiterhin wird in einer Studie am UFZ derzeit ein anderes Passivsammlermaterial untersucht, Polyethersulfon (PES). Bereits seit Jahren sind PES-Membranen Bestandteile von Passivsammlern. Sie dienen als Schutz-membranen um das eigentliche Sammlermaterial vor zu starker Verschmutzung oder Bioaufwuchs zu schützen. Es existieren jedoch Untersuchungen die belegen, dass manche Schadstoffe sehr gut im PES aufgenommen werden, wenn nicht sogar besser als in der eigentlichen Sammelphase. Aus diesem Grund sollte Poly-ethersulfon in dieser Arbeit auf seine Eignung als Passivsammler, bzw. auf seine Sammeleigenschaften (Verteilungskoeffizienten und Sammelraten), für bestimmte Gewässerschadstoffe untersucht werden. Es wurden elf Substanzen ausgewählt und die PES-Membranen in zwei mehrwöchigen Laborexperimenten und einem Freilandtest untersucht. Im Labor wurde ein Glasgefäß mit Wasser befüllt, welches mit einem Schadstoffcocktail kontaminiert war. Nach der Befestigung der Sammler im Gefäß, wurde mithilfe eines Magnetrührers eine leichte Strömung erzeugt. Im ersten Versuch wurden die Verteilungskoeffizienten der Stoffe ermittelt und im zweiten Versuch die Sammelraten. Beide Parameter sind wichtig und müssen bekannt sein wenn ein Passivsammler für die Untersuchung von Gewässern genutzt werden soll. Zusätzlich wurden die Sammler im 20-tägigen Feldversuch in der Saale bei Halle und im Ablauf des Klärwerks Halle Nord getestet.
Mit den Auswirkungen der demografischen Entwicklung werden gesunde und motivierte Mitarbeiter in Gesundheits- und Pflegeeinrichtungen immer bedeutender. Neben einem stärkeren Versorgungsbedarf der älteren Patienten wird der Erhalt der Gesundheit und Leistungsfähigkeit der Mitarbeiter wichtiger. Derzeit liegt der Fokus auf der Behandlung der Patienten. Der Gesunderhaltung der Mitarbeiter wird noch zu wenig Beachtung geschenkt. Maßnahmen der Betrieblichen Gesundheitsförderung werden in den meisten Gesundheits- und Pflegeeinrichtungen bereits angeboten. Ein Betriebliches Gesundheitsmanagement hingegen, halten nur wenige vor. Die Bachelorthesis wurde von folgender Forschungsfrage geleitet: Welcher Mehrwert entsteht durch die Implementierung eines Betrieblichen Gesundheitsmanagements im Krankenhaus? Zur Beantwortung der Forschungsfrage wurden sechs Experteninterviews in Gesundheits- und Pflegeeinrichtungen geführt, die ein Betriebliches Gesundheitsmanagement vorhielten oder den Mitarbeitern Maßnahmen der Betrieblichen Gesundheitsförderung anboten. Die Datenerhebung erfolgte unter Anwendung der Grounded Theory Methode. Zur Datenauswertung diente die qualitative Inhaltsanalyse nach Mayring, wobei die Kategorien computergestützt im Programm MAXQDA gebildet wurden. Es konnte festgestellt werden, dass der Mehrwert für ein Krankenhaus nur im Rahmen eines Betrieblichen Gesundheitsmanagements entstehen kann. Es zeigte sich, dass Krankenhäuser dafür konkrete Voraussetzungen schaffen müssen. Um den Mehrwert zu generieren ist ein zielgerichtetes Vorgehen erforderlich. Dem PDCA-Zyklus folgend, müssen die Angebote und Maßnahmen auf die gewünschte Zielgruppe abgestimmt werden. Das ermöglicht einen gezielten Ressourceneinsatz, der im Hinblick auf den enormen Kostendruck, dem Krankenhäuser ausgesetzt sind, bedeutend ist. Daraus erwächst eine hohe Inanspruchnahme der Angebote, was sich in einer Vielzahl von Erfolgen in den Einrichtungen widerspiegelte. Das Vorgehen im Betrieblichen Gesundheitsmanagement mündet in eine WIN-WIN-WIN-Situation für die Mitarbeiter, das Krankenhaus und die Gesellschaft. Die Ergebnisse zeigten aber auch, dass in den Ein-richtungen ein Controlling zur Überprüfung der Wirksamkeit der Maßnahmen noch aus-stand. Durch den Einsatz von Messinstrumenten im Betrieblichen Gesundheitsmanage-ment können Ziele in Kennzahlen überführt werden, wodurch eine ziel- und wirksamkeits-orientierte Steuerung des Betrieblichen Gesundheitsmanagements ermöglicht wird.