Refine
Year of publication
- 2015 (93) (remove)
Document Type
- Bachelor Thesis (54)
- Master's Thesis (32)
- Diploma Thesis (7)
Institute
- Physikalische Technik, Informatik (93) (remove)
Is part of the Bibliography
- no (93) (remove)
Die Reinhaltung der Luft ist für die menschliche Gesundheit und im Rahmen des Umweltschutzes unentbehrlich. Im Zuge der Industrialisierung kam es in der Vergangenheit zum Teil zu erheblichen Beeinträchtigungen der Luftqualität. Trotz umwelttechnisch deutlich verbesserter Produktionsabläufe werden auch weiterhin bestimmte Stoffe emittiert. Für die Entwicklung eines neuartigen und nachhaltigen Verfahrens zur Abluftreinigung hat der Forschungsverbund HUPAC im gleichnamigen Projekt die Abluftreinigung VOC- bzw. ammoniakbelasteter Abluft thematisiert. Diese beiden Substanzen sind von besonderer Relevanz für die Beeinträchtigung der Umwelt bzw. der Luftqualität. Für ihre Abreinigung aus der Abluft von Produktionsprozessen wurde im Projekt eine neuartige Technologie entwickelt, die aus einer Kombination adsorptiver und mikrobieller Prozesse auf der Basis huminsandhaltiger, zellulosebasierter Pellets verläuft. Bei den als reaktive Komponente eingesetzten Huminsanden handelt es sich um natürliche Substrate, welche aus Tagebauen des Lausitzer und Mitteldeutschen Braunkohle-Reviers kostengünstig gewonnen werden können, die über interessante physiko-chemische Eigenschaften verfügen und die damit generell für eine innovative Alternative als Substrat für Abreinigungsprozesse genutzt werden können. Die Eignung der aus den Sanden hergestellten Pellets für die Abluftreinigung wurde im Rahmen des HUPAC-Projekts laborativ sowie praktisch getestet und ausgewertet. Wie erwartet, können die Huminsand-Pellets die Schadstoffe (VOC bzw. Ammoniak) zunächst adsorptiv binden. Die fixierten Schadstoffe werden dann anschließend durch eine sich etablierende Mikroorganismenpopulation abgebaut. Im technologisch angelegten Projekt wurden Eignung der Substrate und Erfolg der Reinigungsleistung mit der Gegenüberstellung von input und output bewertet, wobei die Huminstoffe als
Sichere Authentifizierung spielt in Zeiten der stetig wachsenden Vernetzung und Mobilität von Anwendungen eine immer größer werdende Rolle. Es gibt eine Vielzahl verschiedener Authentifizierungsmethoden mit unterschieldichen Sicherheitsniveaus. Abgeleitete Identitäten können verschiedene Authentifizierungsmethoden miteinander verbinden und haben das Potential, mögliche Herausforderungen zu lösen. Zu diesen Herausforderugen gehören unter anderem die Fragen der Usability. Im Rahmen der Arbeit soll ein prototypisches Konzept entwickelt werden, welches sich auf die Ableitung der elektronischen Identität aus dem neuen Personalausweis, fokusiert. Auf Basis des Konzepts erfolgt das proof-of-concept in Form einer Smartphoneapp für Android.
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
In der Welt der 3D-Engines gewinnt die Großbildprojektion immer höherer Auflösungen zunehmend an Bedeutung. Ins Besondere im Simulations- und Entertainmentbreich werden die Anforderungen vor allem an die Projektion immer vielseitiger. In der vorliegenden Arbeit soll es nun darum gehen, eine in der 3D-Render-Engine Unity erzeugte 3D-Szene auf eine vertikal zylindrisch gekrümmte Projektionsfläche zu ermöglichen. Dabei handelt es sich um den Fahrsimulator der Fakultät Kraftfahrzeugtechnik der Westsächsischen Hochschule Zwickau. Für jenen Anwendungsfall muss dies ohne Verzerrungen vor allem im Randbereich der Darstellung geschehen, um so eine realistische und realitätsgetreue Darstellung der Umwelt zu ermöglichen. Als Ziel soll eine bessere Geschwindigkeitswahrnehmung, sowie eine geringe "Motion-Sickness" auftreten.
Einleitung Das Lehren und Lernen im Digitalen Zeitalter ist geprägt von Felxbilität und Ereichbarkeit zu jeder Zeit. Nutzer von Lernplattformen (LMS) möchten zu vermittelnde Inhalte einfach und schnell von jedem Ort aus erreichen. Teamfähikeit spielt ebenso eine Rolle, wie selbständiges Erwerben von neuem Wissen und die Fertigkeit es anzuwenden. Diese Ziele sollen möglichst zu annehmbaren Bedingungen ermöglicht werden. Deshalb greifen Ausbildungseinrichtungen und auch Unternehmen zur Unterstüzung auf solche Lernmanagementsysteme (LMS) zurück. In dieser Arbeit wird das Content Management eines LMS untersucht. Herzu ist zunächst in einer Diskusion zu ermitteln, welche Anforderungen für die Inhaltliche Bearbeitung, das Bedienverhalten der Software und dessen Administration erforderlich sind. Als Diskusionsgrundlage dient ein zu schaffender Überblick über mögliche LMS. Dieser wird anhand einer Webrecherge erzeugt, der einige Bedingungen erfüllen muss. Ein sich daraus ergebender Favourite, ist im Bereich Content Management zu untersuchen. Für diese Analyse dienen die nun nach der Diskusion ermittelten Anforderungen an das System.
Analyse und Optimierung der Kommunikation zwischen den Komponenten des Fahrsimulators an der WHZ
(2015)
Mit verteilten Systemen können die Ressourcen mehrerer Rechnersysteme gebündelt und komplexe Berechnungen gegenüber einem einzelnen Rechnersystem schneller ausgeführt werden. Solch ein System wird auch für den Fahrsimulator am Institut für Energie und Verkehr an der Westsächsischen Hochschule Zwickau eingesetzt. Die aufwendigen Berechnungen sind dabei das Rendering der Szenen für die Leinwände und das Verhalten des Fahrzeugs in der virtuellen Welt, nach den Gesetzen der Physik. Diese sollen dabei möglichst schnell berechnet werden, denn Lenkbewegungen und andere Eingaben sollten natürlich so schnell es geht auch auf den Leinwänden als solche zu erkennen sein, damit ein realistisch wirkende Simulation entsteht. Neben schnellen Berechnungen ist dazu auch eine schnelle Kommunikation zwischen allen beteiligten Software- und Hardware-Komponenten notwendig. Diese Bachelorarbeit untersucht den Fahrsimulator am Institut für Energie und Verkehr hinsichtlich der Kommunikationsvorgänge. Dabei werden die Gesamtarchitektur vorgestellt, die verwendeten Technologien diskutiert, Schwachstellen im System erörtert und alternative Ansätze aufgezeigt. Es erfolgt dabei gleichzeitig eine Einordnung in den jeweiligen fachlichen Kontext. Die vorgestellten Möglichkeiten zur Optimierung legen dabei sowohl den Fokus auf Effizienz, als auch auf Effektivität. Es werden also Optimierungen vorgeschlagen, die mit kleinem Änderungsbedarf an der Gesamtarchitektur spürbare Performance-Steigerungen erzielen. Gleichermaßen werden auch solche Optimierungen diskutiert, die sogar noch bessere Ergebnisse erzielen würden, aber einen höheren Änderungsbedarf erforderlich machen.
Diese Arbeit soll einen Überblick über REST und dessen Anwendung auf eine Web-Schnittstelle geben. Im ersten Teil wird REST als Architekturstil beschrieben und die Prinzipien, welche REST allgemein zugrundeliegen. Dabei wird starker Bezug auf die Dissertation von Roy Fielding [Fie00] genommen, in welcher er die Ideen von REST entwickelt und beschreibt. Da sich REST nicht zwangsläufig auf HTTP bezieht, sondern ein allgemeines Architekturmuster darstellt, soll im folgenden Abschnitt die Implementation von REST mittels HTTP betrachtet werden. Aufgrund der hohen Verbreitung und Universalität von HTTP bildet dies meist die Grundlage von RESTful-Webschnittstellen. Weiterhin analysiert diese Arbeit eine vorhandene Schnittstelle auf die Einhaltung der REST-Prinzipien. Diese Analyse soll exemplarisch verdeutlichen, welche Anforderungen an eine REST-Schnittstelle bestehen. Als Prüfkriterium wird das Richardson-Maturity-Model vorgestellt und die Schnittstelle darin eingeordnet. Dabei wird erkennbar, in welchen Aspekten REST-Prinzipien beim Schnittstellenentwurf berücksichtigt bzw. verletzt wurden. Weitergehend wird untersucht, welche Veränderungen an dieser Schnittstelle vor- genommen werden können um den REST-Prinzipien zu entsprechen. Dabei wird analysiert, welche Vorteile diese Veränderungen in Hinsicht auf das Design der Schnittstelle haben.
Softwarearchitektur gilt als Königsdisziplin der Softwareentwicklung. Viele Aspekte sind für eine gute Architektur in Einklang zu bringen. Hierzu müssen neben Softwarequalitätskriterien wie Performance oder Wartbarkeit auch die Interessen aller Projektbeteiligten vom Kunden bis zum einzelnen Entwickler einbezogen werden. Je größer und komplexer ein Softwaresystem wird, desto herausfordernder ist auch die Entwicklung der Softwarearchitektur. Zudem entwickelt sich die Architektur aufgrund sich stetig ändernder Anforderung immer weiter. Bestehende Teile müssen umgestaltet und neue integriert werden. Es gilt die Komplexität zu beherrschen und den Überblick im Großen wie auch im Kleinen zu behalten. Von sich stetig ändernden Anforderungen ist auch das Softwaresystem HSCERP des Unternehmens HSC Solutions betroffen. Das ursprünglich für den Einsatz in Kleinstunternehmen ausgelegte System findet zunehmend mehr Interessenten mit einem immer größer werdenden Nutzerkreis. War die aktuelle Performance der Architektur unter Berücksichtigung der Anforderungen von Kleinst- und Kleinunternehmen angemessen, stößt sie in mittleren Unternehmen an ihre Grenzen. In der Softwaretechnik sind solche Probleme schon lange ein Thema. Sie wurden in zahlreichen Arbeiten behandelt und in Form von Standardarchitekturansätzen verarbeitet. Ziel dieser Arbeit ist die Untersuchung solcher Standardarchitekturen hinsichtlich ihrer Eignung zur Performancesteigerung von HSCERP. Zu den untersuchten Ansätzen zählen neben der weitverbreiteten Schichtenarchitektur und dem Ansatz des Domain Driven Designs auch das weniger bekannte Quasar, welches versucht eine Standardarchitektur speziell für ERP-Systeme zu beschreiben.
Applikationen im Java Enterprise Umfeld benötigen meist eine Funktionalität, mit welcher Daten vom Client, über mehrere Aufrufe hinweg, zugeordnet und verwaltet werden können. Meist wird diese Funktionalität von dem verwendeten Java-Framework abgedeckt. Diese Arbeit zeigt eine Alternative auf, welche den aktuellen Trend der Webentwicklung berücksichtigt. Dabei wird vor allem auf die Entwicklung des JavaScripts in den letzten Jahren eingegangen. Des Weiteren werden Anforderungen aufgestellt und Analysen verschiedener Technologien betrieben, welche zur Entwicklung einer Bibliothek benötigt werden. Dabei werden die möglichen Technologievarianten vorgestellt und erklärt, warum sich für eine bestimmte Technologie entschieden wurde. Hierbei wird auf Features eingegangen, welche im weiteren Verlauf der Arbeit noch praktische Anwendung finden. Das Ziel ist es, eine modulare Bibliothek zur Sessiondatenverwaltung zu konzipieren und deren Einsatz anhand eines Prototypen aufzuzeigen.
Mit Erlass der EU-Deponierichtlinie am 26. April 1999 wurde eine verbindliche Festlegung zur Planung, Errichtung, dem Betrieb, der Überwachung und der Stilllegung einer Deponie verabschiedet. Als Mitglied der europäischen Union ist Litauen verpflichtet diese und wei-tere Vorschriften zu achten und in Landesrecht umzusetzen. Diese Vorgaben sind für den Bau einer neuen Deponie stets bindend. Hierzu wird in dieser Arbeit ein Eigenüberwa-chungskonzept für die Sonderabfalldeponie Toksika, nahe der Stadt
Anwendung des navigations Moduls von ROS auf eine mobile Testplattform mit Mecanum Rädern. Es behandelt das Erstellen von Kartendaten mithilfe einer Tiefenbildkamera und die Ansteuerung der Testplattform mit Hilfe eines Arduino. Des weiteren werden alle Funktionen auch virtuell in einer Simulation abgebildet und getestet.
Die Aufgabe dieser Arbeit bestand darin, einen möglichst einfachen Versuchsaufbau eines Laser-Doppler-Anemometers zu realisieren. Der Versuchsaufbau soll Studenten im Praktikumsversuch anschaulich den allgemeinen Aufbau eines LDA-Systems verdeutlichen. Zudem soll die Strömungsgeschwindigkeit einer Flüssigkeit in einem Rohr vermessen werden und der Druckverlust an einer Rohrwandung veranschaulicht werden.
Der Gegenstand dieser Abschlussarbeit ist ein exemplarischer Konvertierungsprozess der 3D-Daten des proprietären Formates zum Zielformat. Es geht dabei um das proprietäre Format ema der Firma imk automotive und das Format 3DPDF, das als Zielformat zusammen mit U3D-Format betrachtet wird. Im Zuge der Abschlussarbeit kann man drei Hauptteile der Arbeit hervorheben. Dabei lässt sich der Teil mit der Auswahl des Zielformates für die Konvertierung, der Teil mit der Umsetzung der Daten von ema-Format in das U3D-Format und der Teil mit der Integration von U3D-Datei in PDF-Dokumente unterscheiden. Für die Umsetzung und die Integration werden mehrere Lösungsansätze in Anspruch genommen, um die optimale Variante auswählen zu können. Die Umsetzung der ema-Daten in das U3D-Format erfolgt sowohl direkt als auch mit Hilfe des IDTF-Zwischenformates. Die Integration der beim Konvertierungsprozess entstandenen U3D-Datei in PDF-Dokumente hat auch mehrere Lösungswege. Einer von diesen ist die Möglichkeit der Integration über Latex, die Realisierung von welcher auch im Zuge der vorliegenden Abschlussarbeit betrachtet wird. Es gibt auch weitere Lösungswege, sie sind aber nicht getestet.
Diese Arbeit beschreibt ein Konzept zur Implementierung eines Schaltplan- Vergleichs und der intelligenten Ergebnisdarstellung. Mit dem Konzept soll das Design-Center von Transim Technology Corp. erweitert werden. Für die Umsetzung wurde eine Anforderungsanalyse erstellt und eine theoretische Betrachtung mittels Graphentheorie durchgeführt.
Das Unternehmen SYSTEC electronic GmbH bietet verschiedene Steuerungen einer PLC/ SPS Produktlinie an. Diese werden mithilfe der Entwicklungsumgebung OpenPCS pro- grammiert. Die so erstellten Programme werden in einer Laufzeitumgebung auf der Steue- rung ausgeführt. Das Laufzeitsystem wird von SYSTEC für die konkreten Steuerungen und deren Peripherie angepasst und erweitert. Die Arbeit verfolgt das Ziel Systemtests für das Laufzeitsystem und dessen Anpassungen automatisch durchführen zu können. In der folgenden Arbeit werden die notwendigen Grundlagen erläutert. Außerdem wer- den Anforderungen erhoben und mögliche Ansätze beschrieben, wie diese erfüllt werden können. Aus den Ansätzen wird anhand geeigneter Kriterien eine Wahl getroffen, die in der Lösung verwendet wird. Im Anschluss werden die einzelnen Aufgaben und Komponen- ten der Implementierung beschrieben. Danach wird ein Vergleich zwischen Anforderungen und Ergebnissen gezogen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick an weitere mögliche Entwicklungen gegeben.
Ziel der vorliegenden Bachelorarbeit ist die Erstellung einer grafischen Benutzeroberfläche für den Bereich des Ambient Assisted Living, welche von älteren Menschen bedient werden kann, ohne dass diese dabei an ihre körperlichen Grenzen stoßen werden. Dazu erfolgte eine Analyse darüber, welchen Beeinträchtigungen die Zielgruppe unterliegt und mit welchen Methoden der Oberflächengestaltung diese ausgeglichen werden können. Anschließend wurde ein Designkonzept für eine derartige Bedienoberfläche erstellt und diese dann mittels der Programmiersprache Java in eine lauffähige Android-Applikation umgesetzt.
Die vorliegende Bachelorarbeit leistet einen Beitrag zum Aufbau eines in situ arbeitenden Laserpartikelzählers mit Echtzeitmessung für Ionenimplanter. Es werden unterschiedliche Komponenten, wie z.B. Lichtdetektoren, untersucht und diese zu einem Partikelzählmessplatz, der in atmosphärischer Umgebung betrieben wird, kombiniert. Das Funktionsprinzip des Messplatzes und das Auftreten von Partikelsignalen in Koinzidenz werden gezeigt. Es werden Möglichkeiten zur Verknüpfung der beiden Detektorausgangssignale vorgestellt und die Auswirkungen bei Koinzidenzverletzung untersucht. Ein weiterer Bestandteil ist die Automatisierung der Partikelerkennung. Dazu wird ein Auswertealgorithmus vorgestellt, der Partikel zählt und nach Höhe und Breite klassiert. Unter dessen Verwendung werden Einflüsse wie Samplerate der Messwerterfassung und Ausrichtung der Polarisationsebene der Laserstrahlung zu den Detektoren auf die Effizienz der Partikelzählung untersucht. Zum Abschluss werden Messabweichungen infolge der Messwerterfassung diskutiert.
Bestimmung der Dichte und Gasaufnahme aufgedampfter reiner Siliziumschichten mittels Quarzmikrowaage
(2015)
Der erste Teil der Arbeit beschäftigt sich mit der Untersuchung eines alternativen Verfahrens zur Dichtebestimmung E-Strahl-aufgedampfter amorpher Silizium-Schichten (a-Si) mittels Schwingquarzmessung. Ziel war es einen Kompromiss zwischen hoher Genauigkeit und geringem apparativem Aufwand zu finden. Durch Messung der Si-Schichtdicke mittels Tastschnittgerät und der Massenbelegung aus der korrelierten Frequenzänderung des Schwingquarzes (SQ) nach Sauerbrey wurde die Schichtdichte bestimmt. Hierbei wurde der Einfluss des Quarzes (Oberflächenrauheit, Behandlungshistorie) und der Versuchsbedingungen (Substrattemperatur, Abscheiderate) auf die Dichte der Schichten und deren Genauigkeit untersucht. Im zweiten Teil wurde der Effekt der Gasabsorption auf diese Schichten in Abhängigkeit der Abscheidebedingungen untersucht. Dazu wurden frisch abgeschiedene a-Si-Schichten definierten Atmosphären (Druck, Gasart) ausgesetzt und mittels Schwingquarz in-situ die Massenbelegung aufgenommen.
Für die Entwicklung neuer Medikamente und zur Züchtung künstlicher Organe ist es essenziell, die Wechselwirkungen zwischen verschiedenen Organen zu Untersuchen. Darum ist es notwendig, über ein komplexes und realitätsnahes Modellsystem zu verfügen, Lab-on-Chip Bioreaktoren bieten diese Möglichkeit. Ziel dieser Arbeit ist es, ein Messsystem zu entwickeln, das unter Ausnutzung von im Stoffwechsel aller eukaryotischen Zellen vorkommenden Substanzen zur kontinuierlichen Überwachung der Zellen geeignet ist. Als geeignete Markerfreie Messung hat sich die Fluoreszenzlebensdauermessung an NADH erwiesen. Die Änderungen des Metabolismus der Zelle sowie ihrer Umgebung führen zu einer Verschiebung der Fluoreszenzlebensdauer im einstelligen ns-Bereich. Da einige Stoffwechelprozesse in allen eukaryotischen Zellen gleich sind, konnte Saccharomyces cerevisiae als Modellorganismus zur realitäsnahen Messung eingesetzt werden. In dieser Arbeit wurden zeit- und frequenzbasierte Messmethoden zur ns-genauen Bestimmung der Fluoreszenzlebensdauer untersucht. Dabei wurden die Zellen gezielt mit den zellschädigenden Stoffen HCl sowie Triton-X100 behandelt und die Änderung vermessen. Es konnte gezeigt werden, dass sich die Fluoreszenzlebensdauer bei induzierter Apoptose um 1,4 ns verlängert, sowie durch induzierte Nekrosen um 0,5 ns verringert. Die Messergebnisse zeigen, dass es möglich ist, den Vitalitätszustand der Zellen optisch zu analysieren.
Für die Charakterisierung von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen wird eine Messprozedur benötigt, die den Anforderungen einer solchen Produktion gewachsen ist. Zum einen ist es notwendig, dass die Genauigkeit und Präzision der verwendeten Messsysteme besser ist, als die Prozessstreuung der Abscheideprozesse. Nur so ist es möglich den Prozess zu kontrollieren. Hierfür werden in der Masterarbeit die Messsysteme mit Hilfe einer Messsystemanalyse untersucht. Zum anderen ist es notwendig, den Eingriff in den Herstellungsprozess so gering wie möglich zu halten. Hierfür werden in der Masterarbeit alternative Messmethoden zur Charakterisierung der elektrischen Eigenschaften der Indium-Zinn-Oxid-Schichten evaluiert. Als Ergebnis der Masterarbeit wird eine Messprozedur dargelegt, die für die Charakterisierung der elektrischen Eigenschaften von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen geeignet ist.
Datenmodell für Track&Trace
(2015)
Ziel dieser Arbeit ist es, die Entwicklung einer Webseite auf Grundlage des AngularJSFrameworks darzustellen und zu analysieren. Die Webseite besitzt dabei eine auf der REST-Architektur basierende Anbindung zu einem vorgegebenen Server. Die realisierte Webanwendung beinhaltet exemplarische Funktionen einer Finanzanwendung um die Entwicklung in einen praktischen Kontext zu setzen. Das verwendete AngularJS Framework ist ein von Google entwickeltes HTML- und Javascript Framework für auf einem Model-View-Controller-Muster basierende Single-PageWebanwendungen. Um die Visuelle Umsetzung des Projekts zu unterstützen kommt das Bootstrap CSS Framework zum Einsatz.
Diese Arbeit beschreibt ein Modell, eine Architektur und eine beispielhafte Implementierung für einen sicheren behördlichen Internetzugang, basierend auf überwiegend freier Software. Dabei werden zuerst aktuelle, relevante Bedrohungen und Angriffstechniken eruiert und analysiert. Für den Entwurf eines Sicherheitsmodells zur Abwehr von Angriffen werden mehrere verbreitete Muster und Standards bewertet und auf diesen Erkenntnissen ein eigenes Modell entwickelt. Aufbauend auf diesem Modell wird unter Berücksichtigung der behördlichen Anforderungen ein Sicherheitskonzept entwickelt. Abschließend wird eine exemplarische Umsetzung dieses Konzeptes beschrieben.
In the surgery of the pituitary gland and other related areas of the skull base, the endoscopic endonasal surgery has established oneself as today's operation method. Although the surgeon is able to look around corners with the aid of an endoscope, the dissection in these areas is limited. Current suction devices are limited in their size, shape, bending and prone to kinking because of the narrow suction channel. The work with such inadequate instruments increase the risk of life-threatening complications, prolong the operation and limit the quality of a complete tumor resection. The ideal suction device would be adaptable to numerous surgery situations, easy to bend, maintain its lumen, adequate in their ratio of rigidity and formability, ergonomic and reformable to its original shape. In the following bachelor thesis, it is shown that this can be achieved with a suction device with shape memory alloy. After the development of a comfortable hand sample, the suction device went into preparation and a risk analysis was performed. The results of the evaluation process are reductions in operative risk, time and cost if this bendable suction device would be applied. Therefore, approval for the international market should be sought, to provide an opportunity for safer and more effective surgical procedures.
Schleifen ist ein bedeutsames und hochpräzises Verfahren in der mechanischen Fertigung. Durch verschiedene Einflüsse kann es bei der Bearbeitung von Werkstücken zur Entstehung von Schleifbrand kommen. Schleifbrand ist eine lokale Gefügeumwandlung im Bauteil, die Belastbarkeit und Langlebigkeit des Werkstückes herabsetzt. Eingeführte Detektionsverfahren für die Erkennung von Schleifbrand sind: Wirbelstromprüfung und Nitalätzung. Um die Funktion dieser Verfahren in regelmäßigen Abständen zu prüfen, werden Vergleichskörper mit künstlicher Inhomogenität durch Laserbehandlung hergestellt. Zur Verbesserung der Prozessfähigkeit und zur Minimierung des Geometrieeinflusses der Bauteile wurde eine Optimierung der Laseroptik durchgeführt. Für die Auslegung der Optik wurde eine Strahlcharakterisierung des kollimierten und fokussierten Strahls vorgenommen. Es wurde eine Aufweitung des Laserstrahls durchgeführt und der Arbeitspunkt wurde vom des fokussierten Stahl in den Fokus verschoben. Benutzt wurde hierfür eine zweilinsige Teleskopanordnung. Daraufhin wurde die Funktionalität der optimierten Optik mit diversen Probenkörpern unter Variation Prozess-, Material- und Geometrieparameter untersucht. Die Ergebnisse der Laserbehandlung mit optimierter Laseroptik wurden mit denen der Ausgangsoptik verglichen und eine Verbesserung der Prozessfähigkeit festgestellt.
Untersuchung und Charakterisierung eines Sandwich-Materialverbundes aus Hart-Coating und Polyisocyanurat-Hartschaum (PIR) als materialtechnische Lösung für Klimaprüfkammertüren. Ausgehend von einer Darstellung der eingesetzten Geräte und derer technischer Grundlagen, ist PIR-Hartschaum auf seine Temperaturbeständigkeit im Hoch- als auch im Minustemperaturbereich untersucht worden. In Kombination mit der Messung der Temperaturverteilung hinter dem Innensegment des Materialverbundes wird eine Entscheidungshilfe gegeben, wie der PIR-Hartschaum als Isoliermaterial im Türelement der Klimaprüfkammer Einsatz findet. Ein Ausblick beschreibt andere Anwendungsmöglichkeiten der neuen materialtechnischen Lösung in diesem Einsatzgebiet.
Im Modul "Spezifikations- und Verifikationsmethoden" wird im Rahmen der Praktika ein System spezifiziert. Tools zum Abbilden, Erstellen und Management kommen nicht zum Einsatz. Aufgabe der Arbeit ist es, die Durchführung effizienter zu gestalten. D.h., dass durch den gezielten Tooleinsatz das Arbeiten unterstützt wird und die Studenten dazu angehalten werden, Requirements richtig zu erfassen und zu verwalten. Im Rahmen der Praktika werden verschiedene Diagrammtypen der UML verwendet sowie atomare textliche Anforderungen definiert und mehrmals überarbeitet. Die Erfassung, Verwaltung und die Überarbeitung der Anforderungen erfolgt aktuell formlos. Mit fortschreitenden Praktika werden verschiedene Reviewtechniken angewendet, wodurch ebenfalls teilweise Formalien eingeführt werden und Techniken aus dem Bereich des RE vermittelt werden. Den Studierenden soll, unter Berücksichtigung der durch das Studium vorgegebenen Randbedingungen, erlebbar ein Eindruck der Tätigkeiten im Rahmen des RE vermittelt werden. Außerdem sollen die Möglichkeiten und Grenzen bei der Durchführung mittels Textverarbeitung veranschaulicht werden sowie darauf basierend mögliche Auswege aufgezeigt werden.
Stereo matching methods are usually relying on rectified images to calculate disparities. If the rectification is inaccurate or not present at all most stereo matching algorithms will produce distorted disparity maps. In this thesis an approach is described that overcomes this issue for the PatchMatch Stereo algorithm. As groundwork for stereo matching four rectification procedures namely Bouget
Entwicklung eines Dekodierers für binäre Korrektursignale als Grundlage für ein Differential-GPS
(2015)
Viele Anwendungen von Satellitengestützer Navigation gehen nicht über das Auswerten der Positionsdaten hinaus. Zum Herstellen eines eigenen Empfangsgeräts, welches Korrekturdaten des Radiobeacon DGPS berücksichtigt, ist eine Dekodierung dieser Korrekturdaten unerlässlich. Im Dokument beschrieben wird der Aufbau und eine Lösung zum Herstellen eines Software-Dekoders von RTCM2-Daten, welche über einen Mittelwellenempfänger erfasst wurden. Die Kommunikation mit dem Empfänger via Serieller Schnittstelle, dessen Konfiguration und das Zusammensetzen der empfangenen Bytes entsprechend des RTCM2-Standards werden behandelt.
Diese Arbeit zeigt einen Lösungsansatz für die Entwicklung eines Messverfahrens zur quantitativen Erkennung von Lungenkrebszellen in Mikroskopiebildern mithilfe von Bildauswertungsalgorithmen. Dies erfordert eine Auseinandersetzung mit bestehenden Bildverarbeitungsprogrammen und deren Bildfiltern und startet mit dem spezifischen Einsatz gewählter Bildauswertungssoftware bis hin zur Lösungsvariante einer Zellenerkennung. Zunächst setzt man sich mit den Grundlagen der Bildverarbeitung auseinander, um das gestellte Bildmaterial zu verstehen. Dieses wird im Laufe des Projektes vertieft, damit eine Nutzung zur Auswertung der gewünschten Ziele erreicht werden kann. Als erstes werden die Bildfilter und deren Eigenschaften und Funktionsweise erläutert, um zu verstehen wie sie die vorhandenen Bilder verändern. Danach wird eine Auswertung durchgeführt, ob diese Veränderungen die optimalen Ergebnisse erzielt haben. Daraufhin werden zwei Lösungswege für positive und negative Zellen entwickelt. Diese werden durch statistische Auswertungen überprüft und zum bestmöglichen Ergebnis entwickelt.
Mit der Energiewende und dem weiteren Ausbau von erneuerbaren Energien, rückt die The-matik der Energiespeicherung immer weiter in den Vordergrund. Das Ziel dieser Arbeit bestand darin, den Autarkiegrad eines Photovoltaiksystems mit integriertem Akkumulator zu prognostizieren. Dabei wurde ein Algorithmus entwickelt, welcher die Basis der Simulation bildet. Für eine Beispielrechnung wurde das Speichersystem Senec.Home G2 von der Deutschen Energieversorgung, eine 7,87 kWp Photovoltaikanlage und ein privater Haushalt mit 4.000 kWh Jahresstromverbrauch ausgewählt. Es konnte nachgewiesen werden, dass die Prognose des Autarkiegrades durch das Simulationsprogramm nur geringe Abweichungen zum tatsächlichen Wert aufweist. Ebenfalls wurde die Wirtschaftlichkeit ohne Berücksichtigung einer Förderung betrachtet. Es wurde festgestellt, dass eine Photovoltaikanlage ohne Akkumulator rentabler als das Photovoltaiksystem mit dem Speicher Senec.Home G2 ist. Dabei liegt die Hauptursache bei den hohen Investitionskosten der Photovoltaikspeicher. Unter Annahme des weiterhin steigenden Strompreises, einer Förderung und eines Preisverfalls von Photovoltaikakkumulatoren können die elektrochemischen Speicher ein wichtiger Bestandteil der Photovoltaik werden und somit einen Beitrag zur Energiewende leisten.
Entwicklung eines Tools zur Erstellung und Veröffentlichung von dynamischen interaktiven Karten
(2015)
Die vorliegende Masterarbeit zeigt auf, wie mit vorgegebenen Technologien und Anwendungsfällen ein Tool erstellt wird, das für die Erstellung und Veröffentlichung von dynamischen interaktiven Karten dient. Nach der Herausarbeitung von thematischen Grundlagen erfolgt die Untersuchung von Anforderungen spezieller Fälle, sowie eine Einarbeitung und Darstellung der Möglichkeiten der Software-Infrastruktur. In Anbetracht dieser wird ein abstraktes Konzept aufgezeigt, dass Raum für die Interpretation in der Nutzung bestimmter Rahmenwerke lässt. Bei der anschließenden Erläuterung der Implementierung, werden eingesetzte Frameworks genannt und auf Besonderheiten im Quelltext eingegangen.
Im Rahmen dieser Ausarbeitung ist eine Serversoftware implementiert worden. Die programmierte Software stellt einen Dienst zur Verfügung, der Metadaten von Clients entgegen nimmt und diese verwaltet. Die zugesendeten Metadaten werden versioniert und vor inkonsistenten Speichervorgängen geschützt. Ziel dieser Arbeit ist, die Notwendigkeit der Software zu beschreiben und die Implementierung zu erläutern. Dafür werden die Softwaresysteme und die damit verbundenen Prozesse in der Götz Günther GmbH analysiert und beschrieben. Aus den entstehenden Informationen werden die Anforderungen an das Softwaresystem abgeleitet. Anschließend werden verschiedenste Technologien ausgewertet und ihre Qualifikation für die Verwendung im Projekt ermittelt. Dafür wird eine Diskussion durchgeführt, die die Technologien anhand verschiedenster Kriterien untersucht. In der Diskussion werden die Vor- und Nachteile der Technologien besprochen, damit der Grund der Entscheidung für eine bestimmte Technologie ersichtlich wird. Weiterhin wird die erstellte Serversoftware in ihrem Aufbau und ihrer Arbeitsweise erläutert. Dafür wird die Implementierung in verschiedenen Detailgraden betrachtet und schematisch mit UML-Diagrammen dargestellt. Die Implementierung wird in Komponenten unterteilt, die gemeinsam ein Aufgabenfeld realisieren und deren Arbeitsweise wird erläutert. Es wird auf die Modularität des Softwaresystems eingegangen, wobei verdeutlicht wird, in welcher Art und Weise die Komponenten miteinander verknüpft sind und wie diese ausgetauscht werden können. Danach wird die interne Struktur der Komponenten anhand von Klassendiagrammen geschildert und auf implementationsspezifische Besonderheiten eingegangen. Es wird dargestellt, warum sich für diese Klassenarchitekturen entschieden wurde, dafür werden Modelle der C#-Entwicklung charakterisiert. Zum Schluss folgt ein Fazit, das die entstandene Software evaluiert und Mängel in der Systemarchitektur identifiziert. Es werden Lösungen für die Bereinigung der Mängel besprochen.
Die vorliegende Arbeit befasst sich mit der theoretischen Auseinandersetzung von Architekturkonzepten in Bezug auf eine verteilte IT-Infrastruktur. Dabei werden verschiedene Modelle, die von Client-Server-Architekturen bis hin zu Cloud Computing Ansätzen reichen, untersucht. Anhand verschiedener Kriterien wird eine Lösungsmöglichkeit ausgewählt und prototypisch implementiert. Als Grundlage dient hierbei ein Basissystem aus dem Kontext der Gemeinschaftsverpflegung, welches um ein mobiles Menü-Bestellsystem erweitert wird. Beginnend mit einer Dokumentation der Anforderungs- und Geschäftsprozessanalyse werden die wichtigsten Funktionen des mobilen Menü-Bestellsystems erläutert, um anschließend einen Lösungsansatz für die IT-Infrastruktur zu modellieren. Den Abschluss bildet die Realisierung, von der Anbindung des bestehen Basissystems, über das verteilte Informationssystem bis hin zum mobilen Client für den Nutzer.
Ziel der Bachelorarbeit ist es, eine Lösung zur Verarbeitung großer Datensätze (Big Data) zu gewinnen. Dabei wird ein Augenmerkt auf das Framework Hadoop geworfen werden, welches ab dem kommenden Sommersemester 2015 an der Westsächsischen Hochschule in Zwickau den Studenten gelehrt werden soll. Um neben den theoretischen Informationen ebenfalls das zu Lehrende im Praktischen demonstrieren zu können, ist ein funktionstüchtiger Hadoop-Server aufzusetzen. Dieser soll in Form einer fertig erstellten Virtuellen Maschine für die Studierenden vorliegen, an welcher diese praktisch tätig werden können.
Als Ergebnis dieser Bachelorarbeit wurde eine Softwarelösung entwickelt, die ein Fernupdate für den Live-Ticker repräsentiert. Der Schwerpunkt dieser Aktualisierungsanwendung ist die Zuverlässigkeit. Die Konzeption des sicheren Update-Vorgangs wurde dabei in dieser Arbeit entworfen. Um ein atomares Update durchzuführen, sind die häufigsten Fehler bei einem Fernupdate herausgefunden und die entsprechenden Massnahmen vorgenommen wurden, um diese Fehler zu beheben.
Das CSS-Framework Bootstrap hat in der weltweiten Webdeveloper Community eine hohe Popularität erlangt. Das Framework macht die Entwicklung von Webseiten und Blogs sehr einfach und unterstützt dabei bereits durchgängig die verschiedensten Geräteklassen vom PC bis zum Smartphone. Geht es jedoch um umfangreiche Webapplikationen, welche beispielsweise Daten erfassen, verändern oder darstellen, stellen sich für den Entwickler besondere Anforderungen an die Benutzeroberfläche, die auf statischen Webseiten oder Blogs nicht benötigt werden. Diese Arbeit soll ein Nutzerinteraktionskonzept vorstellen, bei dem die Features und Vorteile des Bootstrap Frameworks für die Erstellung von Webapplikationen genutzt werden können.
Während die Hardware eine lange Zeit auf dem neuesten Stand ist, benötigt die Software ständige Updates, weil jeden Tag neue Produkte im Bereich der Softwareentwicklung erzeugt werden und in die bestehenden Software-Produkte weiterentwickelt werden. Nicht zu vergessen ist, dass ein Programm von Menschen geschrieben wird und einige Bugs und Mängel im Endprodukt immer behoben werden müssen. Diese Bachelorarbeit befasst sich mit der Überblick über bestehende Update-Verfahren des Linux-Betriebssystem und der prototypischen Implementierung eigenes Verfahrens auf Basis von Raspberry Pi 2 für den Live-Ticker. In der Arbeit werden zuerst die bestehende Update-Verfahren des Linux-Betriebssystem und die Anforderungen, die während deren Entwicklung erfüllt wurden, betrachtet. Danach werden die Anforderungen zum Update-Prozess des Live-Tickers beschrieben und ein Überblick über die verwendete Technologien und Werkzeuge gegeben, mit denen eine eigens entwickelte Konzeption und Implementierung realisiert wurde. Diese Bachelorarbeit hängt mit der Abschlussarbeit "Erkennung abgebrochener/ungültiger Updates und Implementierung eines Fail-Safe-Verfahrens für einen Life-Ticker auf dem Rasperry Pi 2" von Frau Gafurova zusammen.
Diese Bachelorarbeit behandelt die Evaluierung von nicht-relationalen Datenbanksystemen für die Restrukturierung des Dokument-Archivsystems der XCOM AG. Die Evaluierung wurde im Rahmen eines unternehmensinternen Projekts durchgeführt, dessen Ziele und Ablauf ebenfalls Bestandteil dieser Arbeit sind. Beim Archivsystem der XCOM AG handelt es sich um ein System zur elektronischen Ablage von Dokumenten, welches in erster Linie bei Banken zum Einsatz kommt. Durch diese Form der Archivierung können Arbeitsabläufe optimiert und beschleunigt werden. Voraussetzung dafür ist jedoch eine performante Umsetzung. Da das hier vorliegende System mittlerweile seit über zehn Jahren im Einsatz ist, entsprechen die eingesetzten Technologien nicht mehr dem Stand der Zeit, was sich unter anderem auf die Performance auswirkt. Daher soll mit diesem Projekt die Einsetzbarkeit von modernen Technologien untersucht werden, um die Nutzung des Archivsystems effizienter zu gestalten. Da es sich um ein System zur Speicherung von Dokumenten und somit Daten handelt, stammen die zu untersuchenden Technologien alle aus dem Bereich der Datenbanksysteme. Hier erfreuen sich seit einigen Jahren besonders nicht-relationale Datenbanksysteme großer Beliebtheit. Diese unterscheiden sich sowohl in ihren Konzepten, als auch in ihren Einsatzbereichen mitunter stark von klassischen, relationalen Datenbanken. Es ist daher Bestandteil dieses Projekts, die Besonderheiten derartiger Systeme darzustellen und anschließend einige Vertreter hinsichtlich ihrer Einsatzmöglichkeiten für das Archivsystem näher zu untersuchen. Darüber hinaus wird eine Implementierung vorgestellt, welche die Nutzung eines solchen nicht-relationalen Systems im Archivsystem demonstriert. Hierfür erfolgt die Auswahl eines der näher untersuchten Datenbanksysteme. Es gilt, die Implementierung im Rahmen dieses Projekts zunächst zu planen und anschließend umzusetzen. Abschließend wird die Performance des neuen und alten Systems miteinander verglichen. Der Vergleich wird durch die Messung von Zeiten vorgenommen, die das Archivsystem für die Ausführung bestimmter Aufgaben benötigt. Dies stellt den Abschluss des Projekts dar und soll zeigen, inwiefern sich durch den Einsatz des ausgewählten Datenbanksystems Optimierungsmöglichkeiten ergeben. Auf diesen Ergebnissen aufbauend kann anschließend eine fundierte Entscheidung darüber getroffen werden, ob eine Restrukturierung des Archivsystems tatsächlich durchgeführt werden soll.
Evaluierung von unterschiedlichen optischen Fasern für die Winkelmessung an einem Stützgelenk
(2015)
In Rahmen dieser Bachelorarbeit wurden verschiedene optische Fasern auf ihre Auskopplung von Licht durch Biegung dieser untersucht. Das Ziel war es, Erkenntnisse über die Auskopplungsmechanik zu gewinnen, um den genannten Effekt später für die Winkelmessung an einem Stützgelenk zu verwenden. Es wurden viele verschiedene Messaufbauten gewählt, um eine umfangreiche Abdeckung der Möglichkeiten Auskopplung von Licht aus einer Faser durch Biegung zu ermöglichen. Unterschiedliche Einflussgrößen, wie zum Beispiel verwendeter Laser, Mikroskoobjektiv und Faserlänge sind statistisch abgesichert gemessen und bilden eine Grundlage für die Weiterverarbeitung der optischen Fasern. Zusätzlich ist der Effekt der Evaneszenz beim Biegen einer Duplexfaser untersucht wurden. Abschließend kommt es zu einem Vergleich von anderen optischen Messverfahren zu diesem genannten Verfahren.
Die Reduzierung von unerwünschten Mantelmoden in Glasfasern stellt in der Faseroptik nach wie vor ein herausforderndes Problem dar. Durch Mantelmoden wird nicht nur die Funktionalität von Glasfasersystemen begrenzt, sondern auch die Strahlqualität negativ beeinträchtigt. Weiterhin kann die unkontrollierte Ausbreitung von Mantelmoden in der Zerstörung von Fasersystemen resultieren und muss besonders bei Hochleistungsanwendungen im Kilowattbereich berücksichtigt werden. Ziel dieser Arbeit war die Untersuchung einer neuen Methode zur Entfernung von Mantelmoden aus Glasfasern mit Mantelmodenabstreifern. In dieser Bachelorarbeit wird das Verfahren zur Herstellung der Mantelmodenabstreifer vorgestellt. Das Verfahren basiert auf der Mikrostrukturierung von Glasfaser durch einen CO2 - Laser. Weiterhin wird auf die Messtechnik zur Charakterisierung der Mantelmodenabstreifer eingegangen. Darüber hinaus werden experimentelle Ergebnisse mit den erzeugten Mantelmodenabstreifern gezeigt. Dabei wurde speziell die Dämpfung und der Einfluss auf die numerische Apertur von Signalen untersucht. Zudem werden Resultate gezeigt, bei denen mehr als 98 % der Leistung auf einer strukturierten Länge von 30 mm entfernt werden konnten.
Flammengestützte Abscheidung verschiedener Schichtsysteme und Optimierung des r-CCVD Prinzips
(2015)
Die vorliegende Arbeit beschäftigt sich mit der flammengestützen Abscheidung verschiedener Schichtsysteme unter der Zuhilfenahme des remote Combustion Chemical Vapor Deposition Verfahrens. Zahlreiche und hydrolytisch umsetzbare Precursoren konnten recherchiert werden. Unter verschiedenen Bedingungen erfolgte eine Auswahl an bestimmten Precurso-ren zur Erprobung. Titandioxid- (mittels Titantetraisopropoxid und Titanethoxid), Siliziumdi-oxid- (Hexamethyldisiloxan und Triethoxyorthosilikat), Aminosilan- (3-Aminopropyltriethoxysilan) und Aminotitanatschichten (Isopropyl tri(N-ethylene diamino)ethyl titanat) wurden erzeugt und ihre Schichteigenschaften mit unterschiedlichen instrumentellen Anlagen charakterisiert. Zu den Charakterisierungsmöglichkeiten gehörten ein Profilometer zur Schichtdickenbestimmung, Röntgen-Photoelektronenspektroskopie (XPS) und energie-dispersive Röntgenspektroskopie (EDX) zur Elementanalyse sowie ein Röntgendiffraktome-ter mit streifendem Einfall (GIXRD) zur Zusammensetzungsbestimmung. Weiterhin erfolgten Rasterelektronen- (REM), Raster-Kraft-Mikroskopie (AFM) und Grauwertmessungen zur Bestimmung der Oberflächenbeschaffenheit. Die Anlagenoptimierung erfolgte hinsichtlich Abscheiderate durch die Erprobung unternehmensentwickelter Verdampfereinheiten und hin-sichtlich des Prozessparameters Temperatur der Precursorsprühleiste.
Die Arbeit beschäftigt sich mit den theoretischen Grundlagen der optischen und chemischen Eigenschaften der Haut und von Hautkrebs und dessen bislang gängigen Detektionsmöglichkeiten in der Dermatologie. Der zweite Teil der Arbeit befasst sich mit der spektralen Analyse der Haut und eines Nävuszellnävus. Dabei werden grundlegende Eigenschaften wie Absorption, Reflektanz und Kontrast analysiert.
Als Ausgangspunkt der Arbeit auf dem Gebiet der Quantum Dot LEDs (QD-LEDs) wurden bereits verschiedene Materialien für Ladungsträgertransportschichten (engl. charge transport layer, CTL), verschiedene Sorten Quantum Dots (QDs) und Aufbringungsmethoden von dünnen Schichten untersucht. Über Langzeitstudien und Degradation war bis dato noch wenig bekannt. Es gab lediglich die Erkenntnis, dass die Elektrolumineszenz (EL) der QD-LED bei Inbetriebnahme einen sofortigen und starken Abfall über der Betriebszeit zeigte. Es gab die Vermutung, dass infolge einer hohen Stromdichte und damit einer hohen Temperatur im Bauteil, die organischen CTLs und auch die emittierenden QDs irreversibel geschädigt werden. Ziel dieser Arbeit ist es, mithilfe genauer Untersuchungen an CTLs und an QDs, die Effizienz und Lebensdauer der QD-LEDs zu erhöhen. Dazu wurden verschiedene Herstellungsparameter variiert wie z.B. die Herstellungsumgebung, die Präparation der Lochinjektionsschicht (engl. hole injection layer, HIL), die Schichtdicke und das Tempern der QD-Schicht, die Substratvorbehandlung und die Verkapselung des Bauteils. Anschließend wurde deren Einfluss auf die elektrooptischen Eigenschaften und das Langzeitverhalten untersucht. Des Weiteren galt es herauszufinden, welche möglichen Degradationsmuster bei den QD-LEDs auftreten und worin deren Ursachen liegen. Aufgrund einer verbesserten Präparation der HIL, bestehend aus Poly(3,4-ethylenedioxythiophene)-poly(styrenesulfonate) (PEDOT:PSS), konnten elektrisch leitfähige und stabile Schichten ohne elektrische Kurzschlüsse hergestellt werden. Durch das gezielte Tempern von QDs konnte mithilfe von Photolumineszenzmessungen herausgefunden werden, dass die verschiedenen Sorten von QDs eine sehr unterschiedliche thermische Stabilität besitzen. Des Weiteren konnte durch eine Vorbehandlung des Substrates aus Indiumzinnoxid (engI. indium tin oxide, ITO) mit einem Sauerstoffplasma, der Kontaktwinkel verringert und die Oberflächenenergie erhöht werden. Aufgrund der verbesserten Adhäsion von PEDOT:PSS entstand somit ein stabilerer Kontakt zwischen den beiden Schichten, wodurch die Langzeitstabilität der QD-LED leicht erhöht werden konnte. Ein Abkühlen des Bauteils nach dem Tempern jeder einzelnen Schicht während des Herstellungsprozesses, bewirkt dabei ebenfalls eine Steigerung der Langzeitstabilität. Durch eine Variation der Schichtdicke der QD-Schicht konnte zudem die optische Leistungsdichte erhöht werden. Im Gegensatz dazu konnte durch eine teilweise Herstellung der QD-LED in einer vereinfachten Glovebox und unter Inertgasatmosphäre, keine Verbesserung der optischen Leistungsdichte und der Langzeitstabilität nachgewiesen werden. Eine Kapselung des Bauteils durch eine mit Epoxidharz befestigten Glasplatte auf der Bauteiloberfläche, führte dabei zu einer starken Verschlechterung der optischen Leistungsdichte der QD-LED. Die Langezeitstabilität des Bauteils wurde durch eine Kapselung zudem nur geringfügig verbessert. Des Weiteren konnte mithilfe von Pulsmessungen der EL und der Photolumineszenz (PL) an einer QD-LED, ein Rückschluss auf die im Bauteil vorliegende Temperatur bei Inbetriebnahme gezogen werden. Insgesamt wurden durch eine verbesserte Herstellung der Bauteile, die elektrooptischen Eigenschaften der QD-LEDs deutlich verbessert. Die Langzeitstabilität der Bauteile konnte dabei durch eine teilweise Herstellung der Proben in einer Inertgasatmosphäre und durch eine Kapselung nicht erhöht werden. Eine Möglichkeit besteht darin, andere Schichtmaterialien und/oder eine invertierte Bauteilstruktur zu testen. Ferner ist eine Präparation der QD-LEDs in einer Glovebox unter reiner Stickstoffatmosphäre zwingend notwendig, um die Effizienz und Langzeitstabilität der QD-LEDs nachhaltig erhöhen zu können.
Immer mehr Menschen sehen heutzutage das Internet als eine Notwendigkeit an. Sei es nun zur Kommunikation, Informationsaustausch oder Informationsgewinnung. Im Zeitalter von Industrie 4.0 und Web 2.0 ist der Bedarf an Informationen im letzten Jahrzehnt enorm gewachsen. Dies ist bedingt durch eine rasant steigende Anzahl an Webseiten und Webanwendungen, die sich im Laufe der Zeit weiterentwickelt haben, um den Ansprüchen der Bevölkerung gerecht zu werden. Die zunehmende Komplexität der Anwendungen fordert deswegen eine höher werdende Durchsatzrate der Datenverbindung, mehr Speicher zum Ablegen der Daten und eine angemessene Rechenleistung für Berechnung von Algorithmen. Aufgrund dieser Anforderungen müssen Rechenzentren ihre vorhandenen Kapazitäten erhöhen. Diese Kapazitäten können entweder mit dem Ausbau des Rechenzentrums und Steigern der Serveranzahl erreicht werden oder aber mit Aufrüsten der vorhandenen Ressourcen. Das bedeutet analog dazu einen steigenden Wartungsaufwand für jeden Server, der zusätzlich benötigt wird. Für eine Reduktion des Wartungsaufwandes können KVM-Switches genutzt werden, welche eine Fernwartung ermöglichen. Dahingehend bezieht sich diese Arbeit auf eine KVM-Client-Implementierung für aktuelle Webbrowser. Dieser Client auf HTML5-Basis soll eine Alternative zu dem bereits entwickelten Java-Client darstellen, da die Browserhersteller zunehmend den Java-Support einstellen. Im Zuge der Projektarbeit wird Wissen über Farbräume, Codierungen, RFB und JavaScript benötigt, welches im Vorfeld erläutert wird.
Ein Unternehmen möchte ein Ganzheitliches Betriebliches Gesundheitsmanagement System (GABEGS) einführen und orientiert sich dabei am vorliegenden Handlungsleitfaden, der mit seinen überwiegend konventionellen Methoden gerade in den Dokumentationsprozessen an seine Grenzen stößt. Deshalb wurde eine rechnerunterstützte Vorgehensweise abgeleitet, die die Integration vorhandener und neu erforderlicher Anwendungssysteme beinhaltet und drei Hauptziele anstrebt: Ziel 1 beabsichtigt den optimalen Aufbau des rechnerbasierten Teils des Informationssystems zur Unterstützung des Betrieblichen Gesundheitsmanagements (BGM). Ein weiteres Ziel besteht darin, eine Liste über am Markt verfügbare Produkte sowie deren Funktionalitäten und Schnittstellen zu erhalten. Das dritte Ziel strebt eine Liste aller Anwendungssysteme an, die zur Unterstützung der BGM dienen und integriert werden müssen sowie ein Integrationskonzept, das jeweils den Entwurf einer exemplarischen Schnittstelle für die beteiligten Systeme beschreibt. Eine Analyse und Bewertung der Ist-Situation bezüglich des Handlungsleitfadens brachte ein Drei-Ebenen-Metamodell (3LGM²) als Ist-Modell hervor, für das z. B. eine vollständige rechnerbasierte Aufgabenunterstützung nicht gewährleistet ist und sich der Grad an Datenintegration als mangelhaft erwies. Im Rahmen des Soll-Konzepts entstanden ein 3LGM²-Soll-Modell, das die aufgedeckten Schwachstellen behebt, sowie ein Migrationskonzept, das die Maßnahmen dazu beschreibt. Die Durchführung einer Marktanalyse zeigte, dass am Markt kein Softwareprodukt existiert, welches alle erforderlichen Funktionalitäten sowie Schnittstellen bieten kann. Deshalb wurden die Integrationsaspekte beteiligter Anwendungssysteme in den Fokus gestellt. Weiterhin wurde die Konzeption einer Schnittstelle zwischen einer beliebigen Befragungssoftware und dem SAP® Human Resources-System (HR) als exemplarische Personenverwaltungssoftware betrachtet. Damit wurde ein Weg zur Integration aller relevanten Daten aufgezeigt. Ferner wurde die Konzeption einer Schnittstelle zwischen einer beliebigen Befragungssoftware und dem Statistical Package for the Social Sciences (SPSS) als exemplarische Analyse-/Auswertungssoftware durchgeführt. Dadurch wurde gezeigt, wie die Erhebungsdaten der Mitarbeiter und notwendigen Verwaltungsdaten eines Fragebogens in SPSS integriert und einzelne Schritte des Analysevorgangs automatisiert werden können.
Kalibrierung und Freilandtest von Passivsammlern für ausgewählte organische Gewässerschadstoffe
(2015)
Passivsammler sind schon seit einigen Jahren in der Entwicklung. Mit ihnen können zeitgemittelte Konzentration über einen längeren Zeitraum in einem Umweltmedium ermittelt werden. Typische Vertreter sind der POCIS, der Chemcatcher oder der am UFZ entwickelte MESCO. Weiterhin wird in einer Studie am UFZ derzeit ein anderes Passivsammlermaterial untersucht, Polyethersulfon (PES). Bereits seit Jahren sind PES-Membranen Bestandteile von Passivsammlern. Sie dienen als Schutz-membranen um das eigentliche Sammlermaterial vor zu starker Verschmutzung oder Bioaufwuchs zu schützen. Es existieren jedoch Untersuchungen die belegen, dass manche Schadstoffe sehr gut im PES aufgenommen werden, wenn nicht sogar besser als in der eigentlichen Sammelphase. Aus diesem Grund sollte Poly-ethersulfon in dieser Arbeit auf seine Eignung als Passivsammler, bzw. auf seine Sammeleigenschaften (Verteilungskoeffizienten und Sammelraten), für bestimmte Gewässerschadstoffe untersucht werden. Es wurden elf Substanzen ausgewählt und die PES-Membranen in zwei mehrwöchigen Laborexperimenten und einem Freilandtest untersucht. Im Labor wurde ein Glasgefäß mit Wasser befüllt, welches mit einem Schadstoffcocktail kontaminiert war. Nach der Befestigung der Sammler im Gefäß, wurde mithilfe eines Magnetrührers eine leichte Strömung erzeugt. Im ersten Versuch wurden die Verteilungskoeffizienten der Stoffe ermittelt und im zweiten Versuch die Sammelraten. Beide Parameter sind wichtig und müssen bekannt sein wenn ein Passivsammler für die Untersuchung von Gewässern genutzt werden soll. Zusätzlich wurden die Sammler im 20-tägigen Feldversuch in der Saale bei Halle und im Ablauf des Klärwerks Halle Nord getestet.
Das Ziel ist es, mögliche vorkommende Varianzfälle zu identifizieren und zu untersuchen, um eine Software entwickeln zu können, die es ermöglicht, Vari- anzfragmente in bestehende Basismodelle zu integrieren, sodass aus einem Basismodell durch das Hinzufügen von Fragmenten ein konkreter Geschäftsprozess hergestellt werden kann.
Die vorliegende Arbeit behandelt die Konstruktion eines Molekülverdampfers für die Ab-scheidung von endohedralen Fullerenen unter Ultrahochvakuumbedingungen zur Herstellung von geeigneten Proben für die Tunnelmikroskopie. Anhand erster tunnelmikroskopischer Messergebnisse zu Er3N@C80 auf Metalloberflächen wird die Funktionsfähigkeit des Verdampfers eindrucksvoll bestätigt. Nach einer kurzen Vorstellung der abzuscheidenden endohedralen Fullerene werden die für den Verdampfungsprozess relevanten thermodynamischen Grundlagen zusammengefasst dargestellt. Anschließend wird der Aufbau des Verdampfers präsentiert. Über Betrachtungen zu den Grundlagen der Tunnelmikroskopie soll die Interpretation der im darauf folgenden Kapitel vorgestellten Messergebnisse ermöglicht werden. Rastertunnelmikroskopische und -spektroskopische Daten zu Er3N@C80 auf Wolfram Gold werden gezeigt.
Die Arbeit befasst sich mit der Konzeption eines Tools, dass die Modellierung zeitabhängiger Städteansichten ermöglicht. Ziel der Anwendung ist es, ein virtuelles 3D-Stadtmodell aus historischen Abbildungen erstellen zu können. Das Modell soll außerdem nicht an einen Zeitpunkt gebunden sein, sondern für unterschiedliche Zeitpunkte in der Vergangenheit generiert werden können. Nutzer sollen zudem die Möglichkeit haben, bei der Vervollständigung des Modells zu helfen, da im historischen Kontext oft nur begrenzt viele Informationen vorhanden sind und sich jede Information als nützlich erweisen kann. In der Arbeit wird auf viele notwendige Schritte eingegangen, die beachtet werden müssen, um ein solches Tool zu implementieren. Besonders detailliert betrachtet wird der Schwerpunkt der 3D-Rekonstruktion aus von wenigen Bildern. Zudem wird ein Teil der Anwendung in JavaScript implementiert.
Oft existiert, trotz einer wahren Flut von verschiedenen Softwareprodukten, für bestimmte Anwendungsgebiete keine auf die Kundenwünsche genau abgestimmte Lösung. Auch zukünftig werden Unternehmen weiterhin auf die Neuentwicklung spezieller Software und die Anpassung geeigneter Standardsoftware angewiesen sein. Die Arbeit verfolgt zwei Aufgaben. Hauptaugenmerk liegt auf der Konzeption und Erstellung eines Bestellsystems für die Essensversorgung für die GK Software AG. Das bestehende Altsystem soll durch eine webbasierte Lösung ersetzt werden. Es wird ein Prototyp erstellt, der den Funktionsumfang des Altsystems um die erweiterten Anforderungen durch die Nutzergruppen ergänzt. Im Anschluss wird dieser Prototyp in die Infrastruktur des Unternehmens eingegliedert. Weiterhin soll überprüft werden, ob die erstellte Software gängigen Standards bezüglich der Usability genügt.
Die Entwicklung von Software Produktlinien ist ein bekanntes Verfahren zur Wiederverwendung von Softwareartefakten für ähnliche Varianten eines Produktes. Ein Schwerpunkt ist das Testen von Software Produktlinien. Die Herausforderung beim Testen ist, dass durch die Konfigurierbarkeit eine große Menge an Produktvarianten entstehen. Diese Arbeit zeigt, wie Software Produktlinien entwickelt werden. Am Beispiel einer Software Produktlinie werden die theoretischen Grundlagen erläutert und beschrieben, wie die konkreten Produktvarianten mit dem Konfigurator der iSAX GmbH & Co. KG erstellt werden. Es wird erläutert, wie diese Produktvarianten effizient getestet werden können. Hierfür werden verschiedene Testansätze vorgestellt, welche die aus der Software Produktlinie resultierenden Produktvarianten testen. Um den Testaufwand zu verringern, werden Testartefakte für verschiedene Produktvarianten wiederverwendet.
Das Ziel dieser Masterarbeit ist es, eine Neukonzeption eines verteilten Softwaresystems bei der Ablösung bisheriger Kommunikationsverfahren durch nachrichtenorientierte Middleware zu realisieren. Das betrachtete System umfasst die verteilte Berechnung einer Gesamtaufgabe und damit die Verteilung von Teilberechnungen. Dieses System wird zunächst einer Systemanalyse unterzogen. Dabei werden die Komponenten und deren bisherige Kommunikation untereinander beschrieben. Anhand dieser Voruntersuchungen werden Anforderungen für die Umstellung auf eine nachrichtenbasierte Kommunikation erstellt. Weiterhin werden die Konzepte einer nachrichtenorientierten Middleware betrachtet. Für die eigentliche Kommunikation werden standardisierte Zugriffsschnittstellen und die Themen Transaktionen sowie Zugriffskontrolle behandelt. Dadurch entsteht ein ganzheitlicher Überblick über das einzusetzende System. Anhand dieser Informationen wird eine konkrete Implementierung ausgewählt. Die Auswahl ist die Folge eines zweistufigen Vergleichs, der aus einer grob definierten Menge zunächst einige Kandidaten herausgelöst. Durch einen produktiven Versuch, wird aus den übrigen Kandidaten die geeignete Implementierung bestimmt und anschließend genauer beschrieben. Weitestgehend unabhängig von dieser konkreten Auswahl werden Teile der Anwendung grundlegend umgestaltet. Dabei wird stets darauf geachtet, dass die untersuchten Konzepte von nachrichtenorientierten Middleware-Systemen betrachtet und einbezogen werden. Außerdem werden, falls angebracht, oft alternative Lösungswege berücksichtigt und beurteilt. Es wird außerdem ein Fokus auf die Realisierung unter Verwendung des Spring Frameworks gelegt. Das Ergebnis dieser Arbeit ist schließlich ein in weiten Teilen neu konzipiertes System, bei dem die Kommunikation beteiligter Komponenten sowie die Verteilung der einzelnen Teilberechnungen durch die Verwendung einer nachrichtenorientierten Middleware erfolgt.
Die in dieser Arbeit entstandene Webanwendung zur Projektverwaltung kombiniert verschiedene Technologien, um den steigenden Anforderungen gerecht zu werden. Die Geschäftsprozesse wurden zunächst analysiert und für die Ausführung als BPMN-Workflows präzisiert. Die Ausführung übernimmt die Java-basierte Workflow Engine Activiti. Die Geschäftslogik wird mithilfe des Spring Framework realisiert. Geschäftsprozesse und
Die Arbeit beschäftigt sich mit der prototypischen Implementierung eines Andon-Boards für die Meleghy Automotive Unternehmensgruppe.Dabei werden Anforderungen aus betriebswirtschaftlichen Gesichtspunkten wie auch auf Hinsicht der Qualitätssicherung zusammengeführt und analysiert. Aus betriebswirtschaftlicher Hinsicht handelt es sich bei der Anwendung um ein Visualisierungstool aktueller Produktionsstatus auf Basis der Produktionsdaten eines bestehenden SAP-Systems. Zusätzlich zu den Produktionsdaten werden Echtzeit-Daten mittels einer Anbindung an eine Anlagen-SPS angezeigt. Neben der Anzeige von Echtzeit-Daten befasst sich die Arbeit auch mit der Ermittlung und Aufbereitung von statistisch ermittelten Daten.
In dieser Arbeit wurde der DICOM Standard verwendet, um eine Kommunikationsstruktur, zwischen Software- und Hardwarekomponenten zu schaffen. Als Kommunikationspartner wurde ein PACS Server verwendet, zu dem sowohl eine Verbindung aufgebaut, als auch die gehaltenen Daten aus der Datenbank dieses Servers gelesen werden musste. Dabei musste sich an die Konformitäten von DICOM gehalten werden, um somit eine Wiederverwendbarkeit der Arbeitsergebnisse zu sichern.
Konzeption und Realisierung eines Expertensystems mit Unterstützung von generierten Formularen
(2015)
Ein Formular ist ein standardisiertes Mittel zur Erfassung von Daten, das entweder in Papier- oder elektronischer Form (z. B. Web-Formular) vorliegt. In der Regel geben Formulare kurze Textfelder (zum Beispiel "Nachname", "Vorname", "Adresse") und Einfach- (zum Beispiel "verheiratet: ja / nein") oder Mehrfachauswahlfelder vor. Formulare vereinfachen die Erhebung von Daten, sorgen für Vollständigkeit und schützen vor auffälligen Mehrdeutigkeiten, die bei freier Wortwahl oder z. B. einem formlosen Antrag auftreten können. Deshalb werden Formulare häufig von Unternehmen verwendet, um den Erfassungsvorgang zu externalisieren und rechtlich präziser zu machen. Formulare finden sich auch in HTML, Microsoft© Word- oder PDF-Dateien oder in Programmiersprachen. Aufgrund der kontinuierlichen Etablierung der elektronischen Signatur lösen immer mehr elektronische Formulare ihre gedruckten Versionen ab. Der Vorteil liegt insbesondere darin, dass Prozesse/Verwaltungsgänge komplett webbasiert abgewickelt werden können. Ferner können die Daten effizient in Fachverfahren übernommen werden, wodurch sich Kostenreduzierungen und Bearbeitungsbeschleunigungen erzielen lassen.
Die Konzeptstudie befasst sich mit der Evaluierung unterschiedlicher Konzepte von Avalanche Photodioden in einer 0,18 µm CMOS- Hochvolttechnologie. Die Anforderungen für die Avalanche Photodioden liegen bei einer Durchbruchspannung von 14 V in Sperrrichtung und haben eine maximale Quanteneffizienz von 850 nm/940 nm im nahen infraroten Bereich. In Betracht wurden fünf verschiedene Strukturen gezogen. Anhand von TCAD-Simulationen ließen sich unterschiedlichen Parameter der APDs untersuchen und Prozesseinflüsse definieren. Ein Abgleich der Simulationsmodelle erfolgt über die Messung mit einer Referenzdiode. Mit dieser Vergleichsmessung lässt sich die Gültigkeit der Simulation bestätigen oder widerlegen. Nur so können die Ergebnisse der APDs eingeordnet werden.
Lösungsansätze der automatisierten Auswertung mikrobiologischer Befunde in der Krankenhaushygiene
(2015)
Die vorliegende Arbeit befasst sich mit der Recherche, der Anforderungsanalyse und der Anwendbarkeit auf InterSystems Technologien für eine Software, die die Inhalte von den in der Krankenhaushygiene genutzten mikrobiologischen Befunden automatisiert auswerten kann. Ziel der Arbeit ist es, eine Grundlage für die Entwicklung einer prototypischen Software zu schaffen.
Der Halbleiterhersteller X-FAB bietet eine Reihe von Technologien (z.B. XH018) in denen CMOS-Photodioden hergestellt werden. Am Ende der Prozessierung werden die Halbleiterbauelemente auf Waferebene geprüft. Bislang konnten nur rein elektrische Parameter wie Kapazitäten oder Durchbruchsspannungen im Prozess Monitoring geprüft werden. Für optoelektronische Parameter, wie beispielsweise die Sensitivität von Photodioden, wird eine flexible Beleuchtung benötigt, die in das bestehende Testsystem integriert werden kann. Die homogene Beleuchtung soll dabei mit verschiedenen Wellenlängen erfolgen, welche das relevante Spektrum repräsentieren. Hauptziel ist die reproduzierbare Messung von Photoströmen, wodurch Prozessunterschiede in dielektrischen Schichten detektiert werden können, die mit rein elektrischen Messung nicht erfasst werden. Bei dem vorgestellten Konzept wird neben der Photodiode auch der umliegende Siliziumwafer beleuchtet. Dadurch entstehen laterale Ladungsträger, welche den Photostrom beeinflussen können. Zur Abschätzung dieses Einflusses wurden Teststrukturen entwickelt und ausgewertet.
Gegenstand der Arbeit ist es, die Möglichkeit des Einsatzes von Lasertechnik zum Tempern von Metallisierungen zur Ablösung des konventionellen Ofenprozesses zu untersuchen. Dazu wird die Rückseitenstruktur einer Siliziumsolarzelle, bestehend aus Aluminiumpaste, mittels Laser gesintert. Die Möglichkeit der Erzeugung einer Leiterbahn sowie eines Metall-Halbleiter-Kontaktes zwischen einer Metallpaste und Silizium konnte dabei erfolgreich nachgewiesen und parametrisiert werden. Zur Parametrisierung des Lasersinterprozesses wurde eine charakteristische Formel entwickelt, welche die für den Anwender notwendigen Parameter für das Erreichen definierter Widerstände liefert. Dabei konnte ein minimaler Leiterbahnwiderstand von ca. 11,5 mOhm, bei einer 1000 µm breiten und 200 µm hohen Bahn erzeugt und ein ohmsches Kontaktverhalten der Leiterbahn zum Silizium erreicht werden. Der minimal erreichte Kontaktwiederstand beträgt dabei 24Ohm. Zusätzlich wurde der strukturierte Auftragsprozess der Aluminiumpaste mittels einer Mikrodosiereinheit parametrisiert. Dabei konnten erfolgreich Bahnbreiten zwischen 700
In der vorliegenden Arbeit wird die Wirksamkeit eines Ausheiz- und Belüftungsverfahrens zur Sanierung eines ausgewählten VOC-Schadensfalls überprüft. Es handelt es sich in diesem Fall um lösemittelbelastete Mauerwerksbereiche in Büroräumen eines historischen Sockelgeschosses. Durch die technisch unterstützte Einstellung emissionsbeschleunigender Parameter, wie der Erhöhung der Bauteiltemperatur und des Luftwechsels, soll die Schadstoffquelle vollständig abgebaut, oder zumindest deutlich verringert werden. Die Anwendung solcher Verfahren erfolgt bei VOC-Sanierungsmaßnahmen bislang nur sehr vereinzelt. Üblicherweise wird auf konventionelle Verfahren, wie z.B. Beschichtungssysteme zur Quellenverkapselung zurückgegriffen. Der Vorteil von Ausheiz- und Belüftungsverfahren wird in der zerstörungsfreien und nachhaltigen Beseitigung der Schadstoffquelle gesehen. Detaillierte Informationen und Messdaten über Möglichkeiten und Grenzen emissionssteigernder Maßnahmen an reellen VOC-Schadensfällen liegen jedoch kaum vor. Diese sind exemplarisch anhand des ausgewählten Schadensfalls erhoben worden. Neben der Darstellung der technischen Umsetzung und der messtechnischen Überwachung des Verfahrens, werden in der Arbeit auch die Ergebnisse bisheriger Sanierungsversuche im Objekt präsentiert, sowie Vor- und Nachteile der jeweiligen Verfahren diskutiert.
Die vorliegende Arbeit umfasst die Übertragung eines patentierten Rolle"=zu"=Rolle"=Plasmaätzverfahrens auf das Polymer PMMA, sowie die Charakterisierung der modifizierten Folien. Der Plasmaätzprozess basiert auf einem Sauerstoffplasma mit einem Doppelmagnetronsystem als Plasmaquelle und wird zur Erzeugung von Nanostrukturen genutzt. Als Targetmaterialien für das Doppelmagnetronsystem werden Magnesium, Aluminium und Titan genutzt. Durch die erzeugten Nanostrukturen wird ein Gradientenverlauf der Brechzahl zwischen Folie und Umgebung erzeugt, wodurch eine breitbandige optische Entspiegelung erreicht wird. Durch die Verbesserung der optischen Eigenschaften der PMMA-Folie soll ein weiteres Material für die Frontseitenverkapselung von optischen Bauelementen untersucht werden. Zunächst werden die mechanischen und optischen Eigenschaften der PMMA-Folie charakterisiert. Die Ergebnisse zeigen, dass PMMA schon eine hohe Transparenz besitzt. Durch die erfolgreiche Übertragung des Prozesses konnte die optische Transmission um 2 % - 3 % für die untersuchten Targetmaterialien erhöht werden. Für die Titantargets ergaben sich die besten optischen Eigenschaften. Die Ergebnisse, sowie REM-Untersuchungen der Nanostrukturen werden vorgestellt. Um den Prozess zu optimieren wurde der Einfluss der Prozessparameter Geschwindigkeit, Leistung und Sauerstofffluss auf die Transmission untersucht. Die ermittelten Zusammenhänge werden gezeigt und diskutiert. Für eine beidseitig behandelte Folie ergab sich eine Restreflexion von unter 1 % pro Seite. Des Weiteren wurden Versuche mit einer Initialschicht durchgeführt, da sich diese auf anderen Polymeren als vorteilhaft erwiesen hat.
G-Protein-gekoppelte Rezeptoren (GPCRs) bilden eine Gruppe von Membranproteinen mit sehr dynamischer Eigenschaft, die für die Aufrechterhaltung der zellulären Homöostase auf-grund ihrer vielfältigen Wirkungsweise im menschlichen Körper unerlässlich ist. So ist es wichtig, nicht nur den strukturellen Aufbau dieser Rezeptoren zu kennen, sondern auch ihre dynamischen Eigenschaften zu verstehen. In den letzten Jahren wurden viele Kristallstruktu-ren von GPCRs bekannt, die aber lediglich eine Momentaufnahme darstellen. Daher ist das Ziel dieser Arbeit, mit dem Neuropeptid Y-Rezeptor Typ 2, ein besseres Verständnis über die molekulare Beweglichkeit innerhalb seiner Umgebung zu erlangen. Dies soll als Grundlage dienen, um künftig die Wechselwirkung mit einem Agonisten besser beurteilen zu können. Der Y2-Rezeptor spielt bei neuronalen Funktionen, wie z.B. Ängsten und Suchterkrankungen, eine wichtige Rolle. Für die Untersuchung der Dynamik des Rezeptors wurde dieser in verschiedene Modell-membranen, bestehend aus einfach-ungesättigten Phospholipiden, rekonstituiert und an-schließend mittels Festkörper-NMR-Spektroskopie untersucht. Da die Lipidumgebung einen großen Einfluss auf die Struktur und Dynamik der Rezeptoren ausübt, wurde zusätzlich der Einfluss von Cholesterol, Phosphatidylethanolamin oder negativ geladenen Phosphatidylserin als Bestandteile der Modellmembran auf den Y2-Rezeptor untersucht. Zudem wurde durch selektive Unterdrückung von Signalen durch paramagnetische Manganionen und Spin-markierten Lipiden die Dynamik einzelner Bereiche näher untersucht (sog. quenching). Zur Quantifizierung der Dynamik wurde das Verhältnis von bewegungsgemittelter und vol-ler dipolarer Kopplung für den H-C Bindungsvektor als Ordnungsparameter dargestellt. Dieser reicht von 0 (isotrop beweglich) bis 1 (starr). Statische 15N-NMR-Spektren und quantitative 1H-13C Ordnungsparameter Bestimmungen, durch 1H-13C dipolare Kopplungsmessungen der CH-, CH2-, und CH3-Gruppen, offenbarten für den gesamten Rezeptor axial-symmetrische Bewegungen in der Membran und molekulare Fluktuationen mit verschiedensten Amplituden aller Segmente. Ordnungsparameter (SRückgrat = 0,65 ± 0,04, SGly = 0,56 ± 0,04, SCH2 = 0,26 ± 0,02 - 0,40 ± 0,03, SCH3 = 0,20 ± 0,02) aus den direkt polarisierten 13C-MAS-NMR-Experimenten zeigten, dass der Rezeptor in den Membranen höchst beweglich ist und im Mittel die Bewegungsamplituden des Rückgrats bei ~40°-50° und für die Seitenketten bei ~60°-70° liegen. Interessanterweise zeigt der Neuropeptid Y-Rezeptor Typ 2 eine geringfügig höhere Rigi-dität in der einfach-ungesättigten Phospholipidmembran, im Gegensatz zur gesättigten Membran. Das könnte mit der gesteigerten Kettenlänge der einfach-ungesättigten Lipide und der damit einhergehenden Streckung des α-helikalen Anteils des Rezeptors zusammenhän-gen. Die unterschiedliche Lipidkomponenten in den Modellmembranen zeigten hingegen keinen signifikanten Einfluss auf den Y2-Rezeptor. Es konnte zudem gezeigt werden, dass durch gezieltes Quenching der Loops und Termini des Rezeptors der transmembrane helikale Anteil eine höhere Rigidität besitzt (SRückgrat = 0,70 ± 0,05, SGly = 0,65 ± 0,04, SCH2 = 0, 28 ± 0,02 - 0,40 ± 0,03, SCH3 = 0,21 ± 0,02). Die Unterdrückung der Signale des transmembranen Bereiches offenbarten einen tendenziellen Anstieg der Ordnungsparameter um ≤ 7% für die Segmente des Rückgrates. Das könnte an einer zu geringen Konzentration der Spin-markierten POPC-Lipide liegen, wodurch es lediglich zu einer Unterdrück der mobilen Sei-tenketten der α-Helices kommt.
HTML5 und mobile Geräte wie Smartphones und Tablets sind zwei Bereiche, welche in den vergangenen Jahren eine deutliche Weiterentwicklung erfahren haben. Browserentwickler stellen ihre Software auch für mobile Betriebbsysteme zur Verfügung und dank der wachsenden Möglichkeiten aktueller Webtechnologie wird es zusehens attraktiver, Software nach dem Motto "Write once, run anywhere" auf Webbasis zu entwickeln und damit viele Hard- und Softwareplattformen zu erreichen. Die Andersartigkeit mobilen Geräte verglichen mit PCs, gekennzeichnet beispielsweise durch Hardwareausstattung und -leistung, Bildschirmgröße und Touchbedienung, erzeugt jedoch neue Problemfelder. Diese Arbeit beschäftig sich exemplarisch anhand des HTML5-Spiels "Letti ABC" mit dem Aspekt der vergleichweise geringen Hardwareleistung und damit verbundenen Performance-einschränkung. Es werden Analysemethoden für Webanwendungen vorgestellt und Lösungen unter anderem für die Bereiche Renderperformance, Audio und Speichernutzung aufgezeigt. Im Ergebnis dieser Arbeit ist das Spiel sowohl auf PCs als auch auf mobilen Geräten gleichermaßen spielbar.
Im Laufe dieser Masterthesis sollen die Grundlagen für die Entwicklung eines Prototypen für eine Sprachsteuerung im Rahmen der Gebäudeautomatisierung ViciOne erarbeitet werden. Es wird gezeigt, wie sich die Prinzipien der Sprachsteuerung auf den Bereich des Smart Homes übertragen lassen und wo sie heute schon zum Einsatz kommen. Dabei werden alle theoretischen Grundlagen wie die Bedeutung der Sprache als primäres Kommunikationsmittel, so wie die Funktionsweise von Spracherkennung und -synthese ausführlich erläutert. Als Grundlage für das Projekt dient Microsofts Sprachassistent Cortana. Aus diesem Grund werden die zugrundeliegenden Technologien wie die UAP und Windows 10, welche für den Einsatz von Cortana benötigt werden, näher beschrieben. Da diese zum Zeitpunkt der Anfertigung der Arbeit nur als Vorabversion für Entwickler zur Verfügung standen, erfolgt eine weitreichende Analyse dieser Technologien. Die Untersuchung dieser Plattformen soll gleichzeitig auch als Grundlage für spätere Entwicklungen auf dieser Basis dienen. Außerdem werden die Versionen von Windows 10 IoT beschrieben und es wird auf deren Bedeutung für dieses und künftige Projekte eingegangen. Im praktischen Teil wird beschrieben, wie auf Basis der UAP und der neuen Windows 10 Plattform ein Prototyp einer Sprachverarbeitung umgesetzt wurde, der über einen selbst erstellten Treiber samt zugehörigem Funktionsblock von der ViciOne Engine verarbeitet werden kann. Das Ergebnis dieser Arbeit ist eine theoretisch fundierte Machbarkeitsstudie, die zeigt, wie eine Sprachsteuerung mit den neusten technischen Möglichkeiten umgesetzt werden kann, um den Nutzern eine einfache und benutzerfreundliche Schnittstelle für ihr Smart Home bieten zu können.
Kernthema dieser Bachelor Thesis ist die Erarbeitung eines grundlegenden Ablaufplans zur Qualifikation und Freigabe eines neuen Lötstopplacks und dessen beispielhafte Durchführung anhand einer neuen weißen Lötstoppmaske. Diesbezüglich werden wissenschaftliche Hintergründe zu den gewählten Testmethoden erläutert und die durchgeführten Versuche sowie die verwendeten Anlagen, Geräte und Parameter präsentiert. Unter Bewertung der Eignung der genutzten Prüfverfahren und Berücksichtigung der gestellten Anforderungen an eine Stopplackschicht erfolgt eine rationale Auswertung und Diskussion der gewonnenen Versuchsergebnisse und Erkenntnisse.
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung des selektiven Laserdotierens von Siliziumoberflächen mit Phosphorsäure mittels der LCP-Technologie. Mit der selektiven Hochdotierung soll der Kontaktwiderstand unter den metallischen Kontakten bei Metall-Halbleiter-Übergängen reduziert werden. Dadurch soll der Wirkungsgrad bei Siliziumsolarzellen gesteigert werden. Die Arbeit beschäftigt sich mit den Grundlagen der Eigenschaften von Halbleitern und des Laser-Chemischen Prozessierens. Um die Ergebnisse der Versuche messtechnisch bewerten zu können, wird die Raman-Spektroskopie, die Längen Transfer Methode (TLM) und die 4 Spitzen Messung (4PP) verwendet. Die Arbeit beschäftigt sich auch mit den Grundlagen dieser Messmethoden. Für die Grunduntersuchungen wurden Versuche an monokristallinen Wafern durchgeführt. Für eine spätere industrielle Fertigung von Solarzellen wurden Versuche an polykristallinen Wafern durchgeführt. Für die Versuche werden zwei Arten von Phosphorsäure verwendet, zum einen industriereine Phosphorsäure und zum anderen hochreine Phosphorsäure. In der Vorbereitung werden die Probengeometrien und ihre Anpassung für die Messmethode erklärt. Ausgehend von der Einarbeitung in die Anlage wurde ein Plan für die Versuche festgelegt. Bei den Versuchen wurden die Prozessparameter hinsichtlich deren Einfluss auf die Konzentration der Dotierung untersucht und optimiert. Dabei ergab sich für den Flüssigkeitsdruck, dass dieser keinen großen Einfluss auf Prozess hat. Die maximale Bearbeitungsgeschwindigkeit in den Versuchen lag bei 200 mm/s. Bei der Reduzierung der Säurekonzentration zeigte sich, dass das Maximum für die Konzentration der Dotierung zu geringeren Pulsenergien verschoben wird. Bei den Versuchen wurden die Laserparameter bestimmt bei denen eine maximale Dotierung von 10^19 cm^-3 erzeugt werden konnte. Die Pulsfrequenz hatte bei der untersuchten Bearbeitungsgeschwindigkeit von 200 mm/s dabei keine Auswirkung auf den Dotierprozess. Der Kontaktwiderstand wurde mit der Längen Transfer Methode bei monokristallinen und polykristallinen Wafern untersucht. Bei monokristallinen Wafern wurde ein Kontaktwiderstand erreicht, die unter der Nachweisgrenze der TLM lag. Mit den Versuchen konnten die Parameter für das selektive Laserdotieren für eine Säurekonzentration von 15 % und eine Bearbeitungsgeschwindigkeit von 200 mm/s optimiert werden. Für die industrielle Fertigung von Solarzellen müssen jedoch noch Untersuchungen bei höherer Bearbeitungsgeschwindigkeit durchgeführt werden, um die geforderten Taktzeiten unter einer Sekunde zu realisieren.
Die Doppelseitenpolitur (DSP) ist ein wichtiger Bearbeitungsschritt bei der Herstellung von Siliziumwafern, welcher zur Planarisierung der Waferoberfläche und Entfernung der Restdefekte der vorhergehenden Schritte benutzt wird. Im Rahmen dieser Arbeit wurden die Ursachen für die während der DSP-Politur auftretenden Geräusche im Bereich von ca. 850 Hz untersucht, die auf den Stick-Slip- (Haft-Gleit-) Effekt zurückzuführen sind. Die Geräusche wurden aufgenommen und mittels FFT-Analyse charakterisiert. Für den Wafer wurde ein FEM-Modell erstellt, mit dessen Hilfe eine Eigenfrequenzanalyse durchgeführt worden ist. Es wurde nachgewiesen, dass die Frequenz der untersuchten Geräusche der Eigenfrequenz des Wafers entspricht. Des Weiteren wurde festgestellt, dass die Poliermittelfilmdicke hauptsächlich für das Auftreten des Stick-Slips und damit für die Anregung des Wafers maßgebend ist. Abschließend wird ein Modell zur Entstehung des Stick-Slip Effektes bei DSP erstellt und beschrieben.
Die vorliegende Arbeit beschäftigt sich intensiv den Einfluss des Legierungselementes Chrom und der Wärmebehandlung auf die Eigenschaften von Mn-Ga Magnetmaterialien, speziell der Legierung Mn2.48Cr0.12Ga. Die magnetischen Messungen wurden durch Struktur und Gefügeuntersuchungen ergänzt. Die Herstellung der Proben erfolgte in einem Lichtbogenschmelzofen. Die entstandenen polykristallinen Proben wurden für 14 Tage in einem Labormuffelofen getempert. Für die Versuche zur Optimierung magnetischer Eigenschaften wurden verschiedene Temperaturen gewählt. Strukturuntersuchungen mittels Pulver-XRD zeigten kaum Unterschiede, was der schwierigen Präparation von Pulvern geschuldet ist. Die in der Arbeit erprobte XRD an dünnen, geschliffenen und polierten Plättchen ergab drastisch verbesserte Röntgenbeugungs-Diagramme.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die Arbeit befasst sich mit einer technische Reorganisation des Bewerber-Management-Systems. Dabei sind neue Anforderungen entstanden, die bei der Reorganisation berücksichtigt werden sollten. Zunächst werden die verwendeten Webtechnologien näher erläutert. Anschließend erfolgt die technische Umsetzung. Die Arbeit wird durch eine Testphase und dem Aufzeigen zukünftiger Erweiterungsmöglichkeiten beendet.
In diesem Bachelorarbeit wurde von der Analyse des Nachrichteneditors über den Standard hin alles ermittelt um nach einem umfangreichen Konzept einen neuen Teil im Nachrichteneditor zu implementieren. Diese Arbeit ist mit umfassenden Quellenangabe und Datein aller Arten bezüglich des Optik und Konzepte auf beiligenden CD versehen
Die vorliegende Masterarbeit beschäftigt sich mit dem Verfahren der thermischen Hochrateverdampfung zur Abscheidung von aluminiumbasierten Schichten auf Kleinteilen, die als Schüttgut behandelt werden. Realisiert wird dies mit der am Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik (FEP) entwickelten Versuchsanlage ALMA 1000. Die Anlage vereint zwei physikalische Dampfabscheidungs-prozesse (engl.: physical vapor deposition
Die stetig fortschreitende Miniaturisierung in der Herstellung elektronischer Schaltkreise führt zu immer geringeren Leitungsquerschnitten. Daraus folgt ein Anstieg der Stromdichte, welcher ein erhöhtes Ausfallrisiko des Schaltkreises durch Elektromigration zur Folge hat. Hierbei findet eine diffusionsgetriebene Umlagerung von Kupferatomen statt, wodurch Unterbrechungen der Leiterbahnen oder Kurzschlüsse zwischen benachbarten Leiterzügen entstehen können. Elektromigration kann durch die Abscheidung von Adhäsionsschichten effektiv verringert werden. Hierfür werden auch mittels MOCVD abgeschiedene Kobaltschichten in Betracht gezogen. Ziel dieser Arbeit war es, auf Basis der theoretisch zu erwartenden Einflüsse der ver-schiedenen Prozessparameter einen Versuchsplan zu erstellen und den MOCVD-Prozess zur Herstellung von Kobaltdeckschichten für die Kupfermetallisierung systematisch zu untersuchen. Um Kurzschlüsse zwischen benachbarten Leiterbahnen zu verhindern, musste ein materialselektiver Abscheidungsprozess entwickelt werden. Die Einflüsse der Prozess-parameter auf die Abscheidung wurden untersucht und Auswirkungen auf das Wachstumsverhalten und die Eigenschaften der Kobaltschichten diskutiert. Die Schicht-charakterisierung belegte, dass es gelungen war einen materialselektiven Abscheidungs-prozess zu entwickeln. Es konnte ein Beschichtungsprozess etabliert werden, welcher es ermöglicht Kobalt bevorzugt auf den Kupferleiterbahnen und nicht auf den umliegenden isolierenden Gebieten abzuscheiden. Für ein reproduzierbares Beschichtungsergebnis ist ein in-situ Vorbehandlungsprozess erforderlich. Sowohl für die Entfernung oberflächlicher Adsorbate als auch für die Reduktion von gebundenem Sauerstoff konnte ein effektives Vorgehen entwickelt werden.
Die Weltweite Nachfrage an Leistungshalbleiter ist in den vergangen Jahren rapide angestiegen. Um den stetig wachsenden Bedarf auf einem kostengünstigen Weg nachkommen zu können, wurde die Produktion der von Infineon Technologies produzierten Produkte (CoolMOSTM) von der 200 auf die 300 mm Waferproduktion transferiert. Die Herausforderungen für die Produktion dieser Technologie bleiben dennoch die gleichen. Besonders in der Lithographie stoßen die für die CMOS Technologie vorhandenen optischen Systeme an die Grenzen der Verwendungsmöglichkeiten. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von Einflussgrößen auf den Produktfokus, sowie auf die notwendige Dosis bei der Strukturierung von Silizium-Leistungshalbleitern, wobei alle Untersuchungen auf CoolMOSTM Produkten durchgeführt wurden. Nach einer Einleitung und Erläuterung der für diese Arbeit wichtigen Lithographischen Grundlagen, wird auf die Durchgeführten Experimente eingegangen und die resultierenden Erkenntnisse dargelegt. Am Schluss werden die in dieser Arbeit gesammelten Ergebnisse zusammengetragen und weitere Schritte, sowie der Einfluss der derzeitig verwendeten Dosis diskutiert. Abschließend werden die Resultate in die aktuelle internationale Forschung eingeordnet und diskutiert.
Inhaltsverzeichnis 1. Einleitung/Motivation 2. Cyanobakterien 3. Sekundärmetaboliten und deren öko- und humantoxikologische Bedeutung 3.1. Stoffwechselprodukte der Cyanobakterien 3.2. Wirkung in der Umwelt 3.3. Analytische Methoden 4. Verfahrenskonzepte zur Beseitigung von Stoffwechselprodukten der Cyanobakterien in der Trinkwasseraufbereitung 4.1. Notwendigkeit der Abtrennung bzw. Umsetzung 4.2. Verfahrenskonzepte 4.2.1 Adsorption 4.2.2.Membranverfahren 4.2.3.Ultraschall 4.2.3 Chemische Umsetzung 4.2.4 AOP 4.2.1 Verfahrenskombinationen 4.3. Bewertung und Vergleich der Verfahrensvarianten 4.3.1. Risikoabschätzung in Bezug auf die Bildung toxischer Zwischenprodukte und Abfallstoffe 4.3.2. Abschätzung notwendiger Investitions- und Betriebskosten 4.4. Studien und großtechnisch realisierte Projekte zur Beseitigung von organischen Spurenstoffen in Wässern 4.4.1. Geosmin und MIB 4.4.2. Behandlungskonzepte für weitere organische Spurenstoffe in Rohwässern 5. Zusammenfassung
Diese Bachelorarbeit behandelt das Thema Vergleich statischer Website Generatoren. Am Beispiel von Hugo, Octopress und Ghost wird beschreiben wie eine statische Webseite erzeugt und verwaltet werden kann. Vor dem Hintergrund, das bekannte CMS wie Wordpress viel zu komplex für kleine Seiten sind, wurde nach Lösungwegen gesucht Webseiten auch ohne CMS zu erstellen. Ziel war es eine Empfehlung für geben, Vor- und Nachteile deutlich zu machen.
In dieser Arbeit werden webbasierte Alternativen zur nativen App untersucht. Dazu zählen Web-Apps und hybride Apps. Diese portablen Mobile-Apps werden anhand von verschiedenen Bewertungskriterien, über eine jeweils eigen entwickelte App, getestet, verglichen, ausgewertet und diskutiert. Zu den Bewertungskriterien zählen verschiedene Hardwarezugriffe und eine möglichst gute Realisierung eines nativ-ähnlichen Design.
Raritan Deutschland GmbH entwickelt und produziert Stromversorgungsgeraete, die kontinuierlich den Strom- und Energieverbrauch von Servern und anderen IT-Geraeten messen und Umgebungsparameter ueberwachen. Mithilfe von Sensoren wird unter anderem die Umgebungstemperatur, Luftfeuchtigkeit, sowie der Luftdruck innerhalb eines Serverraums ueberwacht und die Messwerte kontinuierlich abgespeichert. Die Datenerfassungsperiode liegt im Bereich von wenigen Sekunden bis Minuten, sodass fuer kleine Rechenzentren mit der Zeit große Datenmengen angesammelt werden, welche fuer nachtraegliche Auswertungen gespeichert werden muessen. Das Ziel dieser Masterarbeit ist es verschiedene effiziente Ansaetze fuer das Sammeln und das Speichern der Sensordaten von Raritan Deutschland GmbH zu untersuchen, zu vergleichen und eine prototypische Implementierung zu realisieren. Dabei sollen folgende Technologien analysiert werden: SQL-RDBMS, SQL-RDBMS mit Zeitreihenfunktion und NoSQL-Datenbanken. Zur Leistungsbestimmung der verschiedenen Technologien sollen Testreihen durchgefuehrt und ausgewertet werden. Fuer die verschiedenen Datenbanktechnologien soll die Abfrageperformance, der Speicherbedarf und die Geschwindigkeit beim Einfuegen der Daten untersucht werden. Folgende Optimierungen / Speichermodelle werden analysiert bzw. auf den Anwendungsfall der Raritan GmbH uebertragen: ein Rollup Mechanismus (von Raritan GmbH), die Verteilungskonzepte Partitionierung und Sharding, verwenden von Indizes sowie das Speichern der Sensordaten in einem denormalisierten Schema (Arrays), Row-Store, Column-Store, Dokumentenorientiert, Key/Value, Wide Column-Sore und In-Memory DB.
Die Bachelorarbeit befasst sich mit der Entwicklung der Visualisierungskomponente von anwendungsbezogenen Standorte und Route für Fuhrparkmanagement Software - comm.fleet von Community4you AG. Bei der Arbeit mit den geographischen Daten werden verschiedene APIs von Google und OpensStreetMap verwendet. Für die Entwicklung der Anwendung wurden folgende Technologien, wie Bootstrap JS Framework, Javascript Prototyping verwendet.Im Rahmen dieser Bachelorarbeit soll analysiert werden, die Verwendung von Kartendiensten von Google Maps und Openstreetmap - Projekt für die Visualisierung von Standorte und Route in comm.fleet. Zudem soll es eine prototypische clientseitige Anwendung entstehen, die in der Zukunft als internes Tool in comm.fleet integriert werden kann. Dadurch erlaubt die neue prototypische Visualisierungskomponente mittels eines Kartenmaterials die Darstellung von Standorte des Objektes und Route anhand der geographischen Koordinaten.
Im modernen Gesundheitswesen ist für die Patientenversorgung heute eine einrichtungsübergreifende Kooperation und Datenaustausch notwendig, damit kein Missverständnis entstehe und Tests, Verfahren der Diagnosen, Behandlungen, Dokumentationen usw. nicht unnötig wiederholt werden. HL7 ist ein internationaler Standard für den Austausch und die Integration der medizinischen, administrativen und finanziellen Daten zwischen Informationssystemen im Gesundheitswesen, welcher zurzeit über 50 Ländern benutzt wird. Ziel dieser Bachelorarbeit war die Weiterentwicklung der im ehealth-Labor der Westsächsischen Hochschule vorhandenen Software (Nachrichteneditor), welches grundsätzlich zum Verständnis für Nachrichtenstandards beim Datenaustausch im Gesundheitswesen dienen soll. Zunächst sind dafür die Strukturen der HL7-Nachrichten analysiert worden. Anschließend ist eine Konzeption entstanden, welche zur Implementierung der Erstellung sowie Einlesen und Interpretierung der verschiedene HL7 Version 2.x Nachrichten- und Entitätstypen dient. In diesem Bericht sind die Analyse (wie oben), Konzeption, Implementierung des Nachrichteneditors sowie Weiterentwicklungsmöglichkeiten und Ausblicke erklärt worden.