Refine
Year of publication
- 2015 (93) (remove)
Document Type
- Bachelor Thesis (54)
- Master's Thesis (32)
- Diploma Thesis (7)
Institute
- Physikalische Technik, Informatik (93) (remove)
Is part of the Bibliography
- no (93)
Die Reinhaltung der Luft ist für die menschliche Gesundheit und im Rahmen des Umweltschutzes unentbehrlich. Im Zuge der Industrialisierung kam es in der Vergangenheit zum Teil zu erheblichen Beeinträchtigungen der Luftqualität. Trotz umwelttechnisch deutlich verbesserter Produktionsabläufe werden auch weiterhin bestimmte Stoffe emittiert. Für die Entwicklung eines neuartigen und nachhaltigen Verfahrens zur Abluftreinigung hat der Forschungsverbund HUPAC im gleichnamigen Projekt die Abluftreinigung VOC- bzw. ammoniakbelasteter Abluft thematisiert. Diese beiden Substanzen sind von besonderer Relevanz für die Beeinträchtigung der Umwelt bzw. der Luftqualität. Für ihre Abreinigung aus der Abluft von Produktionsprozessen wurde im Projekt eine neuartige Technologie entwickelt, die aus einer Kombination adsorptiver und mikrobieller Prozesse auf der Basis huminsandhaltiger, zellulosebasierter Pellets verläuft. Bei den als reaktive Komponente eingesetzten Huminsanden handelt es sich um natürliche Substrate, welche aus Tagebauen des Lausitzer und Mitteldeutschen Braunkohle-Reviers kostengünstig gewonnen werden können, die über interessante physiko-chemische Eigenschaften verfügen und die damit generell für eine innovative Alternative als Substrat für Abreinigungsprozesse genutzt werden können. Die Eignung der aus den Sanden hergestellten Pellets für die Abluftreinigung wurde im Rahmen des HUPAC-Projekts laborativ sowie praktisch getestet und ausgewertet. Wie erwartet, können die Huminsand-Pellets die Schadstoffe (VOC bzw. Ammoniak) zunächst adsorptiv binden. Die fixierten Schadstoffe werden dann anschließend durch eine sich etablierende Mikroorganismenpopulation abgebaut. Im technologisch angelegten Projekt wurden Eignung der Substrate und Erfolg der Reinigungsleistung mit der Gegenüberstellung von input und output bewertet, wobei die Huminstoffe als
Sichere Authentifizierung spielt in Zeiten der stetig wachsenden Vernetzung und Mobilität von Anwendungen eine immer größer werdende Rolle. Es gibt eine Vielzahl verschiedener Authentifizierungsmethoden mit unterschieldichen Sicherheitsniveaus. Abgeleitete Identitäten können verschiedene Authentifizierungsmethoden miteinander verbinden und haben das Potential, mögliche Herausforderungen zu lösen. Zu diesen Herausforderugen gehören unter anderem die Fragen der Usability. Im Rahmen der Arbeit soll ein prototypisches Konzept entwickelt werden, welches sich auf die Ableitung der elektronischen Identität aus dem neuen Personalausweis, fokusiert. Auf Basis des Konzepts erfolgt das proof-of-concept in Form einer Smartphoneapp für Android.
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
In der Welt der 3D-Engines gewinnt die Großbildprojektion immer höherer Auflösungen zunehmend an Bedeutung. Ins Besondere im Simulations- und Entertainmentbreich werden die Anforderungen vor allem an die Projektion immer vielseitiger. In der vorliegenden Arbeit soll es nun darum gehen, eine in der 3D-Render-Engine Unity erzeugte 3D-Szene auf eine vertikal zylindrisch gekrümmte Projektionsfläche zu ermöglichen. Dabei handelt es sich um den Fahrsimulator der Fakultät Kraftfahrzeugtechnik der Westsächsischen Hochschule Zwickau. Für jenen Anwendungsfall muss dies ohne Verzerrungen vor allem im Randbereich der Darstellung geschehen, um so eine realistische und realitätsgetreue Darstellung der Umwelt zu ermöglichen. Als Ziel soll eine bessere Geschwindigkeitswahrnehmung, sowie eine geringe "Motion-Sickness" auftreten.
Einleitung Das Lehren und Lernen im Digitalen Zeitalter ist geprägt von Felxbilität und Ereichbarkeit zu jeder Zeit. Nutzer von Lernplattformen (LMS) möchten zu vermittelnde Inhalte einfach und schnell von jedem Ort aus erreichen. Teamfähikeit spielt ebenso eine Rolle, wie selbständiges Erwerben von neuem Wissen und die Fertigkeit es anzuwenden. Diese Ziele sollen möglichst zu annehmbaren Bedingungen ermöglicht werden. Deshalb greifen Ausbildungseinrichtungen und auch Unternehmen zur Unterstüzung auf solche Lernmanagementsysteme (LMS) zurück. In dieser Arbeit wird das Content Management eines LMS untersucht. Herzu ist zunächst in einer Diskusion zu ermitteln, welche Anforderungen für die Inhaltliche Bearbeitung, das Bedienverhalten der Software und dessen Administration erforderlich sind. Als Diskusionsgrundlage dient ein zu schaffender Überblick über mögliche LMS. Dieser wird anhand einer Webrecherge erzeugt, der einige Bedingungen erfüllen muss. Ein sich daraus ergebender Favourite, ist im Bereich Content Management zu untersuchen. Für diese Analyse dienen die nun nach der Diskusion ermittelten Anforderungen an das System.
Analyse und Optimierung der Kommunikation zwischen den Komponenten des Fahrsimulators an der WHZ
(2015)
Mit verteilten Systemen können die Ressourcen mehrerer Rechnersysteme gebündelt und komplexe Berechnungen gegenüber einem einzelnen Rechnersystem schneller ausgeführt werden. Solch ein System wird auch für den Fahrsimulator am Institut für Energie und Verkehr an der Westsächsischen Hochschule Zwickau eingesetzt. Die aufwendigen Berechnungen sind dabei das Rendering der Szenen für die Leinwände und das Verhalten des Fahrzeugs in der virtuellen Welt, nach den Gesetzen der Physik. Diese sollen dabei möglichst schnell berechnet werden, denn Lenkbewegungen und andere Eingaben sollten natürlich so schnell es geht auch auf den Leinwänden als solche zu erkennen sein, damit ein realistisch wirkende Simulation entsteht. Neben schnellen Berechnungen ist dazu auch eine schnelle Kommunikation zwischen allen beteiligten Software- und Hardware-Komponenten notwendig. Diese Bachelorarbeit untersucht den Fahrsimulator am Institut für Energie und Verkehr hinsichtlich der Kommunikationsvorgänge. Dabei werden die Gesamtarchitektur vorgestellt, die verwendeten Technologien diskutiert, Schwachstellen im System erörtert und alternative Ansätze aufgezeigt. Es erfolgt dabei gleichzeitig eine Einordnung in den jeweiligen fachlichen Kontext. Die vorgestellten Möglichkeiten zur Optimierung legen dabei sowohl den Fokus auf Effizienz, als auch auf Effektivität. Es werden also Optimierungen vorgeschlagen, die mit kleinem Änderungsbedarf an der Gesamtarchitektur spürbare Performance-Steigerungen erzielen. Gleichermaßen werden auch solche Optimierungen diskutiert, die sogar noch bessere Ergebnisse erzielen würden, aber einen höheren Änderungsbedarf erforderlich machen.
Diese Arbeit soll einen Überblick über REST und dessen Anwendung auf eine Web-Schnittstelle geben. Im ersten Teil wird REST als Architekturstil beschrieben und die Prinzipien, welche REST allgemein zugrundeliegen. Dabei wird starker Bezug auf die Dissertation von Roy Fielding [Fie00] genommen, in welcher er die Ideen von REST entwickelt und beschreibt. Da sich REST nicht zwangsläufig auf HTTP bezieht, sondern ein allgemeines Architekturmuster darstellt, soll im folgenden Abschnitt die Implementation von REST mittels HTTP betrachtet werden. Aufgrund der hohen Verbreitung und Universalität von HTTP bildet dies meist die Grundlage von RESTful-Webschnittstellen. Weiterhin analysiert diese Arbeit eine vorhandene Schnittstelle auf die Einhaltung der REST-Prinzipien. Diese Analyse soll exemplarisch verdeutlichen, welche Anforderungen an eine REST-Schnittstelle bestehen. Als Prüfkriterium wird das Richardson-Maturity-Model vorgestellt und die Schnittstelle darin eingeordnet. Dabei wird erkennbar, in welchen Aspekten REST-Prinzipien beim Schnittstellenentwurf berücksichtigt bzw. verletzt wurden. Weitergehend wird untersucht, welche Veränderungen an dieser Schnittstelle vor- genommen werden können um den REST-Prinzipien zu entsprechen. Dabei wird analysiert, welche Vorteile diese Veränderungen in Hinsicht auf das Design der Schnittstelle haben.
Softwarearchitektur gilt als Königsdisziplin der Softwareentwicklung. Viele Aspekte sind für eine gute Architektur in Einklang zu bringen. Hierzu müssen neben Softwarequalitätskriterien wie Performance oder Wartbarkeit auch die Interessen aller Projektbeteiligten vom Kunden bis zum einzelnen Entwickler einbezogen werden. Je größer und komplexer ein Softwaresystem wird, desto herausfordernder ist auch die Entwicklung der Softwarearchitektur. Zudem entwickelt sich die Architektur aufgrund sich stetig ändernder Anforderung immer weiter. Bestehende Teile müssen umgestaltet und neue integriert werden. Es gilt die Komplexität zu beherrschen und den Überblick im Großen wie auch im Kleinen zu behalten. Von sich stetig ändernden Anforderungen ist auch das Softwaresystem HSCERP des Unternehmens HSC Solutions betroffen. Das ursprünglich für den Einsatz in Kleinstunternehmen ausgelegte System findet zunehmend mehr Interessenten mit einem immer größer werdenden Nutzerkreis. War die aktuelle Performance der Architektur unter Berücksichtigung der Anforderungen von Kleinst- und Kleinunternehmen angemessen, stößt sie in mittleren Unternehmen an ihre Grenzen. In der Softwaretechnik sind solche Probleme schon lange ein Thema. Sie wurden in zahlreichen Arbeiten behandelt und in Form von Standardarchitekturansätzen verarbeitet. Ziel dieser Arbeit ist die Untersuchung solcher Standardarchitekturen hinsichtlich ihrer Eignung zur Performancesteigerung von HSCERP. Zu den untersuchten Ansätzen zählen neben der weitverbreiteten Schichtenarchitektur und dem Ansatz des Domain Driven Designs auch das weniger bekannte Quasar, welches versucht eine Standardarchitektur speziell für ERP-Systeme zu beschreiben.
Applikationen im Java Enterprise Umfeld benötigen meist eine Funktionalität, mit welcher Daten vom Client, über mehrere Aufrufe hinweg, zugeordnet und verwaltet werden können. Meist wird diese Funktionalität von dem verwendeten Java-Framework abgedeckt. Diese Arbeit zeigt eine Alternative auf, welche den aktuellen Trend der Webentwicklung berücksichtigt. Dabei wird vor allem auf die Entwicklung des JavaScripts in den letzten Jahren eingegangen. Des Weiteren werden Anforderungen aufgestellt und Analysen verschiedener Technologien betrieben, welche zur Entwicklung einer Bibliothek benötigt werden. Dabei werden die möglichen Technologievarianten vorgestellt und erklärt, warum sich für eine bestimmte Technologie entschieden wurde. Hierbei wird auf Features eingegangen, welche im weiteren Verlauf der Arbeit noch praktische Anwendung finden. Das Ziel ist es, eine modulare Bibliothek zur Sessiondatenverwaltung zu konzipieren und deren Einsatz anhand eines Prototypen aufzuzeigen.
Mit Erlass der EU-Deponierichtlinie am 26. April 1999 wurde eine verbindliche Festlegung zur Planung, Errichtung, dem Betrieb, der Überwachung und der Stilllegung einer Deponie verabschiedet. Als Mitglied der europäischen Union ist Litauen verpflichtet diese und wei-tere Vorschriften zu achten und in Landesrecht umzusetzen. Diese Vorgaben sind für den Bau einer neuen Deponie stets bindend. Hierzu wird in dieser Arbeit ein Eigenüberwa-chungskonzept für die Sonderabfalldeponie Toksika, nahe der Stadt
Anwendung des navigations Moduls von ROS auf eine mobile Testplattform mit Mecanum Rädern. Es behandelt das Erstellen von Kartendaten mithilfe einer Tiefenbildkamera und die Ansteuerung der Testplattform mit Hilfe eines Arduino. Des weiteren werden alle Funktionen auch virtuell in einer Simulation abgebildet und getestet.
Die Aufgabe dieser Arbeit bestand darin, einen möglichst einfachen Versuchsaufbau eines Laser-Doppler-Anemometers zu realisieren. Der Versuchsaufbau soll Studenten im Praktikumsversuch anschaulich den allgemeinen Aufbau eines LDA-Systems verdeutlichen. Zudem soll die Strömungsgeschwindigkeit einer Flüssigkeit in einem Rohr vermessen werden und der Druckverlust an einer Rohrwandung veranschaulicht werden.
Der Gegenstand dieser Abschlussarbeit ist ein exemplarischer Konvertierungsprozess der 3D-Daten des proprietären Formates zum Zielformat. Es geht dabei um das proprietäre Format ema der Firma imk automotive und das Format 3DPDF, das als Zielformat zusammen mit U3D-Format betrachtet wird. Im Zuge der Abschlussarbeit kann man drei Hauptteile der Arbeit hervorheben. Dabei lässt sich der Teil mit der Auswahl des Zielformates für die Konvertierung, der Teil mit der Umsetzung der Daten von ema-Format in das U3D-Format und der Teil mit der Integration von U3D-Datei in PDF-Dokumente unterscheiden. Für die Umsetzung und die Integration werden mehrere Lösungsansätze in Anspruch genommen, um die optimale Variante auswählen zu können. Die Umsetzung der ema-Daten in das U3D-Format erfolgt sowohl direkt als auch mit Hilfe des IDTF-Zwischenformates. Die Integration der beim Konvertierungsprozess entstandenen U3D-Datei in PDF-Dokumente hat auch mehrere Lösungswege. Einer von diesen ist die Möglichkeit der Integration über Latex, die Realisierung von welcher auch im Zuge der vorliegenden Abschlussarbeit betrachtet wird. Es gibt auch weitere Lösungswege, sie sind aber nicht getestet.
Diese Arbeit beschreibt ein Konzept zur Implementierung eines Schaltplan- Vergleichs und der intelligenten Ergebnisdarstellung. Mit dem Konzept soll das Design-Center von Transim Technology Corp. erweitert werden. Für die Umsetzung wurde eine Anforderungsanalyse erstellt und eine theoretische Betrachtung mittels Graphentheorie durchgeführt.
Das Unternehmen SYSTEC electronic GmbH bietet verschiedene Steuerungen einer PLC/ SPS Produktlinie an. Diese werden mithilfe der Entwicklungsumgebung OpenPCS pro- grammiert. Die so erstellten Programme werden in einer Laufzeitumgebung auf der Steue- rung ausgeführt. Das Laufzeitsystem wird von SYSTEC für die konkreten Steuerungen und deren Peripherie angepasst und erweitert. Die Arbeit verfolgt das Ziel Systemtests für das Laufzeitsystem und dessen Anpassungen automatisch durchführen zu können. In der folgenden Arbeit werden die notwendigen Grundlagen erläutert. Außerdem wer- den Anforderungen erhoben und mögliche Ansätze beschrieben, wie diese erfüllt werden können. Aus den Ansätzen wird anhand geeigneter Kriterien eine Wahl getroffen, die in der Lösung verwendet wird. Im Anschluss werden die einzelnen Aufgaben und Komponen- ten der Implementierung beschrieben. Danach wird ein Vergleich zwischen Anforderungen und Ergebnissen gezogen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick an weitere mögliche Entwicklungen gegeben.
Ziel der vorliegenden Bachelorarbeit ist die Erstellung einer grafischen Benutzeroberfläche für den Bereich des Ambient Assisted Living, welche von älteren Menschen bedient werden kann, ohne dass diese dabei an ihre körperlichen Grenzen stoßen werden. Dazu erfolgte eine Analyse darüber, welchen Beeinträchtigungen die Zielgruppe unterliegt und mit welchen Methoden der Oberflächengestaltung diese ausgeglichen werden können. Anschließend wurde ein Designkonzept für eine derartige Bedienoberfläche erstellt und diese dann mittels der Programmiersprache Java in eine lauffähige Android-Applikation umgesetzt.
Die vorliegende Bachelorarbeit leistet einen Beitrag zum Aufbau eines in situ arbeitenden Laserpartikelzählers mit Echtzeitmessung für Ionenimplanter. Es werden unterschiedliche Komponenten, wie z.B. Lichtdetektoren, untersucht und diese zu einem Partikelzählmessplatz, der in atmosphärischer Umgebung betrieben wird, kombiniert. Das Funktionsprinzip des Messplatzes und das Auftreten von Partikelsignalen in Koinzidenz werden gezeigt. Es werden Möglichkeiten zur Verknüpfung der beiden Detektorausgangssignale vorgestellt und die Auswirkungen bei Koinzidenzverletzung untersucht. Ein weiterer Bestandteil ist die Automatisierung der Partikelerkennung. Dazu wird ein Auswertealgorithmus vorgestellt, der Partikel zählt und nach Höhe und Breite klassiert. Unter dessen Verwendung werden Einflüsse wie Samplerate der Messwerterfassung und Ausrichtung der Polarisationsebene der Laserstrahlung zu den Detektoren auf die Effizienz der Partikelzählung untersucht. Zum Abschluss werden Messabweichungen infolge der Messwerterfassung diskutiert.
Bestimmung der Dichte und Gasaufnahme aufgedampfter reiner Siliziumschichten mittels Quarzmikrowaage
(2015)
Der erste Teil der Arbeit beschäftigt sich mit der Untersuchung eines alternativen Verfahrens zur Dichtebestimmung E-Strahl-aufgedampfter amorpher Silizium-Schichten (a-Si) mittels Schwingquarzmessung. Ziel war es einen Kompromiss zwischen hoher Genauigkeit und geringem apparativem Aufwand zu finden. Durch Messung der Si-Schichtdicke mittels Tastschnittgerät und der Massenbelegung aus der korrelierten Frequenzänderung des Schwingquarzes (SQ) nach Sauerbrey wurde die Schichtdichte bestimmt. Hierbei wurde der Einfluss des Quarzes (Oberflächenrauheit, Behandlungshistorie) und der Versuchsbedingungen (Substrattemperatur, Abscheiderate) auf die Dichte der Schichten und deren Genauigkeit untersucht. Im zweiten Teil wurde der Effekt der Gasabsorption auf diese Schichten in Abhängigkeit der Abscheidebedingungen untersucht. Dazu wurden frisch abgeschiedene a-Si-Schichten definierten Atmosphären (Druck, Gasart) ausgesetzt und mittels Schwingquarz in-situ die Massenbelegung aufgenommen.
Für die Entwicklung neuer Medikamente und zur Züchtung künstlicher Organe ist es essenziell, die Wechselwirkungen zwischen verschiedenen Organen zu Untersuchen. Darum ist es notwendig, über ein komplexes und realitätsnahes Modellsystem zu verfügen, Lab-on-Chip Bioreaktoren bieten diese Möglichkeit. Ziel dieser Arbeit ist es, ein Messsystem zu entwickeln, das unter Ausnutzung von im Stoffwechsel aller eukaryotischen Zellen vorkommenden Substanzen zur kontinuierlichen Überwachung der Zellen geeignet ist. Als geeignete Markerfreie Messung hat sich die Fluoreszenzlebensdauermessung an NADH erwiesen. Die Änderungen des Metabolismus der Zelle sowie ihrer Umgebung führen zu einer Verschiebung der Fluoreszenzlebensdauer im einstelligen ns-Bereich. Da einige Stoffwechelprozesse in allen eukaryotischen Zellen gleich sind, konnte Saccharomyces cerevisiae als Modellorganismus zur realitäsnahen Messung eingesetzt werden. In dieser Arbeit wurden zeit- und frequenzbasierte Messmethoden zur ns-genauen Bestimmung der Fluoreszenzlebensdauer untersucht. Dabei wurden die Zellen gezielt mit den zellschädigenden Stoffen HCl sowie Triton-X100 behandelt und die Änderung vermessen. Es konnte gezeigt werden, dass sich die Fluoreszenzlebensdauer bei induzierter Apoptose um 1,4 ns verlängert, sowie durch induzierte Nekrosen um 0,5 ns verringert. Die Messergebnisse zeigen, dass es möglich ist, den Vitalitätszustand der Zellen optisch zu analysieren.
Für die Charakterisierung von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen wird eine Messprozedur benötigt, die den Anforderungen einer solchen Produktion gewachsen ist. Zum einen ist es notwendig, dass die Genauigkeit und Präzision der verwendeten Messsysteme besser ist, als die Prozessstreuung der Abscheideprozesse. Nur so ist es möglich den Prozess zu kontrollieren. Hierfür werden in der Masterarbeit die Messsysteme mit Hilfe einer Messsystemanalyse untersucht. Zum anderen ist es notwendig, den Eingriff in den Herstellungsprozess so gering wie möglich zu halten. Hierfür werden in der Masterarbeit alternative Messmethoden zur Charakterisierung der elektrischen Eigenschaften der Indium-Zinn-Oxid-Schichten evaluiert. Als Ergebnis der Masterarbeit wird eine Messprozedur dargelegt, die für die Charakterisierung der elektrischen Eigenschaften von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen geeignet ist.
Datenmodell für Track&Trace
(2015)
Ziel dieser Arbeit ist es, die Entwicklung einer Webseite auf Grundlage des AngularJSFrameworks darzustellen und zu analysieren. Die Webseite besitzt dabei eine auf der REST-Architektur basierende Anbindung zu einem vorgegebenen Server. Die realisierte Webanwendung beinhaltet exemplarische Funktionen einer Finanzanwendung um die Entwicklung in einen praktischen Kontext zu setzen. Das verwendete AngularJS Framework ist ein von Google entwickeltes HTML- und Javascript Framework für auf einem Model-View-Controller-Muster basierende Single-PageWebanwendungen. Um die Visuelle Umsetzung des Projekts zu unterstützen kommt das Bootstrap CSS Framework zum Einsatz.
Diese Arbeit beschreibt ein Modell, eine Architektur und eine beispielhafte Implementierung für einen sicheren behördlichen Internetzugang, basierend auf überwiegend freier Software. Dabei werden zuerst aktuelle, relevante Bedrohungen und Angriffstechniken eruiert und analysiert. Für den Entwurf eines Sicherheitsmodells zur Abwehr von Angriffen werden mehrere verbreitete Muster und Standards bewertet und auf diesen Erkenntnissen ein eigenes Modell entwickelt. Aufbauend auf diesem Modell wird unter Berücksichtigung der behördlichen Anforderungen ein Sicherheitskonzept entwickelt. Abschließend wird eine exemplarische Umsetzung dieses Konzeptes beschrieben.
In the surgery of the pituitary gland and other related areas of the skull base, the endoscopic endonasal surgery has established oneself as today's operation method. Although the surgeon is able to look around corners with the aid of an endoscope, the dissection in these areas is limited. Current suction devices are limited in their size, shape, bending and prone to kinking because of the narrow suction channel. The work with such inadequate instruments increase the risk of life-threatening complications, prolong the operation and limit the quality of a complete tumor resection. The ideal suction device would be adaptable to numerous surgery situations, easy to bend, maintain its lumen, adequate in their ratio of rigidity and formability, ergonomic and reformable to its original shape. In the following bachelor thesis, it is shown that this can be achieved with a suction device with shape memory alloy. After the development of a comfortable hand sample, the suction device went into preparation and a risk analysis was performed. The results of the evaluation process are reductions in operative risk, time and cost if this bendable suction device would be applied. Therefore, approval for the international market should be sought, to provide an opportunity for safer and more effective surgical procedures.
Schleifen ist ein bedeutsames und hochpräzises Verfahren in der mechanischen Fertigung. Durch verschiedene Einflüsse kann es bei der Bearbeitung von Werkstücken zur Entstehung von Schleifbrand kommen. Schleifbrand ist eine lokale Gefügeumwandlung im Bauteil, die Belastbarkeit und Langlebigkeit des Werkstückes herabsetzt. Eingeführte Detektionsverfahren für die Erkennung von Schleifbrand sind: Wirbelstromprüfung und Nitalätzung. Um die Funktion dieser Verfahren in regelmäßigen Abständen zu prüfen, werden Vergleichskörper mit künstlicher Inhomogenität durch Laserbehandlung hergestellt. Zur Verbesserung der Prozessfähigkeit und zur Minimierung des Geometrieeinflusses der Bauteile wurde eine Optimierung der Laseroptik durchgeführt. Für die Auslegung der Optik wurde eine Strahlcharakterisierung des kollimierten und fokussierten Strahls vorgenommen. Es wurde eine Aufweitung des Laserstrahls durchgeführt und der Arbeitspunkt wurde vom des fokussierten Stahl in den Fokus verschoben. Benutzt wurde hierfür eine zweilinsige Teleskopanordnung. Daraufhin wurde die Funktionalität der optimierten Optik mit diversen Probenkörpern unter Variation Prozess-, Material- und Geometrieparameter untersucht. Die Ergebnisse der Laserbehandlung mit optimierter Laseroptik wurden mit denen der Ausgangsoptik verglichen und eine Verbesserung der Prozessfähigkeit festgestellt.
Untersuchung und Charakterisierung eines Sandwich-Materialverbundes aus Hart-Coating und Polyisocyanurat-Hartschaum (PIR) als materialtechnische Lösung für Klimaprüfkammertüren. Ausgehend von einer Darstellung der eingesetzten Geräte und derer technischer Grundlagen, ist PIR-Hartschaum auf seine Temperaturbeständigkeit im Hoch- als auch im Minustemperaturbereich untersucht worden. In Kombination mit der Messung der Temperaturverteilung hinter dem Innensegment des Materialverbundes wird eine Entscheidungshilfe gegeben, wie der PIR-Hartschaum als Isoliermaterial im Türelement der Klimaprüfkammer Einsatz findet. Ein Ausblick beschreibt andere Anwendungsmöglichkeiten der neuen materialtechnischen Lösung in diesem Einsatzgebiet.
Im Modul "Spezifikations- und Verifikationsmethoden" wird im Rahmen der Praktika ein System spezifiziert. Tools zum Abbilden, Erstellen und Management kommen nicht zum Einsatz. Aufgabe der Arbeit ist es, die Durchführung effizienter zu gestalten. D.h., dass durch den gezielten Tooleinsatz das Arbeiten unterstützt wird und die Studenten dazu angehalten werden, Requirements richtig zu erfassen und zu verwalten. Im Rahmen der Praktika werden verschiedene Diagrammtypen der UML verwendet sowie atomare textliche Anforderungen definiert und mehrmals überarbeitet. Die Erfassung, Verwaltung und die Überarbeitung der Anforderungen erfolgt aktuell formlos. Mit fortschreitenden Praktika werden verschiedene Reviewtechniken angewendet, wodurch ebenfalls teilweise Formalien eingeführt werden und Techniken aus dem Bereich des RE vermittelt werden. Den Studierenden soll, unter Berücksichtigung der durch das Studium vorgegebenen Randbedingungen, erlebbar ein Eindruck der Tätigkeiten im Rahmen des RE vermittelt werden. Außerdem sollen die Möglichkeiten und Grenzen bei der Durchführung mittels Textverarbeitung veranschaulicht werden sowie darauf basierend mögliche Auswege aufgezeigt werden.
Stereo matching methods are usually relying on rectified images to calculate disparities. If the rectification is inaccurate or not present at all most stereo matching algorithms will produce distorted disparity maps. In this thesis an approach is described that overcomes this issue for the PatchMatch Stereo algorithm. As groundwork for stereo matching four rectification procedures namely Bouget
Entwicklung eines Dekodierers für binäre Korrektursignale als Grundlage für ein Differential-GPS
(2015)
Viele Anwendungen von Satellitengestützer Navigation gehen nicht über das Auswerten der Positionsdaten hinaus. Zum Herstellen eines eigenen Empfangsgeräts, welches Korrekturdaten des Radiobeacon DGPS berücksichtigt, ist eine Dekodierung dieser Korrekturdaten unerlässlich. Im Dokument beschrieben wird der Aufbau und eine Lösung zum Herstellen eines Software-Dekoders von RTCM2-Daten, welche über einen Mittelwellenempfänger erfasst wurden. Die Kommunikation mit dem Empfänger via Serieller Schnittstelle, dessen Konfiguration und das Zusammensetzen der empfangenen Bytes entsprechend des RTCM2-Standards werden behandelt.
Diese Arbeit zeigt einen Lösungsansatz für die Entwicklung eines Messverfahrens zur quantitativen Erkennung von Lungenkrebszellen in Mikroskopiebildern mithilfe von Bildauswertungsalgorithmen. Dies erfordert eine Auseinandersetzung mit bestehenden Bildverarbeitungsprogrammen und deren Bildfiltern und startet mit dem spezifischen Einsatz gewählter Bildauswertungssoftware bis hin zur Lösungsvariante einer Zellenerkennung. Zunächst setzt man sich mit den Grundlagen der Bildverarbeitung auseinander, um das gestellte Bildmaterial zu verstehen. Dieses wird im Laufe des Projektes vertieft, damit eine Nutzung zur Auswertung der gewünschten Ziele erreicht werden kann. Als erstes werden die Bildfilter und deren Eigenschaften und Funktionsweise erläutert, um zu verstehen wie sie die vorhandenen Bilder verändern. Danach wird eine Auswertung durchgeführt, ob diese Veränderungen die optimalen Ergebnisse erzielt haben. Daraufhin werden zwei Lösungswege für positive und negative Zellen entwickelt. Diese werden durch statistische Auswertungen überprüft und zum bestmöglichen Ergebnis entwickelt.
Mit der Energiewende und dem weiteren Ausbau von erneuerbaren Energien, rückt die The-matik der Energiespeicherung immer weiter in den Vordergrund. Das Ziel dieser Arbeit bestand darin, den Autarkiegrad eines Photovoltaiksystems mit integriertem Akkumulator zu prognostizieren. Dabei wurde ein Algorithmus entwickelt, welcher die Basis der Simulation bildet. Für eine Beispielrechnung wurde das Speichersystem Senec.Home G2 von der Deutschen Energieversorgung, eine 7,87 kWp Photovoltaikanlage und ein privater Haushalt mit 4.000 kWh Jahresstromverbrauch ausgewählt. Es konnte nachgewiesen werden, dass die Prognose des Autarkiegrades durch das Simulationsprogramm nur geringe Abweichungen zum tatsächlichen Wert aufweist. Ebenfalls wurde die Wirtschaftlichkeit ohne Berücksichtigung einer Förderung betrachtet. Es wurde festgestellt, dass eine Photovoltaikanlage ohne Akkumulator rentabler als das Photovoltaiksystem mit dem Speicher Senec.Home G2 ist. Dabei liegt die Hauptursache bei den hohen Investitionskosten der Photovoltaikspeicher. Unter Annahme des weiterhin steigenden Strompreises, einer Förderung und eines Preisverfalls von Photovoltaikakkumulatoren können die elektrochemischen Speicher ein wichtiger Bestandteil der Photovoltaik werden und somit einen Beitrag zur Energiewende leisten.
Entwicklung eines Tools zur Erstellung und Veröffentlichung von dynamischen interaktiven Karten
(2015)
Die vorliegende Masterarbeit zeigt auf, wie mit vorgegebenen Technologien und Anwendungsfällen ein Tool erstellt wird, das für die Erstellung und Veröffentlichung von dynamischen interaktiven Karten dient. Nach der Herausarbeitung von thematischen Grundlagen erfolgt die Untersuchung von Anforderungen spezieller Fälle, sowie eine Einarbeitung und Darstellung der Möglichkeiten der Software-Infrastruktur. In Anbetracht dieser wird ein abstraktes Konzept aufgezeigt, dass Raum für die Interpretation in der Nutzung bestimmter Rahmenwerke lässt. Bei der anschließenden Erläuterung der Implementierung, werden eingesetzte Frameworks genannt und auf Besonderheiten im Quelltext eingegangen.
Im Rahmen dieser Ausarbeitung ist eine Serversoftware implementiert worden. Die programmierte Software stellt einen Dienst zur Verfügung, der Metadaten von Clients entgegen nimmt und diese verwaltet. Die zugesendeten Metadaten werden versioniert und vor inkonsistenten Speichervorgängen geschützt. Ziel dieser Arbeit ist, die Notwendigkeit der Software zu beschreiben und die Implementierung zu erläutern. Dafür werden die Softwaresysteme und die damit verbundenen Prozesse in der Götz Günther GmbH analysiert und beschrieben. Aus den entstehenden Informationen werden die Anforderungen an das Softwaresystem abgeleitet. Anschließend werden verschiedenste Technologien ausgewertet und ihre Qualifikation für die Verwendung im Projekt ermittelt. Dafür wird eine Diskussion durchgeführt, die die Technologien anhand verschiedenster Kriterien untersucht. In der Diskussion werden die Vor- und Nachteile der Technologien besprochen, damit der Grund der Entscheidung für eine bestimmte Technologie ersichtlich wird. Weiterhin wird die erstellte Serversoftware in ihrem Aufbau und ihrer Arbeitsweise erläutert. Dafür wird die Implementierung in verschiedenen Detailgraden betrachtet und schematisch mit UML-Diagrammen dargestellt. Die Implementierung wird in Komponenten unterteilt, die gemeinsam ein Aufgabenfeld realisieren und deren Arbeitsweise wird erläutert. Es wird auf die Modularität des Softwaresystems eingegangen, wobei verdeutlicht wird, in welcher Art und Weise die Komponenten miteinander verknüpft sind und wie diese ausgetauscht werden können. Danach wird die interne Struktur der Komponenten anhand von Klassendiagrammen geschildert und auf implementationsspezifische Besonderheiten eingegangen. Es wird dargestellt, warum sich für diese Klassenarchitekturen entschieden wurde, dafür werden Modelle der C#-Entwicklung charakterisiert. Zum Schluss folgt ein Fazit, das die entstandene Software evaluiert und Mängel in der Systemarchitektur identifiziert. Es werden Lösungen für die Bereinigung der Mängel besprochen.
Die vorliegende Arbeit befasst sich mit der theoretischen Auseinandersetzung von Architekturkonzepten in Bezug auf eine verteilte IT-Infrastruktur. Dabei werden verschiedene Modelle, die von Client-Server-Architekturen bis hin zu Cloud Computing Ansätzen reichen, untersucht. Anhand verschiedener Kriterien wird eine Lösungsmöglichkeit ausgewählt und prototypisch implementiert. Als Grundlage dient hierbei ein Basissystem aus dem Kontext der Gemeinschaftsverpflegung, welches um ein mobiles Menü-Bestellsystem erweitert wird. Beginnend mit einer Dokumentation der Anforderungs- und Geschäftsprozessanalyse werden die wichtigsten Funktionen des mobilen Menü-Bestellsystems erläutert, um anschließend einen Lösungsansatz für die IT-Infrastruktur zu modellieren. Den Abschluss bildet die Realisierung, von der Anbindung des bestehen Basissystems, über das verteilte Informationssystem bis hin zum mobilen Client für den Nutzer.
Ziel der Bachelorarbeit ist es, eine Lösung zur Verarbeitung großer Datensätze (Big Data) zu gewinnen. Dabei wird ein Augenmerkt auf das Framework Hadoop geworfen werden, welches ab dem kommenden Sommersemester 2015 an der Westsächsischen Hochschule in Zwickau den Studenten gelehrt werden soll. Um neben den theoretischen Informationen ebenfalls das zu Lehrende im Praktischen demonstrieren zu können, ist ein funktionstüchtiger Hadoop-Server aufzusetzen. Dieser soll in Form einer fertig erstellten Virtuellen Maschine für die Studierenden vorliegen, an welcher diese praktisch tätig werden können.
Als Ergebnis dieser Bachelorarbeit wurde eine Softwarelösung entwickelt, die ein Fernupdate für den Live-Ticker repräsentiert. Der Schwerpunkt dieser Aktualisierungsanwendung ist die Zuverlässigkeit. Die Konzeption des sicheren Update-Vorgangs wurde dabei in dieser Arbeit entworfen. Um ein atomares Update durchzuführen, sind die häufigsten Fehler bei einem Fernupdate herausgefunden und die entsprechenden Massnahmen vorgenommen wurden, um diese Fehler zu beheben.
Das CSS-Framework Bootstrap hat in der weltweiten Webdeveloper Community eine hohe Popularität erlangt. Das Framework macht die Entwicklung von Webseiten und Blogs sehr einfach und unterstützt dabei bereits durchgängig die verschiedensten Geräteklassen vom PC bis zum Smartphone. Geht es jedoch um umfangreiche Webapplikationen, welche beispielsweise Daten erfassen, verändern oder darstellen, stellen sich für den Entwickler besondere Anforderungen an die Benutzeroberfläche, die auf statischen Webseiten oder Blogs nicht benötigt werden. Diese Arbeit soll ein Nutzerinteraktionskonzept vorstellen, bei dem die Features und Vorteile des Bootstrap Frameworks für die Erstellung von Webapplikationen genutzt werden können.
Während die Hardware eine lange Zeit auf dem neuesten Stand ist, benötigt die Software ständige Updates, weil jeden Tag neue Produkte im Bereich der Softwareentwicklung erzeugt werden und in die bestehenden Software-Produkte weiterentwickelt werden. Nicht zu vergessen ist, dass ein Programm von Menschen geschrieben wird und einige Bugs und Mängel im Endprodukt immer behoben werden müssen. Diese Bachelorarbeit befasst sich mit der Überblick über bestehende Update-Verfahren des Linux-Betriebssystem und der prototypischen Implementierung eigenes Verfahrens auf Basis von Raspberry Pi 2 für den Live-Ticker. In der Arbeit werden zuerst die bestehende Update-Verfahren des Linux-Betriebssystem und die Anforderungen, die während deren Entwicklung erfüllt wurden, betrachtet. Danach werden die Anforderungen zum Update-Prozess des Live-Tickers beschrieben und ein Überblick über die verwendete Technologien und Werkzeuge gegeben, mit denen eine eigens entwickelte Konzeption und Implementierung realisiert wurde. Diese Bachelorarbeit hängt mit der Abschlussarbeit "Erkennung abgebrochener/ungültiger Updates und Implementierung eines Fail-Safe-Verfahrens für einen Life-Ticker auf dem Rasperry Pi 2" von Frau Gafurova zusammen.
Diese Bachelorarbeit behandelt die Evaluierung von nicht-relationalen Datenbanksystemen für die Restrukturierung des Dokument-Archivsystems der XCOM AG. Die Evaluierung wurde im Rahmen eines unternehmensinternen Projekts durchgeführt, dessen Ziele und Ablauf ebenfalls Bestandteil dieser Arbeit sind. Beim Archivsystem der XCOM AG handelt es sich um ein System zur elektronischen Ablage von Dokumenten, welches in erster Linie bei Banken zum Einsatz kommt. Durch diese Form der Archivierung können Arbeitsabläufe optimiert und beschleunigt werden. Voraussetzung dafür ist jedoch eine performante Umsetzung. Da das hier vorliegende System mittlerweile seit über zehn Jahren im Einsatz ist, entsprechen die eingesetzten Technologien nicht mehr dem Stand der Zeit, was sich unter anderem auf die Performance auswirkt. Daher soll mit diesem Projekt die Einsetzbarkeit von modernen Technologien untersucht werden, um die Nutzung des Archivsystems effizienter zu gestalten. Da es sich um ein System zur Speicherung von Dokumenten und somit Daten handelt, stammen die zu untersuchenden Technologien alle aus dem Bereich der Datenbanksysteme. Hier erfreuen sich seit einigen Jahren besonders nicht-relationale Datenbanksysteme großer Beliebtheit. Diese unterscheiden sich sowohl in ihren Konzepten, als auch in ihren Einsatzbereichen mitunter stark von klassischen, relationalen Datenbanken. Es ist daher Bestandteil dieses Projekts, die Besonderheiten derartiger Systeme darzustellen und anschließend einige Vertreter hinsichtlich ihrer Einsatzmöglichkeiten für das Archivsystem näher zu untersuchen. Darüber hinaus wird eine Implementierung vorgestellt, welche die Nutzung eines solchen nicht-relationalen Systems im Archivsystem demonstriert. Hierfür erfolgt die Auswahl eines der näher untersuchten Datenbanksysteme. Es gilt, die Implementierung im Rahmen dieses Projekts zunächst zu planen und anschließend umzusetzen. Abschließend wird die Performance des neuen und alten Systems miteinander verglichen. Der Vergleich wird durch die Messung von Zeiten vorgenommen, die das Archivsystem für die Ausführung bestimmter Aufgaben benötigt. Dies stellt den Abschluss des Projekts dar und soll zeigen, inwiefern sich durch den Einsatz des ausgewählten Datenbanksystems Optimierungsmöglichkeiten ergeben. Auf diesen Ergebnissen aufbauend kann anschließend eine fundierte Entscheidung darüber getroffen werden, ob eine Restrukturierung des Archivsystems tatsächlich durchgeführt werden soll.
Evaluierung von unterschiedlichen optischen Fasern für die Winkelmessung an einem Stützgelenk
(2015)
In Rahmen dieser Bachelorarbeit wurden verschiedene optische Fasern auf ihre Auskopplung von Licht durch Biegung dieser untersucht. Das Ziel war es, Erkenntnisse über die Auskopplungsmechanik zu gewinnen, um den genannten Effekt später für die Winkelmessung an einem Stützgelenk zu verwenden. Es wurden viele verschiedene Messaufbauten gewählt, um eine umfangreiche Abdeckung der Möglichkeiten Auskopplung von Licht aus einer Faser durch Biegung zu ermöglichen. Unterschiedliche Einflussgrößen, wie zum Beispiel verwendeter Laser, Mikroskoobjektiv und Faserlänge sind statistisch abgesichert gemessen und bilden eine Grundlage für die Weiterverarbeitung der optischen Fasern. Zusätzlich ist der Effekt der Evaneszenz beim Biegen einer Duplexfaser untersucht wurden. Abschließend kommt es zu einem Vergleich von anderen optischen Messverfahren zu diesem genannten Verfahren.
Die Reduzierung von unerwünschten Mantelmoden in Glasfasern stellt in der Faseroptik nach wie vor ein herausforderndes Problem dar. Durch Mantelmoden wird nicht nur die Funktionalität von Glasfasersystemen begrenzt, sondern auch die Strahlqualität negativ beeinträchtigt. Weiterhin kann die unkontrollierte Ausbreitung von Mantelmoden in der Zerstörung von Fasersystemen resultieren und muss besonders bei Hochleistungsanwendungen im Kilowattbereich berücksichtigt werden. Ziel dieser Arbeit war die Untersuchung einer neuen Methode zur Entfernung von Mantelmoden aus Glasfasern mit Mantelmodenabstreifern. In dieser Bachelorarbeit wird das Verfahren zur Herstellung der Mantelmodenabstreifer vorgestellt. Das Verfahren basiert auf der Mikrostrukturierung von Glasfaser durch einen CO2 - Laser. Weiterhin wird auf die Messtechnik zur Charakterisierung der Mantelmodenabstreifer eingegangen. Darüber hinaus werden experimentelle Ergebnisse mit den erzeugten Mantelmodenabstreifern gezeigt. Dabei wurde speziell die Dämpfung und der Einfluss auf die numerische Apertur von Signalen untersucht. Zudem werden Resultate gezeigt, bei denen mehr als 98 % der Leistung auf einer strukturierten Länge von 30 mm entfernt werden konnten.
Flammengestützte Abscheidung verschiedener Schichtsysteme und Optimierung des r-CCVD Prinzips
(2015)
Die vorliegende Arbeit beschäftigt sich mit der flammengestützen Abscheidung verschiedener Schichtsysteme unter der Zuhilfenahme des remote Combustion Chemical Vapor Deposition Verfahrens. Zahlreiche und hydrolytisch umsetzbare Precursoren konnten recherchiert werden. Unter verschiedenen Bedingungen erfolgte eine Auswahl an bestimmten Precurso-ren zur Erprobung. Titandioxid- (mittels Titantetraisopropoxid und Titanethoxid), Siliziumdi-oxid- (Hexamethyldisiloxan und Triethoxyorthosilikat), Aminosilan- (3-Aminopropyltriethoxysilan) und Aminotitanatschichten (Isopropyl tri(N-ethylene diamino)ethyl titanat) wurden erzeugt und ihre Schichteigenschaften mit unterschiedlichen instrumentellen Anlagen charakterisiert. Zu den Charakterisierungsmöglichkeiten gehörten ein Profilometer zur Schichtdickenbestimmung, Röntgen-Photoelektronenspektroskopie (XPS) und energie-dispersive Röntgenspektroskopie (EDX) zur Elementanalyse sowie ein Röntgendiffraktome-ter mit streifendem Einfall (GIXRD) zur Zusammensetzungsbestimmung. Weiterhin erfolgten Rasterelektronen- (REM), Raster-Kraft-Mikroskopie (AFM) und Grauwertmessungen zur Bestimmung der Oberflächenbeschaffenheit. Die Anlagenoptimierung erfolgte hinsichtlich Abscheiderate durch die Erprobung unternehmensentwickelter Verdampfereinheiten und hin-sichtlich des Prozessparameters Temperatur der Precursorsprühleiste.
Die Arbeit beschäftigt sich mit den theoretischen Grundlagen der optischen und chemischen Eigenschaften der Haut und von Hautkrebs und dessen bislang gängigen Detektionsmöglichkeiten in der Dermatologie. Der zweite Teil der Arbeit befasst sich mit der spektralen Analyse der Haut und eines Nävuszellnävus. Dabei werden grundlegende Eigenschaften wie Absorption, Reflektanz und Kontrast analysiert.
Als Ausgangspunkt der Arbeit auf dem Gebiet der Quantum Dot LEDs (QD-LEDs) wurden bereits verschiedene Materialien für Ladungsträgertransportschichten (engl. charge transport layer, CTL), verschiedene Sorten Quantum Dots (QDs) und Aufbringungsmethoden von dünnen Schichten untersucht. Über Langzeitstudien und Degradation war bis dato noch wenig bekannt. Es gab lediglich die Erkenntnis, dass die Elektrolumineszenz (EL) der QD-LED bei Inbetriebnahme einen sofortigen und starken Abfall über der Betriebszeit zeigte. Es gab die Vermutung, dass infolge einer hohen Stromdichte und damit einer hohen Temperatur im Bauteil, die organischen CTLs und auch die emittierenden QDs irreversibel geschädigt werden. Ziel dieser Arbeit ist es, mithilfe genauer Untersuchungen an CTLs und an QDs, die Effizienz und Lebensdauer der QD-LEDs zu erhöhen. Dazu wurden verschiedene Herstellungsparameter variiert wie z.B. die Herstellungsumgebung, die Präparation der Lochinjektionsschicht (engl. hole injection layer, HIL), die Schichtdicke und das Tempern der QD-Schicht, die Substratvorbehandlung und die Verkapselung des Bauteils. Anschließend wurde deren Einfluss auf die elektrooptischen Eigenschaften und das Langzeitverhalten untersucht. Des Weiteren galt es herauszufinden, welche möglichen Degradationsmuster bei den QD-LEDs auftreten und worin deren Ursachen liegen. Aufgrund einer verbesserten Präparation der HIL, bestehend aus Poly(3,4-ethylenedioxythiophene)-poly(styrenesulfonate) (PEDOT:PSS), konnten elektrisch leitfähige und stabile Schichten ohne elektrische Kurzschlüsse hergestellt werden. Durch das gezielte Tempern von QDs konnte mithilfe von Photolumineszenzmessungen herausgefunden werden, dass die verschiedenen Sorten von QDs eine sehr unterschiedliche thermische Stabilität besitzen. Des Weiteren konnte durch eine Vorbehandlung des Substrates aus Indiumzinnoxid (engI. indium tin oxide, ITO) mit einem Sauerstoffplasma, der Kontaktwinkel verringert und die Oberflächenenergie erhöht werden. Aufgrund der verbesserten Adhäsion von PEDOT:PSS entstand somit ein stabilerer Kontakt zwischen den beiden Schichten, wodurch die Langzeitstabilität der QD-LED leicht erhöht werden konnte. Ein Abkühlen des Bauteils nach dem Tempern jeder einzelnen Schicht während des Herstellungsprozesses, bewirkt dabei ebenfalls eine Steigerung der Langzeitstabilität. Durch eine Variation der Schichtdicke der QD-Schicht konnte zudem die optische Leistungsdichte erhöht werden. Im Gegensatz dazu konnte durch eine teilweise Herstellung der QD-LED in einer vereinfachten Glovebox und unter Inertgasatmosphäre, keine Verbesserung der optischen Leistungsdichte und der Langzeitstabilität nachgewiesen werden. Eine Kapselung des Bauteils durch eine mit Epoxidharz befestigten Glasplatte auf der Bauteiloberfläche, führte dabei zu einer starken Verschlechterung der optischen Leistungsdichte der QD-LED. Die Langezeitstabilität des Bauteils wurde durch eine Kapselung zudem nur geringfügig verbessert. Des Weiteren konnte mithilfe von Pulsmessungen der EL und der Photolumineszenz (PL) an einer QD-LED, ein Rückschluss auf die im Bauteil vorliegende Temperatur bei Inbetriebnahme gezogen werden. Insgesamt wurden durch eine verbesserte Herstellung der Bauteile, die elektrooptischen Eigenschaften der QD-LEDs deutlich verbessert. Die Langzeitstabilität der Bauteile konnte dabei durch eine teilweise Herstellung der Proben in einer Inertgasatmosphäre und durch eine Kapselung nicht erhöht werden. Eine Möglichkeit besteht darin, andere Schichtmaterialien und/oder eine invertierte Bauteilstruktur zu testen. Ferner ist eine Präparation der QD-LEDs in einer Glovebox unter reiner Stickstoffatmosphäre zwingend notwendig, um die Effizienz und Langzeitstabilität der QD-LEDs nachhaltig erhöhen zu können.