Refine
Has Fulltext
- no (88) (remove)
Year of publication
- 2015 (88) (remove)
Document Type
- Bachelor Thesis (50)
- Master's Thesis (31)
- Diploma Thesis (7)
Institute
- Physikalische Technik, Informatik (88) (remove)
Is part of the Bibliography
- no (88)
Die vorliegende Arbeit beschäftigt sich intensiv den Einfluss des Legierungselementes Chrom und der Wärmebehandlung auf die Eigenschaften von Mn-Ga Magnetmaterialien, speziell der Legierung Mn2.48Cr0.12Ga. Die magnetischen Messungen wurden durch Struktur und Gefügeuntersuchungen ergänzt. Die Herstellung der Proben erfolgte in einem Lichtbogenschmelzofen. Die entstandenen polykristallinen Proben wurden für 14 Tage in einem Labormuffelofen getempert. Für die Versuche zur Optimierung magnetischer Eigenschaften wurden verschiedene Temperaturen gewählt. Strukturuntersuchungen mittels Pulver-XRD zeigten kaum Unterschiede, was der schwierigen Präparation von Pulvern geschuldet ist. Die in der Arbeit erprobte XRD an dünnen, geschliffenen und polierten Plättchen ergab drastisch verbesserte Röntgenbeugungs-Diagramme.
Die Reinhaltung der Luft ist für die menschliche Gesundheit und im Rahmen des Umweltschutzes unentbehrlich. Im Zuge der Industrialisierung kam es in der Vergangenheit zum Teil zu erheblichen Beeinträchtigungen der Luftqualität. Trotz umwelttechnisch deutlich verbesserter Produktionsabläufe werden auch weiterhin bestimmte Stoffe emittiert. Für die Entwicklung eines neuartigen und nachhaltigen Verfahrens zur Abluftreinigung hat der Forschungsverbund HUPAC im gleichnamigen Projekt die Abluftreinigung VOC- bzw. ammoniakbelasteter Abluft thematisiert. Diese beiden Substanzen sind von besonderer Relevanz für die Beeinträchtigung der Umwelt bzw. der Luftqualität. Für ihre Abreinigung aus der Abluft von Produktionsprozessen wurde im Projekt eine neuartige Technologie entwickelt, die aus einer Kombination adsorptiver und mikrobieller Prozesse auf der Basis huminsandhaltiger, zellulosebasierter Pellets verläuft. Bei den als reaktive Komponente eingesetzten Huminsanden handelt es sich um natürliche Substrate, welche aus Tagebauen des Lausitzer und Mitteldeutschen Braunkohle-Reviers kostengünstig gewonnen werden können, die über interessante physiko-chemische Eigenschaften verfügen und die damit generell für eine innovative Alternative als Substrat für Abreinigungsprozesse genutzt werden können. Die Eignung der aus den Sanden hergestellten Pellets für die Abluftreinigung wurde im Rahmen des HUPAC-Projekts laborativ sowie praktisch getestet und ausgewertet. Wie erwartet, können die Huminsand-Pellets die Schadstoffe (VOC bzw. Ammoniak) zunächst adsorptiv binden. Die fixierten Schadstoffe werden dann anschließend durch eine sich etablierende Mikroorganismenpopulation abgebaut. Im technologisch angelegten Projekt wurden Eignung der Substrate und Erfolg der Reinigungsleistung mit der Gegenüberstellung von input und output bewertet, wobei die Huminstoffe als
Inhaltsverzeichnis 1. Einleitung/Motivation 2. Cyanobakterien 3. Sekundärmetaboliten und deren öko- und humantoxikologische Bedeutung 3.1. Stoffwechselprodukte der Cyanobakterien 3.2. Wirkung in der Umwelt 3.3. Analytische Methoden 4. Verfahrenskonzepte zur Beseitigung von Stoffwechselprodukten der Cyanobakterien in der Trinkwasseraufbereitung 4.1. Notwendigkeit der Abtrennung bzw. Umsetzung 4.2. Verfahrenskonzepte 4.2.1 Adsorption 4.2.2.Membranverfahren 4.2.3.Ultraschall 4.2.3 Chemische Umsetzung 4.2.4 AOP 4.2.1 Verfahrenskombinationen 4.3. Bewertung und Vergleich der Verfahrensvarianten 4.3.1. Risikoabschätzung in Bezug auf die Bildung toxischer Zwischenprodukte und Abfallstoffe 4.3.2. Abschätzung notwendiger Investitions- und Betriebskosten 4.4. Studien und großtechnisch realisierte Projekte zur Beseitigung von organischen Spurenstoffen in Wässern 4.4.1. Geosmin und MIB 4.4.2. Behandlungskonzepte für weitere organische Spurenstoffe in Rohwässern 5. Zusammenfassung
In der vorliegenden Arbeit wird die Wirksamkeit eines Ausheiz- und Belüftungsverfahrens zur Sanierung eines ausgewählten VOC-Schadensfalls überprüft. Es handelt es sich in diesem Fall um lösemittelbelastete Mauerwerksbereiche in Büroräumen eines historischen Sockelgeschosses. Durch die technisch unterstützte Einstellung emissionsbeschleunigender Parameter, wie der Erhöhung der Bauteiltemperatur und des Luftwechsels, soll die Schadstoffquelle vollständig abgebaut, oder zumindest deutlich verringert werden. Die Anwendung solcher Verfahren erfolgt bei VOC-Sanierungsmaßnahmen bislang nur sehr vereinzelt. Üblicherweise wird auf konventionelle Verfahren, wie z.B. Beschichtungssysteme zur Quellenverkapselung zurückgegriffen. Der Vorteil von Ausheiz- und Belüftungsverfahren wird in der zerstörungsfreien und nachhaltigen Beseitigung der Schadstoffquelle gesehen. Detaillierte Informationen und Messdaten über Möglichkeiten und Grenzen emissionssteigernder Maßnahmen an reellen VOC-Schadensfällen liegen jedoch kaum vor. Diese sind exemplarisch anhand des ausgewählten Schadensfalls erhoben worden. Neben der Darstellung der technischen Umsetzung und der messtechnischen Überwachung des Verfahrens, werden in der Arbeit auch die Ergebnisse bisheriger Sanierungsversuche im Objekt präsentiert, sowie Vor- und Nachteile der jeweiligen Verfahren diskutiert.
Kalibrierung und Freilandtest von Passivsammlern für ausgewählte organische Gewässerschadstoffe
(2015)
Passivsammler sind schon seit einigen Jahren in der Entwicklung. Mit ihnen können zeitgemittelte Konzentration über einen längeren Zeitraum in einem Umweltmedium ermittelt werden. Typische Vertreter sind der POCIS, der Chemcatcher oder der am UFZ entwickelte MESCO. Weiterhin wird in einer Studie am UFZ derzeit ein anderes Passivsammlermaterial untersucht, Polyethersulfon (PES). Bereits seit Jahren sind PES-Membranen Bestandteile von Passivsammlern. Sie dienen als Schutz-membranen um das eigentliche Sammlermaterial vor zu starker Verschmutzung oder Bioaufwuchs zu schützen. Es existieren jedoch Untersuchungen die belegen, dass manche Schadstoffe sehr gut im PES aufgenommen werden, wenn nicht sogar besser als in der eigentlichen Sammelphase. Aus diesem Grund sollte Poly-ethersulfon in dieser Arbeit auf seine Eignung als Passivsammler, bzw. auf seine Sammeleigenschaften (Verteilungskoeffizienten und Sammelraten), für bestimmte Gewässerschadstoffe untersucht werden. Es wurden elf Substanzen ausgewählt und die PES-Membranen in zwei mehrwöchigen Laborexperimenten und einem Freilandtest untersucht. Im Labor wurde ein Glasgefäß mit Wasser befüllt, welches mit einem Schadstoffcocktail kontaminiert war. Nach der Befestigung der Sammler im Gefäß, wurde mithilfe eines Magnetrührers eine leichte Strömung erzeugt. Im ersten Versuch wurden die Verteilungskoeffizienten der Stoffe ermittelt und im zweiten Versuch die Sammelraten. Beide Parameter sind wichtig und müssen bekannt sein wenn ein Passivsammler für die Untersuchung von Gewässern genutzt werden soll. Zusätzlich wurden die Sammler im 20-tägigen Feldversuch in der Saale bei Halle und im Ablauf des Klärwerks Halle Nord getestet.
Evaluierung von unterschiedlichen optischen Fasern für die Winkelmessung an einem Stützgelenk
(2015)
In Rahmen dieser Bachelorarbeit wurden verschiedene optische Fasern auf ihre Auskopplung von Licht durch Biegung dieser untersucht. Das Ziel war es, Erkenntnisse über die Auskopplungsmechanik zu gewinnen, um den genannten Effekt später für die Winkelmessung an einem Stützgelenk zu verwenden. Es wurden viele verschiedene Messaufbauten gewählt, um eine umfangreiche Abdeckung der Möglichkeiten Auskopplung von Licht aus einer Faser durch Biegung zu ermöglichen. Unterschiedliche Einflussgrößen, wie zum Beispiel verwendeter Laser, Mikroskoobjektiv und Faserlänge sind statistisch abgesichert gemessen und bilden eine Grundlage für die Weiterverarbeitung der optischen Fasern. Zusätzlich ist der Effekt der Evaneszenz beim Biegen einer Duplexfaser untersucht wurden. Abschließend kommt es zu einem Vergleich von anderen optischen Messverfahren zu diesem genannten Verfahren.
Die vorliegende Arbeit umfasst die Übertragung eines patentierten Rolle"=zu"=Rolle"=Plasmaätzverfahrens auf das Polymer PMMA, sowie die Charakterisierung der modifizierten Folien. Der Plasmaätzprozess basiert auf einem Sauerstoffplasma mit einem Doppelmagnetronsystem als Plasmaquelle und wird zur Erzeugung von Nanostrukturen genutzt. Als Targetmaterialien für das Doppelmagnetronsystem werden Magnesium, Aluminium und Titan genutzt. Durch die erzeugten Nanostrukturen wird ein Gradientenverlauf der Brechzahl zwischen Folie und Umgebung erzeugt, wodurch eine breitbandige optische Entspiegelung erreicht wird. Durch die Verbesserung der optischen Eigenschaften der PMMA-Folie soll ein weiteres Material für die Frontseitenverkapselung von optischen Bauelementen untersucht werden. Zunächst werden die mechanischen und optischen Eigenschaften der PMMA-Folie charakterisiert. Die Ergebnisse zeigen, dass PMMA schon eine hohe Transparenz besitzt. Durch die erfolgreiche Übertragung des Prozesses konnte die optische Transmission um 2 % - 3 % für die untersuchten Targetmaterialien erhöht werden. Für die Titantargets ergaben sich die besten optischen Eigenschaften. Die Ergebnisse, sowie REM-Untersuchungen der Nanostrukturen werden vorgestellt. Um den Prozess zu optimieren wurde der Einfluss der Prozessparameter Geschwindigkeit, Leistung und Sauerstofffluss auf die Transmission untersucht. Die ermittelten Zusammenhänge werden gezeigt und diskutiert. Für eine beidseitig behandelte Folie ergab sich eine Restreflexion von unter 1 % pro Seite. Des Weiteren wurden Versuche mit einer Initialschicht durchgeführt, da sich diese auf anderen Polymeren als vorteilhaft erwiesen hat.
Die stetig fortschreitende Miniaturisierung in der Herstellung elektronischer Schaltkreise führt zu immer geringeren Leitungsquerschnitten. Daraus folgt ein Anstieg der Stromdichte, welcher ein erhöhtes Ausfallrisiko des Schaltkreises durch Elektromigration zur Folge hat. Hierbei findet eine diffusionsgetriebene Umlagerung von Kupferatomen statt, wodurch Unterbrechungen der Leiterbahnen oder Kurzschlüsse zwischen benachbarten Leiterzügen entstehen können. Elektromigration kann durch die Abscheidung von Adhäsionsschichten effektiv verringert werden. Hierfür werden auch mittels MOCVD abgeschiedene Kobaltschichten in Betracht gezogen. Ziel dieser Arbeit war es, auf Basis der theoretisch zu erwartenden Einflüsse der ver-schiedenen Prozessparameter einen Versuchsplan zu erstellen und den MOCVD-Prozess zur Herstellung von Kobaltdeckschichten für die Kupfermetallisierung systematisch zu untersuchen. Um Kurzschlüsse zwischen benachbarten Leiterbahnen zu verhindern, musste ein materialselektiver Abscheidungsprozess entwickelt werden. Die Einflüsse der Prozess-parameter auf die Abscheidung wurden untersucht und Auswirkungen auf das Wachstumsverhalten und die Eigenschaften der Kobaltschichten diskutiert. Die Schicht-charakterisierung belegte, dass es gelungen war einen materialselektiven Abscheidungs-prozess zu entwickeln. Es konnte ein Beschichtungsprozess etabliert werden, welcher es ermöglicht Kobalt bevorzugt auf den Kupferleiterbahnen und nicht auf den umliegenden isolierenden Gebieten abzuscheiden. Für ein reproduzierbares Beschichtungsergebnis ist ein in-situ Vorbehandlungsprozess erforderlich. Sowohl für die Entfernung oberflächlicher Adsorbate als auch für die Reduktion von gebundenem Sauerstoff konnte ein effektives Vorgehen entwickelt werden.
Mit der Energiewende und dem weiteren Ausbau von erneuerbaren Energien, rückt die The-matik der Energiespeicherung immer weiter in den Vordergrund. Das Ziel dieser Arbeit bestand darin, den Autarkiegrad eines Photovoltaiksystems mit integriertem Akkumulator zu prognostizieren. Dabei wurde ein Algorithmus entwickelt, welcher die Basis der Simulation bildet. Für eine Beispielrechnung wurde das Speichersystem Senec.Home G2 von der Deutschen Energieversorgung, eine 7,87 kWp Photovoltaikanlage und ein privater Haushalt mit 4.000 kWh Jahresstromverbrauch ausgewählt. Es konnte nachgewiesen werden, dass die Prognose des Autarkiegrades durch das Simulationsprogramm nur geringe Abweichungen zum tatsächlichen Wert aufweist. Ebenfalls wurde die Wirtschaftlichkeit ohne Berücksichtigung einer Förderung betrachtet. Es wurde festgestellt, dass eine Photovoltaikanlage ohne Akkumulator rentabler als das Photovoltaiksystem mit dem Speicher Senec.Home G2 ist. Dabei liegt die Hauptursache bei den hohen Investitionskosten der Photovoltaikspeicher. Unter Annahme des weiterhin steigenden Strompreises, einer Förderung und eines Preisverfalls von Photovoltaikakkumulatoren können die elektrochemischen Speicher ein wichtiger Bestandteil der Photovoltaik werden und somit einen Beitrag zur Energiewende leisten.
Die Aufgabe dieser Arbeit bestand darin, einen möglichst einfachen Versuchsaufbau eines Laser-Doppler-Anemometers zu realisieren. Der Versuchsaufbau soll Studenten im Praktikumsversuch anschaulich den allgemeinen Aufbau eines LDA-Systems verdeutlichen. Zudem soll die Strömungsgeschwindigkeit einer Flüssigkeit in einem Rohr vermessen werden und der Druckverlust an einer Rohrwandung veranschaulicht werden.
G-Protein-gekoppelte Rezeptoren (GPCRs) bilden eine Gruppe von Membranproteinen mit sehr dynamischer Eigenschaft, die für die Aufrechterhaltung der zellulären Homöostase auf-grund ihrer vielfältigen Wirkungsweise im menschlichen Körper unerlässlich ist. So ist es wichtig, nicht nur den strukturellen Aufbau dieser Rezeptoren zu kennen, sondern auch ihre dynamischen Eigenschaften zu verstehen. In den letzten Jahren wurden viele Kristallstruktu-ren von GPCRs bekannt, die aber lediglich eine Momentaufnahme darstellen. Daher ist das Ziel dieser Arbeit, mit dem Neuropeptid Y-Rezeptor Typ 2, ein besseres Verständnis über die molekulare Beweglichkeit innerhalb seiner Umgebung zu erlangen. Dies soll als Grundlage dienen, um künftig die Wechselwirkung mit einem Agonisten besser beurteilen zu können. Der Y2-Rezeptor spielt bei neuronalen Funktionen, wie z.B. Ängsten und Suchterkrankungen, eine wichtige Rolle. Für die Untersuchung der Dynamik des Rezeptors wurde dieser in verschiedene Modell-membranen, bestehend aus einfach-ungesättigten Phospholipiden, rekonstituiert und an-schließend mittels Festkörper-NMR-Spektroskopie untersucht. Da die Lipidumgebung einen großen Einfluss auf die Struktur und Dynamik der Rezeptoren ausübt, wurde zusätzlich der Einfluss von Cholesterol, Phosphatidylethanolamin oder negativ geladenen Phosphatidylserin als Bestandteile der Modellmembran auf den Y2-Rezeptor untersucht. Zudem wurde durch selektive Unterdrückung von Signalen durch paramagnetische Manganionen und Spin-markierten Lipiden die Dynamik einzelner Bereiche näher untersucht (sog. quenching). Zur Quantifizierung der Dynamik wurde das Verhältnis von bewegungsgemittelter und vol-ler dipolarer Kopplung für den H-C Bindungsvektor als Ordnungsparameter dargestellt. Dieser reicht von 0 (isotrop beweglich) bis 1 (starr). Statische 15N-NMR-Spektren und quantitative 1H-13C Ordnungsparameter Bestimmungen, durch 1H-13C dipolare Kopplungsmessungen der CH-, CH2-, und CH3-Gruppen, offenbarten für den gesamten Rezeptor axial-symmetrische Bewegungen in der Membran und molekulare Fluktuationen mit verschiedensten Amplituden aller Segmente. Ordnungsparameter (SRückgrat = 0,65 ± 0,04, SGly = 0,56 ± 0,04, SCH2 = 0,26 ± 0,02 - 0,40 ± 0,03, SCH3 = 0,20 ± 0,02) aus den direkt polarisierten 13C-MAS-NMR-Experimenten zeigten, dass der Rezeptor in den Membranen höchst beweglich ist und im Mittel die Bewegungsamplituden des Rückgrats bei ~40°-50° und für die Seitenketten bei ~60°-70° liegen. Interessanterweise zeigt der Neuropeptid Y-Rezeptor Typ 2 eine geringfügig höhere Rigi-dität in der einfach-ungesättigten Phospholipidmembran, im Gegensatz zur gesättigten Membran. Das könnte mit der gesteigerten Kettenlänge der einfach-ungesättigten Lipide und der damit einhergehenden Streckung des α-helikalen Anteils des Rezeptors zusammenhän-gen. Die unterschiedliche Lipidkomponenten in den Modellmembranen zeigten hingegen keinen signifikanten Einfluss auf den Y2-Rezeptor. Es konnte zudem gezeigt werden, dass durch gezieltes Quenching der Loops und Termini des Rezeptors der transmembrane helikale Anteil eine höhere Rigidität besitzt (SRückgrat = 0,70 ± 0,05, SGly = 0,65 ± 0,04, SCH2 = 0, 28 ± 0,02 - 0,40 ± 0,03, SCH3 = 0,21 ± 0,02). Die Unterdrückung der Signale des transmembranen Bereiches offenbarten einen tendenziellen Anstieg der Ordnungsparameter um ≤ 7% für die Segmente des Rückgrates. Das könnte an einer zu geringen Konzentration der Spin-markierten POPC-Lipide liegen, wodurch es lediglich zu einer Unterdrück der mobilen Sei-tenketten der α-Helices kommt.
Untersuchung und Charakterisierung eines Sandwich-Materialverbundes aus Hart-Coating und Polyisocyanurat-Hartschaum (PIR) als materialtechnische Lösung für Klimaprüfkammertüren. Ausgehend von einer Darstellung der eingesetzten Geräte und derer technischer Grundlagen, ist PIR-Hartschaum auf seine Temperaturbeständigkeit im Hoch- als auch im Minustemperaturbereich untersucht worden. In Kombination mit der Messung der Temperaturverteilung hinter dem Innensegment des Materialverbundes wird eine Entscheidungshilfe gegeben, wie der PIR-Hartschaum als Isoliermaterial im Türelement der Klimaprüfkammer Einsatz findet. Ein Ausblick beschreibt andere Anwendungsmöglichkeiten der neuen materialtechnischen Lösung in diesem Einsatzgebiet.
In the surgery of the pituitary gland and other related areas of the skull base, the endoscopic endonasal surgery has established oneself as today's operation method. Although the surgeon is able to look around corners with the aid of an endoscope, the dissection in these areas is limited. Current suction devices are limited in their size, shape, bending and prone to kinking because of the narrow suction channel. The work with such inadequate instruments increase the risk of life-threatening complications, prolong the operation and limit the quality of a complete tumor resection. The ideal suction device would be adaptable to numerous surgery situations, easy to bend, maintain its lumen, adequate in their ratio of rigidity and formability, ergonomic and reformable to its original shape. In the following bachelor thesis, it is shown that this can be achieved with a suction device with shape memory alloy. After the development of a comfortable hand sample, the suction device went into preparation and a risk analysis was performed. The results of the evaluation process are reductions in operative risk, time and cost if this bendable suction device would be applied. Therefore, approval for the international market should be sought, to provide an opportunity for safer and more effective surgical procedures.
Die Weltweite Nachfrage an Leistungshalbleiter ist in den vergangen Jahren rapide angestiegen. Um den stetig wachsenden Bedarf auf einem kostengünstigen Weg nachkommen zu können, wurde die Produktion der von Infineon Technologies produzierten Produkte (CoolMOSTM) von der 200 auf die 300 mm Waferproduktion transferiert. Die Herausforderungen für die Produktion dieser Technologie bleiben dennoch die gleichen. Besonders in der Lithographie stoßen die für die CMOS Technologie vorhandenen optischen Systeme an die Grenzen der Verwendungsmöglichkeiten. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von Einflussgrößen auf den Produktfokus, sowie auf die notwendige Dosis bei der Strukturierung von Silizium-Leistungshalbleitern, wobei alle Untersuchungen auf CoolMOSTM Produkten durchgeführt wurden. Nach einer Einleitung und Erläuterung der für diese Arbeit wichtigen Lithographischen Grundlagen, wird auf die Durchgeführten Experimente eingegangen und die resultierenden Erkenntnisse dargelegt. Am Schluss werden die in dieser Arbeit gesammelten Ergebnisse zusammengetragen und weitere Schritte, sowie der Einfluss der derzeitig verwendeten Dosis diskutiert. Abschließend werden die Resultate in die aktuelle internationale Forschung eingeordnet und diskutiert.
Die vorliegende Bachelorarbeit leistet einen Beitrag zum Aufbau eines in situ arbeitenden Laserpartikelzählers mit Echtzeitmessung für Ionenimplanter. Es werden unterschiedliche Komponenten, wie z.B. Lichtdetektoren, untersucht und diese zu einem Partikelzählmessplatz, der in atmosphärischer Umgebung betrieben wird, kombiniert. Das Funktionsprinzip des Messplatzes und das Auftreten von Partikelsignalen in Koinzidenz werden gezeigt. Es werden Möglichkeiten zur Verknüpfung der beiden Detektorausgangssignale vorgestellt und die Auswirkungen bei Koinzidenzverletzung untersucht. Ein weiterer Bestandteil ist die Automatisierung der Partikelerkennung. Dazu wird ein Auswertealgorithmus vorgestellt, der Partikel zählt und nach Höhe und Breite klassiert. Unter dessen Verwendung werden Einflüsse wie Samplerate der Messwerterfassung und Ausrichtung der Polarisationsebene der Laserstrahlung zu den Detektoren auf die Effizienz der Partikelzählung untersucht. Zum Abschluss werden Messabweichungen infolge der Messwerterfassung diskutiert.
Als Ausgangspunkt der Arbeit auf dem Gebiet der Quantum Dot LEDs (QD-LEDs) wurden bereits verschiedene Materialien für Ladungsträgertransportschichten (engl. charge transport layer, CTL), verschiedene Sorten Quantum Dots (QDs) und Aufbringungsmethoden von dünnen Schichten untersucht. Über Langzeitstudien und Degradation war bis dato noch wenig bekannt. Es gab lediglich die Erkenntnis, dass die Elektrolumineszenz (EL) der QD-LED bei Inbetriebnahme einen sofortigen und starken Abfall über der Betriebszeit zeigte. Es gab die Vermutung, dass infolge einer hohen Stromdichte und damit einer hohen Temperatur im Bauteil, die organischen CTLs und auch die emittierenden QDs irreversibel geschädigt werden. Ziel dieser Arbeit ist es, mithilfe genauer Untersuchungen an CTLs und an QDs, die Effizienz und Lebensdauer der QD-LEDs zu erhöhen. Dazu wurden verschiedene Herstellungsparameter variiert wie z.B. die Herstellungsumgebung, die Präparation der Lochinjektionsschicht (engl. hole injection layer, HIL), die Schichtdicke und das Tempern der QD-Schicht, die Substratvorbehandlung und die Verkapselung des Bauteils. Anschließend wurde deren Einfluss auf die elektrooptischen Eigenschaften und das Langzeitverhalten untersucht. Des Weiteren galt es herauszufinden, welche möglichen Degradationsmuster bei den QD-LEDs auftreten und worin deren Ursachen liegen. Aufgrund einer verbesserten Präparation der HIL, bestehend aus Poly(3,4-ethylenedioxythiophene)-poly(styrenesulfonate) (PEDOT:PSS), konnten elektrisch leitfähige und stabile Schichten ohne elektrische Kurzschlüsse hergestellt werden. Durch das gezielte Tempern von QDs konnte mithilfe von Photolumineszenzmessungen herausgefunden werden, dass die verschiedenen Sorten von QDs eine sehr unterschiedliche thermische Stabilität besitzen. Des Weiteren konnte durch eine Vorbehandlung des Substrates aus Indiumzinnoxid (engI. indium tin oxide, ITO) mit einem Sauerstoffplasma, der Kontaktwinkel verringert und die Oberflächenenergie erhöht werden. Aufgrund der verbesserten Adhäsion von PEDOT:PSS entstand somit ein stabilerer Kontakt zwischen den beiden Schichten, wodurch die Langzeitstabilität der QD-LED leicht erhöht werden konnte. Ein Abkühlen des Bauteils nach dem Tempern jeder einzelnen Schicht während des Herstellungsprozesses, bewirkt dabei ebenfalls eine Steigerung der Langzeitstabilität. Durch eine Variation der Schichtdicke der QD-Schicht konnte zudem die optische Leistungsdichte erhöht werden. Im Gegensatz dazu konnte durch eine teilweise Herstellung der QD-LED in einer vereinfachten Glovebox und unter Inertgasatmosphäre, keine Verbesserung der optischen Leistungsdichte und der Langzeitstabilität nachgewiesen werden. Eine Kapselung des Bauteils durch eine mit Epoxidharz befestigten Glasplatte auf der Bauteiloberfläche, führte dabei zu einer starken Verschlechterung der optischen Leistungsdichte der QD-LED. Die Langezeitstabilität des Bauteils wurde durch eine Kapselung zudem nur geringfügig verbessert. Des Weiteren konnte mithilfe von Pulsmessungen der EL und der Photolumineszenz (PL) an einer QD-LED, ein Rückschluss auf die im Bauteil vorliegende Temperatur bei Inbetriebnahme gezogen werden. Insgesamt wurden durch eine verbesserte Herstellung der Bauteile, die elektrooptischen Eigenschaften der QD-LEDs deutlich verbessert. Die Langzeitstabilität der Bauteile konnte dabei durch eine teilweise Herstellung der Proben in einer Inertgasatmosphäre und durch eine Kapselung nicht erhöht werden. Eine Möglichkeit besteht darin, andere Schichtmaterialien und/oder eine invertierte Bauteilstruktur zu testen. Ferner ist eine Präparation der QD-LEDs in einer Glovebox unter reiner Stickstoffatmosphäre zwingend notwendig, um die Effizienz und Langzeitstabilität der QD-LEDs nachhaltig erhöhen zu können.
Kernthema dieser Bachelor Thesis ist die Erarbeitung eines grundlegenden Ablaufplans zur Qualifikation und Freigabe eines neuen Lötstopplacks und dessen beispielhafte Durchführung anhand einer neuen weißen Lötstoppmaske. Diesbezüglich werden wissenschaftliche Hintergründe zu den gewählten Testmethoden erläutert und die durchgeführten Versuche sowie die verwendeten Anlagen, Geräte und Parameter präsentiert. Unter Bewertung der Eignung der genutzten Prüfverfahren und Berücksichtigung der gestellten Anforderungen an eine Stopplackschicht erfolgt eine rationale Auswertung und Diskussion der gewonnenen Versuchsergebnisse und Erkenntnisse.
Die Doppelseitenpolitur (DSP) ist ein wichtiger Bearbeitungsschritt bei der Herstellung von Siliziumwafern, welcher zur Planarisierung der Waferoberfläche und Entfernung der Restdefekte der vorhergehenden Schritte benutzt wird. Im Rahmen dieser Arbeit wurden die Ursachen für die während der DSP-Politur auftretenden Geräusche im Bereich von ca. 850 Hz untersucht, die auf den Stick-Slip- (Haft-Gleit-) Effekt zurückzuführen sind. Die Geräusche wurden aufgenommen und mittels FFT-Analyse charakterisiert. Für den Wafer wurde ein FEM-Modell erstellt, mit dessen Hilfe eine Eigenfrequenzanalyse durchgeführt worden ist. Es wurde nachgewiesen, dass die Frequenz der untersuchten Geräusche der Eigenfrequenz des Wafers entspricht. Des Weiteren wurde festgestellt, dass die Poliermittelfilmdicke hauptsächlich für das Auftreten des Stick-Slips und damit für die Anregung des Wafers maßgebend ist. Abschließend wird ein Modell zur Entstehung des Stick-Slip Effektes bei DSP erstellt und beschrieben.
Der Halbleiterhersteller X-FAB bietet eine Reihe von Technologien (z.B. XH018) in denen CMOS-Photodioden hergestellt werden. Am Ende der Prozessierung werden die Halbleiterbauelemente auf Waferebene geprüft. Bislang konnten nur rein elektrische Parameter wie Kapazitäten oder Durchbruchsspannungen im Prozess Monitoring geprüft werden. Für optoelektronische Parameter, wie beispielsweise die Sensitivität von Photodioden, wird eine flexible Beleuchtung benötigt, die in das bestehende Testsystem integriert werden kann. Die homogene Beleuchtung soll dabei mit verschiedenen Wellenlängen erfolgen, welche das relevante Spektrum repräsentieren. Hauptziel ist die reproduzierbare Messung von Photoströmen, wodurch Prozessunterschiede in dielektrischen Schichten detektiert werden können, die mit rein elektrischen Messung nicht erfasst werden. Bei dem vorgestellten Konzept wird neben der Photodiode auch der umliegende Siliziumwafer beleuchtet. Dadurch entstehen laterale Ladungsträger, welche den Photostrom beeinflussen können. Zur Abschätzung dieses Einflusses wurden Teststrukturen entwickelt und ausgewertet.
Die Konzeptstudie befasst sich mit der Evaluierung unterschiedlicher Konzepte von Avalanche Photodioden in einer 0,18 µm CMOS- Hochvolttechnologie. Die Anforderungen für die Avalanche Photodioden liegen bei einer Durchbruchspannung von 14 V in Sperrrichtung und haben eine maximale Quanteneffizienz von 850 nm/940 nm im nahen infraroten Bereich. In Betracht wurden fünf verschiedene Strukturen gezogen. Anhand von TCAD-Simulationen ließen sich unterschiedlichen Parameter der APDs untersuchen und Prozesseinflüsse definieren. Ein Abgleich der Simulationsmodelle erfolgt über die Messung mit einer Referenzdiode. Mit dieser Vergleichsmessung lässt sich die Gültigkeit der Simulation bestätigen oder widerlegen. Nur so können die Ergebnisse der APDs eingeordnet werden.
Flammengestützte Abscheidung verschiedener Schichtsysteme und Optimierung des r-CCVD Prinzips
(2015)
Die vorliegende Arbeit beschäftigt sich mit der flammengestützen Abscheidung verschiedener Schichtsysteme unter der Zuhilfenahme des remote Combustion Chemical Vapor Deposition Verfahrens. Zahlreiche und hydrolytisch umsetzbare Precursoren konnten recherchiert werden. Unter verschiedenen Bedingungen erfolgte eine Auswahl an bestimmten Precurso-ren zur Erprobung. Titandioxid- (mittels Titantetraisopropoxid und Titanethoxid), Siliziumdi-oxid- (Hexamethyldisiloxan und Triethoxyorthosilikat), Aminosilan- (3-Aminopropyltriethoxysilan) und Aminotitanatschichten (Isopropyl tri(N-ethylene diamino)ethyl titanat) wurden erzeugt und ihre Schichteigenschaften mit unterschiedlichen instrumentellen Anlagen charakterisiert. Zu den Charakterisierungsmöglichkeiten gehörten ein Profilometer zur Schichtdickenbestimmung, Röntgen-Photoelektronenspektroskopie (XPS) und energie-dispersive Röntgenspektroskopie (EDX) zur Elementanalyse sowie ein Röntgendiffraktome-ter mit streifendem Einfall (GIXRD) zur Zusammensetzungsbestimmung. Weiterhin erfolgten Rasterelektronen- (REM), Raster-Kraft-Mikroskopie (AFM) und Grauwertmessungen zur Bestimmung der Oberflächenbeschaffenheit. Die Anlagenoptimierung erfolgte hinsichtlich Abscheiderate durch die Erprobung unternehmensentwickelter Verdampfereinheiten und hin-sichtlich des Prozessparameters Temperatur der Precursorsprühleiste.
Schleifen ist ein bedeutsames und hochpräzises Verfahren in der mechanischen Fertigung. Durch verschiedene Einflüsse kann es bei der Bearbeitung von Werkstücken zur Entstehung von Schleifbrand kommen. Schleifbrand ist eine lokale Gefügeumwandlung im Bauteil, die Belastbarkeit und Langlebigkeit des Werkstückes herabsetzt. Eingeführte Detektionsverfahren für die Erkennung von Schleifbrand sind: Wirbelstromprüfung und Nitalätzung. Um die Funktion dieser Verfahren in regelmäßigen Abständen zu prüfen, werden Vergleichskörper mit künstlicher Inhomogenität durch Laserbehandlung hergestellt. Zur Verbesserung der Prozessfähigkeit und zur Minimierung des Geometrieeinflusses der Bauteile wurde eine Optimierung der Laseroptik durchgeführt. Für die Auslegung der Optik wurde eine Strahlcharakterisierung des kollimierten und fokussierten Strahls vorgenommen. Es wurde eine Aufweitung des Laserstrahls durchgeführt und der Arbeitspunkt wurde vom des fokussierten Stahl in den Fokus verschoben. Benutzt wurde hierfür eine zweilinsige Teleskopanordnung. Daraufhin wurde die Funktionalität der optimierten Optik mit diversen Probenkörpern unter Variation Prozess-, Material- und Geometrieparameter untersucht. Die Ergebnisse der Laserbehandlung mit optimierter Laseroptik wurden mit denen der Ausgangsoptik verglichen und eine Verbesserung der Prozessfähigkeit festgestellt.
Die vorliegende Masterarbeit beschäftigt sich mit dem Verfahren der thermischen Hochrateverdampfung zur Abscheidung von aluminiumbasierten Schichten auf Kleinteilen, die als Schüttgut behandelt werden. Realisiert wird dies mit der am Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik (FEP) entwickelten Versuchsanlage ALMA 1000. Die Anlage vereint zwei physikalische Dampfabscheidungs-prozesse (engl.: physical vapor deposition
Bestimmung der Dichte und Gasaufnahme aufgedampfter reiner Siliziumschichten mittels Quarzmikrowaage
(2015)
Der erste Teil der Arbeit beschäftigt sich mit der Untersuchung eines alternativen Verfahrens zur Dichtebestimmung E-Strahl-aufgedampfter amorpher Silizium-Schichten (a-Si) mittels Schwingquarzmessung. Ziel war es einen Kompromiss zwischen hoher Genauigkeit und geringem apparativem Aufwand zu finden. Durch Messung der Si-Schichtdicke mittels Tastschnittgerät und der Massenbelegung aus der korrelierten Frequenzänderung des Schwingquarzes (SQ) nach Sauerbrey wurde die Schichtdichte bestimmt. Hierbei wurde der Einfluss des Quarzes (Oberflächenrauheit, Behandlungshistorie) und der Versuchsbedingungen (Substrattemperatur, Abscheiderate) auf die Dichte der Schichten und deren Genauigkeit untersucht. Im zweiten Teil wurde der Effekt der Gasabsorption auf diese Schichten in Abhängigkeit der Abscheidebedingungen untersucht. Dazu wurden frisch abgeschiedene a-Si-Schichten definierten Atmosphären (Druck, Gasart) ausgesetzt und mittels Schwingquarz in-situ die Massenbelegung aufgenommen.
Die vorliegende Arbeit behandelt die Konstruktion eines Molekülverdampfers für die Ab-scheidung von endohedralen Fullerenen unter Ultrahochvakuumbedingungen zur Herstellung von geeigneten Proben für die Tunnelmikroskopie. Anhand erster tunnelmikroskopischer Messergebnisse zu Er3N@C80 auf Metalloberflächen wird die Funktionsfähigkeit des Verdampfers eindrucksvoll bestätigt. Nach einer kurzen Vorstellung der abzuscheidenden endohedralen Fullerene werden die für den Verdampfungsprozess relevanten thermodynamischen Grundlagen zusammengefasst dargestellt. Anschließend wird der Aufbau des Verdampfers präsentiert. Über Betrachtungen zu den Grundlagen der Tunnelmikroskopie soll die Interpretation der im darauf folgenden Kapitel vorgestellten Messergebnisse ermöglicht werden. Rastertunnelmikroskopische und -spektroskopische Daten zu Er3N@C80 auf Wolfram Gold werden gezeigt.
Für die Charakterisierung von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen wird eine Messprozedur benötigt, die den Anforderungen einer solchen Produktion gewachsen ist. Zum einen ist es notwendig, dass die Genauigkeit und Präzision der verwendeten Messsysteme besser ist, als die Prozessstreuung der Abscheideprozesse. Nur so ist es möglich den Prozess zu kontrollieren. Hierfür werden in der Masterarbeit die Messsysteme mit Hilfe einer Messsystemanalyse untersucht. Zum anderen ist es notwendig, den Eingriff in den Herstellungsprozess so gering wie möglich zu halten. Hierfür werden in der Masterarbeit alternative Messmethoden zur Charakterisierung der elektrischen Eigenschaften der Indium-Zinn-Oxid-Schichten evaluiert. Als Ergebnis der Masterarbeit wird eine Messprozedur dargelegt, die für die Charakterisierung der elektrischen Eigenschaften von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen geeignet ist.
Für die Entwicklung neuer Medikamente und zur Züchtung künstlicher Organe ist es essenziell, die Wechselwirkungen zwischen verschiedenen Organen zu Untersuchen. Darum ist es notwendig, über ein komplexes und realitätsnahes Modellsystem zu verfügen, Lab-on-Chip Bioreaktoren bieten diese Möglichkeit. Ziel dieser Arbeit ist es, ein Messsystem zu entwickeln, das unter Ausnutzung von im Stoffwechsel aller eukaryotischen Zellen vorkommenden Substanzen zur kontinuierlichen Überwachung der Zellen geeignet ist. Als geeignete Markerfreie Messung hat sich die Fluoreszenzlebensdauermessung an NADH erwiesen. Die Änderungen des Metabolismus der Zelle sowie ihrer Umgebung führen zu einer Verschiebung der Fluoreszenzlebensdauer im einstelligen ns-Bereich. Da einige Stoffwechelprozesse in allen eukaryotischen Zellen gleich sind, konnte Saccharomyces cerevisiae als Modellorganismus zur realitäsnahen Messung eingesetzt werden. In dieser Arbeit wurden zeit- und frequenzbasierte Messmethoden zur ns-genauen Bestimmung der Fluoreszenzlebensdauer untersucht. Dabei wurden die Zellen gezielt mit den zellschädigenden Stoffen HCl sowie Triton-X100 behandelt und die Änderung vermessen. Es konnte gezeigt werden, dass sich die Fluoreszenzlebensdauer bei induzierter Apoptose um 1,4 ns verlängert, sowie durch induzierte Nekrosen um 0,5 ns verringert. Die Messergebnisse zeigen, dass es möglich ist, den Vitalitätszustand der Zellen optisch zu analysieren.
Die Arbeit beschäftigt sich mit den theoretischen Grundlagen der optischen und chemischen Eigenschaften der Haut und von Hautkrebs und dessen bislang gängigen Detektionsmöglichkeiten in der Dermatologie. Der zweite Teil der Arbeit befasst sich mit der spektralen Analyse der Haut und eines Nävuszellnävus. Dabei werden grundlegende Eigenschaften wie Absorption, Reflektanz und Kontrast analysiert.
Im Rahmen dieser Ausarbeitung ist eine Serversoftware implementiert worden. Die programmierte Software stellt einen Dienst zur Verfügung, der Metadaten von Clients entgegen nimmt und diese verwaltet. Die zugesendeten Metadaten werden versioniert und vor inkonsistenten Speichervorgängen geschützt. Ziel dieser Arbeit ist, die Notwendigkeit der Software zu beschreiben und die Implementierung zu erläutern. Dafür werden die Softwaresysteme und die damit verbundenen Prozesse in der Götz Günther GmbH analysiert und beschrieben. Aus den entstehenden Informationen werden die Anforderungen an das Softwaresystem abgeleitet. Anschließend werden verschiedenste Technologien ausgewertet und ihre Qualifikation für die Verwendung im Projekt ermittelt. Dafür wird eine Diskussion durchgeführt, die die Technologien anhand verschiedenster Kriterien untersucht. In der Diskussion werden die Vor- und Nachteile der Technologien besprochen, damit der Grund der Entscheidung für eine bestimmte Technologie ersichtlich wird. Weiterhin wird die erstellte Serversoftware in ihrem Aufbau und ihrer Arbeitsweise erläutert. Dafür wird die Implementierung in verschiedenen Detailgraden betrachtet und schematisch mit UML-Diagrammen dargestellt. Die Implementierung wird in Komponenten unterteilt, die gemeinsam ein Aufgabenfeld realisieren und deren Arbeitsweise wird erläutert. Es wird auf die Modularität des Softwaresystems eingegangen, wobei verdeutlicht wird, in welcher Art und Weise die Komponenten miteinander verknüpft sind und wie diese ausgetauscht werden können. Danach wird die interne Struktur der Komponenten anhand von Klassendiagrammen geschildert und auf implementationsspezifische Besonderheiten eingegangen. Es wird dargestellt, warum sich für diese Klassenarchitekturen entschieden wurde, dafür werden Modelle der C#-Entwicklung charakterisiert. Zum Schluss folgt ein Fazit, das die entstandene Software evaluiert und Mängel in der Systemarchitektur identifiziert. Es werden Lösungen für die Bereinigung der Mängel besprochen.
Entwicklung eines Tools zur Erstellung und Veröffentlichung von dynamischen interaktiven Karten
(2015)
Die vorliegende Masterarbeit zeigt auf, wie mit vorgegebenen Technologien und Anwendungsfällen ein Tool erstellt wird, das für die Erstellung und Veröffentlichung von dynamischen interaktiven Karten dient. Nach der Herausarbeitung von thematischen Grundlagen erfolgt die Untersuchung von Anforderungen spezieller Fälle, sowie eine Einarbeitung und Darstellung der Möglichkeiten der Software-Infrastruktur. In Anbetracht dieser wird ein abstraktes Konzept aufgezeigt, dass Raum für die Interpretation in der Nutzung bestimmter Rahmenwerke lässt. Bei der anschließenden Erläuterung der Implementierung, werden eingesetzte Frameworks genannt und auf Besonderheiten im Quelltext eingegangen.
Die Arbeit beschäftigt sich mit der prototypischen Implementierung eines Andon-Boards für die Meleghy Automotive Unternehmensgruppe.Dabei werden Anforderungen aus betriebswirtschaftlichen Gesichtspunkten wie auch auf Hinsicht der Qualitätssicherung zusammengeführt und analysiert. Aus betriebswirtschaftlicher Hinsicht handelt es sich bei der Anwendung um ein Visualisierungstool aktueller Produktionsstatus auf Basis der Produktionsdaten eines bestehenden SAP-Systems. Zusätzlich zu den Produktionsdaten werden Echtzeit-Daten mittels einer Anbindung an eine Anlagen-SPS angezeigt. Neben der Anzeige von Echtzeit-Daten befasst sich die Arbeit auch mit der Ermittlung und Aufbereitung von statistisch ermittelten Daten.
Die Arbeit befasst sich mit der Konzeption eines Tools, dass die Modellierung zeitabhängiger Städteansichten ermöglicht. Ziel der Anwendung ist es, ein virtuelles 3D-Stadtmodell aus historischen Abbildungen erstellen zu können. Das Modell soll außerdem nicht an einen Zeitpunkt gebunden sein, sondern für unterschiedliche Zeitpunkte in der Vergangenheit generiert werden können. Nutzer sollen zudem die Möglichkeit haben, bei der Vervollständigung des Modells zu helfen, da im historischen Kontext oft nur begrenzt viele Informationen vorhanden sind und sich jede Information als nützlich erweisen kann. In der Arbeit wird auf viele notwendige Schritte eingegangen, die beachtet werden müssen, um ein solches Tool zu implementieren. Besonders detailliert betrachtet wird der Schwerpunkt der 3D-Rekonstruktion aus von wenigen Bildern. Zudem wird ein Teil der Anwendung in JavaScript implementiert.
Das CSS-Framework Bootstrap hat in der weltweiten Webdeveloper Community eine hohe Popularität erlangt. Das Framework macht die Entwicklung von Webseiten und Blogs sehr einfach und unterstützt dabei bereits durchgängig die verschiedensten Geräteklassen vom PC bis zum Smartphone. Geht es jedoch um umfangreiche Webapplikationen, welche beispielsweise Daten erfassen, verändern oder darstellen, stellen sich für den Entwickler besondere Anforderungen an die Benutzeroberfläche, die auf statischen Webseiten oder Blogs nicht benötigt werden. Diese Arbeit soll ein Nutzerinteraktionskonzept vorstellen, bei dem die Features und Vorteile des Bootstrap Frameworks für die Erstellung von Webapplikationen genutzt werden können.
In diesem Bachelorarbeit wurde von der Analyse des Nachrichteneditors über den Standard hin alles ermittelt um nach einem umfangreichen Konzept einen neuen Teil im Nachrichteneditor zu implementieren. Diese Arbeit ist mit umfassenden Quellenangabe und Datein aller Arten bezüglich des Optik und Konzepte auf beiligenden CD versehen
Als Ergebnis dieser Bachelorarbeit wurde eine Softwarelösung entwickelt, die ein Fernupdate für den Live-Ticker repräsentiert. Der Schwerpunkt dieser Aktualisierungsanwendung ist die Zuverlässigkeit. Die Konzeption des sicheren Update-Vorgangs wurde dabei in dieser Arbeit entworfen. Um ein atomares Update durchzuführen, sind die häufigsten Fehler bei einem Fernupdate herausgefunden und die entsprechenden Massnahmen vorgenommen wurden, um diese Fehler zu beheben.
Die Bachelorarbeit befasst sich mit der Entwicklung der Visualisierungskomponente von anwendungsbezogenen Standorte und Route für Fuhrparkmanagement Software - comm.fleet von Community4you AG. Bei der Arbeit mit den geographischen Daten werden verschiedene APIs von Google und OpensStreetMap verwendet. Für die Entwicklung der Anwendung wurden folgende Technologien, wie Bootstrap JS Framework, Javascript Prototyping verwendet.Im Rahmen dieser Bachelorarbeit soll analysiert werden, die Verwendung von Kartendiensten von Google Maps und Openstreetmap - Projekt für die Visualisierung von Standorte und Route in comm.fleet. Zudem soll es eine prototypische clientseitige Anwendung entstehen, die in der Zukunft als internes Tool in comm.fleet integriert werden kann. Dadurch erlaubt die neue prototypische Visualisierungskomponente mittels eines Kartenmaterials die Darstellung von Standorte des Objektes und Route anhand der geographischen Koordinaten.
Die in dieser Arbeit entstandene Webanwendung zur Projektverwaltung kombiniert verschiedene Technologien, um den steigenden Anforderungen gerecht zu werden. Die Geschäftsprozesse wurden zunächst analysiert und für die Ausführung als BPMN-Workflows präzisiert. Die Ausführung übernimmt die Java-basierte Workflow Engine Activiti. Die Geschäftslogik wird mithilfe des Spring Framework realisiert. Geschäftsprozesse und
Während die Hardware eine lange Zeit auf dem neuesten Stand ist, benötigt die Software ständige Updates, weil jeden Tag neue Produkte im Bereich der Softwareentwicklung erzeugt werden und in die bestehenden Software-Produkte weiterentwickelt werden. Nicht zu vergessen ist, dass ein Programm von Menschen geschrieben wird und einige Bugs und Mängel im Endprodukt immer behoben werden müssen. Diese Bachelorarbeit befasst sich mit der Überblick über bestehende Update-Verfahren des Linux-Betriebssystem und der prototypischen Implementierung eigenes Verfahrens auf Basis von Raspberry Pi 2 für den Live-Ticker. In der Arbeit werden zuerst die bestehende Update-Verfahren des Linux-Betriebssystem und die Anforderungen, die während deren Entwicklung erfüllt wurden, betrachtet. Danach werden die Anforderungen zum Update-Prozess des Live-Tickers beschrieben und ein Überblick über die verwendete Technologien und Werkzeuge gegeben, mit denen eine eigens entwickelte Konzeption und Implementierung realisiert wurde. Diese Bachelorarbeit hängt mit der Abschlussarbeit "Erkennung abgebrochener/ungültiger Updates und Implementierung eines Fail-Safe-Verfahrens für einen Life-Ticker auf dem Rasperry Pi 2" von Frau Gafurova zusammen.
Immer mehr Menschen sehen heutzutage das Internet als eine Notwendigkeit an. Sei es nun zur Kommunikation, Informationsaustausch oder Informationsgewinnung. Im Zeitalter von Industrie 4.0 und Web 2.0 ist der Bedarf an Informationen im letzten Jahrzehnt enorm gewachsen. Dies ist bedingt durch eine rasant steigende Anzahl an Webseiten und Webanwendungen, die sich im Laufe der Zeit weiterentwickelt haben, um den Ansprüchen der Bevölkerung gerecht zu werden. Die zunehmende Komplexität der Anwendungen fordert deswegen eine höher werdende Durchsatzrate der Datenverbindung, mehr Speicher zum Ablegen der Daten und eine angemessene Rechenleistung für Berechnung von Algorithmen. Aufgrund dieser Anforderungen müssen Rechenzentren ihre vorhandenen Kapazitäten erhöhen. Diese Kapazitäten können entweder mit dem Ausbau des Rechenzentrums und Steigern der Serveranzahl erreicht werden oder aber mit Aufrüsten der vorhandenen Ressourcen. Das bedeutet analog dazu einen steigenden Wartungsaufwand für jeden Server, der zusätzlich benötigt wird. Für eine Reduktion des Wartungsaufwandes können KVM-Switches genutzt werden, welche eine Fernwartung ermöglichen. Dahingehend bezieht sich diese Arbeit auf eine KVM-Client-Implementierung für aktuelle Webbrowser. Dieser Client auf HTML5-Basis soll eine Alternative zu dem bereits entwickelten Java-Client darstellen, da die Browserhersteller zunehmend den Java-Support einstellen. Im Zuge der Projektarbeit wird Wissen über Farbräume, Codierungen, RFB und JavaScript benötigt, welches im Vorfeld erläutert wird.
Sichere Authentifizierung spielt in Zeiten der stetig wachsenden Vernetzung und Mobilität von Anwendungen eine immer größer werdende Rolle. Es gibt eine Vielzahl verschiedener Authentifizierungsmethoden mit unterschieldichen Sicherheitsniveaus. Abgeleitete Identitäten können verschiedene Authentifizierungsmethoden miteinander verbinden und haben das Potential, mögliche Herausforderungen zu lösen. Zu diesen Herausforderugen gehören unter anderem die Fragen der Usability. Im Rahmen der Arbeit soll ein prototypisches Konzept entwickelt werden, welches sich auf die Ableitung der elektronischen Identität aus dem neuen Personalausweis, fokusiert. Auf Basis des Konzepts erfolgt das proof-of-concept in Form einer Smartphoneapp für Android.
Entwicklung eines Dekodierers für binäre Korrektursignale als Grundlage für ein Differential-GPS
(2015)
Viele Anwendungen von Satellitengestützer Navigation gehen nicht über das Auswerten der Positionsdaten hinaus. Zum Herstellen eines eigenen Empfangsgeräts, welches Korrekturdaten des Radiobeacon DGPS berücksichtigt, ist eine Dekodierung dieser Korrekturdaten unerlässlich. Im Dokument beschrieben wird der Aufbau und eine Lösung zum Herstellen eines Software-Dekoders von RTCM2-Daten, welche über einen Mittelwellenempfänger erfasst wurden. Die Kommunikation mit dem Empfänger via Serieller Schnittstelle, dessen Konfiguration und das Zusammensetzen der empfangenen Bytes entsprechend des RTCM2-Standards werden behandelt.
Im modernen Gesundheitswesen ist für die Patientenversorgung heute eine einrichtungsübergreifende Kooperation und Datenaustausch notwendig, damit kein Missverständnis entstehe und Tests, Verfahren der Diagnosen, Behandlungen, Dokumentationen usw. nicht unnötig wiederholt werden. HL7 ist ein internationaler Standard für den Austausch und die Integration der medizinischen, administrativen und finanziellen Daten zwischen Informationssystemen im Gesundheitswesen, welcher zurzeit über 50 Ländern benutzt wird. Ziel dieser Bachelorarbeit war die Weiterentwicklung der im ehealth-Labor der Westsächsischen Hochschule vorhandenen Software (Nachrichteneditor), welches grundsätzlich zum Verständnis für Nachrichtenstandards beim Datenaustausch im Gesundheitswesen dienen soll. Zunächst sind dafür die Strukturen der HL7-Nachrichten analysiert worden. Anschließend ist eine Konzeption entstanden, welche zur Implementierung der Erstellung sowie Einlesen und Interpretierung der verschiedene HL7 Version 2.x Nachrichten- und Entitätstypen dient. In diesem Bericht sind die Analyse (wie oben), Konzeption, Implementierung des Nachrichteneditors sowie Weiterentwicklungsmöglichkeiten und Ausblicke erklärt worden.
Softwarearchitektur gilt als Königsdisziplin der Softwareentwicklung. Viele Aspekte sind für eine gute Architektur in Einklang zu bringen. Hierzu müssen neben Softwarequalitätskriterien wie Performance oder Wartbarkeit auch die Interessen aller Projektbeteiligten vom Kunden bis zum einzelnen Entwickler einbezogen werden. Je größer und komplexer ein Softwaresystem wird, desto herausfordernder ist auch die Entwicklung der Softwarearchitektur. Zudem entwickelt sich die Architektur aufgrund sich stetig ändernder Anforderung immer weiter. Bestehende Teile müssen umgestaltet und neue integriert werden. Es gilt die Komplexität zu beherrschen und den Überblick im Großen wie auch im Kleinen zu behalten. Von sich stetig ändernden Anforderungen ist auch das Softwaresystem HSCERP des Unternehmens HSC Solutions betroffen. Das ursprünglich für den Einsatz in Kleinstunternehmen ausgelegte System findet zunehmend mehr Interessenten mit einem immer größer werdenden Nutzerkreis. War die aktuelle Performance der Architektur unter Berücksichtigung der Anforderungen von Kleinst- und Kleinunternehmen angemessen, stößt sie in mittleren Unternehmen an ihre Grenzen. In der Softwaretechnik sind solche Probleme schon lange ein Thema. Sie wurden in zahlreichen Arbeiten behandelt und in Form von Standardarchitekturansätzen verarbeitet. Ziel dieser Arbeit ist die Untersuchung solcher Standardarchitekturen hinsichtlich ihrer Eignung zur Performancesteigerung von HSCERP. Zu den untersuchten Ansätzen zählen neben der weitverbreiteten Schichtenarchitektur und dem Ansatz des Domain Driven Designs auch das weniger bekannte Quasar, welches versucht eine Standardarchitektur speziell für ERP-Systeme zu beschreiben.
Im Laufe dieser Masterthesis sollen die Grundlagen für die Entwicklung eines Prototypen für eine Sprachsteuerung im Rahmen der Gebäudeautomatisierung ViciOne erarbeitet werden. Es wird gezeigt, wie sich die Prinzipien der Sprachsteuerung auf den Bereich des Smart Homes übertragen lassen und wo sie heute schon zum Einsatz kommen. Dabei werden alle theoretischen Grundlagen wie die Bedeutung der Sprache als primäres Kommunikationsmittel, so wie die Funktionsweise von Spracherkennung und -synthese ausführlich erläutert. Als Grundlage für das Projekt dient Microsofts Sprachassistent Cortana. Aus diesem Grund werden die zugrundeliegenden Technologien wie die UAP und Windows 10, welche für den Einsatz von Cortana benötigt werden, näher beschrieben. Da diese zum Zeitpunkt der Anfertigung der Arbeit nur als Vorabversion für Entwickler zur Verfügung standen, erfolgt eine weitreichende Analyse dieser Technologien. Die Untersuchung dieser Plattformen soll gleichzeitig auch als Grundlage für spätere Entwicklungen auf dieser Basis dienen. Außerdem werden die Versionen von Windows 10 IoT beschrieben und es wird auf deren Bedeutung für dieses und künftige Projekte eingegangen. Im praktischen Teil wird beschrieben, wie auf Basis der UAP und der neuen Windows 10 Plattform ein Prototyp einer Sprachverarbeitung umgesetzt wurde, der über einen selbst erstellten Treiber samt zugehörigem Funktionsblock von der ViciOne Engine verarbeitet werden kann. Das Ergebnis dieser Arbeit ist eine theoretisch fundierte Machbarkeitsstudie, die zeigt, wie eine Sprachsteuerung mit den neusten technischen Möglichkeiten umgesetzt werden kann, um den Nutzern eine einfache und benutzerfreundliche Schnittstelle für ihr Smart Home bieten zu können.
Einleitung Das Lehren und Lernen im Digitalen Zeitalter ist geprägt von Felxbilität und Ereichbarkeit zu jeder Zeit. Nutzer von Lernplattformen (LMS) möchten zu vermittelnde Inhalte einfach und schnell von jedem Ort aus erreichen. Teamfähikeit spielt ebenso eine Rolle, wie selbständiges Erwerben von neuem Wissen und die Fertigkeit es anzuwenden. Diese Ziele sollen möglichst zu annehmbaren Bedingungen ermöglicht werden. Deshalb greifen Ausbildungseinrichtungen und auch Unternehmen zur Unterstüzung auf solche Lernmanagementsysteme (LMS) zurück. In dieser Arbeit wird das Content Management eines LMS untersucht. Herzu ist zunächst in einer Diskusion zu ermitteln, welche Anforderungen für die Inhaltliche Bearbeitung, das Bedienverhalten der Software und dessen Administration erforderlich sind. Als Diskusionsgrundlage dient ein zu schaffender Überblick über mögliche LMS. Dieser wird anhand einer Webrecherge erzeugt, der einige Bedingungen erfüllen muss. Ein sich daraus ergebender Favourite, ist im Bereich Content Management zu untersuchen. Für diese Analyse dienen die nun nach der Diskusion ermittelten Anforderungen an das System.
In dieser Arbeit werden webbasierte Alternativen zur nativen App untersucht. Dazu zählen Web-Apps und hybride Apps. Diese portablen Mobile-Apps werden anhand von verschiedenen Bewertungskriterien, über eine jeweils eigen entwickelte App, getestet, verglichen, ausgewertet und diskutiert. Zu den Bewertungskriterien zählen verschiedene Hardwarezugriffe und eine möglichst gute Realisierung eines nativ-ähnlichen Design.