Refine
Year of publication
Document Type
- Master's Thesis (353) (remove)
Institute
- Physikalische Technik, Informatik (353) (remove)
Is part of the Bibliography
- no (353) (remove)
Zunehmend ersetzen Microservice-dominierte Architekturen monolithische oder starre SOA-Architekturen durch Infrastrukturlandschaften mit kleinen, der kontinuierlichen Anpassung unterworfenen Services eigenverantwortlicher Entwicklerteams. Das betrifft den Einbezug sowohl externer als auch unternehmensinterner Services. Die Arbeit gibt einen Überblick über das veränderte Vorgehen bei der Softwareentwicklung durch z.B. Container-Technologien und zeigt die Auswahl benötigter Werkzeuge, Qualitätssicherungs- und Auslieferungsprozesse auf. An einem konkreten Projektbeispiel wird deren Zusammenspiel nachgewiesen.
Im E-Commerce dominieren verschiedene monolithische Middleware-Lösungen den Markt, so hilft z. B. SAP Commerce Cloud Unternehmen dabei, Kosten zu senken, Zeit zu sparen und Komplexität zu reduzieren, um ein hervorragendes Kundenerlebnis zu generieren.
Im praktischen Betrieb zeigt die monolithische Middleware jedoch Einschränkungen bei agiler Entwicklung und bei der Skalierung verschiedener Lastszenarien.
Ziel dieser Arbeit ist es, eine Strategie zu entwickeln, um eine monolithische E-Commerce-Lösung, die auf kommerzieller Middleware basiert, in einzelne Microservices zu zerlegen. Dabei stehen die Fragen im Vordergrund, welche Einschränkungen sich aus dem Einsatz ergeben und wie diese abgemildert werden können. Schließlich wird geklärt, ob ein solcher Ansatz überhaupt die gewünschten Vorteile gegenüber der bisherigen Architektur bietet.
Um dem Versorgungsauftrag nachzukommen setzen Krankenhäuser innerhalb ihrer Funkti-onsbereiche unterschiedliche medizinische Geräte zur Untersuchung von Patienten ein. Diese Geräte sind auf unterschiedliche Art und Weise an die Kommunikationsinfrastruktur des Hau-ses angebunden und in die entsprechenden Prozesse der Diagnostik integriert. Gründe hierfür finden sich unter anderem in der Größe der Geräte und damit ihren Fähigkeiten sowie der finanziellen Ausstattung der Einrichtung zur Abdeckung der erforderlichen Anbindungsszena-rien. Gerade bei Klein- und Kleinstgeräten ist das Untersuchungsmonitoring und
In vorliegender Arbeit geht es um die Stabilitätskontrolle von Backendstrukuren mit ULK-Materialien. Weil die Strukturen bei der Mikrochipherstellung immer kleiner werden, müssen neuartige Materialien für die Isolierung der Leiterbahnen entwickelt werden. Diese Materialien nennt man ultra-low-k-Materialien, kurz ULK. Sie besitzen einer niedrige Dieelektrizitätszahl k. Diese Materialien kommen in den Verdrahtungsebenen im Mikrochip zum Einsatz und dienen dort als Isolator zwischen den Leitungsbahnen. Ulk beeinflusst jedoch die Stabilität des Backend negativ. Aus diesem Grund müssen schon in der Entwicklungsphase eines Mikrochips Tests durchgeführt werde. Der hier verwendete Test nennt sich Bump Assisted Backend of Line Stability Indentation Test (kurz BABSI-Test. Dieser Test ist durch GLOBALFOUNDRIES Dresden patentiert.Hierbei wird mit einer Nanoindenternadel in den Bump indentiert und anschließend ein Ritztest durchgeführt. Dabei kommt es durch die Lateralkraft, welche über dem Bump in das Backend ein gekoppelt wird, zu einer Schädigung im Backend. Die Lateralkraft bei der das Backend geschädigt wird dient als Stabilitätskennzahl. Somit können verschiedene Backendvarianten bzw. verschiedene Fertigungsprozesse miteinerander verglichen werden. In der Arbeit werden verschiedene Versuche durchgeführt, um den BABSI-Test zu verbessern. So kommen zum Beispiel verschiedene Indenterspitzen zum Einsatz.
In dieser Arbeit wird ein statistisch anlernbares Modell vorgestellt, das in der Lage ist die komplexwertige Übertragungsfunktion einer optischen Multimodefaser auf Basis ebenfalls komplexwertiger Datensätze zu approximieren.
Zu diesem Zweck werden komplexwertige Schichten eines neuronalen Netzes implementiert und ein deterministisch inspiriertes Modell des zugrundeliegenden Systems aufgebaut. Die Konvergenz des Modells beim Training
für verschiedene, durch Simulation erhaltene, Datensätze wird gezeigt. Die Interpretierbarkeit des Modells in dem Sinne, dass aus dem antrainierten Modell die Eigenlösungen der zugrundeliegenden Differentialgleichungen, also die Moden der Faser gewonnen werden können, wird ebenfalls überprüft.
Zudem wird gezeigt, dass ein effizientes Umlernen des Modells auf sich kontinuierlich verändernde Faserzustände möglich ist, solange die eingeführten Perturbationen nicht zu stark vom jeweils vorherigen Zustand abweichen.
Die Darstellung von Volumendaten in der Medizin reicht vom einfachen Anzeigen einzelner zweidimensionaler Schnittbilder bis hin zur komplexen Analyse dreidimensionaler Datenwolken. Dabei stellen das Direct Volume Rendering und Indirect Volume Rendering zwei wesentliche Methoden der Visualisierung von dreidimensionalen Daten dar.
In der Kieferorthopädie und -chirurgie spielen Darstellungen von DVT-Daten (Digital Volume Tomography) in der Diagnostik oder bei der digitalen Behandlungs-und Operationsplanung eine zentrale Rolle. Da die Volumenvisualisierung immer mehr an Bedeutung gewinnt, entwickeln sich die Rendering-Methoden stetig weiter. Insbesondere für Implementierungsaufgaben in eigene Systeme müssen aktuelle Entwicklungs- und Forschungsarbeiten stets verfolgt und analysiert werden. Ziel dieser Arbeit ist die Darstellung und Auswertung aktueller Methoden des Direct Volume Rendering, sowie der Extraktion von Objektoberflächen mittels des Indirect Volume
Rendering. Ein weiteres Ziel ist die Erstellung eines umfangreichen Überblickes über bereits praktisch, implementierte Rendering-Methoden. Auf Grundlage der Ergebnisse können Software-Funktionen in OnyxCeph realisiert werden. Sowohl für das direkte, als auch indirekte Volumen-Rendering wurde eine theoretische Literaturrecherche und eine Übersicht der praktischen Anwendung der untersuchten Verfahren erarbeitet. Anhand der Recherche und Analyse wissenschaftlicher Arbeiten konnten Kenntnisse über theoretische Ansätze sowie aktuelle Forschungsergebnisse im Bereich der Visualisierung von Volumendaten gewonnen werden. Weiterhin wurden ausgewählte Software-Produkte genutzt, um bereits eingesetzte Rendering-Verfahren auf Funktionalität und Leistungsfähigkeit zu analysieren.
Im Bereich des Direct Volume Rendering konnten erweiterte Interpolations-, Klassifikations-, Schattierungs- und Visualisierungsmethoden des Ray Casting-Algorithmus untersucht werden. Die 1D Gauß-Transferfunktion stellte sich als
eine einfache und nützliche Alternative zu konventionellen stückweise-linearen Übertragungsfunktion heraus. Für eine detaillierte Darstellung kann der Verarbeitungsprozess durch Shading-Methoden erweitert werden. So sind in der Praxis überwiegend gradientenbasierte Shading-Modelle eingesetzt. Deep Shadow Maps stellen dabei eine nützliche Ergänzung dar. Weiterhin konnten erweiterte Rendering-Methoden untersucht werden.
Neben der Maximum Intensity Projection kann die Minimum Intensity Projection für die Darstellung von Wurzelkanälen eingesetzt werden. Die Depth-enhanced Maximum Intensity Projection und Maximum Intensity Difference Accumulation bieten zwei vereinfachte Alternativen zum Ray Casting an, um eine nahezu korrekte dreidimensionale Darstellung erstellen zu können. Die Maximum Intensity Difference Accumulation erwies sich im Rahmen dieser Arbeit als eine besonders effektive Erweiterung zu bereits vorhandenen
Rendering-Verfahren. Auf Grundlage der gewonnenen Erkenntnisse während Recherchearbeit konnte Maximum Intensity Difference Accumulation in das Software-Produkt OnyxCeph implementiert werden. Die generierten Visualisierungen ermöglichten eine verbesserte Tiefenwahrnehmung, die dem klassischen Direct Volume Rendering ähnelt. In Kombination mit Beleuchtungsmethoden können zudem Oberflächenstrukturen analysiert werden.
Im Indirect Volume Rendering spielte die Segmentierung einzelner Volumenstrukturen durch das Iso-Surface Rendering eine besondere Rolle. Zur Generierung einer Oberfläche können verschiedene Methoden, wie der klassische Marching Cube-Algorithmus, die Level-Set-Methode und Surface-Nets eingesetzt werden. Die Literaturrecherche zeigte, dass Bestrebungen unternommen wurden, um alternative Algorithmen zum konventionellen Marching Cube-Verfahren zu entwickeln. So besteht die Möglichkeit den Rechenaufwand durch einen Simplified Pattern Marching Cube- oder Marching Tetrahedra-Algorithmus zu reduzieren. Weiterhin wurden Erweiterungen zur verbesserten Darstellung betrachtet.
So kann durch den Laplace-Filter oder Mittelwertfilter eine Weichzeichnung der Oberflächennetze erzeugt werden. Für eine erhöhte Auflösung besteht die Möglichkeit, die konventionelle Catmull-Clark -Methode oder die 4-8 Subdivision anzuwenden. In diesem Projekt konnte ein umfangreicher Überblick über aktuelle Methoden der Visualisierung von Volumendaten in der Zahnmedizin erstellt werden. Dabei repräsentieren sowohl die theoretischen, wissenschaftlichen Ansätze, als auch die praktische Lösungsansätze den aktuellen Stand der Technik und Forschung. Die Erkenntnisse können die Grundlage für Implementierungen darstellen.
Im Zentrum der Arbeit steht die Optimierung von Maschinenbelegungsplänen zur unterstützenden Planung des Produktionsablaufs. Für die Lösungsermittlung werden Genetische Algorithmen im Umfeld eines bestehenden ERP-Systems in ihrer Anwendbarkeit untersucht. Nach einer Einleitung und Zielsetzung der Arbeit werden theoretische Grundlagen der Produktionsplanung und
Die Einsatzbehörden der Polizei sehen sich zunehmend mit illegalen Besitz von Waffen und Waffenteilen konfrontiert. Eine digitale Identifikation dieser Bauteile vor Ort erhöht die Detektionsrate von Straftaten. Dieser Arbeit untersucht, inwieweit Deep Learning Verfahren diesen Prozess unterstützen können. Basis dieser Untersuchung sind die Erhebung von Bilddaten, die von Waffen und Waffenteilen stammen. Anschließend werden Deep Learning Verfahren ausgewählt und mit den Datensätzen trainiert. Eine Evaluation mit realen Testdaten zeigt, inwieweit eine Einsatzfähigkeit unter Realbedingungen gegeben ist.
Nutzererwartungen an IT-Systeme haben sich in den letzten Jahren verändert. Online-Dienste müssen ständig verfügbar sein und im Millisekunden-Bereich Anfragen bearbeiten. Traditionelle IT-Systeme haben Probleme, die Erwartungen nachhaltig zu erfüllen. Reaktive und asynchrone Systeme erfüllen mit modernen Konzepten die Erwartungen besser.
In dieser Arbeit werden die Grundlagen von Asynchronität und reaktiven Systemen dargestellt. Dazu zählen Konzepte, wie Streaming oder Actor Model. Verteilung und Skalierung von reaktiven Systemen werden betrachtet.
Im Hauptteil der Arbeit wird ein Vergleich von Werkzeugen für die Implementierung reaktiver Systeme durchgeführt. Die Werkzeuge Project Reactor, vlingo XOOM und Akka werden verglichen. Die Vergleichskriterien betrachten u. A. den Funktionsumfang, die Einstiegshürde für Entwickler und die Leistungsfähigkeit der Werkzeuge. Die Bewertung der Kriterien wird durch die Implementierung eines Prototypen mit den drei Werkzeugen unterstützt.
Aus den Bewertungen der Kriterien entstehen Rangfolgen, die durch die Ermittlung der Durchschnittsplatzierungen zu einer Gesamtbewertung der Werkzeuge führen. Aus der Gesamtbewertung und den in dieser Arbeit gewonnenen Eindrücken werden unterschiedliche Einsatzgebiete für die Werkzeuge definiert.
Medizinische Leitlinien zu modellieren und zu formalisieren, sodass sie computergestützt verarbeitet und ausgewertet werden können ist eine komplexe aber wichtige Arbeit. Nur eine solche Ausführbarkeit ermöglicht die beste Patientenversorgung ohne diese aufzuhalten. Dazu werden verschiedene Modellierungssprachen eingesetzt, die domänenspezifische Besonderheiten und Einschränkungen aufweisen. In dieser Arbeit sollen Sprachen die im klinischen Umfeld Verwendung finden evaluiert werden. Dazu sollen in dieser Arbeit klinische Modellierungssprachen für Prozesse und standardisierte Modellierungssprachen wie UML und BPMN formal verglichen werden. Heutzutage ist die Computergestützte Ausführung von medizinischen Leitlinien eines der interessantesten Themen der Informatik. Medizinische Leitlinien enthalten Prinzipien und Richtlinien, die Praktiker bei der Diagnose, Therapie oder anderen spezifischen klinischen Behandlungspfaden unterstützten. Im Rahmen dessen wurde eine umfangreiche Literaturrecherche durchgeführt.
Die formale Begriffsanalyse ist eine mathematische Theorie aus dem Bereich der Algebra für binäre Relationen. Dabei stellt sie eine Methode zur Datenanalyse dar. In der Masterarbeit bildet die formale Begriffsanalyse die Grundlage zum Vergleich der Modulbeschreibungen von Studiengängen. Der Hauptteil der Arbeit befasst sich mit der Entwicklung der Software FCA-Modul-Tool. Sie wendet die formale Begriffsanalyse auf Modulbeschreibungen an. Generierte Begriffsverbände und Diagramme dienen der Erkennung von Gemeinsamkeiten und Unterschieden in den Studiengängen. Dabei kommen verschiedene Vergleichskriterien zum Einsatz. Die Bewertung der entwickelten Software, die Auswertung der erhaltenen Ergebnisse basierend auf den Vergleichen sowie mögliche Anwendungsbereiche der Software schließen die Arbeit ab.
Raritan Deutschland GmbH entwickelt und produziert Stromversorgungsgeraete, die kontinuierlich den Strom- und Energieverbrauch von Servern und anderen IT-Geraeten messen und Umgebungsparameter ueberwachen. Mithilfe von Sensoren wird unter anderem die Umgebungstemperatur, Luftfeuchtigkeit, sowie der Luftdruck innerhalb eines Serverraums ueberwacht und die Messwerte kontinuierlich abgespeichert. Die Datenerfassungsperiode liegt im Bereich von wenigen Sekunden bis Minuten, sodass fuer kleine Rechenzentren mit der Zeit große Datenmengen angesammelt werden, welche fuer nachtraegliche Auswertungen gespeichert werden muessen. Das Ziel dieser Masterarbeit ist es verschiedene effiziente Ansaetze fuer das Sammeln und das Speichern der Sensordaten von Raritan Deutschland GmbH zu untersuchen, zu vergleichen und eine prototypische Implementierung zu realisieren. Dabei sollen folgende Technologien analysiert werden: SQL-RDBMS, SQL-RDBMS mit Zeitreihenfunktion und NoSQL-Datenbanken. Zur Leistungsbestimmung der verschiedenen Technologien sollen Testreihen durchgefuehrt und ausgewertet werden. Fuer die verschiedenen Datenbanktechnologien soll die Abfrageperformance, der Speicherbedarf und die Geschwindigkeit beim Einfuegen der Daten untersucht werden. Folgende Optimierungen / Speichermodelle werden analysiert bzw. auf den Anwendungsfall der Raritan GmbH uebertragen: ein Rollup Mechanismus (von Raritan GmbH), die Verteilungskonzepte Partitionierung und Sharding, verwenden von Indizes sowie das Speichern der Sensordaten in einem denormalisierten Schema (Arrays), Row-Store, Column-Store, Dokumentenorientiert, Key/Value, Wide Column-Sore und In-Memory DB.
Modellinteroperabilität spielt eine wichtige Rolle bei der domänenübergreifenden Kommunikation mittels Kommunikationsstandards. Die Datenstrukturen verschiedener Kommunikationsstandards müssen oftmals mit aufwändigen Zuordnungsfunktionen einander angepasst werden. Diese Zuordnung wird vereinfacht, wenn Datenstrukturen in Modellen strukturell übereinstimmen. Für HL7v3 und XÖV-basierte Kommunikationsstandards wird in der vorliegenden Masterarbeit eine Untersuchung vorgenommen, wie strukturelle Modellinteroperabilität zwischen beiden erreicht werden kann. Hierzu wird eine Vergleichsmethodik auf Basis von Architektursichten definiert. Konzepte werden auf verschiedenen Granularitätsebenen verglichen. Der Einfluss weiterer Standards, die Struktur der Spezifikation und die Metamodelle werden analysiert. Aus den Erkenntnissen des Vergleichs wird eine Model-To- Model-Transformation von HL7v3-Datenstrukturen in XÖV-Datenstrukturen auf Basis der Sprache Atlas Transformation Language abgeleitet. Es wird gezeigt, dass eine XÖV-konforme Abbildung von HL7v3-Datenstrukturen möglich ist. Wichtige Rolle spielen hierbei die statischen Modelle des HL7v3-Standards. Die notwendigen Transformationsschritte für einzelne Syntaxelemente des HL7v3-Standards sind dargelegt. Auf Probleme bei der Transformation wird eingegangen. Ferner wird gezeigt, dass XML-Schemata aus transformierten HL7v3-Modellen mit XÖV-Werkzeugen generiert werden können und eine Einbindung in bestehende XÖV-Standards möglich ist.
Diese Mastertheis untersucht die Möglichkeiten der Nutzung einer Spiele-Engine für die Visualisierung in der Fahrsimulation und im Speziellen für den Fahrsimulator der Westsächsischen Hochschule Zwickau. Dabei wird im Rahmen dieser Arbeit die Analyse auf die Darstellung von einspurigen Außerortsstraßen beschränkt. Für diese Aufgabe werden die grundlegenden Anfroderung für eine solche Visualisierungssoftware dargelegt und auf Basis eine entsprechenden Engine gewählt.Darauf aufbauend wird ein Prototyp entiwckelt, der eine Alternative zu den derzeitig eingesetzten Softwaresystemen zu virtuellen Darstellung einer Straßenszene dient. die wichtigsten Algorithmen und technischen Bedingungen werden dabei näher erläutert. Es ist das Anliegen dieser Mastertheis die Möglichkeiten und Techniken der heutigen Computerspieleauf die Software für das Fahrsimulationslabor zu übertragen, um eine hohe Grafikqualität zu erreichen. Zudem soll mit dem entwickelten Prototyp der Prozess der Szenenerstellung für die virtuelle Befahrung deutlich verringert und ein komfortables Werzeug für diese Aufgabe geschaffen werden.
In bereits hergestellten Siliziumdioxid-Schichten wurde nach einiger Zeit eine Veränderung der optischen Funktion in der Schicht festgestellt. Eine solche Veränderung der optischen Funktion wird als Drift in der optischen Schicht bezeichnet und kann im vorliegenden Fall zum einen durch Wassereinlagerung in porösen Schichten und zum anderen durch Wasseranlagerung an der Schichtoberfläche hervorgerufen werden. Eine Wassereinlagerung in der Schicht hätte eine Dichteveränderung in der Schicht zur Folge und eine Wasseranlagerung hätte Einfluss auf die gemessene Oberflächenrauigkeit. Für die Überprüfung dieser zwei Theorien wurden drei verschiedene Schichtdickenverteilungen (100 nm, 50 nm und 20 nm) mittels reaktiven Puls-Magnetron-Sputtern hergestellt und nach der Beschichtung, nach der Wässerung und nach dem Ausheizen mittels XRR gemessen. Es konnte festgestellt werden, dass die Wässerung Auswirkungen auf die Schicht hat und die Veränderung nach der Wässerung bei dickeren Schichten stärker auftritt. Dies ließ vermuten, dass sich bei dickeren Schichten mehr Wasser an der Schichtoberfläche ansammeln könnte. Nachdem die Messungen für die Dichte aufgenommen wurden, konnte gezeigt werden, dass die Wässerung keinen Einfluss auf die Dichte hat und somit eine Wassereinlagerung in eventuellen Poren in der Schicht ausgeschlossen werden kann. Da festgestellt werden konnte, dass die Wässerung auf die Dichte keinen Einfluss hat, scheint die Ursache des optischen Drifts in der Veränderung der gemessenen Oberflächenrauigkeit zu liegen. Die durchgeführten Messungen zur Oberflächenrauigkeit konnten bestätigen, dass mit zunehmender Schichtdicke die Rauigkeit steigt. Durch die höhere Rauigkeit bei 100 nm kann sich nach der Probenwässerung mehr Wasser an der Oberfläche anlagern und führt demzufolge zur stärkeren Veränderung der Oberflächenrauigkeit. Auch bei einer dünneren Schicht tritt dieser Effekt auf, aber die Veränderung der Oberflächenrauigkeit vermindert sich. Somit konnte letztendlich bestätigt werden, dass die nach einiger Zeit auftretende optische Drift nicht durch Wassereinlagerung in der Schicht, sondern durch Wasseranlagerung an der Schichtoberfläche hervorgerufen wird.
Diese Masterarbeit untersucht die Möglichkeiten der virtuellen Simulation von Verkehr, in dem ein vom Menschen gesteuertes Fahrzeug aktiv beteiligt ist. Es wird dabei vor allem auf mikroskopische Verkehrsmodelle eingegangen, die Grundlage der Simulation sind. Modellierung und Implementierung eines Softwaremoduls, welches als Bestandteil eines Verteilten Systems auf der Basis vorgestellter Verkehrsmodelle den Verkehr simuliert, werden beschrieben. Dabei wird darauf eingegangen, wie die Abarbeitung parallelisiert erfolgen kann. Untersuchungsergebnisse zu den verschiedenen Verkehrsmodellen werden vorgestellt. Sie geben Aufschluss darüber, wie real Menschen das Fahren in Verkehrsströmen empfinden. Es ist das Anliegen dieser Arbeit, einen Einblick in die Verkehrssimulation zu geben und mit dem entwickelten Modul einen kleinen Beitrag für eine sichere Straßenplanung zu leisten. Mit dessen Hilfe ist es möglich, geplante Straßen unter realistischen Bedingungen virtuell abzufahren und riskante Stellen im Vorfeld der Bauung zu erkennen.
Diese Arbeit beschäftigt sich mit der Dehnbarkeit von gesputterten transparenten Dünnschicht-Elektroden wie Indium-Zinn-Oxid (ITO) und Wasserdampf-Permeationsbarrieren wie Zink-Zinn-Oxid (ZTO) auf Ethylentetrafluorethylen (ETFE) Kunststofffolie. Dabei wird der Einfluss der Rissbildung auf den Widerstand der Elektrodenschichten ermittelt. Diese sollen für die ausreichende Leitfähigkeit für Elektrochrome Zellen und organische Solarzellen sorgen. Aufgrund der Verwendung dieser Zellen im architektonischen Bereich treten hohe mechanische Belastungen auf. Umwelteinflüsse und Anwendung verursachen Dehnungen und Spannungen in den Systemen und können zum Reißen der Schichten führen. Daher wird das Verhalten von Einzelschichten und Schichtsystemen unter Dehnung in dieser Arbeit untersucht.
Allgemein wurde festgestellt, dass die kritischen Dehnungen von ZTO Einzelschichten mit 0,5
Das Erheben von Anforderungen ist der Ausgangspunkt eines jeden Softwareentwicklungsprojektes. Die richtigen Anforderungen zu erheben und in geeigneter Weise im gesamten Entwicklungsprojekt verfügbar zu machen, ist oftmals ein entscheidender Faktor dafür, ob ein Projekt erfolgreich wird oder nicht. Um die richtigen Anforderungen erheben zu können, wird ein systematischer Prozess benötigt. Die vorliegende Arbeit zeigt, wie ein solcher Prozess aussehen kann. Dabei wird auf wesentliche Schritte des Prozesses sowie auf die im Prozess erhobenen Artefakte und deren inhaltlicher Gestaltung eingegangen. Es wird weiterhin gezeigt, wie die gewonnenen Kenntnisse in einem konkreten Projekt angewandt wurden. Ferner wird der Prototyp eines Werkzeugs vorgestellt, das die erarbeiteten Kenntnisse nutzt und für die Verwaltung von Anforderungen in einem Projekt eingesetzt werden kann.
In dieser Arbeit wird das vertikale Wachstum von Kohlenstoffnanoröhren mit Hilfe der CVD-Synthese untersucht. Dazu wird ein TiN/Ni-Schichtsystem ausgewählt und der Einfluss der Schichtdicken und Prozessparameter überprüft. Zur Verbesserung der Leitfähigkeit dieser Gebilde wird die Dichte der Katalysatorpartikel erhöht, was vertikale Nanoröhren insbesondere für die Via-Technologie attraktiv macht.
In dieser Arbeit wurde der Materialabtrag in Form eines Massenabtrages beim plasmaelektrolytischen Polieren untersucht. Dabei wurden Proben aus rostfreiem Stahl poliert und per Wägung auf den Masseverlust durch den Prozess untersucht. Während des Prozesses wurden die Elektrolyttemperatur und die Stromstärke gemessen und anschließend analysiert.
Dabei konnte festgestellt werden, dass an den Proben zunächst die Kanten vermehrt abgetragen werden. Dies wurde aus dem zeitlichen Verlauf der Stromstärke und des Massenabtrages geschlussfolgert. Dabei konnte gezeigt werden, dass die angelegte Polierspannung keinen Einfluss darauf hat, wie stark die Kanten abgetragen werden. Trotzdem beeinflusst die Polierspannung den Materialabtrag. Dieser Einfluss konnte jedoch noch nicht quantifiziert werden.
Ziel dieser Masterarbeit ist es, biologische Zellen auf berührungslose Mikromanipulation bei gleichzeitiger Erfassung des Raman-Spektrums mittels Photonic Jet-Faser-Endoptik zu untersuchen. Basierend darauf wurde ein Messaufbau konzipiert, der einerseits die Anregung von Raman-Streuung über die Faser-Endoptik von Acetylsalicylsäure und Polymethylmethacrylat ermöglicht. Diese Proben konnten über das Rückstreusignal der Faser im Wellenzahlbereich des detektieren Raman-Spektrums von 1200 1/cm – 4000 1/cm identifiziert werden. Auf diese Weise ließ sich auch der Fokusabstand und die laterale Ortsauflösung der Optik ermitteln. Andererseits konnten Silikat-Partikel mit einer Größe von 3 μm transversal in Richtung der propagierenden Laserstrahlung und in geringem Maße lateral zur Strahlausbreitung verschoben werden. Hinsichtlich der untersuchten Proben ist die Raman-Spektroskopie und Mikromanipulation mit der Photonic Jet-Faser-Endoptik nur unabhängig voneinander möglich. Der realisierte Messaufbau bietet die Grundlage für erweiterte Untersuchungen zur kombinierten Raman-Spektroskopie an Mikroobjekten auf Basis der vorgestellten Messmethode.
In dieser Arbeit wurden die vorhandenen Videostreaming-Technologien detailliert untersucht und bewertet, sowie eine prototypische Android-Anwendung für das Streamen der Videodaten entwickelt.
Der Entwicklungsprozess besteht aus vier Schritten: Untersuchung, Ausarbeitung von Anforderungen zur Streaming-Applikation, Realisierung und Testen. Die Untersuchung wurde mit Blick auf aktuelle Technologien und auf dem Markt bestehenden Streaming-Lösungen durchgeführt.
Die Umsetzung der Arbeit erfordert ein Verständnis des technischen Zustandes mobiler Geräte sowie Kenntnisse im Bereich Multimedia-Streaming.
SU-8 ist ein negativ entwickelnder Fotolack und findet in der Mikrosystemtechnik vielfältige Anwendung. Er wird häufig als Permanentresist und zur Erzeugung mechanischer Funktionskomponenten eingesetzt. SU-8 zeichnet sich dabei durch nahezu senkrechte Strukturkanten bei hohen Aspektverhältnissen aus, auch bei der Verwendung von UV-Lithografie. Die beschriebenen Untersuchungen und Experimente gliedern sich in ein Forschungsprojekt im Projektrahmen Profil NT ein. Das Projektziel ist dabei die Darstellung von komplexen polymeren mikroaktorischen Elementen. Die für solche aktorischen Komponenten notwendigen Schichtdicken können durchaus Werte über 350 µm aufweisen. Diese großen Schichtdicken stellen bei ihrer Herstellung und Verarbeitung besondere Herausforderungen an die Prozessführung. Die Applikation des Lackes zur Schichtherstellung und die Trocknung (Soft Bake) der Schicht sowie Untersuchungen zur Messung der Schichtdicke sind in dieser Arbeit thematisiert. Die Kenntnis der mechanischen Eigenschaften des polymeren Materials ist bei der Erzeugung mikromechanischer Funktionskomponenten von wesentlicher Bedeutung. Es wird die Abhängigkeit des E-Moduls von den Fertigungs- beziehungsweise Prozessparametern aufgezeigt. Der Herstellungsprozess polymerer AFM-Cantilever wird ausführlich dargestellt und Optimierungsmöglichkeiten einzelner Prozessschritte beschrieben. Ganz besonderes Augenmerk wird dabei auf die Erzeugung geringer Spitzenradien der Cantilever-Tips gelegt. Der Prozess zur Erzeugung der zur Abformung der Cantilevertips notwendigen, anisotrop geätzten Siliziumgruben wird umfangreich untersucht. Die Eignung der hergestellten AFM-Cantilever wird gezeigt. Abschließend werden Maskenentwürfe und auch erzeugte Strukturen wie Mikrospiegel und Kraftaufnehmer vorgestellt, die der Weiterführung der Arbeiten zum erfolgreichen Abschluss des Projektes dienen werden.
Untersuchung zum Einsatz der Maximalkraftmessung in Forschung, Trainingskontrolle und Rehabilitation
(2018)
Manuelle Muskelfunktionstests werden im Therapiealltag eingesetzt um die Kraft ein-zelner Muskeln oder Muskelgruppen zu bestimmen. Die inhärente Problematik dieser Techniken ist die subjektive Einschätzung durch den Therapeuten.
Die vorliegende Arbeit stellt eine alternative Methodik zu manuellen Muskelfunktions-tests vor. Durch den Einsatz von geeigneter Messtechnik wird der subjektive Einfluss durch den Therapeuten minimiert und die Diagnostik somit erheblich verbessert.
Die vorgestellte Methodik verwendet ein Maximalkraftmesssystem zur Muskelfunkti-onsdiagnostik. Ziel der Arbeit ist es, dieses Messsystem hinsichtlich seiner Eignung im Therapiealltag zu untersuchen. Weiterhin werden Anwendungsmöglichkeiten des Sys-tems zur gezielten Trainingssteuerung im Sport evaluiert.
Über einen Zeitraum von mehreren Wochen wurden Maximalkraft, Oberschenkelum-fang und gegebenenfalls das subjektive Schmerzempfinden der Probanden gemessen.
Zusätzlich wurden Fragebögen entwickelt, welche die subjektiven Eindrücke von Pati-enten und Therapeuten im Umgang mit dem Messsystem erfassten.
Im Rahmen der Versuchsreihen konnten gezeigt werden, dass die isometrische Maxi-malkraftmessung geeignet ist, um Therapie- und Trainingsverläufe präzise zu dokumen-tieren. Dabei ist das untersuchte Verfahren dem Testverfahren der manuellen Muskel-funktionsdiagnostik in der Präzision seiner Aussagen überlegen. Intra- und Interindivi-duelle Vergleiche konnten angestellt werden. Bei Messung der Muskelkraft unter Schmerzen ist die Aussagekraft des Verfahrens eingeschränkt.
Mit zunehmender Automatisierung von Industrieanlagen und der daraus entstehenden leistungsfähigen Infrastrukturen, wird der Bedarf einer permanenten Netzwerküberwachung unumgänglich. Das Vorhersagen oder Analysieren des Netzwerkzustandes spielt dabei eine entscheidende Rolle. Diese Masterarbeit beschäftigt sich mit der Untersuchung von Methoden des maschinellen Lernens zur Zustandsanalyse industrieller Netzwerke. Hierfür wurde zunächst mit einem Versuchsaufbau die dafürbenötigte Datenbasis geschaffen. Auf dieser Datenbasis wurden daraufhin verschiedene Klassifikations-Algorithmen trainiert und evaluiert. Dabei konnte festgestelltwerden, dass sich bestimmte typische Fehler schwerer als andere bestimmen lassen.
Zur Verbesserung der Termintreue der Werkstätten der DB Regio AG Region Südost bezüglich der Instandhaltung von Schienenfahrzeugen wird ein Softwaresystem realisiert, mit dessen Hilfe die Arbeitsaufträge von Mitarbeitern genau geplant werden könnnen. Grundlage des Systems bildet ein Optimierungsverfahren für Bedingungs-Erfüllungs-Probleme (engl. constraint-satisfaction-problems). Es werden einige gängige Verfahren vorgestellt und eines daraus zur Realisierung ausgewählt. Nach der Umsetzung wird der Algorithmus wiederholt Tests unterworfen und entsprechend der Ergebnisse werden weitere Verbesserungsmöglichkeiten analysiert, auf ihre Realisierbarkeit geprüft und gegebenenfalls integriert. Um die Wirkung der Verbesserungen beurteilen zu können, werden die Testergebnisse der einzelnen Entwicklungsstufen gegenübergestellt. Aus den Erfahrungen der Testphase werden zudem Hinweise für den Einsatz der Software in der Praxis erarbeitet, sowie weitere Erweiterungs- und Verbesserungsmöglichkeiten aufgezeigt.
Ziel dieser Arbeit war es, den Umgang mit einer großen Anzahl von Softwareschwachstellen, konkret Common Vulnerabilities and Exposures (CVEs) zu erleichtern. Dazu wurden drei Ansätze untersucht: die Entwicklung eines eigenen Vulnerability Management Systems (VMS), die Untersuchung von Filtermöglichkeiten für CVEs und die Identifizierung von Attributen zur Priorisierung von Schwachstellen. Das eigens entwickelte VMS, der CVE-Tracker, ermöglicht die effiziente Verwaltung und Organisation der über 1300 gefundenen CVEs, insbesondere im Hinblick auf Mehrfachvorkommen in verschiedenen Software-Releases sowie die automatische Abfrage der CVEs von der National Vulnerability Database (NVD).
Als Ergebnis konnten wichtige Erkenntnisse gewonnen werden, die bei der Implementierung eines VMS berücksichtigt werden müssen. Die Untersuchung von verschiedenen Anfragetypen zum Filtern der CVEs gibt einen detaillierten Einblick in das Verhalten der CVE-API der NVD. Es konnte ein Anfragetyp identifiziert werden, der für den Einsatz in VMS geeignet ist. Im letzten Ansatz wurden Attribute für eine mögliche Priorisierung von CVEs identifiziert, darunter CVSS-Scores, Common Weakness Enumeration (CWE) und Social Media Analysen. Insgesamt wurden sieben Attribute gefunden, die, wenn sie richtig verstanden werden, zu einer guten Priorisierung beitragen können.
Die Arbeit verdeutlicht die Herausforderungen bei der Verwaltung der Sicherheit einer Software mit großen Mengen an CVEs und bietet eine Grundlage für zukünftige Forschung. Mögliche Erweiterungen umfassen den Einsatz von künstlicher Intelligenz für eine präzisere Filterung, die Einbeziehung weiterer Schwachstellendatenbanken und die Vertiefung der Analyse von Social-Media-Plattformen für eine umfassendere Bewertung der Relevanz von CVEs.
Untersuchung und Vergleich von Klassifikationsmodellen im Anwendungsfeld Ambient Assisted Living
(2019)
Der Schwerpunkt der Arbeit liegt in der Erfassung und Bewertung von relevanten Klassifikationsmodellen im Anwendungsfeld AAL. Dazu ist es notwendig, Herausforderungen und Chancen von AAL zu untersuchen, um die Relevanz einer AAL-Klassifikation zu begründen. Bereits bei der Beschreibung und Wahl der zu untersuchenden Klassifikationen zeigte sich, dass keine einheitliche und standardisierte Klassifikation existiert. Für den Vergleich wurden sieben Klassifikationsansätze gewählt. Für die Arbeit wurde unter Einbezug der zuvor untersuchten Klassifikationsmöglichkeiten und der Betrachtung von Einflussfaktoren wie Zielgruppen, Nutzerbedürfnisse, Akzeptanz und Anforderungen, mögliche Handlungsempfehlungen getroffen.
Die stetig voranschreitende branchenübergreifende Miniaturisierung und die zunehmende Komplexität elektronischer Baugruppen, beispielsweise im Bereich der Medizintechnik oder der Kommunikationselektronik, erfordern die stetige Weiterentwicklung der Leiterplatte, die das Schaltungsfundament darstellt. Um höhere Integrationsdichten sowie kürzere Leitungs- und Signalwege zu realisieren, sind Leiterplattenhersteller gefordert, neue Fertigungs-verfahren zu entwickeln und Prozessoptimierungen voranzutreiben.
Die vorliegende Masterarbeit beschäftigt sich mit der Optimierung der fotolithografischen Leiterbildstrukturierung, einem Kernprozess in der Fertigung einer Platine. Das Ziel ist die prozesssichere Herstellung von Leiterbreiten und -abständen von 50 µm, um die Fertigungsfähigkeiten im High-End-Bereich zu erweitern. Neben einer Vorstellung des Tenting-Verfahrens zur Leiterbildherstellung werden Methoden und Prüfverfahren aufgezeigt, um die Qualität der gefertigten Strukturen zu bewerten. Eine Analyse der bestehenden Prozesse der KSG GmbH lieferte die Grundlage für das Ausschöpfen von Optimierungs-potentialen. Aus umfangreichen Versuchsreihen zur Untersuchung der Prozesse der Leiterbildstrukturierung konnten die Haupteinflussgrößen auf die Herstellbarkeit hoher Strukturdichten, wie die Ätzparameter, abgeleitet werden. Abschließend wurde die Prozess-fähigkeit des optimierten Tenting-Verfahrens statistisch analysiert und die Realisierbarkeit der Herstellung von 50 µm-Strukturgrößen in der Fertigung mit den bestehenden Materialen und der verfügbaren Anlagentechnik bewertet.
In der Masterarbeit wurden die tribologischen Eigenschaften von Beschichtungen auf Stahl bei der Aluminiumumformung untersucht. Dazu wurden an einem dafür entwickelten Tribometer Hartstoffschichten unter umformnahen Bedingungen untersucht. Ziel war die Reduzierung von Reibung und Verschleiß bei der Kaltumformung von Aluminium. Es hat sich allerdings gezeigt, dass die getesteten Beschichtungen die notwendige Schmierwirkung von Festschmierstoffen verschlechtern. Im Gegensatz dazu wurden mit einer Mikrostrukturierung der Stahloberfläche eine Reduzierung von Reibung und Adhäsion von Aluminium am Stahlwerkzeug erreicht.
Die stetig fortschreitende Miniaturisierung in der Herstellung elektronischer Schaltkreise führt zu immer geringeren Leitungsquerschnitten. Daraus folgt ein Anstieg der Stromdichte, welcher ein erhöhtes Ausfallrisiko des Schaltkreises durch Elektromigration zur Folge hat. Hierbei findet eine diffusionsgetriebene Umlagerung von Kupferatomen statt, wodurch Unterbrechungen der Leiterbahnen oder Kurzschlüsse zwischen benachbarten Leiterzügen entstehen können. Elektromigration kann durch die Abscheidung von Adhäsionsschichten effektiv verringert werden. Hierfür werden auch mittels MOCVD abgeschiedene Kobaltschichten in Betracht gezogen. Ziel dieser Arbeit war es, auf Basis der theoretisch zu erwartenden Einflüsse der ver-schiedenen Prozessparameter einen Versuchsplan zu erstellen und den MOCVD-Prozess zur Herstellung von Kobaltdeckschichten für die Kupfermetallisierung systematisch zu untersuchen. Um Kurzschlüsse zwischen benachbarten Leiterbahnen zu verhindern, musste ein materialselektiver Abscheidungsprozess entwickelt werden. Die Einflüsse der Prozess-parameter auf die Abscheidung wurden untersucht und Auswirkungen auf das Wachstumsverhalten und die Eigenschaften der Kobaltschichten diskutiert. Die Schicht-charakterisierung belegte, dass es gelungen war einen materialselektiven Abscheidungs-prozess zu entwickeln. Es konnte ein Beschichtungsprozess etabliert werden, welcher es ermöglicht Kobalt bevorzugt auf den Kupferleiterbahnen und nicht auf den umliegenden isolierenden Gebieten abzuscheiden. Für ein reproduzierbares Beschichtungsergebnis ist ein in-situ Vorbehandlungsprozess erforderlich. Sowohl für die Entfernung oberflächlicher Adsorbate als auch für die Reduktion von gebundenem Sauerstoff konnte ein effektives Vorgehen entwickelt werden.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von TiN/AlN-Multischichten. Ein besonderer Fokus liegt dabei auf der Untersuchung der thermischen Stabilität der Schichten.
Die Erzeugung der Schichtsysteme erfolgt mittels reaktivem RF-Magnetronsputtern in der Beschichtungsanlage LA 250 S (Fa. Von Ardenne). Es werden zwei Typen von Multischichten hergestellt: Typ 1 mit Periodendicken d = 14,1 nm…15.9 nm und Typ 2 mit Periodendicken dP = 4,44 nm…5,35 nm.
Um die thermische Stabilität zu untersuchen werden die Proben bei unterschiedlichen Temperaturen im Bereich von 170 °C…800 °C unter Stickstoffatmosphäre getempert.
Zur Charakterisierung der Schichtsysteme wird neben der Röntgenreflektometrie (XRR) die Röntgenphotoelektronenspektroskopie (XPS) verwendet. Dabei dient die XRR zur Bestimmung der Dichte und Schichtdicke, respektive Periodendicke der Schichten. Die XPS liefert währenddessen Aussagen zur Schichtzusammensetzung.
Die Untersuchungen zeigen eine thermische Stabilität der Multischichten für Temperaturen bis 700 °C hinsichtlich ihrer Multischicht-Struktur. Bei einer Temperatur von 800 °C bleiben die Multischicht-Strukturen jedoch nicht erhalten.
Schwerpunkt der Arbeit ist die Entwicklung eines Sorptionsmaterials auf Basis thermisch aktivierter Calcium-Eisenhydroxide für die Rückgewinnung von Phosphat aus Wässern mit geringer Phosphatkonzentration.
Bei der gezielten Kombination von Eisenhydroxiden mit ausgewählten Calcium-Spezies finden während der thermischen Behandlung zwischen 600 °C und 800 °C zu Phasenumwandlungsprozessen statt, wodurch zum einen die Bindungskapazität des Materials gegenüber Phosphat signifikant erhöht wird und zum anderen die bei der Sorption gebildete Phosphat-Verbindung, sowohl in Hinblick auf ihre strukturellen Eigenschaften als auch auf ihre chemische Reinheit, eine stoffliche und gleichzeitig wirtschaftliche Phosphat-Rückgewinnung ermöglicht. Hauptschwerpunkt der vorliegenden Arbeit ist dabei die Entwicklung des Herstellungsverfahrens, insbesondere die Auswahl und Erprobung geeigneter modifizierter Calcium-Spezies als Zuschlagstoff.
Das eisenhydroxidhaltige Ausgangsmaterial auf Basis von Fällschlämmen aus der Ab-, Trink- bzw. Grubenwasserreinigung wurde von der Firma P.U.S. Produktions- und Umweltservice GmbH Lauta zur Verfügung gestellt. Ein weiterer Schwerpunkt ist die Identifizierung und Charakterisierung der Phasenumwandlungsprozesse der calciumhaltigen Eisenhydroxide. Verifiziert werden die Einflüsse der Korngrößen sowie die technische Umsetzung geeigneter Beladungs- und Rückgewinnungsverfahren für die Kombination von Eisenhydroxiden mit ausgewählten Calcium-Spezies.
Untersuchung der Schichtausbildung bei verschiedenen Legierungskonzepten sowie deren Klebeeignung
(2019)
Der automobile Karosseriebau steht permanent vor einer Vielzahl von Herausforderungen. Stetige Optimierungen hinsichtlich Gewichtsersparnis und der damit verbundenen CO2-Reduktion, passive Sicherheit sowie Erhöhung der Produktleistungsfähigkeit machen die Erprobung neuer Materialzusammensetzungen mit verbesserten Eigenschaften unumgänglich. Bei verzinkten pressgehärteten Stählen bildet sich nach dem Austenitisieren und Här-ten eine Zink-Eisen-Schicht aus, welche mit einer Zinkoxidschicht belegt sind. Diese Bautei-le werden nach dem Warmumformprozess im Zusammenbau gefügt. Dabei kommt dem Wi-derstandspunktschweißen und dem Kleben als Fügeverfahren eine wichtige Bedeutung zu, wobei die Schweißpunkte in erster Linie als Fixierung dienen und der Klebstoff die Hauptfü-gekomponente darstellt. In Abhängigkeit der Zink-Eisen-Schicht kann es deshalb zum Versagen einer Grenzfläche kommen. Ziel dieser Arbeit soll es somit sein, neue Versuchsproduktionen hinsichtlich ihrer Klebeeigenschaften zu untersuchen. Die gewonnenen Er-kenntnisse daraus sollen dazu genutzt werden, diese neuen Materialzusammensetzungen (auf Grundlage des altbewährten Mangan-Bor-Stahls, welcher seit Jahren im Karosseriebau eingesetzt wird) prozessfähig zu machen und in die Serienproduktion zu überführen.
Visual FoxPro ist eine über mehrere Jahrzehnte erfolgreich eingesetzte Entwicklungsumgebung, Programmiersprache und relationale Datenbank. Entwickelt wurde Visual FoxPro einst von Fox Software als FoxBase. Nachdem Fox Software 1992 durch Microsoft aufgekauft und in den Folgejahren weitere Versionen veröffentlicht wurden, folgte im März 2007 schließlich die Abkündigung. Seither stehen Visual FoxPro-Entwickler vor dem Problem der Migration. Auf der Suche nach Alternativen wird häufig die Programmiersprache C# angeführt. Die vorliegende Arbeit beschreibt Wege und Möglichkeiten für eine derartige Migration, zeigt welche Probleme sich daraus ergeben und wo die Grenzen der einzelnen Technologien liegen. Ferner wird anhand der Untersuchungen das von Microsoft entwickelte Component Object Model ausgewählt und im Verlauf der Arbeit näher behandelt. Eine grundlegende Analyse verdeutlicht die Arbeitsweise dieser Technologie und bildet den Ausgangspunkt für einen Vergleich von Visual FoxPro und .NET-Framework. Auf die Probleme, die sich in Zusammenhang mit dieser Technologie ergeben, wird in einem gesonderten Kapitel eingegangen. Es werden Lösungsmöglichkeiten behandelt und das Component Object Model einem Performance-Test unterzogen. Unter der Maßgabe einer schrittweisen Migration wird in einem weiteren Kapitel eine effektive Umsetzungsreihenfolge auf Basis der Anwendungsschichten erarbeitet. Die praktische Umsetzung wird anhand einer Visual FoxPro-Klassenbibliothek verdeutlicht. In einer abschließenden Betrachtung werden die einzelnen Kapitel mit den Zielen der Arbeit nochmals gegenüber gestellt. Zudem werden Vorschläge und Anregungen für weitere Arbeiten gegeben.
Die Glanzwinkeldeposition (GLAD) ist ein leistungsfähiges Werkzeug zur Herstellung komplexer Schichtmorphologien. In der vorliegenden Arbeit wurde eine Nickel-Eisen-Legierung (Ni/Fe 81/19 wt%) durch GLAD mit Hilfe von Elektronenstrahlverdampfung auf Si(100)-Substrat abgeschieden. Um die Wachstumseigenschaften der Nanostrukturen zu untersuchen, wurden verschiedene Wachstumsparameter wie Substrattemperatur, Einfallswinkel und Substratvorstrukturierung variiert. Die daraus resultierenden Schichteigenschaften wurden mittels REM-, AFM-, XRR-, XRD- und Polfigurmessungen analysiert. Dies ermöglichte die Analyse der Schichtporosität und -dicke sowie der Neigungswinkel und der Kristallinität der abgeschiedenen Säulen. Beim Vergleich mit bekannten Modellen betreffs der Abhängigkeit vom Neigungswinkel vom Einfallswinkel zeigte sich eine gute Übereinstimmung, insbesondere mit anderen Metallen. Der Einfluss der mittels Nanokugellithographie (NSL) hergestellten Vorstrukturen ist als gering einzuschätzen. Jedoch zeigte die durch Erhöhung der Substrattemperatur verstärkte Oberflächenmobilität der Adatome einen signifikaten Effekt auf das Schichtwachstum.
Die vorliegende Masterarbeit beschäftigt sich mit dem Verfahren der thermischen Hochrateverdampfung zur Abscheidung von aluminiumbasierten Schichten auf Kleinteilen, die als Schüttgut behandelt werden. Realisiert wird dies mit der am Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik (FEP) entwickelten Versuchsanlage ALMA 1000. Die Anlage vereint zwei physikalische Dampfabscheidungs-prozesse (engl.: physical vapor deposition
Schwerpunkt der vorliegenden Arbeit ist die Untersuchung der Adsorptionsmechanismen von Phosphat an ausgewählten Eisenhydroxid haltigen Agglomeraten. Die im Rahmen der vorliegenden Arbeit durchgeführten Untersuchungen umfassen die Erprobung und vergleichende Bewertung verschiedener Ansätze zur Modifizierung der offenporigen Eisenhydroxid haltigen Agglomerate und sollen insbesondere der Klärung von Auswirkungen dieser auf die Eigenschaften des Agglomerats im Allgemeinen und auf die Phosphatadsorption im Speziellen dienen. Dabei stehen, neben der vergleichenden Testung thermisch behandelter/aktivierter Agglomerate, auch die Verifizierung der Einflüsse von Korngröße sowie Umströmung des Agglomerates im Fokus. Hauptziel ist das Erlangen von detaillierten Kenntnissen über die ablaufenden Reaktionen.
Der Medizin stehen zur Versorgung der Bevölkerung immer bessere Methoden zur Verfügung, die auf nichtinvasivem Weg den Blick ins Körperinnere erlauben. Bei der Tomographie nahm dabei eine besonders rasante Entwicklung. Fortschreitende Technik brachte jedoch auch spezielle Fehlerquellen mit sich. Artefakte in der Bildgebung können die Folge sein. Da sie zu Fehlinterpretationen und unpassenden Diagnosen führen können, ist der geeignete Umgang mit ihnen von großer Wichtigkeit.
Die OvGU hat sich zur Aufgabe gestellt, Studierende der Studiengänge Medizintechnik sowie Medical Systems Engineering auf diese Praxisanforderung mit Hilfe des CT-Train vorzubereiten. Er nutzt Modelllokomotiven, um durch ein spielerisches Element das Lernen zu unterstützen.
Im hier beschriebenen Projekt wurde diese speziell konzipierte Lehr-Versuchsanordnung für den Gebrauch in einem Praktikum zur Praktischen Bildgebung umgesetzt und eine entsprechende Anleitung für die Studierenden erstellt.
Zu diesem Zweck wurde der vorhandene Laser-Scanner zu einem Röntgen-Computertomographen mit speziellen Scanobjekten umgebaut. Anschaulichkeit und eine Vielzahl von Interventionsmöglichkeiten für die Studierenden standen dabei im Vordergrund. Röhrenspannung und Anodenstromstärke lassen sich an der Quelle ebenso einstellen, wie am Detektor die Dauer der Detektionen und die Anzahl ihrer Wiederholungen. Weitere Interventionen ermöglicht der Code. Die Versuchsanordnung erfordert zudem bei den Voreinstellungen die gründliche Beschäftigung mit der Geometrie des Aufbaus.
Zu systematischen Untersuchungen mit den genannten Parametern und an unterschiedlichen Scanobjekten werden die Studierenden in der Anleitung angehalten. Sie regt die Studierenden ebenfalls an, nach Möglichkeiten zu suchen, wie Mensch-induzierte Artefakte sich am CT-Train simulieren lassen. Die Ergebnisse ihrer Versuche können durch Auswertung der gewonnenen Datensätze mit geeignetem MatLab-Code veranschaulicht werden.
Prinzipiell sind am funktionsfähigen CT-Train Simulationen von Artefakten denkbar. Die Nutzung der Anordnung hat gezeigt, dass dazu Datensätze mit hoher Datendichte vorteilhaft sind. Um diese kontrolliert zu generieren, ist es notwendig, zunächst gute Kenntnisse über einen Zusammenhang zwischen den Detektorparametern zu erlangen, der nicht vorhergesehen wurde. Das Auftreten von Artefakten anhand einer raschen Abfolge von Schnittbildern zu erkennen, fällt naturgemäß schwer. Deshalb wird zu deren Auffinden eine volume rendering Methode empfohlen.
Die Informationstechnik hat sich in den letzten Jahrzehnten beständig weiterentwickelt und es wird nach wie vor nach Möglichkeiten gesucht, die Speicherdichte bzw. Bauteilfunktionalität zu erhöhen. Dafür ist das Erforschen neuer Materialien, die für solche Anwendungen Potential besitzen, ein wichtiger Bestandteil. Eine vielversprechende Legierung ist in diesem Zusammenhang Fe60Al40, deren magnetische Eigenschaften je nach Ordnungszustand (B2: geordnet, A2: ungeordnet), sowohl paramagnetisch als auch ferromagnetisch bei Raumtemperatur sein können. Genau dieser Sachverhalt könnte für die Informationstechnologie von besonderem Interesse sein. In dieser Arbeit wird die Herstellung von mikrostrukturierten Fe60Al40 Bauteilen beschrieben. Diese dienen zur Untersuchung des Magnetowiderstandes, insbesondere dem Erforschen des Zusammenhangs zwischen den einzelnen magnetischen Zuständen der Legierung und deren Widerständen. Weiterhin beinhaltet diese Arbeit die Untersuchung einer strominduzierten Zustandsänderung der Mikrostrukturen. Für diese Mikrostrukturen wurden polykristalline Leiterbahnen mit Hilfe von Elektronenstrahllithografie und Dünnschichtabscheidungen sowie mittels Lift-off Prozessierung hergestellt. Die Untersuchungen des Magnetowiderstandes wurden dabei in einer hochsensitiven Messstation mit Heliumkühlung bei Tieftemperaturen durchgeführt. Die strominduzierten Messungen fanden bei Raumtemperatur ihre Anwendung, da die Zustandsänderung auf strominduziertem Heizen basiert. Diese Arbeit legt die Grundlagen für zukünftige in-situ Untersuchungen von Widerstandseffekten bei Ordnungs/Unordnungs-Phasenübergängen in ähnlichen Materialsystemen.
Die vorliegende Masterarbeit beschäftigt sich mit der Herstellung und Charakterisierung von transparenten Permeationsbarrrieren auf Kunststofffolien im Hinblick auf die Sauerstoff- und Wasserdampfdurchlässigkeit für die Anwendung als Verkapselung organischer Elektronik. Zur Schichtabscheidung wurden dabei verschiedene Schichtsyteme mittels Atomlagenabscheidung (ALD) und reaktivem Sputtern herstellt. Bei den untersuchten Oxidschichten handelt es sich unter anderem um die typischen transparenten Barrierematerialien Zink-Zinn-Oxid (ZTO) und Al2O3. Des Weiteren wurde der Einfluss der Schichtdefekte und Schichthaftung auf die Barriereeigenschaften untersucht. Zur Charakterisierung der Permeationsbarriere wurden die Normen DIN EN ISO 15106 -3 und DIN 53380 -3 verwendet. Dabei handelt es sich um eine coulometrische Messmethode, die durch ein Trägergas unterstützt wird. Für die Untersuchungen zur Defektdichte wurde das optimierte elektrolytische Verfahren der Kupferdekoration angewendet. Dabei wird eine Unterschicht aus Silber auf dem Substrat abgeschieden, dass als Kathode und Kupfer als Anode verwendet wird. Ziel ist die Herstellung von Ultrabarrieren mit einer Wasserdampfpermeation von unter 10^-4 g/m^2*d. Ebenfalls stellt das Substrat selbst eine wichtige Rolle dar. So besteht eine wichtige Vorraussetzung darin, dass die Polymersubstrate für eine sehr glatte Oberfläche aufweisen. Verschiedene Sputtereinzelschichten wurden hergestellt und charakterisiert und mit den ALD Einzelschichten und den drei verschiedenen Schichtsystemen verglichen. Dabei finden für ZTO und Al2O3 das Sputtern Anwendung. Wohingegen sich für die ALD nur Al2O3 als Schichtmaterial verwendet wird. Gute Ergebnisse konnten mit dem 2-Schichtsytem erzielt werden, bei dem das ALD-Verfahren als Deckschicht verwendet wird. Dagegen eignen sich die 3-Schichtsysteme mit der ALD-Zwischenschicht nicht als Permeationsbarriere.