Refine
Has Fulltext
- no (88) (remove)
Year of publication
- 2015 (88) (remove)
Document Type
- Bachelor Thesis (50)
- Master's Thesis (31)
- Diploma Thesis (7)
Institute
- Physikalische Technik, Informatik (88) (remove)
Is part of the Bibliography
- no (88)
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die Bachelorarbeit befasst sich mit der Entwicklung der Visualisierungskomponente von anwendungsbezogenen Standorte und Route für Fuhrparkmanagement Software - comm.fleet von Community4you AG. Bei der Arbeit mit den geographischen Daten werden verschiedene APIs von Google und OpensStreetMap verwendet. Für die Entwicklung der Anwendung wurden folgende Technologien, wie Bootstrap JS Framework, Javascript Prototyping verwendet.Im Rahmen dieser Bachelorarbeit soll analysiert werden, die Verwendung von Kartendiensten von Google Maps und Openstreetmap - Projekt für die Visualisierung von Standorte und Route in comm.fleet. Zudem soll es eine prototypische clientseitige Anwendung entstehen, die in der Zukunft als internes Tool in comm.fleet integriert werden kann. Dadurch erlaubt die neue prototypische Visualisierungskomponente mittels eines Kartenmaterials die Darstellung von Standorte des Objektes und Route anhand der geographischen Koordinaten.
Im Rahmen dieser Ausarbeitung ist eine Serversoftware implementiert worden. Die programmierte Software stellt einen Dienst zur Verfügung, der Metadaten von Clients entgegen nimmt und diese verwaltet. Die zugesendeten Metadaten werden versioniert und vor inkonsistenten Speichervorgängen geschützt. Ziel dieser Arbeit ist, die Notwendigkeit der Software zu beschreiben und die Implementierung zu erläutern. Dafür werden die Softwaresysteme und die damit verbundenen Prozesse in der Götz Günther GmbH analysiert und beschrieben. Aus den entstehenden Informationen werden die Anforderungen an das Softwaresystem abgeleitet. Anschließend werden verschiedenste Technologien ausgewertet und ihre Qualifikation für die Verwendung im Projekt ermittelt. Dafür wird eine Diskussion durchgeführt, die die Technologien anhand verschiedenster Kriterien untersucht. In der Diskussion werden die Vor- und Nachteile der Technologien besprochen, damit der Grund der Entscheidung für eine bestimmte Technologie ersichtlich wird. Weiterhin wird die erstellte Serversoftware in ihrem Aufbau und ihrer Arbeitsweise erläutert. Dafür wird die Implementierung in verschiedenen Detailgraden betrachtet und schematisch mit UML-Diagrammen dargestellt. Die Implementierung wird in Komponenten unterteilt, die gemeinsam ein Aufgabenfeld realisieren und deren Arbeitsweise wird erläutert. Es wird auf die Modularität des Softwaresystems eingegangen, wobei verdeutlicht wird, in welcher Art und Weise die Komponenten miteinander verknüpft sind und wie diese ausgetauscht werden können. Danach wird die interne Struktur der Komponenten anhand von Klassendiagrammen geschildert und auf implementationsspezifische Besonderheiten eingegangen. Es wird dargestellt, warum sich für diese Klassenarchitekturen entschieden wurde, dafür werden Modelle der C#-Entwicklung charakterisiert. Zum Schluss folgt ein Fazit, das die entstandene Software evaluiert und Mängel in der Systemarchitektur identifiziert. Es werden Lösungen für die Bereinigung der Mängel besprochen.
Diese Arbeit beschreibt ein Konzept zur Implementierung eines Schaltplan- Vergleichs und der intelligenten Ergebnisdarstellung. Mit dem Konzept soll das Design-Center von Transim Technology Corp. erweitert werden. Für die Umsetzung wurde eine Anforderungsanalyse erstellt und eine theoretische Betrachtung mittels Graphentheorie durchgeführt.
Im Laufe dieser Masterthesis sollen die Grundlagen für die Entwicklung eines Prototypen für eine Sprachsteuerung im Rahmen der Gebäudeautomatisierung ViciOne erarbeitet werden. Es wird gezeigt, wie sich die Prinzipien der Sprachsteuerung auf den Bereich des Smart Homes übertragen lassen und wo sie heute schon zum Einsatz kommen. Dabei werden alle theoretischen Grundlagen wie die Bedeutung der Sprache als primäres Kommunikationsmittel, so wie die Funktionsweise von Spracherkennung und -synthese ausführlich erläutert. Als Grundlage für das Projekt dient Microsofts Sprachassistent Cortana. Aus diesem Grund werden die zugrundeliegenden Technologien wie die UAP und Windows 10, welche für den Einsatz von Cortana benötigt werden, näher beschrieben. Da diese zum Zeitpunkt der Anfertigung der Arbeit nur als Vorabversion für Entwickler zur Verfügung standen, erfolgt eine weitreichende Analyse dieser Technologien. Die Untersuchung dieser Plattformen soll gleichzeitig auch als Grundlage für spätere Entwicklungen auf dieser Basis dienen. Außerdem werden die Versionen von Windows 10 IoT beschrieben und es wird auf deren Bedeutung für dieses und künftige Projekte eingegangen. Im praktischen Teil wird beschrieben, wie auf Basis der UAP und der neuen Windows 10 Plattform ein Prototyp einer Sprachverarbeitung umgesetzt wurde, der über einen selbst erstellten Treiber samt zugehörigem Funktionsblock von der ViciOne Engine verarbeitet werden kann. Das Ergebnis dieser Arbeit ist eine theoretisch fundierte Machbarkeitsstudie, die zeigt, wie eine Sprachsteuerung mit den neusten technischen Möglichkeiten umgesetzt werden kann, um den Nutzern eine einfache und benutzerfreundliche Schnittstelle für ihr Smart Home bieten zu können.
Der Halbleiterhersteller X-FAB bietet eine Reihe von Technologien (z.B. XH018) in denen CMOS-Photodioden hergestellt werden. Am Ende der Prozessierung werden die Halbleiterbauelemente auf Waferebene geprüft. Bislang konnten nur rein elektrische Parameter wie Kapazitäten oder Durchbruchsspannungen im Prozess Monitoring geprüft werden. Für optoelektronische Parameter, wie beispielsweise die Sensitivität von Photodioden, wird eine flexible Beleuchtung benötigt, die in das bestehende Testsystem integriert werden kann. Die homogene Beleuchtung soll dabei mit verschiedenen Wellenlängen erfolgen, welche das relevante Spektrum repräsentieren. Hauptziel ist die reproduzierbare Messung von Photoströmen, wodurch Prozessunterschiede in dielektrischen Schichten detektiert werden können, die mit rein elektrischen Messung nicht erfasst werden. Bei dem vorgestellten Konzept wird neben der Photodiode auch der umliegende Siliziumwafer beleuchtet. Dadurch entstehen laterale Ladungsträger, welche den Photostrom beeinflussen können. Zur Abschätzung dieses Einflusses wurden Teststrukturen entwickelt und ausgewertet.
Für die Charakterisierung von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen wird eine Messprozedur benötigt, die den Anforderungen einer solchen Produktion gewachsen ist. Zum einen ist es notwendig, dass die Genauigkeit und Präzision der verwendeten Messsysteme besser ist, als die Prozessstreuung der Abscheideprozesse. Nur so ist es möglich den Prozess zu kontrollieren. Hierfür werden in der Masterarbeit die Messsysteme mit Hilfe einer Messsystemanalyse untersucht. Zum anderen ist es notwendig, den Eingriff in den Herstellungsprozess so gering wie möglich zu halten. Hierfür werden in der Masterarbeit alternative Messmethoden zur Charakterisierung der elektrischen Eigenschaften der Indium-Zinn-Oxid-Schichten evaluiert. Als Ergebnis der Masterarbeit wird eine Messprozedur dargelegt, die für die Charakterisierung der elektrischen Eigenschaften von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen geeignet ist.
Ein Unternehmen möchte ein Ganzheitliches Betriebliches Gesundheitsmanagement System (GABEGS) einführen und orientiert sich dabei am vorliegenden Handlungsleitfaden, der mit seinen überwiegend konventionellen Methoden gerade in den Dokumentationsprozessen an seine Grenzen stößt. Deshalb wurde eine rechnerunterstützte Vorgehensweise abgeleitet, die die Integration vorhandener und neu erforderlicher Anwendungssysteme beinhaltet und drei Hauptziele anstrebt: Ziel 1 beabsichtigt den optimalen Aufbau des rechnerbasierten Teils des Informationssystems zur Unterstützung des Betrieblichen Gesundheitsmanagements (BGM). Ein weiteres Ziel besteht darin, eine Liste über am Markt verfügbare Produkte sowie deren Funktionalitäten und Schnittstellen zu erhalten. Das dritte Ziel strebt eine Liste aller Anwendungssysteme an, die zur Unterstützung der BGM dienen und integriert werden müssen sowie ein Integrationskonzept, das jeweils den Entwurf einer exemplarischen Schnittstelle für die beteiligten Systeme beschreibt. Eine Analyse und Bewertung der Ist-Situation bezüglich des Handlungsleitfadens brachte ein Drei-Ebenen-Metamodell (3LGM²) als Ist-Modell hervor, für das z. B. eine vollständige rechnerbasierte Aufgabenunterstützung nicht gewährleistet ist und sich der Grad an Datenintegration als mangelhaft erwies. Im Rahmen des Soll-Konzepts entstanden ein 3LGM²-Soll-Modell, das die aufgedeckten Schwachstellen behebt, sowie ein Migrationskonzept, das die Maßnahmen dazu beschreibt. Die Durchführung einer Marktanalyse zeigte, dass am Markt kein Softwareprodukt existiert, welches alle erforderlichen Funktionalitäten sowie Schnittstellen bieten kann. Deshalb wurden die Integrationsaspekte beteiligter Anwendungssysteme in den Fokus gestellt. Weiterhin wurde die Konzeption einer Schnittstelle zwischen einer beliebigen Befragungssoftware und dem SAP® Human Resources-System (HR) als exemplarische Personenverwaltungssoftware betrachtet. Damit wurde ein Weg zur Integration aller relevanten Daten aufgezeigt. Ferner wurde die Konzeption einer Schnittstelle zwischen einer beliebigen Befragungssoftware und dem Statistical Package for the Social Sciences (SPSS) als exemplarische Analyse-/Auswertungssoftware durchgeführt. Dadurch wurde gezeigt, wie die Erhebungsdaten der Mitarbeiter und notwendigen Verwaltungsdaten eines Fragebogens in SPSS integriert und einzelne Schritte des Analysevorgangs automatisiert werden können.
In dieser Arbeit werden webbasierte Alternativen zur nativen App untersucht. Dazu zählen Web-Apps und hybride Apps. Diese portablen Mobile-Apps werden anhand von verschiedenen Bewertungskriterien, über eine jeweils eigen entwickelte App, getestet, verglichen, ausgewertet und diskutiert. Zu den Bewertungskriterien zählen verschiedene Hardwarezugriffe und eine möglichst gute Realisierung eines nativ-ähnlichen Design.
Diese Arbeit zeigt einen Lösungsansatz für die Entwicklung eines Messverfahrens zur quantitativen Erkennung von Lungenkrebszellen in Mikroskopiebildern mithilfe von Bildauswertungsalgorithmen. Dies erfordert eine Auseinandersetzung mit bestehenden Bildverarbeitungsprogrammen und deren Bildfiltern und startet mit dem spezifischen Einsatz gewählter Bildauswertungssoftware bis hin zur Lösungsvariante einer Zellenerkennung. Zunächst setzt man sich mit den Grundlagen der Bildverarbeitung auseinander, um das gestellte Bildmaterial zu verstehen. Dieses wird im Laufe des Projektes vertieft, damit eine Nutzung zur Auswertung der gewünschten Ziele erreicht werden kann. Als erstes werden die Bildfilter und deren Eigenschaften und Funktionsweise erläutert, um zu verstehen wie sie die vorhandenen Bilder verändern. Danach wird eine Auswertung durchgeführt, ob diese Veränderungen die optimalen Ergebnisse erzielt haben. Daraufhin werden zwei Lösungswege für positive und negative Zellen entwickelt. Diese werden durch statistische Auswertungen überprüft und zum bestmöglichen Ergebnis entwickelt.
Das Unternehmen SYSTEC electronic GmbH bietet verschiedene Steuerungen einer PLC/ SPS Produktlinie an. Diese werden mithilfe der Entwicklungsumgebung OpenPCS pro- grammiert. Die so erstellten Programme werden in einer Laufzeitumgebung auf der Steue- rung ausgeführt. Das Laufzeitsystem wird von SYSTEC für die konkreten Steuerungen und deren Peripherie angepasst und erweitert. Die Arbeit verfolgt das Ziel Systemtests für das Laufzeitsystem und dessen Anpassungen automatisch durchführen zu können. In der folgenden Arbeit werden die notwendigen Grundlagen erläutert. Außerdem wer- den Anforderungen erhoben und mögliche Ansätze beschrieben, wie diese erfüllt werden können. Aus den Ansätzen wird anhand geeigneter Kriterien eine Wahl getroffen, die in der Lösung verwendet wird. Im Anschluss werden die einzelnen Aufgaben und Komponen- ten der Implementierung beschrieben. Danach wird ein Vergleich zwischen Anforderungen und Ergebnissen gezogen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick an weitere mögliche Entwicklungen gegeben.
Einleitung Das Lehren und Lernen im Digitalen Zeitalter ist geprägt von Felxbilität und Ereichbarkeit zu jeder Zeit. Nutzer von Lernplattformen (LMS) möchten zu vermittelnde Inhalte einfach und schnell von jedem Ort aus erreichen. Teamfähikeit spielt ebenso eine Rolle, wie selbständiges Erwerben von neuem Wissen und die Fertigkeit es anzuwenden. Diese Ziele sollen möglichst zu annehmbaren Bedingungen ermöglicht werden. Deshalb greifen Ausbildungseinrichtungen und auch Unternehmen zur Unterstüzung auf solche Lernmanagementsysteme (LMS) zurück. In dieser Arbeit wird das Content Management eines LMS untersucht. Herzu ist zunächst in einer Diskusion zu ermitteln, welche Anforderungen für die Inhaltliche Bearbeitung, das Bedienverhalten der Software und dessen Administration erforderlich sind. Als Diskusionsgrundlage dient ein zu schaffender Überblick über mögliche LMS. Dieser wird anhand einer Webrecherge erzeugt, der einige Bedingungen erfüllen muss. Ein sich daraus ergebender Favourite, ist im Bereich Content Management zu untersuchen. Für diese Analyse dienen die nun nach der Diskusion ermittelten Anforderungen an das System.
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
Die Aufgabe dieser Arbeit bestand darin, einen möglichst einfachen Versuchsaufbau eines Laser-Doppler-Anemometers zu realisieren. Der Versuchsaufbau soll Studenten im Praktikumsversuch anschaulich den allgemeinen Aufbau eines LDA-Systems verdeutlichen. Zudem soll die Strömungsgeschwindigkeit einer Flüssigkeit in einem Rohr vermessen werden und der Druckverlust an einer Rohrwandung veranschaulicht werden.
Anwendung des navigations Moduls von ROS auf eine mobile Testplattform mit Mecanum Rädern. Es behandelt das Erstellen von Kartendaten mithilfe einer Tiefenbildkamera und die Ansteuerung der Testplattform mit Hilfe eines Arduino. Des weiteren werden alle Funktionen auch virtuell in einer Simulation abgebildet und getestet.
Als Ergebnis dieser Bachelorarbeit wurde eine Softwarelösung entwickelt, die ein Fernupdate für den Live-Ticker repräsentiert. Der Schwerpunkt dieser Aktualisierungsanwendung ist die Zuverlässigkeit. Die Konzeption des sicheren Update-Vorgangs wurde dabei in dieser Arbeit entworfen. Um ein atomares Update durchzuführen, sind die häufigsten Fehler bei einem Fernupdate herausgefunden und die entsprechenden Massnahmen vorgenommen wurden, um diese Fehler zu beheben.
Konzeption und Realisierung eines Expertensystems mit Unterstützung von generierten Formularen
(2015)
Ein Formular ist ein standardisiertes Mittel zur Erfassung von Daten, das entweder in Papier- oder elektronischer Form (z. B. Web-Formular) vorliegt. In der Regel geben Formulare kurze Textfelder (zum Beispiel "Nachname", "Vorname", "Adresse") und Einfach- (zum Beispiel "verheiratet: ja / nein") oder Mehrfachauswahlfelder vor. Formulare vereinfachen die Erhebung von Daten, sorgen für Vollständigkeit und schützen vor auffälligen Mehrdeutigkeiten, die bei freier Wortwahl oder z. B. einem formlosen Antrag auftreten können. Deshalb werden Formulare häufig von Unternehmen verwendet, um den Erfassungsvorgang zu externalisieren und rechtlich präziser zu machen. Formulare finden sich auch in HTML, Microsoft© Word- oder PDF-Dateien oder in Programmiersprachen. Aufgrund der kontinuierlichen Etablierung der elektronischen Signatur lösen immer mehr elektronische Formulare ihre gedruckten Versionen ab. Der Vorteil liegt insbesondere darin, dass Prozesse/Verwaltungsgänge komplett webbasiert abgewickelt werden können. Ferner können die Daten effizient in Fachverfahren übernommen werden, wodurch sich Kostenreduzierungen und Bearbeitungsbeschleunigungen erzielen lassen.
Inhaltsverzeichnis 1. Einleitung/Motivation 2. Cyanobakterien 3. Sekundärmetaboliten und deren öko- und humantoxikologische Bedeutung 3.1. Stoffwechselprodukte der Cyanobakterien 3.2. Wirkung in der Umwelt 3.3. Analytische Methoden 4. Verfahrenskonzepte zur Beseitigung von Stoffwechselprodukten der Cyanobakterien in der Trinkwasseraufbereitung 4.1. Notwendigkeit der Abtrennung bzw. Umsetzung 4.2. Verfahrenskonzepte 4.2.1 Adsorption 4.2.2.Membranverfahren 4.2.3.Ultraschall 4.2.3 Chemische Umsetzung 4.2.4 AOP 4.2.1 Verfahrenskombinationen 4.3. Bewertung und Vergleich der Verfahrensvarianten 4.3.1. Risikoabschätzung in Bezug auf die Bildung toxischer Zwischenprodukte und Abfallstoffe 4.3.2. Abschätzung notwendiger Investitions- und Betriebskosten 4.4. Studien und großtechnisch realisierte Projekte zur Beseitigung von organischen Spurenstoffen in Wässern 4.4.1. Geosmin und MIB 4.4.2. Behandlungskonzepte für weitere organische Spurenstoffe in Rohwässern 5. Zusammenfassung
Die Arbeit beschäftigt sich mit der prototypischen Implementierung eines Andon-Boards für die Meleghy Automotive Unternehmensgruppe.Dabei werden Anforderungen aus betriebswirtschaftlichen Gesichtspunkten wie auch auf Hinsicht der Qualitätssicherung zusammengeführt und analysiert. Aus betriebswirtschaftlicher Hinsicht handelt es sich bei der Anwendung um ein Visualisierungstool aktueller Produktionsstatus auf Basis der Produktionsdaten eines bestehenden SAP-Systems. Zusätzlich zu den Produktionsdaten werden Echtzeit-Daten mittels einer Anbindung an eine Anlagen-SPS angezeigt. Neben der Anzeige von Echtzeit-Daten befasst sich die Arbeit auch mit der Ermittlung und Aufbereitung von statistisch ermittelten Daten.
Die vorliegende Bachelorarbeit leistet einen Beitrag zum Aufbau eines in situ arbeitenden Laserpartikelzählers mit Echtzeitmessung für Ionenimplanter. Es werden unterschiedliche Komponenten, wie z.B. Lichtdetektoren, untersucht und diese zu einem Partikelzählmessplatz, der in atmosphärischer Umgebung betrieben wird, kombiniert. Das Funktionsprinzip des Messplatzes und das Auftreten von Partikelsignalen in Koinzidenz werden gezeigt. Es werden Möglichkeiten zur Verknüpfung der beiden Detektorausgangssignale vorgestellt und die Auswirkungen bei Koinzidenzverletzung untersucht. Ein weiterer Bestandteil ist die Automatisierung der Partikelerkennung. Dazu wird ein Auswertealgorithmus vorgestellt, der Partikel zählt und nach Höhe und Breite klassiert. Unter dessen Verwendung werden Einflüsse wie Samplerate der Messwerterfassung und Ausrichtung der Polarisationsebene der Laserstrahlung zu den Detektoren auf die Effizienz der Partikelzählung untersucht. Zum Abschluss werden Messabweichungen infolge der Messwerterfassung diskutiert.
Kalibrierung und Freilandtest von Passivsammlern für ausgewählte organische Gewässerschadstoffe
(2015)
Passivsammler sind schon seit einigen Jahren in der Entwicklung. Mit ihnen können zeitgemittelte Konzentration über einen längeren Zeitraum in einem Umweltmedium ermittelt werden. Typische Vertreter sind der POCIS, der Chemcatcher oder der am UFZ entwickelte MESCO. Weiterhin wird in einer Studie am UFZ derzeit ein anderes Passivsammlermaterial untersucht, Polyethersulfon (PES). Bereits seit Jahren sind PES-Membranen Bestandteile von Passivsammlern. Sie dienen als Schutz-membranen um das eigentliche Sammlermaterial vor zu starker Verschmutzung oder Bioaufwuchs zu schützen. Es existieren jedoch Untersuchungen die belegen, dass manche Schadstoffe sehr gut im PES aufgenommen werden, wenn nicht sogar besser als in der eigentlichen Sammelphase. Aus diesem Grund sollte Poly-ethersulfon in dieser Arbeit auf seine Eignung als Passivsammler, bzw. auf seine Sammeleigenschaften (Verteilungskoeffizienten und Sammelraten), für bestimmte Gewässerschadstoffe untersucht werden. Es wurden elf Substanzen ausgewählt und die PES-Membranen in zwei mehrwöchigen Laborexperimenten und einem Freilandtest untersucht. Im Labor wurde ein Glasgefäß mit Wasser befüllt, welches mit einem Schadstoffcocktail kontaminiert war. Nach der Befestigung der Sammler im Gefäß, wurde mithilfe eines Magnetrührers eine leichte Strömung erzeugt. Im ersten Versuch wurden die Verteilungskoeffizienten der Stoffe ermittelt und im zweiten Versuch die Sammelraten. Beide Parameter sind wichtig und müssen bekannt sein wenn ein Passivsammler für die Untersuchung von Gewässern genutzt werden soll. Zusätzlich wurden die Sammler im 20-tägigen Feldversuch in der Saale bei Halle und im Ablauf des Klärwerks Halle Nord getestet.
Die vorliegende Arbeit befasst sich mit der theoretischen Auseinandersetzung von Architekturkonzepten in Bezug auf eine verteilte IT-Infrastruktur. Dabei werden verschiedene Modelle, die von Client-Server-Architekturen bis hin zu Cloud Computing Ansätzen reichen, untersucht. Anhand verschiedener Kriterien wird eine Lösungsmöglichkeit ausgewählt und prototypisch implementiert. Als Grundlage dient hierbei ein Basissystem aus dem Kontext der Gemeinschaftsverpflegung, welches um ein mobiles Menü-Bestellsystem erweitert wird. Beginnend mit einer Dokumentation der Anforderungs- und Geschäftsprozessanalyse werden die wichtigsten Funktionen des mobilen Menü-Bestellsystems erläutert, um anschließend einen Lösungsansatz für die IT-Infrastruktur zu modellieren. Den Abschluss bildet die Realisierung, von der Anbindung des bestehen Basissystems, über das verteilte Informationssystem bis hin zum mobilen Client für den Nutzer.
Die vorliegende Arbeit umfasst die Übertragung eines patentierten Rolle"=zu"=Rolle"=Plasmaätzverfahrens auf das Polymer PMMA, sowie die Charakterisierung der modifizierten Folien. Der Plasmaätzprozess basiert auf einem Sauerstoffplasma mit einem Doppelmagnetronsystem als Plasmaquelle und wird zur Erzeugung von Nanostrukturen genutzt. Als Targetmaterialien für das Doppelmagnetronsystem werden Magnesium, Aluminium und Titan genutzt. Durch die erzeugten Nanostrukturen wird ein Gradientenverlauf der Brechzahl zwischen Folie und Umgebung erzeugt, wodurch eine breitbandige optische Entspiegelung erreicht wird. Durch die Verbesserung der optischen Eigenschaften der PMMA-Folie soll ein weiteres Material für die Frontseitenverkapselung von optischen Bauelementen untersucht werden. Zunächst werden die mechanischen und optischen Eigenschaften der PMMA-Folie charakterisiert. Die Ergebnisse zeigen, dass PMMA schon eine hohe Transparenz besitzt. Durch die erfolgreiche Übertragung des Prozesses konnte die optische Transmission um 2 % - 3 % für die untersuchten Targetmaterialien erhöht werden. Für die Titantargets ergaben sich die besten optischen Eigenschaften. Die Ergebnisse, sowie REM-Untersuchungen der Nanostrukturen werden vorgestellt. Um den Prozess zu optimieren wurde der Einfluss der Prozessparameter Geschwindigkeit, Leistung und Sauerstofffluss auf die Transmission untersucht. Die ermittelten Zusammenhänge werden gezeigt und diskutiert. Für eine beidseitig behandelte Folie ergab sich eine Restreflexion von unter 1 % pro Seite. Des Weiteren wurden Versuche mit einer Initialschicht durchgeführt, da sich diese auf anderen Polymeren als vorteilhaft erwiesen hat.
Datenmodell für Track&Trace
(2015)
G-Protein-gekoppelte Rezeptoren (GPCRs) bilden eine Gruppe von Membranproteinen mit sehr dynamischer Eigenschaft, die für die Aufrechterhaltung der zellulären Homöostase auf-grund ihrer vielfältigen Wirkungsweise im menschlichen Körper unerlässlich ist. So ist es wichtig, nicht nur den strukturellen Aufbau dieser Rezeptoren zu kennen, sondern auch ihre dynamischen Eigenschaften zu verstehen. In den letzten Jahren wurden viele Kristallstruktu-ren von GPCRs bekannt, die aber lediglich eine Momentaufnahme darstellen. Daher ist das Ziel dieser Arbeit, mit dem Neuropeptid Y-Rezeptor Typ 2, ein besseres Verständnis über die molekulare Beweglichkeit innerhalb seiner Umgebung zu erlangen. Dies soll als Grundlage dienen, um künftig die Wechselwirkung mit einem Agonisten besser beurteilen zu können. Der Y2-Rezeptor spielt bei neuronalen Funktionen, wie z.B. Ängsten und Suchterkrankungen, eine wichtige Rolle. Für die Untersuchung der Dynamik des Rezeptors wurde dieser in verschiedene Modell-membranen, bestehend aus einfach-ungesättigten Phospholipiden, rekonstituiert und an-schließend mittels Festkörper-NMR-Spektroskopie untersucht. Da die Lipidumgebung einen großen Einfluss auf die Struktur und Dynamik der Rezeptoren ausübt, wurde zusätzlich der Einfluss von Cholesterol, Phosphatidylethanolamin oder negativ geladenen Phosphatidylserin als Bestandteile der Modellmembran auf den Y2-Rezeptor untersucht. Zudem wurde durch selektive Unterdrückung von Signalen durch paramagnetische Manganionen und Spin-markierten Lipiden die Dynamik einzelner Bereiche näher untersucht (sog. quenching). Zur Quantifizierung der Dynamik wurde das Verhältnis von bewegungsgemittelter und vol-ler dipolarer Kopplung für den H-C Bindungsvektor als Ordnungsparameter dargestellt. Dieser reicht von 0 (isotrop beweglich) bis 1 (starr). Statische 15N-NMR-Spektren und quantitative 1H-13C Ordnungsparameter Bestimmungen, durch 1H-13C dipolare Kopplungsmessungen der CH-, CH2-, und CH3-Gruppen, offenbarten für den gesamten Rezeptor axial-symmetrische Bewegungen in der Membran und molekulare Fluktuationen mit verschiedensten Amplituden aller Segmente. Ordnungsparameter (SRückgrat = 0,65 ± 0,04, SGly = 0,56 ± 0,04, SCH2 = 0,26 ± 0,02 - 0,40 ± 0,03, SCH3 = 0,20 ± 0,02) aus den direkt polarisierten 13C-MAS-NMR-Experimenten zeigten, dass der Rezeptor in den Membranen höchst beweglich ist und im Mittel die Bewegungsamplituden des Rückgrats bei ~40°-50° und für die Seitenketten bei ~60°-70° liegen. Interessanterweise zeigt der Neuropeptid Y-Rezeptor Typ 2 eine geringfügig höhere Rigi-dität in der einfach-ungesättigten Phospholipidmembran, im Gegensatz zur gesättigten Membran. Das könnte mit der gesteigerten Kettenlänge der einfach-ungesättigten Lipide und der damit einhergehenden Streckung des α-helikalen Anteils des Rezeptors zusammenhän-gen. Die unterschiedliche Lipidkomponenten in den Modellmembranen zeigten hingegen keinen signifikanten Einfluss auf den Y2-Rezeptor. Es konnte zudem gezeigt werden, dass durch gezieltes Quenching der Loops und Termini des Rezeptors der transmembrane helikale Anteil eine höhere Rigidität besitzt (SRückgrat = 0,70 ± 0,05, SGly = 0,65 ± 0,04, SCH2 = 0, 28 ± 0,02 - 0,40 ± 0,03, SCH3 = 0,21 ± 0,02). Die Unterdrückung der Signale des transmembranen Bereiches offenbarten einen tendenziellen Anstieg der Ordnungsparameter um ≤ 7% für die Segmente des Rückgrates. Das könnte an einer zu geringen Konzentration der Spin-markierten POPC-Lipide liegen, wodurch es lediglich zu einer Unterdrück der mobilen Sei-tenketten der α-Helices kommt.
Applikationen im Java Enterprise Umfeld benötigen meist eine Funktionalität, mit welcher Daten vom Client, über mehrere Aufrufe hinweg, zugeordnet und verwaltet werden können. Meist wird diese Funktionalität von dem verwendeten Java-Framework abgedeckt. Diese Arbeit zeigt eine Alternative auf, welche den aktuellen Trend der Webentwicklung berücksichtigt. Dabei wird vor allem auf die Entwicklung des JavaScripts in den letzten Jahren eingegangen. Des Weiteren werden Anforderungen aufgestellt und Analysen verschiedener Technologien betrieben, welche zur Entwicklung einer Bibliothek benötigt werden. Dabei werden die möglichen Technologievarianten vorgestellt und erklärt, warum sich für eine bestimmte Technologie entschieden wurde. Hierbei wird auf Features eingegangen, welche im weiteren Verlauf der Arbeit noch praktische Anwendung finden. Das Ziel ist es, eine modulare Bibliothek zur Sessiondatenverwaltung zu konzipieren und deren Einsatz anhand eines Prototypen aufzuzeigen.
In the surgery of the pituitary gland and other related areas of the skull base, the endoscopic endonasal surgery has established oneself as today's operation method. Although the surgeon is able to look around corners with the aid of an endoscope, the dissection in these areas is limited. Current suction devices are limited in their size, shape, bending and prone to kinking because of the narrow suction channel. The work with such inadequate instruments increase the risk of life-threatening complications, prolong the operation and limit the quality of a complete tumor resection. The ideal suction device would be adaptable to numerous surgery situations, easy to bend, maintain its lumen, adequate in their ratio of rigidity and formability, ergonomic and reformable to its original shape. In the following bachelor thesis, it is shown that this can be achieved with a suction device with shape memory alloy. After the development of a comfortable hand sample, the suction device went into preparation and a risk analysis was performed. The results of the evaluation process are reductions in operative risk, time and cost if this bendable suction device would be applied. Therefore, approval for the international market should be sought, to provide an opportunity for safer and more effective surgical procedures.
Die Doppelseitenpolitur (DSP) ist ein wichtiger Bearbeitungsschritt bei der Herstellung von Siliziumwafern, welcher zur Planarisierung der Waferoberfläche und Entfernung der Restdefekte der vorhergehenden Schritte benutzt wird. Im Rahmen dieser Arbeit wurden die Ursachen für die während der DSP-Politur auftretenden Geräusche im Bereich von ca. 850 Hz untersucht, die auf den Stick-Slip- (Haft-Gleit-) Effekt zurückzuführen sind. Die Geräusche wurden aufgenommen und mittels FFT-Analyse charakterisiert. Für den Wafer wurde ein FEM-Modell erstellt, mit dessen Hilfe eine Eigenfrequenzanalyse durchgeführt worden ist. Es wurde nachgewiesen, dass die Frequenz der untersuchten Geräusche der Eigenfrequenz des Wafers entspricht. Des Weiteren wurde festgestellt, dass die Poliermittelfilmdicke hauptsächlich für das Auftreten des Stick-Slips und damit für die Anregung des Wafers maßgebend ist. Abschließend wird ein Modell zur Entstehung des Stick-Slip Effektes bei DSP erstellt und beschrieben.
Die Entwicklung von Software Produktlinien ist ein bekanntes Verfahren zur Wiederverwendung von Softwareartefakten für ähnliche Varianten eines Produktes. Ein Schwerpunkt ist das Testen von Software Produktlinien. Die Herausforderung beim Testen ist, dass durch die Konfigurierbarkeit eine große Menge an Produktvarianten entstehen. Diese Arbeit zeigt, wie Software Produktlinien entwickelt werden. Am Beispiel einer Software Produktlinie werden die theoretischen Grundlagen erläutert und beschrieben, wie die konkreten Produktvarianten mit dem Konfigurator der iSAX GmbH & Co. KG erstellt werden. Es wird erläutert, wie diese Produktvarianten effizient getestet werden können. Hierfür werden verschiedene Testansätze vorgestellt, welche die aus der Software Produktlinie resultierenden Produktvarianten testen. Um den Testaufwand zu verringern, werden Testartefakte für verschiedene Produktvarianten wiederverwendet.
Flammengestützte Abscheidung verschiedener Schichtsysteme und Optimierung des r-CCVD Prinzips
(2015)
Die vorliegende Arbeit beschäftigt sich mit der flammengestützen Abscheidung verschiedener Schichtsysteme unter der Zuhilfenahme des remote Combustion Chemical Vapor Deposition Verfahrens. Zahlreiche und hydrolytisch umsetzbare Precursoren konnten recherchiert werden. Unter verschiedenen Bedingungen erfolgte eine Auswahl an bestimmten Precurso-ren zur Erprobung. Titandioxid- (mittels Titantetraisopropoxid und Titanethoxid), Siliziumdi-oxid- (Hexamethyldisiloxan und Triethoxyorthosilikat), Aminosilan- (3-Aminopropyltriethoxysilan) und Aminotitanatschichten (Isopropyl tri(N-ethylene diamino)ethyl titanat) wurden erzeugt und ihre Schichteigenschaften mit unterschiedlichen instrumentellen Anlagen charakterisiert. Zu den Charakterisierungsmöglichkeiten gehörten ein Profilometer zur Schichtdickenbestimmung, Röntgen-Photoelektronenspektroskopie (XPS) und energie-dispersive Röntgenspektroskopie (EDX) zur Elementanalyse sowie ein Röntgendiffraktome-ter mit streifendem Einfall (GIXRD) zur Zusammensetzungsbestimmung. Weiterhin erfolgten Rasterelektronen- (REM), Raster-Kraft-Mikroskopie (AFM) und Grauwertmessungen zur Bestimmung der Oberflächenbeschaffenheit. Die Anlagenoptimierung erfolgte hinsichtlich Abscheiderate durch die Erprobung unternehmensentwickelter Verdampfereinheiten und hin-sichtlich des Prozessparameters Temperatur der Precursorsprühleiste.
In der Welt der 3D-Engines gewinnt die Großbildprojektion immer höherer Auflösungen zunehmend an Bedeutung. Ins Besondere im Simulations- und Entertainmentbreich werden die Anforderungen vor allem an die Projektion immer vielseitiger. In der vorliegenden Arbeit soll es nun darum gehen, eine in der 3D-Render-Engine Unity erzeugte 3D-Szene auf eine vertikal zylindrisch gekrümmte Projektionsfläche zu ermöglichen. Dabei handelt es sich um den Fahrsimulator der Fakultät Kraftfahrzeugtechnik der Westsächsischen Hochschule Zwickau. Für jenen Anwendungsfall muss dies ohne Verzerrungen vor allem im Randbereich der Darstellung geschehen, um so eine realistische und realitätsgetreue Darstellung der Umwelt zu ermöglichen. Als Ziel soll eine bessere Geschwindigkeitswahrnehmung, sowie eine geringe "Motion-Sickness" auftreten.
Kernthema dieser Bachelor Thesis ist die Erarbeitung eines grundlegenden Ablaufplans zur Qualifikation und Freigabe eines neuen Lötstopplacks und dessen beispielhafte Durchführung anhand einer neuen weißen Lötstoppmaske. Diesbezüglich werden wissenschaftliche Hintergründe zu den gewählten Testmethoden erläutert und die durchgeführten Versuche sowie die verwendeten Anlagen, Geräte und Parameter präsentiert. Unter Bewertung der Eignung der genutzten Prüfverfahren und Berücksichtigung der gestellten Anforderungen an eine Stopplackschicht erfolgt eine rationale Auswertung und Diskussion der gewonnenen Versuchsergebnisse und Erkenntnisse.
Softwarearchitektur gilt als Königsdisziplin der Softwareentwicklung. Viele Aspekte sind für eine gute Architektur in Einklang zu bringen. Hierzu müssen neben Softwarequalitätskriterien wie Performance oder Wartbarkeit auch die Interessen aller Projektbeteiligten vom Kunden bis zum einzelnen Entwickler einbezogen werden. Je größer und komplexer ein Softwaresystem wird, desto herausfordernder ist auch die Entwicklung der Softwarearchitektur. Zudem entwickelt sich die Architektur aufgrund sich stetig ändernder Anforderung immer weiter. Bestehende Teile müssen umgestaltet und neue integriert werden. Es gilt die Komplexität zu beherrschen und den Überblick im Großen wie auch im Kleinen zu behalten. Von sich stetig ändernden Anforderungen ist auch das Softwaresystem HSCERP des Unternehmens HSC Solutions betroffen. Das ursprünglich für den Einsatz in Kleinstunternehmen ausgelegte System findet zunehmend mehr Interessenten mit einem immer größer werdenden Nutzerkreis. War die aktuelle Performance der Architektur unter Berücksichtigung der Anforderungen von Kleinst- und Kleinunternehmen angemessen, stößt sie in mittleren Unternehmen an ihre Grenzen. In der Softwaretechnik sind solche Probleme schon lange ein Thema. Sie wurden in zahlreichen Arbeiten behandelt und in Form von Standardarchitekturansätzen verarbeitet. Ziel dieser Arbeit ist die Untersuchung solcher Standardarchitekturen hinsichtlich ihrer Eignung zur Performancesteigerung von HSCERP. Zu den untersuchten Ansätzen zählen neben der weitverbreiteten Schichtenarchitektur und dem Ansatz des Domain Driven Designs auch das weniger bekannte Quasar, welches versucht eine Standardarchitektur speziell für ERP-Systeme zu beschreiben.
Mit der Energiewende und dem weiteren Ausbau von erneuerbaren Energien, rückt die The-matik der Energiespeicherung immer weiter in den Vordergrund. Das Ziel dieser Arbeit bestand darin, den Autarkiegrad eines Photovoltaiksystems mit integriertem Akkumulator zu prognostizieren. Dabei wurde ein Algorithmus entwickelt, welcher die Basis der Simulation bildet. Für eine Beispielrechnung wurde das Speichersystem Senec.Home G2 von der Deutschen Energieversorgung, eine 7,87 kWp Photovoltaikanlage und ein privater Haushalt mit 4.000 kWh Jahresstromverbrauch ausgewählt. Es konnte nachgewiesen werden, dass die Prognose des Autarkiegrades durch das Simulationsprogramm nur geringe Abweichungen zum tatsächlichen Wert aufweist. Ebenfalls wurde die Wirtschaftlichkeit ohne Berücksichtigung einer Förderung betrachtet. Es wurde festgestellt, dass eine Photovoltaikanlage ohne Akkumulator rentabler als das Photovoltaiksystem mit dem Speicher Senec.Home G2 ist. Dabei liegt die Hauptursache bei den hohen Investitionskosten der Photovoltaikspeicher. Unter Annahme des weiterhin steigenden Strompreises, einer Förderung und eines Preisverfalls von Photovoltaikakkumulatoren können die elektrochemischen Speicher ein wichtiger Bestandteil der Photovoltaik werden und somit einen Beitrag zur Energiewende leisten.
Während die Hardware eine lange Zeit auf dem neuesten Stand ist, benötigt die Software ständige Updates, weil jeden Tag neue Produkte im Bereich der Softwareentwicklung erzeugt werden und in die bestehenden Software-Produkte weiterentwickelt werden. Nicht zu vergessen ist, dass ein Programm von Menschen geschrieben wird und einige Bugs und Mängel im Endprodukt immer behoben werden müssen. Diese Bachelorarbeit befasst sich mit der Überblick über bestehende Update-Verfahren des Linux-Betriebssystem und der prototypischen Implementierung eigenes Verfahrens auf Basis von Raspberry Pi 2 für den Live-Ticker. In der Arbeit werden zuerst die bestehende Update-Verfahren des Linux-Betriebssystem und die Anforderungen, die während deren Entwicklung erfüllt wurden, betrachtet. Danach werden die Anforderungen zum Update-Prozess des Live-Tickers beschrieben und ein Überblick über die verwendete Technologien und Werkzeuge gegeben, mit denen eine eigens entwickelte Konzeption und Implementierung realisiert wurde. Diese Bachelorarbeit hängt mit der Abschlussarbeit "Erkennung abgebrochener/ungültiger Updates und Implementierung eines Fail-Safe-Verfahrens für einen Life-Ticker auf dem Rasperry Pi 2" von Frau Gafurova zusammen.
Die stetig fortschreitende Miniaturisierung in der Herstellung elektronischer Schaltkreise führt zu immer geringeren Leitungsquerschnitten. Daraus folgt ein Anstieg der Stromdichte, welcher ein erhöhtes Ausfallrisiko des Schaltkreises durch Elektromigration zur Folge hat. Hierbei findet eine diffusionsgetriebene Umlagerung von Kupferatomen statt, wodurch Unterbrechungen der Leiterbahnen oder Kurzschlüsse zwischen benachbarten Leiterzügen entstehen können. Elektromigration kann durch die Abscheidung von Adhäsionsschichten effektiv verringert werden. Hierfür werden auch mittels MOCVD abgeschiedene Kobaltschichten in Betracht gezogen. Ziel dieser Arbeit war es, auf Basis der theoretisch zu erwartenden Einflüsse der ver-schiedenen Prozessparameter einen Versuchsplan zu erstellen und den MOCVD-Prozess zur Herstellung von Kobaltdeckschichten für die Kupfermetallisierung systematisch zu untersuchen. Um Kurzschlüsse zwischen benachbarten Leiterbahnen zu verhindern, musste ein materialselektiver Abscheidungsprozess entwickelt werden. Die Einflüsse der Prozess-parameter auf die Abscheidung wurden untersucht und Auswirkungen auf das Wachstumsverhalten und die Eigenschaften der Kobaltschichten diskutiert. Die Schicht-charakterisierung belegte, dass es gelungen war einen materialselektiven Abscheidungs-prozess zu entwickeln. Es konnte ein Beschichtungsprozess etabliert werden, welcher es ermöglicht Kobalt bevorzugt auf den Kupferleiterbahnen und nicht auf den umliegenden isolierenden Gebieten abzuscheiden. Für ein reproduzierbares Beschichtungsergebnis ist ein in-situ Vorbehandlungsprozess erforderlich. Sowohl für die Entfernung oberflächlicher Adsorbate als auch für die Reduktion von gebundenem Sauerstoff konnte ein effektives Vorgehen entwickelt werden.
In der vorliegenden Arbeit wird die Wirksamkeit eines Ausheiz- und Belüftungsverfahrens zur Sanierung eines ausgewählten VOC-Schadensfalls überprüft. Es handelt es sich in diesem Fall um lösemittelbelastete Mauerwerksbereiche in Büroräumen eines historischen Sockelgeschosses. Durch die technisch unterstützte Einstellung emissionsbeschleunigender Parameter, wie der Erhöhung der Bauteiltemperatur und des Luftwechsels, soll die Schadstoffquelle vollständig abgebaut, oder zumindest deutlich verringert werden. Die Anwendung solcher Verfahren erfolgt bei VOC-Sanierungsmaßnahmen bislang nur sehr vereinzelt. Üblicherweise wird auf konventionelle Verfahren, wie z.B. Beschichtungssysteme zur Quellenverkapselung zurückgegriffen. Der Vorteil von Ausheiz- und Belüftungsverfahren wird in der zerstörungsfreien und nachhaltigen Beseitigung der Schadstoffquelle gesehen. Detaillierte Informationen und Messdaten über Möglichkeiten und Grenzen emissionssteigernder Maßnahmen an reellen VOC-Schadensfällen liegen jedoch kaum vor. Diese sind exemplarisch anhand des ausgewählten Schadensfalls erhoben worden. Neben der Darstellung der technischen Umsetzung und der messtechnischen Überwachung des Verfahrens, werden in der Arbeit auch die Ergebnisse bisheriger Sanierungsversuche im Objekt präsentiert, sowie Vor- und Nachteile der jeweiligen Verfahren diskutiert.
Bestimmung der Dichte und Gasaufnahme aufgedampfter reiner Siliziumschichten mittels Quarzmikrowaage
(2015)
Der erste Teil der Arbeit beschäftigt sich mit der Untersuchung eines alternativen Verfahrens zur Dichtebestimmung E-Strahl-aufgedampfter amorpher Silizium-Schichten (a-Si) mittels Schwingquarzmessung. Ziel war es einen Kompromiss zwischen hoher Genauigkeit und geringem apparativem Aufwand zu finden. Durch Messung der Si-Schichtdicke mittels Tastschnittgerät und der Massenbelegung aus der korrelierten Frequenzänderung des Schwingquarzes (SQ) nach Sauerbrey wurde die Schichtdichte bestimmt. Hierbei wurde der Einfluss des Quarzes (Oberflächenrauheit, Behandlungshistorie) und der Versuchsbedingungen (Substrattemperatur, Abscheiderate) auf die Dichte der Schichten und deren Genauigkeit untersucht. Im zweiten Teil wurde der Effekt der Gasabsorption auf diese Schichten in Abhängigkeit der Abscheidebedingungen untersucht. Dazu wurden frisch abgeschiedene a-Si-Schichten definierten Atmosphären (Druck, Gasart) ausgesetzt und mittels Schwingquarz in-situ die Massenbelegung aufgenommen.
Die Weltweite Nachfrage an Leistungshalbleiter ist in den vergangen Jahren rapide angestiegen. Um den stetig wachsenden Bedarf auf einem kostengünstigen Weg nachkommen zu können, wurde die Produktion der von Infineon Technologies produzierten Produkte (CoolMOSTM) von der 200 auf die 300 mm Waferproduktion transferiert. Die Herausforderungen für die Produktion dieser Technologie bleiben dennoch die gleichen. Besonders in der Lithographie stoßen die für die CMOS Technologie vorhandenen optischen Systeme an die Grenzen der Verwendungsmöglichkeiten. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von Einflussgrößen auf den Produktfokus, sowie auf die notwendige Dosis bei der Strukturierung von Silizium-Leistungshalbleitern, wobei alle Untersuchungen auf CoolMOSTM Produkten durchgeführt wurden. Nach einer Einleitung und Erläuterung der für diese Arbeit wichtigen Lithographischen Grundlagen, wird auf die Durchgeführten Experimente eingegangen und die resultierenden Erkenntnisse dargelegt. Am Schluss werden die in dieser Arbeit gesammelten Ergebnisse zusammengetragen und weitere Schritte, sowie der Einfluss der derzeitig verwendeten Dosis diskutiert. Abschließend werden die Resultate in die aktuelle internationale Forschung eingeordnet und diskutiert.
In diesem Bachelorarbeit wurde von der Analyse des Nachrichteneditors über den Standard hin alles ermittelt um nach einem umfangreichen Konzept einen neuen Teil im Nachrichteneditor zu implementieren. Diese Arbeit ist mit umfassenden Quellenangabe und Datein aller Arten bezüglich des Optik und Konzepte auf beiligenden CD versehen
Die Reinhaltung der Luft ist für die menschliche Gesundheit und im Rahmen des Umweltschutzes unentbehrlich. Im Zuge der Industrialisierung kam es in der Vergangenheit zum Teil zu erheblichen Beeinträchtigungen der Luftqualität. Trotz umwelttechnisch deutlich verbesserter Produktionsabläufe werden auch weiterhin bestimmte Stoffe emittiert. Für die Entwicklung eines neuartigen und nachhaltigen Verfahrens zur Abluftreinigung hat der Forschungsverbund HUPAC im gleichnamigen Projekt die Abluftreinigung VOC- bzw. ammoniakbelasteter Abluft thematisiert. Diese beiden Substanzen sind von besonderer Relevanz für die Beeinträchtigung der Umwelt bzw. der Luftqualität. Für ihre Abreinigung aus der Abluft von Produktionsprozessen wurde im Projekt eine neuartige Technologie entwickelt, die aus einer Kombination adsorptiver und mikrobieller Prozesse auf der Basis huminsandhaltiger, zellulosebasierter Pellets verläuft. Bei den als reaktive Komponente eingesetzten Huminsanden handelt es sich um natürliche Substrate, welche aus Tagebauen des Lausitzer und Mitteldeutschen Braunkohle-Reviers kostengünstig gewonnen werden können, die über interessante physiko-chemische Eigenschaften verfügen und die damit generell für eine innovative Alternative als Substrat für Abreinigungsprozesse genutzt werden können. Die Eignung der aus den Sanden hergestellten Pellets für die Abluftreinigung wurde im Rahmen des HUPAC-Projekts laborativ sowie praktisch getestet und ausgewertet. Wie erwartet, können die Huminsand-Pellets die Schadstoffe (VOC bzw. Ammoniak) zunächst adsorptiv binden. Die fixierten Schadstoffe werden dann anschließend durch eine sich etablierende Mikroorganismenpopulation abgebaut. Im technologisch angelegten Projekt wurden Eignung der Substrate und Erfolg der Reinigungsleistung mit der Gegenüberstellung von input und output bewertet, wobei die Huminstoffe als
Die vorliegende Arbeit beschäftigt sich intensiv den Einfluss des Legierungselementes Chrom und der Wärmebehandlung auf die Eigenschaften von Mn-Ga Magnetmaterialien, speziell der Legierung Mn2.48Cr0.12Ga. Die magnetischen Messungen wurden durch Struktur und Gefügeuntersuchungen ergänzt. Die Herstellung der Proben erfolgte in einem Lichtbogenschmelzofen. Die entstandenen polykristallinen Proben wurden für 14 Tage in einem Labormuffelofen getempert. Für die Versuche zur Optimierung magnetischer Eigenschaften wurden verschiedene Temperaturen gewählt. Strukturuntersuchungen mittels Pulver-XRD zeigten kaum Unterschiede, was der schwierigen Präparation von Pulvern geschuldet ist. Die in der Arbeit erprobte XRD an dünnen, geschliffenen und polierten Plättchen ergab drastisch verbesserte Röntgenbeugungs-Diagramme.