Refine
Year of publication
Document Type
- Diploma Thesis (825)
- Bachelor Thesis (629)
- Master's Thesis (353)
- Article (17)
- Part of a Book (5)
- Book (4)
- Report (3)
Institute
- Physikalische Technik, Informatik (1836) (remove)
Experimentelle Anbindung von React, TypeScript und Webpack an eine bestehende J2EE-Web-Anwendung
(2022)
Diese Studie befasst sich mit der Integration des React UI-Frameworks in das bestehende System einer der größten Broker-Plattformen in Europa.
Die Integration muss sicher und sanft verlaufen, so dass das System wie zuvor funktioniert, aber zusammen mit dem neuen Framework.
Das Ziel ist es, die Leistung und Effizienz des Systems zu optimieren. Um dieses Problem zu lösen, führte der Autor eine Reihe von Experimenten durch, um das neue Framework sicher in das bestehende System zu integrieren.
Als Ergebnis entwickelte er ein Proof of Concept und beschrieb dessen schrittweise Umsetzung.
Raman-spektroskopische Charakterisierung von Zellen und Gewebe nach Exposition mit Nanoplastik
(2022)
This bachelor thesis covers the exposure of nanoplastic particles to human cells, and the characteristic properties of these nanoplastic particles that are investigated by Raman micro-spectroscopy and preprocessed by data analysis. A human monocytic cell (THP-1), trophoblasts, and placenta cells were exposed to primary and secondary nanoplastic at concentrations of 100 nanoplastic particles/cell and sizes of 200 nm and 60 nm, respectively. Confocal laser scanning microscopy was used to locate fluorescent primary nanoparticles after exposure. The contents of the cells were then analyzed using Raman micro-spectroscopy. First, the findings show that the ability of Raman micro-spectroscopy to characterize primary nanoplastics within cells was successful. Polystyrene has a large peak at 1000 cm-1 that was detected within human monocytic cells. However, the secondary nanoplastics were found outside of the trophoblast cells, indicating that their size was likely too large for cell accumulation. As a consequence, the size and concentration of nanoplastics play an important role in Raman micro-spectroscopy within cells.
Die Diplomarbeit befasst sich mit der Frage, ob durch Vorbehandlung der Elektroden die Aufenthaltsdauer der Probenehmer an den Meßstellen ohne einen Qualitätsverlust verkürzt werden kann. Aus der Theorie und den Gegebenheiten vor Ort wurden verschiedene Möglichkeiten abgeleitet, welche durch Versuche auf Praxistauglichkeit untersucht wurden.
Evaluierung einer geeigneten Implementationsmöglichkeit für die Darstellung von systemspezifischen und systeminternen Daten auf Weboberflächen (HTML5-Webseiten), basierend auf der Adaptivität gegenüber Erweiterungen des Datenbankbestandes bzw. dem Anbinden mehrerer differenzierbarer Datenbankformate, Transformation der SQL-Datenbanktabellen in ein handliches Format, Erweiterung der vorhandenen Webseiten um differenzierbare Anwendungsfälle, Abkapslung der Datenbankstruktur gegenüber dem Anwender. Entwicklung von Logikoperationen zur Analyse der Daten und Bereitstellung von sogenannten Service-Daten. Zu den Service-Daten zählt insbesondere die Ermittlung von aufkommenden Wartungen unter Berücksichtigung des aktuellen Nutzungsgrades. Bereitstellung von Listen, welche dem Benutzer die Möglichkeit gewährleisten die untersuchten Anlagendaten durch variable Sortieralgorithmen entsprechend aufzubereiten, um dargestellte Daten weiterführend untersuchen zu können. Bereitstellung von exportierbaren Reports von zu untersuchenden Abgasmessanlagen im comma separated values (CSV)-Format. Entwicklung einer angemessenen und ansprechenden visuellen Oberfläche zur Bereitstellung von Analyseergebnissen im Fallbeispiel der Betriebsstunden von Abgasmesssystemen. Visuelle Aufbereitung der Betriebsstunden mittels Balkendiagrammen und X-Y-Plots zur Ermittlung des aktuellen Betriebsstundenzustands, dessen Differenz zum aufkommenden Wartungsintervall und des zu erwartenden Wartungsdatum durch Regression des bisherigen Nutzungsmusters.
Bei elektronischen Energiesparlampen (20 W), drei verschiedener Hersteller, wurden die Kunststoffteile (Gehäuse und Leiterplatten) auf Weichmacher und bromierte Flammschutzmittel untersucht. In den Kunststoffteilen aller Lampen war das Flammschutzmittel Tetrabrombisphenol-A (TBBA) enthalten. Die aus Polybutylenterephthalat (PBT) bestehenden Gehäuse aller untersuchten Lampen enthalten den Weichmacher Bis-(2-ethylhexyl) phthalat (DOP). In einer Probenahmeapparatur wurde das Ausgasverhalten der Flammschutzmittel und Weichmacher während des Betriebes der Energiesparlampen beobachtet. Es konnten keine Emissionen von TBBA und DOP nachgewiesen werden. Anhand der Nachweisgrenze konnte berechnet werden, daß die Emissionen von DOP während des Betriebes der Lampe < 2,3 µg/h sind. <!-- #h:dissdiplWeichmacher.doc# -->
Untersuchungen der Funktionsfähigkeit von Kondensationspartikelzählern mit FC-43 als Arbeitssubstanz
(2003)
Kondensationspartikelzähler (CPCs) werden in der Aerosolmesstechnik verwendet, um die Konzentration von luftgetragenen Partikeln (Aerosole) im Submikrometerbereich zu bestimmen. Diese Partikel sind normalerweise zu klein, um durch direkte Lichtstreuung detektiert zu werden. Deshalb werden CPCs mit einer Arbeitssubstanz initiiert, wodurch die Aerosolpartikel durch Kondensation auf größere Durchmesser (ca .10 Mikrometer) anwachsen um anschließend von einer Laseroptik erfasst werden können. In dieser Arbeit werden drei CPCs, die ihren Einsatz in der flugzeuggetragenen Messtechnik finden, in einem Niederdruckstand auf ihre Funktionstüchtigkeit, mit der neu eingesetzten Arbeitssubstanz FC-43, bei simulierten atmosphärischen Drücken getestet. Hierbei steht die daraus resultierende Änderung der Zähleffizienz (Prozentsatz, die der CPC bei gegebener Partikelanzahl und -größe zählt) im Vordergrund.
Die Arbeit befasst sich mit der Ablösung des Intranets der Klausner Unternehmensgruppe durch die Einführung des SAP Enterprise Portals. Neben einer ausführlichen Vorstellung der Portaltechnologie wird ein Konzept für die Implementierung des Portals entwickelt und auf einem Testsystem umgesetzt. Es wird gezeigt in welcher Weise das Unternehmen von der neuen Technologie profitieren kann, um seine Produktivität zu steigern und damit seine Position am Markt zu sichern.
Die Medizinische Informatik des Heinrich-Braun-Klinikum Zwickau nutzt momentan verschiedene Wege, um Mitarbeiter über zukünftige Wartungsarbeiten, Projektverläufe oder andere Vorhaben zu informieren. Ein Wiki ist vorhanden, Laufbänder werden genutzt oder die Kommunikation findet per Email statt, aber es gibt kein einheitliches Portal. Deshalb möchte die IT-Abteilung ein Enterprise Content Management System als Werkzeug haben, um verschiedene Informationen zur Verfügung zu stellen und um zukünftige Projekte oder anfallende Aufgaben besser zu planen, zu steuern und zu überwachen. Es soll dabei eine Plattform geschaffen werden, auf der die Mitarbeiter des Heinrich-Braun-Klinikum Zwickau in Zukunft Informationen bekommen, über wichtige Ereignisse in Kenntnis gesetzt werden sollen und die aktuellen Stände über Projekte einsehen können. Außerdem soll das Enterprise Content Management System sowohl für die interne Kommunikation, für die IT-Abteilung, als auch für die externe, innerhalb des Krankenhauses, dienen.
Der Fischwirtschaftsbetrieb Andreas von Bresinsky betreibt im sächsischen Thierbach eine Fischzuchtkreislaufanlage zur Produktion von Setzlingen betreibt. In Zusammenarbeit mit der WHZ wurde u. a. ein Verfahren zur Wasserreinigung, bei dem eine direkte Entfernung von Ammonium aus dem Kreislaufwasser
Ziel ist die Erstellung einer routinemäßigen Planungsstrategie unter Anwendung der intensitätsmodulieten Strahlentherapie (IMRT) für die Behandlung des Prostatakarzinoms. Die Betrachtung des Bronchialkarzinomes erfolgte als Planungsstudie, bei der ebenso die Behandlung mit IMRT erfolgen soll. Bei der entwickelte SMART- Planungstechnik für Prostata T2-Tumore (simultane-ous modulated accelerated radiation therapie) erfolgte die Aufteilung des Planungszielvolumen (PTV) in das klinische Zielvolumen (CTV) und einen das CTV umgebenden Ring (t-PTV). Diese Technik sieht eine Bestrahlung des CTV mit einer Einzeldosis von 2,0 Gy in 41 Sitzungen bis 82,0 Gy vor, während das t-PTV wie bei der bisher angewandten konventionellen Strahlentherapie 1,8 Gy bis 73,8 Gy erhält. Zur Überprüfung der SMART-Technik wurden Messungen am Alderson-Phantom durchgeführt. Um dem Patienten eine optimale Strahlenbehandlung zu garantieren, wurde ein bestehendes Qualitätssicherungskonzept optimiert, welches jeweils vor Erstbestrahlung des Patienten durchgeführt wird. Die Sicherung der Patientenlagerung erfolgt dabei u. a. mit Hilfe der ExacTrac-Software. Die Ergebnisse der Alderson-Phantommessung zeigten, daß die berechneten Isodosenverteilung mit den gemessenen sehr gut übereinstimmen. Auch die Qualitätssicherungsmaßnahmen brachten gute Ergebnisse. Einzelne Abweichungen wurden dabei akzeptiert und zusammen mit der Herstellerfirma analysiert. Die Bestrahlung des Prostatakarzinoms durch die SMART-IMRT-Bestrahlungstechnik konnte somit erfolgreich umgesetzt und in den Routinebetrieb aufgenommen werden. Die Planungsstudie des Bronchialkarzinom ist zur Zeit noch nicht vollständig abgeschlossen. Die IMRT erlaubt eine höhere Dosisapplikation im Tumorgewebe, wobei die Risikoorgane besser bzw. genauso wie bei der konventionellen Strahlentherapie geschont werden.
Die Masterarbeit gibt einen Einblick in die Entwicklung einer selbstheilenden und fehlertoleranten Software.
Ziel der Masterarbeit war es, ein Konzept zu erstellen und einen Prototyp eines selbstheilenden und fehlertoleranten Systems zu implementieren. Um dieses Ziel zu erreichen, werden wichtige Konzepte wie reaktive Systeme, Actor Model und Fehlertoleranz-Patterns berührt. Auf der Grundlage der Analyse und praktischen Anwendung der oben genannten Begriffe wurden ein Konzept und ein Prototyp eines sich selbstheilenden und fehlertoleranten Systems entwickelt. Daraus kann geschlossen werden, dass das Ziel der gesamten Arbeit erreicht worden ist.
The Faculty of Languages at the University of Applied Sciences Zwickau has a knowledge
base on critical incidents. Critical incidents capture and structure insights from critical situations in international mobility [Fet15]. With the rapid development of data and information, the
research platform CIs to Go has a clear need for a central search infrastructure that will allow
users to find and discover more relevant critical incidenst (or intercultural experinces as named
in the research platform CIs to Go). The data and information about critical incidents are stored
in open-source relational database management system PostgreSQL.
Nowadays it is inconceivable to use traditional RDBMS tools to analyze the data as they
grow very fast. The amount of information has steadily increased for years. Big Data provides
a solution for analyzing large amounts of data. Many search engine providers offer the solution
for analyzing large volumes of data, and companies are looking for open source solutions that
can quickly and reliably search, analyze, and evaluate large volumes of data. Elasticsearch
is a Lucene based search engine. Elasticsearch uses the concept of indexing to speed up the
search. This search engine provides a variety of options for free text queries, fuzzy matching
and indexing data. First, search engines and NLP toolkits are reviewed. This thesis also defines
the functional requirements of these tools. Then, an evaluation is given by indicating the positive
and negative aspects of the tools.
This thesis presents a complete search engine to be deployed on the research platform CIs
to Go as a new visual tool that helps in the process of searching for and finding intercultural
experiences.
Das Ziel dieses Projekts bestand darin, die Schaltzeit schaltbarer PDLC-Folien zu messen und die Abhängigkeit der Schaltzeit von der Temperatur zu untersuchen. Um dies zu erreichen, wurde zunächst ein Laboraufbau erstellt, der hauptsächlich aus einer LED-Lichtquelle, einem Sensor, einem Oszilloskop und einem Trenntransformator bestand. Wenn die Probe mit einer elektrischen Feld angelegt wurde, die von einem Trenntransformator bereitgestellt wurde, richteten sich die Flüssigkristalle im Polymerfilm aus und ließen Licht durch (was zu einem transparenten Aussehen führte). Dieses Licht wurde vom Sensor erfasst und in ein elektrisches Signal umgewandelt, das anschließend an das Oszilloskop gesendet wurde. Die Anstiegszeit dieses Signals wurde im Bereich von 10% bis 90% der aufsteigenden Flanke gemessen. Die Schaltzeit wurde bei Raumtemperatur (24,2 °C) ermittelt. Anschließend wurden die Proben einmal auf eine niedrige Temperatur von 1 °C und einmal auf eine hohe Temperatur von 39,6 °C temperiert und erneut gemessen, um den Einfluss der Temperatur auf die Schaltzeit zu untersuchen.
Die Ergebnisse zeigten eindeutig, dass die meisten Proben eine schnellere Reaktionsrate bei höheren Temperaturen im Vergleich zu niedrigeren Temperaturen aufwiesen. Alle Messwerte waren bei Temperaturen von 39,6 °C und 24,2 °C homogener und wiesen eine höhere Messgenauigkeit auf, während bei 1 °C die Messwerte eine geringe Homogenität und niedrigere Messgenauigkeit aufwiesen. Es wurde auch festgestellt, dass die Schaltzeit bei einigen Proben deutlich schneller war als bei anderen. Die manuelle Schaltung und die unpassenden Parameter des Signalverlaufs könnten bei einigen Proben zu höheren Schaltzeitwerten geführt haben, da sie vermehrt Nulldurchgänge in der aufsteigenden Flanke des Wechselsignals verursachten. Dies ließe sich möglicherweise durch die Implementierung einer automatischen Schaltung und die Verwendung eines Funktionsgenerators beheben. Mit diesem Generators könnte die Messfrequenz des Sinussignals gesenkt werden, sodass die Schaltzeit deutlich kürzer ist als die ansteigende Flanke. Alternativ könnten auch andere Signalformen wie Rechtecksignale erzeugt werden, bei denen die Probleme, die durch den Sinus verursacht werden, nicht auftreten. Dies könnte in weiteren Experimenten vermieden werden. Des Weiteren könnten die Temperierungsbedingungen während der Versuchsdurchführung Ungenauigkeiten bei den aufgenommenen Messwerten verursacht haben. Dies ließe sich eventuell durch die Verbesserung der Bedingungen für die Temperierung der Proben verhindern. Dadurch könnte der Temperaturverlust während des Messvorgangs reduziert werden, was zu einer höheren Genauigkeit führt. Darüber hinaus sollte der Einfluss der Lebensdauer auf die Schaltzeit in zukünftigen Experimenten berücksichtigt werden, indem nicht nur die Anstiegszeit, sondern auch die Abstiegszeit beim Ausschalten untersucht wird. Dies wäre insbesondere bei Langzeitexperimenten relevant.
Schwerpunkte der Arbeit sind die Betrachtung der Grundzüge des eProcurement im Umfeld des eBusiness, sowie eine Darstellung noch ungenutzter Potentiale zur Optimierung des Beschaffungsprozesses. Es wird auf Grundlagen der Anwendungsintegration in Unternehmen, sowie auf die Konzeption und Implementation einer eigenen integrierten Softwarelösung zur Unterstützung des Beschaffungsprozesses eingegangen.
Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von TiN/AlN-Multischichten. Ein besonderer Fokus liegt dabei auf der Untersuchung der thermischen Stabilität der Schichten.
Die Erzeugung der Schichtsysteme erfolgt mittels reaktivem RF-Magnetronsputtern in der Beschichtungsanlage LA 250 S (Fa. Von Ardenne). Es werden zwei Typen von Multischichten hergestellt: Typ 1 mit Periodendicken d = 14,1 nm…15.9 nm und Typ 2 mit Periodendicken dP = 4,44 nm…5,35 nm.
Um die thermische Stabilität zu untersuchen werden die Proben bei unterschiedlichen Temperaturen im Bereich von 170 °C…800 °C unter Stickstoffatmosphäre getempert.
Zur Charakterisierung der Schichtsysteme wird neben der Röntgenreflektometrie (XRR) die Röntgenphotoelektronenspektroskopie (XPS) verwendet. Dabei dient die XRR zur Bestimmung der Dichte und Schichtdicke, respektive Periodendicke der Schichten. Die XPS liefert währenddessen Aussagen zur Schichtzusammensetzung.
Die Untersuchungen zeigen eine thermische Stabilität der Multischichten für Temperaturen bis 700 °C hinsichtlich ihrer Multischicht-Struktur. Bei einer Temperatur von 800 °C bleiben die Multischicht-Strukturen jedoch nicht erhalten.
Service Delivery Management
(2022)
ITIL ist der häufigste Standard für IT-Service Provider, wenn es um die Bereitstellung von IT-Service geht. ITIL ist ein prozessorientiertes Rahmenwerk, das Empfehlungen für die Verwaltung von IT-Services für Kunden bereitstellt. Obwohl Unternehmen ihre Mitarbeiter in ITIL schulen lassen, zeigt die Umsetzung im wirklichen Arbeitsalltag, dass dabei oft Schwierigkeiten auftreten.
Die zentrale Frage dieser Arbeit lautet: „Wie kann ein IT-Service Provider in einem komplexen ITIL-v3-Umfeld am Beispiel von Change und Availability Management den Service in der Service-Operation-Phase verbessern? „Diese Herausforderungen werden anhand des Unternehmens Fujitsu als Fallbeispiel aufgedeckt und analysiert. Das Ziel dieser Masterarbeit ist es, die Struktur eines erfolgreichen IT-Service Managements zu verstehen und die Herausforderungen des Servicebetriebs zu identifizieren, zu analysieren und zu lösen.
Zur Beantwortung der Forschungsfrage wurde eine qualitative Forschungsmethode durch Beobachtung und Interviews mit Mitarbeitern von Fujitsu angewendet. Danach wurden die wichtigsten Faktoren aus der Sicht des Service Managements dargestellt.
Schließlich wurden Methoden zur Bewältigung dieser Herausforderungen vorgestellt.
Es werden grafische und statistische Verfahren angewendet, um Ausreißer in Datensätzen zu finden. Dabei werden verschiedene statistische Tests an einer Stichprobe, welche aus einer Grundgesamtheit stammt, durchgeführt. Die Ergebnisse der Tests werden dabei nach Trefferquote und Anzahl der Berechnungsdurchläufe bewertet und verglichen. Zunächst wird in der Arbeit der Begriff Ausreißer charakterisiert und dabei Merkmale und Vorkommen beschrieben. Im darauffolgenden Abschnitt liegt das Augenmerk auf der Erkennung von Ausreißern. Hierbei werden die theoretischen Grundlagen zur grafischen Darstellung und zur Berechnung mithilfe der jeweiligen Ausreißertests erklärt. Schlussendlich wird die Frage beantwortet, was passiert, wenn man einen Ausreißer in einem Datensatz gefunden hat. Im praktischen Teil der Arbeit werden die vorher beschriebenen Ausreißertests auf eine Stichprobe angewandt und mithilfe einer 4-Felder-Tafel ausgewertet. Die Berechnungen der Tests werden dabei mit dem Statistikprogramm R durchgeführt. Am Ende der Arbeit gibt es eine Zusammenfassung dessen, welche Ergebnisse die einzelnen Tests hinsichtlich Trefferquote und Berechnungsdurchläufe erreicht haben
Die Verwendung der medizinischen Trainingssysteme sind in den medizinischen Bereichen bekannt und werden in der Regel verwendet, um Medizinstudenten und Ärzten bestimmte medizinische Anwendungen, Verfahren und Behandlungsmethoden beizubringen, ohne das Leben der Patienten zu gefährden.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung eines medizinischen Trainingssystems für die Behandlung eines Priapismus im Bereich der urologischen Notfallmedizin. Während der Entwicklungsprozesse der Bestandteile des Trainingssystems wurden Experimente durchgeführt, um die entwickelten Bestandteile zu testen und die Nachteile zu verbessern. Anschließend wurde das Trainingssystem im Urology Bootcamp in England getestet und es wurde ein mündliches Feedback gegeben. Die Bewertungen waren positiv. Es wurde als effektiv bewertet und im Anschluss wurden für zwei Kriterien Lösungen gefunden.
Die vorliegende Diplomarbeit behandelt den Austausch der Kesseldecke über 1. und 2. Zug der Verbrennungslinie 1 im MHKW Burgkirchen unter der Berücksichtigung der Anforderungen aus der ebenfalls erarbeiteten Optimierung des Online-Reinigungssystems. Ziel dieser Arbeit ist der rechnerische Nachweis bzw. die Optimierung des Membranwandreinigungssystems unter den durch die Kesselanlagen gegebenen Rahmenbedingungen, die konstruktive Umsetzung der Ergebnisse im Zuge der Erneuerung der Kesseldecke sowie der reibungslose Austausch der Decke. Dazu werden zuerst die relevanten theoretischen Grundlagen der Korrosion und der Belagsbildung in Müllverbrennungsanlagen erarbeitet, um ein Grundverständnis der relevanten Mechanismen sowie die Kenntnis wesentlicher Einflussparameter zu schaffen. Primäre Vermeidungsmaßnahme ist hierbei die Verbrennungsführung, welche aber durch eine Vielzahl von Rahmenbedingungen nicht unmittelbar bzw. frei variabel ist. Daher sind Sekundärmaßnahmen, also abwehrende Maßnahmen, die den Einfluss von Korrosion vermindern und der Bildung von Belägen entgegenwirken, notwendig. Aufbauend auf dem so erarbeiteten Wissen erfolgen eine Standzeitbetrachtung, die Definition der Anforderungen an das Reinigungssystem respektive der rechnerische Nachweis und resultierende Maßnahmen zur Optimierung, die Erarbeitung konstruktiver Details der Kesseldecke unter Beachtung der Optimierungsmaßnahmen und Umsetzung der erarbeiteten Korrosionsschutzmaßnahmen. Auch wird ein Montagekonzept mit sinnvoller Aufteilung der Deckenelemente dargestellt.
Das grundlegende Ziel dieser Bachelorarbeit bestand darin, in der Vergangenheit aufgenommene Messdaten zur Einschätzung eines möglichen Einflusses elektrischer Felder im Bereich des Mobilfunknetzes auf das vegetative Nervensystem neu zu betrachten und auszuwerten. Dazu standen Elektrokardiogramm- und Respirationsdaten von 15 Probanden zur Verfügung. Neben dem Finden neuer Erkenntnisse spielte vor allem die Artefakterkennung und -bereinigung der aufgenommenen Elektrokardiogramm-Signale mittels des Analyseprogrammes des von der Firma SUESS Medizin-Technik GmbH zur Verfügung gestellten Messplatzes SUEmpathy100 eine entscheidende Rolle. Weiterhin sollte anhand von Eigenmessungen der Einfluss anderer, auf das vegetative Nervensystem wirkender Beeinträchtigungen (z. B. durch sportliche Aktivität oder die Tageszeit) untersucht werden. Auch dabei standen neben einem Erkenntnisgewinn vor allem das Finden und die Eliminierung von Artefakten im Vordergrund.
Electrical and thermal measurements were conducted during the plasma electrolytic polishing (PEP) of cemented tungsten carbide (WC-Co) materials to characterize energetic aspects of the process in relation to the temporal development of the gaseous layer near the workpiece. The power transferred to the workpiece is determined using a calorimetric probe and employing the time derivative of the temperature curve. It shows distinct heating phases due to the generation of the gaseous layer. At the beginning of the process, a typical power of 367 ± 17 W is transferred to the workpiece of a surface area of 14 cm2. At longer process times, a stabilized gaseous layer limits the power transferred to the workpiece to 183 ± 3 W. In an attempt to describe the heat transferred to the electrolyte, the electrolyte temperature was measured using a thermocouple situated 15 mm away from the workpiece. The local electrolyte temperature increases from 70 to 81 °C for an immersion depth of 20 mm. Moreover, the spatiotemporal development of the electrolyte temperature was obtained by 2D-hydrodynamic modeling using COMSOL Multiphysics®. The modeling results for the local temporal temperature development are in excellent agreement with the experimental values when the turbulent model is applied up to t = 65 s. Afterward, the laminar model leads to a better agreement. Furthermore, line scan x-ray photoelectron spectroscopy revealed that aliphatic carbon was preferentially removed. Only a slight compositional gradient in the vertical direction after the PEP process was observed.
Die Diplomarbeit untersucht Methoden zur elektrischen und physikalischen Markierung von Flash-Speicher-Zellen in CMOS-Logik-Produkten. Ziel ist der Nachweis der korrekten Umrechnung von logischen Flashzellenadressen in deren physikalische Chip - Koordinaten (Descrambling). Dieser Nachweis ist ein notwendiger vorbereitender Schritt vor Fehleranalysen am eingebetteten Flash-Speicher. Bisherige Methoden zur Überprüfung der Descrambling-Routine für Flash-Speicher sind weder schnell noch effektiv. Eine Optimierung vorhandener und die Einführung weiterer Methoden sollen zur Effizienzsteigerung der Fehleranalyse beitragen. Neben der Untersuchung bereits genutzter physikalischer Effekte, beispielsweise der Thermografie, wurde im Rahmen der Diplomarbeit eine neue Methode entwickelt. Sie beruht auf einer durch Laserbestrahlung hervorgerufenen Zellprogrammierung. Da die Laserprogrammierung sowohl schnelle als auch genaue Ergebnisse erbracht hat, fokussiert die Diplomarbeit auf die Weiterentwicklung und das Verständnis dieser Methode. Die bisherigen Forschungsergebnisse weisen darauf hin, dass es sich bei dem beobachteten physikalischen Effekt um eine durch den Laser Induzierte Heiße Elektronen Injektion (LIHEI) handelt. Die Einsetzbarkeit der LIHEI ist bisher durch eine minimal erforderliche Leistung der integrierten Spannungspumpen limitiert. Daher bleibt eine Methodenauswahl weiterhin erforderlich. Die Zusammenfassung dieser Arbeit beinhaltet eine Übersicht über alle unter-suchten Methoden, sowie ergänzend eine Methodenübersicht für SRAM-Speicher. Mit Hilfe der aufgeführten Tabellen kann in Zukunft vor einer Bitmap-Verifikation eine geeignete Vorgehensweise ausgewählt werden.
In der Arbeit wird der Einfluss von Legierungselementen auf aluminiumbasierten Korrosionschutzschichten untersucht. Es wurden speziell die Legierung AlMg5 und Al99,8 verwendet. Untersucht wurden Festigkeitsmechanismus, Verdampfbarkeit und Korrosionsbeständigkeit. Des Weiteren kamm im PVD-Prozess eine besondere Dampf-Ionisierungs-Technologie zum Einsatz.
Im Rahmen der Radiojodtherapie der Schilddrüse soll ein Detektorprinzip basierend auf organischen Plastikszintillatoren entwickelt werden, das es ermöglicht, die 364 keV Gammastrahlung des 131 J zu detektieren. Dazu sind grundlegende Untersuchungen betreffend der Auslesung und Nachweisempfindlichkeit eines organischen Plastikszintillators erforderlich. Es werden die theoretischen Grundlagen des Jodstoffwechsels der Schilddrüse, der Radiojodtherapie, der Strahlenquelle und der Funktionsweise szintillierender Plastikfasern behandelt. Eine Meßanordnung wird entwickelt, die es gestattet, die szintillierende Faser mit UV-Licht einer charakterisierten Emitterdiode zu bestrahlen und das Szintillationslicht durch Ankopplung eines Lichtwellenleiters über Photostrommessung von Photodioden zu registrieren. Die Kopplungsverluste vonSzintillator und Lichtwellenleiter und die Abschwächungslänge des Lichtwellenleiters werden bestimmt. Für die Bestrahlung der Faser mit Gammaquanten wird ein Kollimator entwickelt, der eine gute Führung und Ankopplung des Szintillators möglich macht. Es wird gezeigt, daß die Meßanordnung zum Nachweis von hochenergetischen Gammaquanten nicht empfindlich genug ist. Daraus resultierendwerden Ansatzpunkte für eine weitere Empfindlichkeitssteigerung der Meßanordnung und für die Detektorentwicklung erstellt.
Das Ätzen von Grabenstrukturen in Silizium spielt eine wichtige Rolle in der Mikrosystem- bzw. Halbleitertechnik. Oft müssen Strukturen mit unterschiedlichen Breiten in ein Substrat geätzt werden. Auffällig ist dabei, dass die Ätzrate von der Breite der Öffnung abhängt. Schmalere Gräben werden langsamer geätzt als breitere. Es resultieren unterschiedliche Ätztiefen. Dieses Verhalten, welches als Aspect Ratio Dependent Etching (ARDE) bezeichnet wird, kann gezielt ausgenutzt werden (z.B. Strukturierung und Vereinzelung von Wafern), oder es stellt ein Problem im Herstellungsprozess dar, wenn die Ätztiefen zu stark variieren. Der Bosch-Prozess ist eine beliebte Technik, mit der tiefe und gleichzeitig schmale Gräben anisotrop geätzt werden können. Das Ziel der Arbeit bestand in einer Beeinflussung und Kompensation von ARDE. Dazu wurden verschiedene Rezepte ausprobiert. Es sollten dadurch Erkenntnisse gewonnen werden, welche Parameter im Ätzprozess Einfluss auf ARDE haben.
Die sächsischen Industrie- und Handelskammern betrieben in ihrem Intra- und Internet ein System zur Verwaltung ihres stark strukturierten und vernetzten Informationsangebotes. Diese Arbeit befasst sich mit der Entwicklung eines Portals, das die Präsentation bestehender Informationsinhalte mit Hilfe einer flexiblen Navigationsstruktur realisieren soll. Die Arbeit untersucht mögliche Software-Architekturen für die Portalfunktion sowie Schnittstellen zur Einbindung der Inhalte und zur Verwertung von bereits vorhandenen Komponenten des Informationssystems.
Das Erheben von Anforderungen ist der Ausgangspunkt eines jeden Softwareentwicklungsprojektes. Die richtigen Anforderungen zu erheben und in geeigneter Weise im gesamten Entwicklungsprojekt verfügbar zu machen, ist oftmals ein entscheidender Faktor dafür, ob ein Projekt erfolgreich wird oder nicht. Um die richtigen Anforderungen erheben zu können, wird ein systematischer Prozess benötigt. Die vorliegende Arbeit zeigt, wie ein solcher Prozess aussehen kann. Dabei wird auf wesentliche Schritte des Prozesses sowie auf die im Prozess erhobenen Artefakte und deren inhaltlicher Gestaltung eingegangen. Es wird weiterhin gezeigt, wie die gewonnenen Kenntnisse in einem konkreten Projekt angewandt wurden. Ferner wird der Prototyp eines Werkzeugs vorgestellt, das die erarbeiteten Kenntnisse nutzt und für die Verwaltung von Anforderungen in einem Projekt eingesetzt werden kann.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Vergleichende Betrachtung von thermischen Solaranlagen zur Heizungsunterstützung bei Fertighäusern
(2010)
Thermische Solaranlagen von Fertighausherstellern werden in den Vergleich mit dem freien Markt und einer eigenen geplanten Anlage gesetzt. Alle Anlagen werden umfangreich mit einem Simulationsprogramm (polysun von vela solaris) ausgewertet. Die eigene Anlage ist individuell mit innovativen Komponenten geplant.
The electrical conduction mechanism of resistive switching Prussian white (PW) thin films obtained by the electrodeposition method was examined by AC impedance spectroscopy and DC current–voltage measurements. Using an electrode tip to contact PW grown over Au, robust unipolar resistive switching was observed with a current change of up to three orders of magnitude, high repeatability, and reproducibility. Moreover, electrical impedance spectroscopy showed that the resistive switching comes from small conductive filaments formed by potassium ions before the establishment of larger conductive channels. Both voltammetry and EIS measurements suggest that the electrical properties and conductive filament formation are influenced by defects and ions present in the grain boundaries. Thus, PW is a potential material for the next generation of ReRAM devices.
Prussian blue (PB) layers were electrodeposited for the fabrication of Au/PB/Ag stacks to study the resistive switching effect. The PB layers were characterized by different techniques to prove the homogeneity, composition, and structure. Electrical measurements confirmed the bipolar switching behavior with at least 3 orders of magnitude in current and the effect persisting for the 200 cycles tested. The low resistance state follows the ohmic conduction with an activation energy of 0.2 eV.
SU-8 ist ein negativ entwickelnder Fotolack und findet in der Mikrosystemtechnik vielfältige Anwendung. Er wird häufig als Permanentresist und zur Erzeugung mechanischer Funktionskomponenten eingesetzt. SU-8 zeichnet sich dabei durch nahezu senkrechte Strukturkanten bei hohen Aspektverhältnissen aus, auch bei der Verwendung von UV-Lithografie. Die beschriebenen Untersuchungen und Experimente gliedern sich in ein Forschungsprojekt im Projektrahmen Profil NT ein. Das Projektziel ist dabei die Darstellung von komplexen polymeren mikroaktorischen Elementen. Die für solche aktorischen Komponenten notwendigen Schichtdicken können durchaus Werte über 350 µm aufweisen. Diese großen Schichtdicken stellen bei ihrer Herstellung und Verarbeitung besondere Herausforderungen an die Prozessführung. Die Applikation des Lackes zur Schichtherstellung und die Trocknung (Soft Bake) der Schicht sowie Untersuchungen zur Messung der Schichtdicke sind in dieser Arbeit thematisiert. Die Kenntnis der mechanischen Eigenschaften des polymeren Materials ist bei der Erzeugung mikromechanischer Funktionskomponenten von wesentlicher Bedeutung. Es wird die Abhängigkeit des E-Moduls von den Fertigungs- beziehungsweise Prozessparametern aufgezeigt. Der Herstellungsprozess polymerer AFM-Cantilever wird ausführlich dargestellt und Optimierungsmöglichkeiten einzelner Prozessschritte beschrieben. Ganz besonderes Augenmerk wird dabei auf die Erzeugung geringer Spitzenradien der Cantilever-Tips gelegt. Der Prozess zur Erzeugung der zur Abformung der Cantilevertips notwendigen, anisotrop geätzten Siliziumgruben wird umfangreich untersucht. Die Eignung der hergestellten AFM-Cantilever wird gezeigt. Abschließend werden Maskenentwürfe und auch erzeugte Strukturen wie Mikrospiegel und Kraftaufnehmer vorgestellt, die der Weiterführung der Arbeiten zum erfolgreichen Abschluss des Projektes dienen werden.
Der Schwerpunkt der Arbeit bildet die Auswertung von Langzeit-EKGs. Es wird der Einsatz der Korrelationsdimension hinsichtlich seiner Güte für die Risikoabschätzung vom plötzlichen Herztod untersucht. Durch Vermittlung der mathematischen Grundlagen wird ein Einstieg in die Auswertung der EKG-Daten gegeben. Des weiteren wird die frei verfügbare Software TISEAN am Beispiel der Ikea-Nap auf ihren Einsatz geprüft. Die dabei gewonnenen Erkenntnisse bilden eine wichtige Grundlage für die zielgerichtete Klassifikation der Analysedaten. Für die Beurteilung der gefundenen Klassifikation werden die statistischen Auswerteverfahrenprädikative Werte , Sensivität und Spezifität verwendet. Deren Güte wird im Anschluss mittels Kreuzvalidierung und Jackknife überprüft.
Im Rahmen der Diplomarbeit wurde die Zuverlässigkeit unterschiedlicher Verkapselungsverfahren des Mechatronik-Packaging untersucht. Als Verkapselungsverfahren wurden zwei Produktionsverfahren (Spritzgussverfahren und Transfermolding) und ein Rapid-Prototping Verfahren (Vakuumverguss) experimentell untersucht und du Ergebnisse bezüglich ihrer Zuverlässigkeit miteinander verglichen. Als Testaufbauten wurden oberflächenmontierte Flachbaugruppen vergleichbarer Geometrie herangezogen. So kamen die Prüfverfahren Ultraschall und 3D-Röntgeninspektion, sowie die Schlifftechnik zum Einsatz.
Die hier vorgestellte Arbeit behandelt die Implementierung und Simulation einer Car2Car-Kommunikation in Unity® aufbauend auf einem Fahrsimulator. Das Ziel besteht darin, Eigenschaften aktueller Kommunikationstechnologien aus der Automobilbranche simulieren zu können. Dabei wurde ein besonderes Augenmerk auf die Eigenständigkeit und Offenheit des Modells gelegt. Zur Veranschaulichung der Kommunikation wurden zwei Use-Cases umgesetzt. Bei dem ersten Use-Case handelt es sich um einen Bremswarner, der andere ist ein Spur-wechselwarner, um einen Fahrer vor einer Aktion eines anderen Fahrzeugs zu warnen. Getestet wurde bei beiden Use-Cases, welche Auswirkungen unterschiedliche Latenz-zeiten bei der Übertragung und verschiedene Reichweiten einer Verbindung haben. Damit ein Nutzer die Funktionsweise der Car2Car-Kommunikation nachvollziehen kann wurden die Warnungen visualisiert. Mit diesen einstellbaren Parametern können verschiedene Übertragungstechnologien, wie WLAN oder 5G nachgestellt und simuliert werden. Im Modell sind Events und Kommunikation unabhängig voneinander implementiert. Daher können beide Systeme unabhängig voneinander ausgetauscht oder verändert bzw. erweitert werden, ohne dass im anderen Änderungen notwendig sind.
Einleitung
Die Digitalisierung des Gesundheitssektors in Europa wie auch in Afrika ist nicht mehr nur ein Trend, sondern ein Bedürfnis, ein Bedürfnis, das im Bereich der ambulanten Pflege in Togo besonders akzentuiert ist. Die chirurgische Klinik im Kreis Lomé, der Hauptstadt Togos, ist eine Einrichtung, die sich mit diesem Thema beschäftigt und die versucht, die Verwaltung ihrer Patienten auf digitalem Wege zu optimieren. Die Digitalisierung von Terminen stellt hierbei eine gewisse Herausforderung dar. Das Ziel dieser Arbeit ist es, eine digitale Lösung zu entwickeln und zu implementieren, die für die Verwaltung von Patienten, vor allem von Terminen, in der Klinik geeignet ist.
Methodik:
Zunächst wurden die Anforderungen an die digitale Lösung in Zusammenarbeit mit dem medizinischen Personal des CCL auf der Grundlage der Ist-Zustandsanalyse und der Muss-Soll-Nicht-Methode ermittelt. Dann wurden die Anforderungsszenarien entsprechend dem Feedback der Experten modelliert, mit denen die Benutzeroberfläche gestaltet wurde. Das Ergebnis war ein Prototyp, der auf bestimmten vordefinierten Farben und Formaten in Microsoft Excel beruht. Für die Datenmodellierung wurden sowohl Klassendiagramme und ER-Modelle verwendet, die Attribute und Funktionen sowie Beziehungen der verschiedenen Entitäten bzw. Klassen darstellen. Darauf aufbauend wurde die Datenbankimplementierung
durch Excel mit Access-Anbindung erstellt und der Codierungsteil mit Visual Basic durchgeführt.
Ergebnisse:
Die Entwicklung und Implementierung einer digitalen Lösung zur Unterstützung des Patientenmanagementsystems in der chirurgischen Klinik wurde durch die Erstellung einer VBA-Excel-Offline-Software erfolgreich abgeschlossen. Die Lösung wurde schrittweise implementiert, wobei die Bedürfnisse der Benutzer berücksichtigt wurden. Die implementierte Software wird für die Verwaltung von Patienten- und Termindaten verwendet. Diese kann den Prozess der Patientenverwaltung durch die Automatisierung von Aufgaben wie Patientenregistrierung, Terminplanung und Dateneingabe rationalisieren. Die Software wurde bereits getestet und wird vor der offiziellen Inbetriebnahme weiter geprüft und gegebenenfalls angepasst.
Schlussfolgerung:
Das Projekt umfasste eine ausführliche Anforderungsanalyse, GUI-Design, Datenbank-Modellierung und VBA-Makros. Das Ergebnis ist eine Offline-Software für die Sekretariatsmitarbeiter der Klinik, die sie einstimmig zufriedenstellt. Die Implementierung erfolgte mit Microsoft-Produkten, was für die Erweiterbarkeit von Vorteil ist, aber es sollte über andere Lösungen nachgedacht werden, einschließlich einer angemessenen online Lösung für mehr Sicherheit und Zuverlässigkeit.
Opal ist ein Projekt, das seit 17 Jahren wächst und sich entwickelt. Es hat eine monolithische Architektur, die sich im Laufe der Zeit aufgrund von Verstößen gegen die Regeln für sauberen Code und die Nichteinhaltung von Programmiermustern zu einem stark verketteten Code mit vielen zyklischen Abhängigkeiten und schwacher Testabdeckung entwickelt hat. Dies wiederum erschwert die Wartung und Weiterentwicklung der Anwendung und erhöht die Implementierungszeit für neue Funktionen. Um diese Probleme zu lösen, wurde beschlossen, Opal auf eine andere Architektur zu migrieren, die zu deren Beseitigung beitragen würde. Nach der Analyse der bestehenden Probleme wurden die Anforderungen an eine neue Architektur ermittelt und formuliert. Es wurden modulare und Microservice-Architekturen in Betracht gezogen. Durch einen Vergleich und unter Berücksichtigung der Besonderheiten des Projekts fiel die Entscheidung zugunsten der modularen Architektur. Anschließend wurde der Prozess der Architekturmigration in drei Stufen durchgeführt und die Bewertung der geleisteten Arbeit beschrieben.
Die Bachelorarbeit befasst sich mit der Entwicklung der Visualisierungskomponente von anwendungsbezogenen Standorte und Route für Fuhrparkmanagement Software - comm.fleet von Community4you AG. Bei der Arbeit mit den geographischen Daten werden verschiedene APIs von Google und OpensStreetMap verwendet. Für die Entwicklung der Anwendung wurden folgende Technologien, wie Bootstrap JS Framework, Javascript Prototyping verwendet.Im Rahmen dieser Bachelorarbeit soll analysiert werden, die Verwendung von Kartendiensten von Google Maps und Openstreetmap - Projekt für die Visualisierung von Standorte und Route in comm.fleet. Zudem soll es eine prototypische clientseitige Anwendung entstehen, die in der Zukunft als internes Tool in comm.fleet integriert werden kann. Dadurch erlaubt die neue prototypische Visualisierungskomponente mittels eines Kartenmaterials die Darstellung von Standorte des Objektes und Route anhand der geographischen Koordinaten.
Die Menge an Informationen in Unternehmen steigt seit Jahren immer weiter an. Hierbei handelt es sich um massive Datensätze, die hochvariabel, komplex und wachsend sind, und aus verschiedenen Datenquellen wie JIRA, Confluence oder GitLab stammen. Hieraus entwickelt sich ein Bedarf nach zentralen, unternehmensinternen Plattformen zur Auswertung, Suche und Verwaltung dieser massiven Datensätze.
Im Bereich der Anbieterlandschaft gibt es viele Lösungen für die Analyse großer Datenmengen. Dies kommt daher, dass Unternehmen nach Open-Source-Lösungen suchen, mit denen große Datenmengen schnell und zuverlässig gesucht, analysiert und ausgewertet werden können. Mit Hilfe von Elasticsearch kann der Zugriff auf Daten beschleunigt werden. Elasticsearch ist eine auf Lucene basierende Volltextsuchmaschine. Die Suchmaschine stellt eine Vielzahl von Möglichkeiten für Freitextabfragen, für die Indexierung von Daten, sowie für die Administration über eine HTTP/RESTful Schnittstelle zur Verfügung. Mit der konsequenten Ausrichtung auf horizontale Skalierungen und Ausfallsicherheiten besitzt Elasticsearch hervorragende Eigenschaften einer Suchmaschine.
Die vorliegende Masterarbeit entstand bei der mogic GmbH in Leipzig. Die Aufgabe der Masterarbeit ist es eine Suchplattform zur Analyse und Suche personalisierter, unternehmensinterner Informationen aus verteilten Datenquellen der mogic GmbH für die Mitarbeiter zu implementieren. Diese Suchplattform soll mit Elasticsearch und Spring Framework entwickelt werden. Die Implementierung der Suchplattform soll in einer unternehmensinternen Webanwendung eingesetzt werden.
In den heutzutage weitverbreiteten Web-Applikationen auf JavaScript-Basis mit einem Java-basiertem Backend stellt sich die Frage, ob die Generierung von PDFs besser im Front- oder im Backend erfolgen sollte. Abhängig von dieser Entscheidung stellt sich darüber hinaus die Frage, welche Bibliotheken zur Generierung verfügbar sind und welche spezifischen Vor- und Nachteile diese aufweisen. Diese Bachelorarbeit soll diesen Vergleich durchführen und eine Empfehlung für eine kostengünstige und flexible Herangehensweise an die Generierung von PDFs aussprechen. Es wurde entschieden, jeweils zwei Bibliotheken für Frontend und Backend zu be- trachten und zu vergleichen. Für Frontend-Generierung werden JavaScript-Bibliotheken jsPDF und pdfmake benutzt, wobei für Backend-Generierung solche Java-Bibliotheken, wie iText und PDFBox, verwendet werden.
Bei der Analyse und Optimierung wurde sich auf die Kontaminationsgefahr des Kalibriermoduls des Atemgasanalysemesssystems und die Drift auf dem gemessenen Intensitätssignal beschränkt. Um eine mögliche Kontamination zu verhindern, sollte ein handelsüblicher Bakterienfilter gefunden werden, der die Kalibrierfunktion nicht behindert, d.h. es soll sich kein Druckunterschied vor und nach dem Filter aufbauen. Weiterhin wurden zwei verschiedene Optiken mit einander bzgl. ihrer Abhängigkeiten von Temperatur, Flow und Feuchte, durch Aufnahmen von Atemkurven und deren Driftverhalten verglichen. Zu dem wurde eine neue Elektronik getestet, die es ermöglicht, die Abklingzeit über das Impuls- und Phasenmessverfahren zu ermitteln. Diese beiden Methoden sollen mit der Intensitätsmessung bzgl. der Aufnahme von Atemkurven und deren Drift- und Rauschverhalten verglichen werden.
Aufbau einer generischen Schnittstelle zur Anbindung und Verwaltung von High-Performance-Clustern
(2020)
Mit der wachsenden Nachfrage nach rechenintensiven Simulationen und der gleichzeitig stagnierenden Entwicklungen im CPU-Markt werden größere Ressourcen für High Performance Computing benötigt. Neben den groß angelegten Serversysteme werden werden auch immer mehr Cloud Ressourcen für HPC angeboten. Bedingt durch die große Anzahl verschiedener Plattformen und Arten der Interaktionkann es zu Schwierigkeiten in der Anwendung von HPC für Nutzer kommen.
In dieser Arbeit wird eine Architektur für eine Anwendung entwickelt, die den Zugriff auf HPC Ressourcen für Anwender erleichtert. Anhand dieser Architektur wird ein Produkt entwickelt mit dem die Jobeinreichung und Jobübersicht über eine Weboberfläche und eine REST-Schnittstelle ermöglicht werden.
Diese Arbeit handelt von der Optimierung zweier Varianten einer Zahnradpumpe an den Verwendungszweck als Druck- und Volumenerzeuger, in einer künstlichen, hydraulisch betriebenen Hand. Die Pumpen werden im Bezug auf ihre Parameter analysiert und optimiert, dazu zählen Durchfluss, Druck, Schallpegel, Leistungsaufnahme, Verschleiß und Fertigungsqualität. Die Parameteränderung durch die Optimierungsvorschläge wird messtechnisch analysiert.
Die Arbeit befasst sich mit der Abschätzung der Entwicklung der Hausmüll-Mengen in Stadt- und Landkreis Zwickau bis zum Jahre 2010 und beschreibt die stoffliche Zusammensetzung des Restabfalls aus Haushalten nach experimenteller Bestimmung der Parameter Glühverlust, Heizwert, N-Gehalt aus Proben der Müllsortierung. Aus den Ergebnissen wird die Effektivität möglicher biologischer und thermischer Behandlungsverfahren durch Aufstellung von Masse-bilanzen abgeleitet. Aus Verfahrensdarstellung und Verfahrens-bewertung werden Vorzugsvarianten zur Behandlung des Restabfalls aus Haushalten für das Verbandsgebiet abgeleitet. <!-- #h:dissdiplAbfallbehandlung.doc# -->
Ziel der vorliegenden Arbeit ist die Bestimmung der Neutralgastemperatur mittels hochauflösender optischer Emissionsspektroskopie in einem modernen CCP Plasmaätzreaktor zur Fertigung höchstintegrierter Speicherbauelemente. Die Neutralgastemperatur wurde dabei aus dopplerverbreiterten Linienprofilen der Ha- und der Hß-Linie der Balmerserie von atomarem Wasserstoff bestimmt. Es wurden Neutralgastemperaturen im Bereich von 1200 K bis 2500 K ermittelt, die die aus der Literatur bekannten Abschätzungen und Messungen der Neutralgastemperaturen in CCP Reaktoren bestätigen. Die sich einstellenden Neutralgastemperaturen wurden auf ihre Abhängigkeiten von folgenden Prozess- und Anlagenparametern experimentell untersucht, insbesondere: RF-Leistung, Druck, magnetische Flussdichte, Gasgemisch und Wafermaterial.
Superkontinuumslichtquellen revolutionierten in den letzten Jahren viele Bereiche der opti-schen Messtechnik, wie zum Beispiel Mikroskopie und optische Kohärenztomografie. Die fehlende Möglichkeit der Modulation und die Stabilität der bestehenden Systeme limitieren die Einsatzmöglichkeiten. Ziel dieser Arbeit war die Entwicklung einer direkt steuerbaren Laserquelle mit geeigneten Parametern zur Erzeugung eines breitbandigen Spektrums in mik-rostrukturierten Fasern. Die erforderlichen Laserparameter, speziell die Pulslängen und Puls-spitzenleistungen sowie die daraus resultierende Konversionseffizienz wurden anhand bestehender passiv gütegeschalteter Festkörperlasersysteme ermittelt und als Zielgrößen für das zu entwickelnde System festgelegt. Der Einsatz einer Laserdiode, welche mit Hilfe eines hierfür entwickelten Kontrollers repro-duzierbar Nanosekundenpulse mit einer Repetitionsrate bis in den MHz-Bereich emittiert, ermöglicht eine direkte Ansteuerung des Systems. Die Signale der Laserdiode wurden in ei-nem zweistufigen Faserverstärker auf den erforderlichen Leistungsbereich verstärkt, in eine mikrostrukturierte Faser gekoppelt und ein breitbandiges Spektrum generiert. Eine breite Auswahl erforderlicher Komponenten des Faserverstärkers wurden evaluiert und deren An-ordnung optimiert. Mit Hilfe dieser Komponenten konnte das Gesamtsystem hinsichtlich der spektralen Leistungsdichte bei unterschiedlichen Repetitionsraten und unter Nutzung ver-schiedener mikrostrukturierter Fasern charakterisiert werden.
Optimierung eines Biogasreaktors mit Maissilage Monovergärung unter Verwendungdes Modells ADM1
(2012)
Für die Optimierung eines Biogasreaktors im Labormaßstab sollte mit Hilfe des mathematischen Modells ADM1 (anaerob digestion model no.1) zunächst eine Eignung des Modells auf Anwendung hin im Bereich Biomasse untersucht werden. Dazu sollte die Substratzulaufcharakterisierung im Modell mit Hilfe der Weender Futtermittelanalyse angepasst werden. Die nun erzielten Simulationsergebnisse bildeten die Basis für eine Optimierung des Reaktors in Hinblick auf eine gesteigerte Biogasausbeute.
Die Reduzierung von Straßenverkehrslärm ist ein zentrales Anliegen der Umweltpolitik. Immer wieder fallen Motorräder durch einen hohen Geräuschpegel im Straßenverkehr auf, dennoch wurden sie bislang nicht in die gegenwärtig existenten Berechnungs- und Beurteilungsverfahren integriert. Der in den letzen Jahren drastisch gestiegene Bestand an Motorrädern zeigt deutlichen Handlungsbedarf in Bezug auf eine solche Reglementierung. Ziel dieser Arbeit soll das Finden eines Ansatzes zur Einbeziehung der Geräuschemissionen von Motorrädern in das bestehende Berechnungsverfahren (RLS-90 - Richtlinien für den Lärmschutz an Straßen, 1990) sein.
Tests sind ein wichtiger Bestandteil im Unternehmensumfeld. Gerade für das komplexe, bei N+P entstandene Framework SPARTACUS wird es angestrebt, alle Anwendungsbausteine auch entsprechend zu verifizieren. Um das Verhalten des Gesamtsystems untersuchen zu können, sind Unit Tests nicht mehr ausreichend. Im Rahmen der Arbeit wurde ein Framework für Integrationstests erstellt, mithilfe dessen die Entwickler in Zukunft die Funktionalität alten und neuen Quelltexts prüfen können. Durch tägliche und wöchentliche Builds unter Nutzung aller offiziell unterstützten Datenbanksysteme kann so ausgeschlossen werden, dass Regressionen in den getesteten Teilen der Anwendung unentdeckt bleiben. Dabei steht die komplette serverseitige Funktionalität zur Verfügung, sodass sich Test- und Produktivumgebung in fast allen Bereichen gleich verhalten.
Zunehmend ersetzen Microservice-dominierte Architekturen monolithische oder starre SOA-Architekturen durch Infrastrukturlandschaften mit kleinen, der kontinuierlichen Anpassung unterworfenen Services eigenverantwortlicher Entwicklerteams. Das betrifft den Einbezug sowohl externer als auch unternehmensinterner Services. Die Arbeit gibt einen Überblick über das veränderte Vorgehen bei der Softwareentwicklung durch z.B. Container-Technologien und zeigt die Auswahl benötigter Werkzeuge, Qualitätssicherungs- und Auslieferungsprozesse auf. An einem konkreten Projektbeispiel wird deren Zusammenspiel nachgewiesen.
Design einer adaptiven Optik
(2017)
Thema der Bachelorarbeit ist die Erstellung einer adaptiven Optik. Diese soll später in einer miniaturisierten Form in der Zwickauer Datenbrille verwendet werden. Die Datenbrille gehört zu den AR-Brillen. Augmented Reality (deutsch: Erweiterte Realität) bezeichnet die Verschmelzung von der Realität und computergenerierten Inhalten. Im Fall der Datenbrille geschieht dies über optische sowie akustische Reize. Die Brille besitzt Displays, welche Bilder erzeugen, die durch die Optik auf einen halbdurchlässigen Teilerspiegel oder ein Prisma gebracht werden. Der Betrachter sieht deshalb durch die Brille die Umgebung und die Bilder der Displays. Ziel der Optik ist eine Messung der Entfernung und die anschließende Anpassung der Brennweite. Die Messung soll indirekt über die Messung des Abstandes zwischen beiden Pupillen erfolgen. Dazu wird jedes Auge mit einer IR-Diode bestrahlt. Das Bild der Augen wird dann mit je einer Kamera aufgenommen und anschließend durch eine Software ausgewertet. Hier soll vor allem die Machbarkeit überprüft werden, da die Datenbrille jetzt schon Eyetracking unterstützt und deshalb kein zusätzliches Equipment benötigt wird. Außerdem soll die Intensität der IR-Strahlung ermittelt und mit geltenden Grenzwerten abgeglichen werden, um Empfehlungen für die Position der Diode abzuleiten. Für die Brennweitenanpassung ist in der strahlformenden Optik eine Flüssiglinse verbaut. Diese Linse ist durch Anlegen eines elektrischen Stroms verformbar. Durch die Flüssiglinse werden keine mechanischen Bauteile in der Optik benötigt. Sie ist zudem innerhalb von Millisekunden anpassbar und arbeitet nahezu geräuschlos. Normalerweise wird für die AR-Technologie eine feste Brennweite benutzt. Nachteil dabei ist, dass die projizierten Objekte immer in demselben Entfernungsbereich scharf wahrgenommen werden. Eine adaptive Optik soll hingegen zuerst herausfinden, in welche Entfernung der Betrachter schaut und danach die Fokusebene in diese Entfernung verschieben. Durch diese Verbesserung soll vor allem der Sehkomfort steigen, da der Akkomodationsaufwand des Auges beim Wechsel von der Umgebung auf das Displaybild oder umgekehrt wesentlich geringer ausfällt. Die Idee der veränderlichen Brennweite wird in Zwickau seit ca. drei Jahren verfolgt. Durch den Wechsel der Flüssiglinse Arctic 39N von Varioptics auf die EL-10-30 von Optotune, welche eine ca. 2,5-mal größere Apertur hat, soll die Baulänge drastisch verkürzt werden. Da die Flüssiglinse später in der Datenbrille verbaut werden soll, muss für eine eigene Linsenschaltung die U-I-Kennlinie der neuen Flüssiglinse aufgenommen werden. Nachdem die Kennlinie aufgenommen wurde, müssen wichtige Systemparameter wie das Field of View und die Lage der Fokusebene in Abhängigkeit der an die Flüssiglinse angelegten Stromstärke bestimmt werden. Anschließend soll der Sehkomfort für einen binokularen Aufbau im stationären Betrieb getestet werden.
Gegenstand dieser Arbeit sind der Aufbau und die Charakterisierung eines Rastertunnelmikroskops (RTM) als zentrale Einheit einer neuen hochauflösenden RTM-Anlage. Dieses RTM soll unter Ultrahochvakuumbedingungen bei einer Basistemperatur von 300 mK sowie einem Magnetfeld von 9 T arbeiten. Die Charakterisierung des Scanners durch die Ermittlung der Kapazität sowie der Resonanzfrequenzen belegte dessen hervorragende Funktion sowie das sehr symmetrische Schwingungsverhalten. Weiterhin ergaben die Messungen, dass die Resonanzfrequenzen deutlich außerhalb des im Messbetrieb relevanten Frequenzbereichs liegen. Zudem wurden die Kapazitäten der Scherpiezostapel für die Grobannäherung sowie deren Schrittweiten in Abhängigkeit von verschiedenen Parametern ermittelt. Der dabei gefundene Arbeitspunkt konnte für erste RTM-Messungen an Luft verwendet werden. Im Abschluss wurde durch das Erreichen von atomarer Auflösung bei Raumtemperatur und Normaldruck an einer hochorientierten pyrolytischen Grafitoberfläche die ausgezeichnete Funktion dieses Rastertunnelmikroskops gezeigt.
Nicht nur, dass der Funktionsnachweis von der Ableitung bioelektrischer Signale mittels textiler Elektroden erbracht wurde, ist auch deren Verwendung seit Jahren immer mehr auf dem Vormarsch und erfreut sich auf dem medizinischen Sektor immer größerer Beliebtheit. Die Elektroden samt Technik sollen in ein Kleidungsstück integriert werden, die mit dem kapazitiven Prinzip Muskelpotentiale, insbesondere die des Herzens, erfasst werden sollen. Aufgrund dessen, dass man auf den galvanischen Kontakt verzichten kann, ist diese Methode dafür geeignet. Wie bei der konventionellen Ableitung gibt es auch hier, bei dem kapazitiven Prinzip, Probleme in der Langzeitanwendung. Neben den Bewegungsartefakten, welche die Messung beeinflussen, ist auch die Erdung des Patienten ein Hindernis. Ziel dieser Arbeit war es ein Elektrodensystem zu entwickeln, mit dem man das EKG ableiten kann. Neben der Schaltungsentwicklung kamen unterschiedliche Sensoren zum Einsatz um dieses Ziel zu erreichen. Allerdings muss im Endeffekt festgehalten werden, dass das gestellte Problem nicht gelöst werden konnte, sondern nur ein erster Schritt in diese Richtung war.
Der Inhalt dieser Dipolmarbeit ist konform zum derzeitigen Entwicklungsstand von Direktmethanol-Brennstoffzellen (DMFC) und Testanlagen für den Betrieb von DMFC. Die Einführung in die Brennstoffzellentechnologie im Allgemeinen und die Besonderheiten der DMFC im Speziellen bilden eine Einführung zum Haupteil der Arbeit. Unter Berücksichtigung bereits vorhandener Testanlagen wird ein Anlagekonzept erstellt. Die benötigten Komponenten nach den geforderten Betriebsbedingungen ausgewählt. Insbesondere wird dabei eine genaue Regelbarkeit der einzelnen Betriebsparameter gefordert. Im Vordergrund steht die Möglichkeit, Ein- und Mehrzeller im Kreislaufbetrieb zu betreiben. Zyklische Betriebsparameter, wie etwa die des Neuen Europäischen Fahrzyklus, sowie ein dauerhafter Zellenbetrieb mit gleichen Parametern sind zu realsieren. Eine lückenlose Messdatenaufnahme ist zu gewährleisten, um eine spätere Auswertung der gewonnenen Ergebnisse zu ermöglichen.
Inhalt dieser Diplomarbeit ist die Erstellung von Software für die Kommunikation von zwei autarken, über den PC-Bus gekoppelten Rechnersystemen. Dabei handelt es sich um einen normalen IBM-Kompatiblen PC, zum anderen um eine Fernwartung eingesetzte PC-Steckerkarte mit einem Embedded Power PC. Es werden Grundlagen, Schritte bei der Entwicklung und Details zur Implementierung von Gerätetreibern für virtuelle Ethernet-Netzwerkgeräte unter den Betriebssystemen Linux sowie Windows 2000 dargelegt.
Im Rahmen der vorliegenden Arbeit wurde ein fermentativer Prozesses im Labormaßstab entwickelt und aufgebaut . Dabei wurde der Effekt der Desintegration auf die Vergärung von Gerstenstroh untersucht. Vor der Vergärung wurde das Stroh mechanisch zerkleinert. Ein Teil des Strohs wurde zusätzlich bei einer Temperatur von 40 °C über einen Zeitraum von 24 h hydrolytisch vorbehandelt, um anschließend fermentiert zu werden. Es wurden dafür vier Laborreaktoren über einen Zeitraum von 162 Tagen täglich mit einem Substratgemisch aus Gerstenstroh und Rindergülle bis zum stabilen Prozessverlauf der Reaktoren beschickt. In der zweiten Versuchsphase über 23 Tage wurde die Beschickung von zwei der Reaktoren auf hydrolytisch vorbehandleltes Stroh umgestellt. Die beiden anderen Reaktoren dienten als Referenz. Danach wurde der Effekt von hydrolytisch vorbehandeltem Gerstenstroh auf die kontinuierliche Vergärung in Bezug auf die Prozessparameter z. B. Temperatur, pH-Wert, flüchtige organische Säuren diskutiert. Die experimentellen Untersuchungen der vorliegenden Arbeit, gaben Auskunft über die Vergärung von hydrolytisch vorbehandeltem Gerstenstroh. Hierbei war zu erkennen, dass hydrolysiertes Gerstenstroh zu einer Senkung der spezifischen Gasproduktion führte. Der Unterschied zu den Referenzreaktoren betrug am Ende der zweiten Versuchsphase 100 mlN/gvs pro Tag. Gründe Grund dafür köonnte die Wirkung des niedrigen pH-Wert des Gerstenstrohs, der durch die Vorbehandlung erreicht wurde, auf die empfindlichen Methanogenen sein. Eine mögliche Adaption der Mikroorganismen an die neuen Substrateigenschaften kann noch über einen Zeitraum der dreifachen Verweilzeit erreicht werden und sollte weiter untersucht werden. Weiterhin sollte durch die Hydrolyse-Vorbehandlung die Angriffsfläche für Mikroorganismen vergrößert werden und die darin befindlichen Enzyme freigesetzt werden. Es war zu befürchten, dass durch die zu niedrigen Temperaturen, die nötige Angriffsfläche für die Mikroorganismen nicht geschaffen wurde. Die durch die Hydrolyse frei werdenden Enzyme verblieben möglicherweise im Wasser und fehlten somit bei der Vergärung in den Reaktoren, was die spezifische Gasproduktion erniedrigte. Es konnte aber festgestellt werden, dass das Vergären von Stroh prinzipiell möglich ist. Um kostengünstige und effizientere Möglichkeiten zu finden, wurden mehrere erfolgreiche Untersuchungen zur Fermentation von Stroh (Gerstenstroh) wie Thermo-Druck- Hydrolyse und der Einsatz von Enzymen durchgeführt . In weiteren Versuchen kann die Vergärung von Gerstenstroh durch verschiedene Maßnahmen optimiert werden. Zu nennen sind beispielsweise die unterschiedliche Vorbehandlung des Strohs durch. chemische-, biologische/biochemische Vorbehandlungen, die Verwendung anderer Substrate als Co-Substrate wie Schweinegülle, Mist usw. Das vorhandene Potential wird weiter ausgenutzt.
Untersuchungen von Client/Server-Architekturen mit unterschiedlichen Netzwerkbetriebssystemen
(1996)
Zu einem bestehenden Netzwerk auf Basis von 10 Base 2 wurde ein Hochgeschwindigkeitsnetzwerk mit 100 VG AnyLAN-Technologie aufgebaut. Es wurden die für die Anforderungen an das Netzwerk günstigste Kombination der Netzwerkprotokolle erprobt. Es wurden Tests zur Zugriffsart und Zugriffsgeschwindigkeit auf SQL-Datenbanken unter Borland Delphi CIS durchgeführt. <!-- #h:dissdiplNetzwerke.doc# -->
Das ORM Framework ermöglicht ein einfaches persistieren beliebiger Datenbestände. Die Funktionsweise des Frameworks orientiert sich dabei an der von Hibernate, ist aber speziell auf die Android Plattform zugeschnitten. Im Rahmen dieser Bachelorarbeit wird das bereits zugrunde liegende Framework analysiert, sowie um einige wesentliche Funktionen erweitert. Die Funktionalität des Frameworks wird mit Hilfe von "AndroidTestCases" abgesichert. Diese stellen die Standardfunktionalitäten von JUnit Tests bereit und ermöglichen Zugriff auf Ressourcen und Funktionen der Android Plattform.
Erweiterung des Data Model Editors (DME) zur Unterstützung modellgetriebener Prozessentwicklung
(2014)
Im Rahmen dieser Master-Thesis wird die Planung und Realisierung einer Komponente dokumentiert, welche Möglichkeiten und Werkzeuge zur Modellierung von Prozessen bereitstellen soll. Die Grundlage dafür bildet der Data Model Editor, welcher sich mit der objektorientieren Modellierung von Daten beschäftigt. Die Anwendung basiert auf dem Eclipse RCP Framework und soll in diesem Kontext erweitert werden, um Prozesse modellieren, dokumentieren und optimieren zu können. Ziel ist es dem Anwender durch dieses Werkzeug optimale Hilfestellung zu bieten, um bestehende Prozesse verbessern und Kosten senken zu können. Dafür werden drei gängige Ansätze zur Prozessmodellierung vorgestellt und genauer betrachtet. Hinzu kommen industrielle Anforderungen, welche analysiert und aufbereitet werden müssen. Auf Basis dieser Erkenntnisse wird ein Ansatz gewählt, welcher als Grundlage zur Erweiterung der Anwendung dient. Einen Schwerpunkt bildet hier die Modellierung der Daten, welche in bestimmten Prozessschritten benötigt (Input) oder erzeugt (Output) werden. Für die Erweiterung der Anwendung werden zunächst Konzepte ausgearbeitet und mehrere Realisierungsmöglichkeiten erörtert. Abschließend folgt die Dokumentation der Implementierung. Dabei wird auf Schwierigkeiten bei der Entwicklung und auf die Integration der Erweiterungen besonderen Wert gelegt.
Ausbau des Qualitätsmanagementsystems zur Verbesserung der Prozessqualität im IT-Bereich der KBV
(2006)
Funktionierende Qualitätsmanagementsysteme (QMS) für Projekte sind in Teilen der freien Wirtschaft schon seit Jahren gängige Praxis. Aber auch in der öffentlichen Verwaltung und in Körperschaften gewinnen diese immer weiter an Bedeutung, um Zeit-, Kosten-, und Qualitätsziele innerhalb von Projekten zu erreichen. Die Zielstellung der vorliegenden Diplomarbeit war, die vorhandenen Elemente des Qualitätsmanagements im IT-Bereich der Kassenärztlichen Bundesvereinigung (KBV) zu analysieren, zu optimieren sowie in ein Qualitätsmanagementsystem (QMS, QM-System) zusammenzuführen. Durch die Einführung eines funktionierenden QMS sollte eine langfristige Stabilisierung und Verbesserung der Qualität von Entwicklungsprozessen im IT-Bereich erreicht werden. Eine der wichtigsten Zielstellungen bei der Einführung des QM-Systems war die praktikable Anwendbarkeit durch seine Benutzer. Die Analyse und Bewertung derzeitiger Qualitätsmaßnahmen im IT-Bereich der KBV wurde in zwei Teilaufgaben untergliedert, die Datenbestandsanalyse und die Mitarbeiterbefragung. In dieser Phase wurden zum einen alle Ressourcen des bestehenden Qualitätsmanagements auf Verbesserungsmöglichkeiten hin untersucht und zum anderen Informationen und Optimierungsbedarf im Projektverlauf sowie dem Musterprozess der Softwareentwicklung seitens der Mitarbeiter erfasst. Die Bewertung der gewonnenen Ergebnisse wurde als Basis für die Spezifikation des neuen Qualitätsmanagementsystems herangezogen. In der Spezifikation des QMS wurden die gewonnenen Erkenntnisse aus der Analyse und Bewertung derzeitiger Qualitätsmaßnahmen im IT-Bereich der KBV mit den Zieldefinitionen zum Soll-Zustand des IT-Bereichs kombiniert und hieraus die Beschreibung des Soll-Zustands des geplanten Qualitätsmanagementsystems für den IT-Bereich der KBV in verbaler Form dargelegt. Bei der Realisation des QMS wurde primär auf Anwendbarkeit, Praktikabilität und Übersichtlichkeit Wert gelegt. Um dieses zu erreichen, wurde das neue QM-System als Modul in das bereits bestehende und etablierte IT-Bereichs-WIKI integriert. Dieses Verfahren, ein Qualitätsmanagementsystem mit WIKI-Technologie zu kombinieren, wurde im Rahmen der vorliegenden Arbeit neu entwickelt. Dem Autor sind bis dato keinerlei Hinweise bekannt, dass dieses Vorgehen an zweiter Stelle verwendet wird. Die Vorteile dieses Verfahrens sind in dieser Diplomarbeit beschrieben.
Gegenstand dieser Diplomarbeit ist die Weiterentwicklung und Optimierung eines Gerätes zum betreiben von Laserdioden. Bezogen darauf werden elektrische und mathematische Grundlagen der verwendeten Schaltungen dargestellt. Entwürfe und Testaufbauten zu den Schaltungen und der Konstruktion der Hardware werden erläutert und ausgewertet. Die Parameter der fertigen Baugruppen werden zusammengefasst und verglichen.
Die Arbeit dient dazu, zu zeigen wie ein Prototyp eines HiCrypt-Clients als App aussehen kann. Sie soll darüber hinaus aufzeigen was alles zusätzlich getan werden muss um die App zum einen marktreif zu machen und zum anderen benutzerfreundlicher zu machen. Die wichtigsten Funktionen der App stehen dabei im Mittelpunkt der Arbeit.
In dieser Diplomarbeit wird auf die Konzeption und Umsetzung einer Portletdatenbank eingegangen, in welcher Portlets durch Deskriptoren und Ausprägungen beschrieben werden. Es wird das Konzept der Deskriptoren und die Möglichkeiten ihrer hierarchischen Anordnung beschrieben. Weiterhin wird auf die Konzeption und Umsetzung einer Webanwendung zur Portletsuche mit J2EE und Jakarta Struts eingegangen. Die Darstellungsschicht der Anwendung wird mit Hilfe des Tiles-Plugins für Jakarta Struts aus konfigurierbaren Komponenten zusammengesetzt und durch Portlets strukturiert.
Um die Effizienz und Haltbarkeit von galvanischen Elementen wie Batterien und Akkumulatoren, welche aus weniger teuren Materialien hergestellt werden sollen, weiterzuentwickeln, ist es notwendig, die Elektrodenoberflächen des galvanisierten Elements mit Materialien zu beschichten, so dass diese Oberflächen der Wirkung von Elektrolyte über einen längeren Zeitraum dauerhaft stabil bleiben. Die Herausforderung besteht darin, eine so dünne Beschichtung so zu herzustellen, dass die eigentliche Elektrode nicht abgeschirmt wird. Es ist daher ein Schichtstoff zu finden, der sowohl chemisch resistent als auch elektrisch gut leitend ist. Um sehr dünne Schichten im Nanometerbereich zu ermöglichen, wird die Beschichtungstechnologie im ALD-Prozess eingesetzt. Dadurch sollte eine homogene und über die gesamte Elektrodenoberfläche geschlossene Beschichtung realisiert werden. Um die Oberflächenstabilität der Beschichtung zu untersuchen, wird die Zyklovoltammetrie als analytische Methode verwendet. Sie ist sehr gut geeignet, um Elektrodenprozesse oder bestimmte elektrochemische Prozesse an Phasengrenzen von Elektrode und Lösung zu untersuchen. Der Versuchsaufbau besteht aus einer Messzelle mit der Drei-Elektroden-Anordnung und dem PC-gesteuerten Potentiostat. Mit Hilfe der NERNST-Gleichung können Potenziale bestimmt werden, welche für die Reaktionen erwartet werden. Das Messergebnis dieser Methode ist das Voltammogramm, das den Verlauf des gemessenen Stromes als Funktion des angelegten elektrischen Potentials zeigt. Darüber hinaus sind Messungen des pH-Wertes und der Leitfähigkeit der Lösung notwendig, um präzise Aussagen über die einzelnen Schritte der elektrochemischen Reaktionszyklen zu treffen.
Die Arbeit beschäftigt sich mit der Erstellung eines neuen Projektkataloges für die Durchführung des Praktikums "Rechnernetzwerke". Zu Beginn wird das Gebiet Netzwerke kurz vorgstellt. Auf Grund einer kritischen Analyse und Wertung der bisherigen Praktika werden im Hauptteil der Arbeit Projektthemen für die zukünftige Gestaltung des Praktikums "Rechnernetze" erarbeitet und vorgstellt. Theoretische Grundlagen und die Begründung der einzelnen Themenvorschläge finden Berücksichtigung. Auf eventuell auftretende Probleme während der Abarbeitung der Praktikumsaufgaben wird hingewiesen. Es werden Hilfestellungen aufgezeigt und die Lernziele der einzelnen Praktika definiert. In einem weiteren Abschnitt werden Vorschläge zur Gestaltung der Rahmenbedingen der Praktika unterbreitet. Es folgt eine Zusammenfassung und ein Ausblick auf die perspektivischen Gestaltung der Praktika mit Hilfe des vorliegenden Katalogs
The aim of this work is to characterize the furnace gas sludge generated during wet mechanical blast furnace gas cleaning and to assess its potential for possible further use, taking into account the problem of heavy metal contamination. For this purpose, the process of wash water treatment and the resulting furnace gas sludge were analyzed analytically in cooperation with Vulkan Energiewirtschaft Oderbrücke GmbH. The analysis methods used here are enclosed to the measurement of pH value, electrical conductivity, dry matter content, ash content and calorific value. In addition, a comprehensive elemental analysis was carried out using atomic absorption spectroscopy and a microscopic examination of the furnace gas sludge was performed. The results obtained show that the furnace gas sludge is suitable for further use in any case, both within and outside the steelworks process. However, this requires a high level of technical effort, which is associated with high costs and requires further research and process optimization.
Diese Arbeit beschäftigt sich im Rahmen der zunehmenden Digitalisierung des Gesundheitswesens in Deutschland mit neuen Strategien in der Behandlung des akuten nicht spezifischen Kreuzschmerzes. Hierbei steht insbesondere die Anbindung von Digital Health-Anwendungen an einen sogenannten Behandlungspfad dieses Beschwerdebildes im Fokus. Nachdem entsprechende theoretische Grundlagen dargelegt werden, beleuchtet die Arbeit den aktuellen Forschungsstand von Digital Health-Anwendungen in der Behandlung des nicht spezifischen Kreuzschmerzes. Hierbei wird sowohl auf Inhalte als auch den Einsatz und die Wirksamkeit der Digital Health-Anwendungen eingegangen. Im weiteren Verlauf wird ein leitlinienkonformer Behandlungspfad für den Erstkontakt des akuten nicht-spezifischen Kreuzschmerzes erstellt sowie derzeit in Deutschland verfügbare Digital Health-Anwendungen identifiziert und hinsichtlich ihrer vermittelten medizinischen Maßnahmen untersucht. Ausgehend vom erstellten Behandlungspfad sowie den Untersuchungsergebnissen wird ein sogenannter
In dieser Arbeit werden die mechanischen, tribologischen und optischen Eigenschaften von Aluminiumnitridschichten untersucht, die mithilfe von PVD (Sputtern) abgeschieden wurden. Zunächst geht man auf die Eigenschaften ein, die von Aluminiumnitrid (-schichten) zu erwarten sind. Darunter zählen die strukturellen, mechanischen und die optischen Eigenschaften. Im darauf folgenden Teil wird auf die verwendeten Messverfahren eingegangen. Darunter zählen Wägemethode (Schichtdicke), Ellipsometrie (Schichtdicke und optische Konstanten), Röntgenreflektometrie (Schichtdicke), Deflexionsverfahren (mechanische Schichtspannungen), Ritztest (Tribologie, Haftfestigkeit), EDX- und XPS-Analyse (Zusammensetzung) und Röntgenphasenanalyse (Kristallstruktur). Der nächste Teil der Arbeit beschreibt den Sputterprozess. Danach folgt eine Übersicht über die Abscheidungen und die verwendeten Abscheideparameter (Druck, Stromstärke, Reaktivgasdruck, Gasflüsse, Spannung, Leistung, Beschichtungszeit). Im vorletzten Teil der Arbeit werden die, an den abgeschiedenen Schichten durchgeführten, Messungen interpretiert. Die daraus resultierenden Schichteigenschaften werden mit den erwarteten Eigenschaften verglichen. Als Letztes erfolgt eine Zusammenfassung
Im Rahmen dieser Ausarbeitung ist eine Serversoftware implementiert worden. Die programmierte Software stellt einen Dienst zur Verfügung, der Metadaten von Clients entgegen nimmt und diese verwaltet. Die zugesendeten Metadaten werden versioniert und vor inkonsistenten Speichervorgängen geschützt. Ziel dieser Arbeit ist, die Notwendigkeit der Software zu beschreiben und die Implementierung zu erläutern. Dafür werden die Softwaresysteme und die damit verbundenen Prozesse in der Götz Günther GmbH analysiert und beschrieben. Aus den entstehenden Informationen werden die Anforderungen an das Softwaresystem abgeleitet. Anschließend werden verschiedenste Technologien ausgewertet und ihre Qualifikation für die Verwendung im Projekt ermittelt. Dafür wird eine Diskussion durchgeführt, die die Technologien anhand verschiedenster Kriterien untersucht. In der Diskussion werden die Vor- und Nachteile der Technologien besprochen, damit der Grund der Entscheidung für eine bestimmte Technologie ersichtlich wird. Weiterhin wird die erstellte Serversoftware in ihrem Aufbau und ihrer Arbeitsweise erläutert. Dafür wird die Implementierung in verschiedenen Detailgraden betrachtet und schematisch mit UML-Diagrammen dargestellt. Die Implementierung wird in Komponenten unterteilt, die gemeinsam ein Aufgabenfeld realisieren und deren Arbeitsweise wird erläutert. Es wird auf die Modularität des Softwaresystems eingegangen, wobei verdeutlicht wird, in welcher Art und Weise die Komponenten miteinander verknüpft sind und wie diese ausgetauscht werden können. Danach wird die interne Struktur der Komponenten anhand von Klassendiagrammen geschildert und auf implementationsspezifische Besonderheiten eingegangen. Es wird dargestellt, warum sich für diese Klassenarchitekturen entschieden wurde, dafür werden Modelle der C#-Entwicklung charakterisiert. Zum Schluss folgt ein Fazit, das die entstandene Software evaluiert und Mängel in der Systemarchitektur identifiziert. Es werden Lösungen für die Bereinigung der Mängel besprochen.
Spezifikation, Design und Prototyping für eine Entwicklerversion zur Erzeugung von Diagnosegraphen
(1997)
In dieser Arbeit, wird ausgehend von den Anforderungen (Struktur der Diagnose, GUI für Implementierung von Diagnosewissen, Schnittstellen) an eine Entwicklerversion zur Erzeugung von Diagnosegraphen, die Entwicklung und Architektur eines solchen Systems vorgestellt. Die bei der Analyse eines kommerziellen Systems erzielten Ergebnisse wurden bei der Entwicklung der Architektur eines neuen Systems umgesetzt. Es wird der Funktionsumfang und Aufbau des Systems, welches aus verschiedenen Modulen besteht, erläutert. Dabei wird auch auf die Zusammenarbeit der einzelnen Module eingegangen. Ein wichtiger Aspekt ist der Aufbau der Schnittstelle zwischen der Entwicklerversion und der Laufzeitversion. <!-- #h:dissdiplDiagnosegraphen.doc# -->
Certifying Fully Dynamic Algorithms for Recognition and Hamiltonicity of Threshold and Chain Graphs
(2023)
Solving problems on graphs dynamically calls for algorithms to function under repeated modifications to the graph and to be more efficient than solving the problem for the whole graph from scratch after each modification. Dynamic algorithms have been considered for several graph properties, for example connectivity, shortest paths and graph recognition. In this paper we present fully dynamic algorithms for the recognition of threshold graphs and chain graphs, which are optimal in the sense that the costs per modification are linear in the number of modified edges. Furthermore, our algorithms also consider the addition and deletion of sets of vertices as well as edges. In the negative case, i.e., where the graph is not a threshold graph or chain graph anymore, our algorithms return a certificate of constant size. Additionally, we present optimal fully dynamic algorithms for the Hamiltonian cycle problem and the Hamiltonian path problem on threshold and chain graphs which return a vertex cutset as certificate for the non-existence of such a path or cycle in the negative case.
Modellinteroperabilität spielt eine wichtige Rolle bei der domänenübergreifenden Kommunikation mittels Kommunikationsstandards. Die Datenstrukturen verschiedener Kommunikationsstandards müssen oftmals mit aufwändigen Zuordnungsfunktionen einander angepasst werden. Diese Zuordnung wird vereinfacht, wenn Datenstrukturen in Modellen strukturell übereinstimmen. Für HL7v3 und XÖV-basierte Kommunikationsstandards wird in der vorliegenden Masterarbeit eine Untersuchung vorgenommen, wie strukturelle Modellinteroperabilität zwischen beiden erreicht werden kann. Hierzu wird eine Vergleichsmethodik auf Basis von Architektursichten definiert. Konzepte werden auf verschiedenen Granularitätsebenen verglichen. Der Einfluss weiterer Standards, die Struktur der Spezifikation und die Metamodelle werden analysiert. Aus den Erkenntnissen des Vergleichs wird eine Model-To- Model-Transformation von HL7v3-Datenstrukturen in XÖV-Datenstrukturen auf Basis der Sprache Atlas Transformation Language abgeleitet. Es wird gezeigt, dass eine XÖV-konforme Abbildung von HL7v3-Datenstrukturen möglich ist. Wichtige Rolle spielen hierbei die statischen Modelle des HL7v3-Standards. Die notwendigen Transformationsschritte für einzelne Syntaxelemente des HL7v3-Standards sind dargelegt. Auf Probleme bei der Transformation wird eingegangen. Ferner wird gezeigt, dass XML-Schemata aus transformierten HL7v3-Modellen mit XÖV-Werkzeugen generiert werden können und eine Einbindung in bestehende XÖV-Standards möglich ist.
Der öffentliche Gesundheitsdienst (ÖGD) untergliedert sich in viele verschiedene Fachgebiete. Diese Fachgebiete arbeiten und kommunizieren auf Basis von Gesetzen und Verordnungen. Die Kommunikationswege sind dabei vielgestaltig. Die kommunizierenden Handlungsträger sind aufgrund der föderalen Struktur des ÖGD nicht immer eindeutig. Es besteht die Absicht diese Kommunikationswege in naher Zukunft elektronisch zu gestalten. Hierfür soll ein einheitlicher Standard für den ÖGD in der Bundesrepublik Deutschland entwickelt werden. In dieser Bachelorthesis wurden Methoden erarbeitet, um die Kommunikationswege der Gesundheitsämter und anderer Behörden des ÖGD aus bestehenden Quellen und Befragungen zu erheben. Es wurde dabei auf Erkenntnisse aus dem Bereich Anforderungserhebung zurückgegriffen. Die Kommunikationswege des öffentlichen Gesundheitsdienstes wurden im Rahmen dieser Arbeit als Grundlage für die Entwicklung eines einheitlichen Standards erhoben. Das Vorgehen der Erhebung ist dargestellt. Es werden Methoden beschrieben, wie die Kommunikation im öffentlichen Gesundheitsdienst modelliert werden kann und welche Spezifika dabei zu beachten sind.
HTML5 und mobile Geräte wie Smartphones und Tablets sind zwei Bereiche, welche in den vergangenen Jahren eine deutliche Weiterentwicklung erfahren haben. Browserentwickler stellen ihre Software auch für mobile Betriebbsysteme zur Verfügung und dank der wachsenden Möglichkeiten aktueller Webtechnologie wird es zusehens attraktiver, Software nach dem Motto "Write once, run anywhere" auf Webbasis zu entwickeln und damit viele Hard- und Softwareplattformen zu erreichen. Die Andersartigkeit mobilen Geräte verglichen mit PCs, gekennzeichnet beispielsweise durch Hardwareausstattung und -leistung, Bildschirmgröße und Touchbedienung, erzeugt jedoch neue Problemfelder. Diese Arbeit beschäftig sich exemplarisch anhand des HTML5-Spiels "Letti ABC" mit dem Aspekt der vergleichweise geringen Hardwareleistung und damit verbundenen Performance-einschränkung. Es werden Analysemethoden für Webanwendungen vorgestellt und Lösungen unter anderem für die Bereiche Renderperformance, Audio und Speichernutzung aufgezeigt. Im Ergebnis dieser Arbeit ist das Spiel sowohl auf PCs als auch auf mobilen Geräten gleichermaßen spielbar.
Das Ziel dieser Diplomarbeit ist es, ein externes Programm zu entwickeln, welches die Seitenbeschreibungen des Storyist in Programmiervorlagen für Autorentools umwandelt. Ausgangspunkt bildet der Quelltext des Storyist Version 2. Die Seitenbeschreibungen des Storyist werden in ein XML-basierendes Format exportiert. Die UML-Notation dient zur Modellierung der Anforderungen und des Aufbaus des externen Tools. Bei der Implementierung kamen externe Bibliotheken zum Einsatz, die den XML-Parser kapseln. Die Funktion wird am Beispiel 'Umwandlung der Storyist-Seitenbeschreibungen in Programmiervorlagen für Java' demonstriert. <!-- #h:dissdiplStoryist.doc# -->
Der Einfluss verschiedener Parameter und Vorbehandlungen auf das Ätzergebnis von Silizium in TMAH wurde an zwei unterschiedlich stark p-dotierten Substrattypen (100-orientiert) untersucht. Ziel war eine Optimierung des Nassätzprozesses, um wiederholbar qualitativ hochwertige, optische Gitter herzustellen. Untersucht wurden die Unterätzung der Hartmaske und die Tiefenätzung mittels institutsintern entwickelter Kontrollstrukturen (sogenannte Nonien). Mit Hilfe von REM-Messungen wurden diese Werte in Korrelation zu den tatsächlichen Stegbreiten gebracht. Grundlage für die Auswertung war das nach Seidel et. al. vorgestellte Ätzmodell in KOH. Die Messwerte zeigen eine Veränderung der Ätzcharakteristik über eine Badstandzeit von 48h. Vermutlich ist die Hydroxidionen-Konzentration nicht konstant. Sie wird von der Dissoziation des TMAHs und des Verbrauchs durch den Siliziumabtrag beeinflusst. Wie in der Literatur zu finden, wurde bestätigt, dass zusätzliches im Ätzbad gelöstes Silizium die Anisotropie erhöht. Dieses bindet frei werdende OH
Entwicklung ökochemischer Schnellmethoden zur Bewertung der Umweltverträglichkeit von Stoffen
(1995)
Diese Diplomarbeit gibt einen Überblick über die Prozesse, die in der Umwelt stattfinden und deren Beschreibung durch stoffspezifische Parameter. Es werden die Ermittlungsmethoden zu den stoffspezifischen Eigenschaften vorgestellt und bewertet. Im praktischen Teil wird das UV-Absorptionsverhalten ausgewählter Umweltchemikalien untersucht und mit den Ergebnissen der Photomineralisierung verglichen. <!-- #h:dissdiplStoffspezifische Parameter.doc# -->
Im Rahmen dieser Diplomarbeit wurden die Auswirkungen des demografischen Wandels- demografisch, wirtschaftlich, technisch und strukturell - auf die Wasserversorgung, am konkreten Beispiel der Stadt Meerane, dargestellt. Zur Analyse der Ausgangsdaten wurden Kennzahlen von Bevölkerungs- und Bebauungsstruktureigenschaften erhoben. Um zukünftigen Handlungsbedarf hinsichtlich der Wasserversorgung in den Stadtquartieren besser ableiten zu können wurden die Kennzahlen in einer Datenmatrix zusammengefasst. Kernstück der Diplomarbeit stellt die Analyse des Ist-Zustandes des Trinkwasserleitungsnetzes der Stadt Meerane dar, auf deren Basis das Fließgeschwindigkeitsverhalten und die Verweildauer des Wassers in den Prognosehorizonten für die Jahre 2015, 2020 und 2025 simuliert wurde.
Mit einem modifizierten Pendelfurcher wurden vergleichende Untersuchungen zwischen quasistatischen und dynamischen Furchungen am C45 im normalisierten und vergüteten Zustand durchgeführt. Nach Auswertung der Furchen zeichnet sich ein linearer Zusammenhang zwischen dem Furchenvolumen V und der Furchungsenergie WT ab. Die Furchungsenergie WT steigt mit zunehmender Furchungsgeschwindigkeit v an, d.h. es ist eine Zunahme des Eintrags der Furchungsenergie WT zwischen quasistatischer und dynamischer Furchung zu verzeichnen. Es kann die Aussage, dass die Furchungsenergiedichte eF eine werkstoffspezifische Kenngröße ist, bestätigt werden. Weiterhin wurde eine Abhängigkeit zwischen der Furchungsgeschwindigkeit v und der Furchungsenergiedichte eF festgestellt, d. h. es wurde für die jeweils eingestellte Furchungsgeschwindigkeit ein spezieller Wert für die Furchungsenergiedichte eF ermittelt, der unabhängig vom Volumen V ist. Die beim dynamischen Furchen ermittelten Verfestigungskoeffizienten v sind kritisch zu bewerten, da durch die eingesetzte Messtechnik die realen Erscheinungen des Wallprofils, wie z. B. 'Buchten' auf der Wallunterseite, nicht erfasst werden können. Trotz dieser Unzulänglichkeiten ist eine Differenzierung des Verfestigungskoeffizienten v zwischen C45- normalisiert und C45- vergütet gegeben. <!-- #h:dissdiplPendelfurcher.doc# -->
Optimierung prozesstechnischer Anlagenkomponenten zur Herstellung superharter Kohlenstoffschichten
(2019)
Im Rahmen der vorliegenden Masterarbeit wurden tetraedrische amorphe Kohlenstoffschichten nach dem Prinzip der Laser-Arc-Verdampfung abgeschieden und untersucht. Vermessen wurden die hergestellten Schichten mittels Interferenzmikroskopie, dem laserakustischen Prüfverfahren LaWave, Kalottenschleifverfahren und Nanoindentation.
Im ersten Teil der Arbeit wird darüber berichtet, wie die Prozessstabilität und die Qualität der abgeschiedenen Schichten optimiert wurden. Dabei wurde zum einen der Aufbau der Kohlenstoffkathodenwalzen modifiziert, um einen stabileren und zuverlässigeren Prozess zu gewährleisten. Zum anderen wurde der elektromagnetische Partikelfilter des Laser-Arc-Moduls angepasst. Dabei
zeigte sich, dass die Konfigurationen verschiedener ferromagnetischer Bleche und damit die Ausbildung des Magnetfeldes zur Filterung der Partikel unterschiedliche Auswirkungen haben. Durch eine geeignete Konstellation konnte somit die Abscheidung homogener Schichtdicken über eine größere Beschichtungshöhe ermöglicht werden.
Der zweite Teil dieser Arbeit befasst sich mit den Auswirkungen einzelner Prozessparameter auf die Eigenschaften der abgeschiedenen Schichten. Der Einfluss der Kammertemperatur nimmt hierbei eine zentrale Rolle ein. Überschreitet diese einen Grenzwert von 100 °C, so werden die Schichten zunehmend inhomogen. Das heißt es liegt ein Gradient vor und die Schichteigenschaften
- insbesondere Elastizitätsmodul - sind über die Schichtdicke nicht konstant. Weiterhin wurden die Parameter Substratbiasspannung und -pulsdauer variiert. Es zeigte sich, dass mit zunehmender Biasspannung und Pulsdauer die Schichten härter werden. Ein dritter Prozessparameter, dessen Auswirkungen auf die Schichteigenschaften untersucht wurde, ist die Pulsfrequenz der Bogenentladung. Eine Erhöhung der Frequenz hat eine starke Erhöhung der Kammertemperatur
zur Folge. Dadurch weisen die hergestellten Schichten wieder einen Gradienten auf.
In den experimentellen Untersuchungen, welche Grundlage dieser Arbeit sind, wurden SiO2-Schichten mittels eines Doppelring-Magnetrons reaktiv gesputtert. Als variierter Parameter wurde die Bias-Leistung am Substrat gewählt. Diese beeinflusst die Energie des Teilchenbeschusses am Substrat. Im ersten Schritt der vorliegenden Untersuchungen wurde die Dichte der einzelnen Proben bestimmt. Hierzu kamen zum einen die Wägemethode und zum anderen die Röntgenreflektometrie XRR zum Einsatz. Beide Messmethoden zeigen dieselbe Abhängigkeit der Schichtdichte von der Bias-Leistung beim reaktiven Sputterprozess. Die Messunsicherheiten von XRR und Wägemethode sind allerdings unterschiedlich. So lässt sich sagen, dass mit zunehmender Schichtdicke die Wägemethode genauer wird, da der relative Fehlereinfluss abnimmt. Die XRR hingegen ist insbesondere bei Schichten, die starken, mechanischen Schichtspannungen unterliegen, mit zunehmender Schichtdicke ungenauer. Im Nachfolgenden wurden Schichteigenschaften untersucht, welche mit der Dichte korrelieren. Diese sind z. B. Eindringhärte, Eindringmodul, mechanische Spannung, optische Brechzahl und evtl. Wassereinlagerungen. Es hat sich ergeben, dass die mechanischen und optischen Eigenschaften die gleiche Abhängigkeit von der Bias-Leistung aufweisen. Allerdings legen die Ergebnisse nahe, dass die Schichten kein einwandfreies stöchiometrisches Verhältnis von Si:O=1:2 besitzen. Dies bedarf allerdings weiteren Untersuchungen zur Klärung des Sachverhaltes. Des Weiteren wurde festgestellt, dass durch Anlegen einer Bias-Leistung eine anfängliche Wasserdurchlässigkeit bei 0 W verhindert werden kann, sodass bereits bei 60 W keine messbare Adsorption von Wasserdampf vorliegt.