Refine
Year of publication
Document Type
- Bachelor Thesis (629) (remove)
Institute
- Physikalische Technik, Informatik (629) (remove)
Is part of the Bibliography
- no (629)
Das Ziel dieser Bachelorarbeit war die Entwicklung und Validierung einer Methode zur Extrahierung von Pharmazeutika und Industriechemikalien aus Pflanzenteilen, sowie die anschließende Untersuchung zur Aufnahme von abwasserbürtigen Spurenstoffen in hydroponisch kultivierten Gurkenpflanzen aus dem Roof Water-Farm-Projekt Berlin. Untersucht wurden hierbei sechs ausgewählte organische Spurenstoffe mittels Flüssigchromatographie. Die Fest-Flüssig-Extraktion und QuEChERS-Extraktion wurden verglichen und basierend auf der Literaturrecherche und dem Fachwissen der Laborleitung wurden anhand von Leerwertproben beide Methoden auf deren Effizienz getestet. Mittels LC-ESI-MS/MS wurden die Proben untersucht und eine Validierung der Extraktionsmethoden war möglich. Unter Verwendung der ermittelten Extraktionsmethode, konnten die Realproben (Gurkenpflanzen) aufgearbeitet und anschlie-ßend die Konzentrationsbereiche der ausgewählten organischen Spurenstoffe, in einzelnen Pflanzenteilen, bestimmt werden. Anhand der ermittelten Ergebnisse wurde eine toxikologische Bewertung der Gurkenpflanzen vorgenommen.
Die vorliegende Arbeit thematisiert den Erstellungsprozess eines dreidimensionalen Computermodells des schlagenden Herzens. Die konkrete Problemstellung umfasst dabei sowohl die komplette Außenansicht des Herzens als auch die Amination der normalen Herzfrequenz sowie Bradykardie, Tachykardie und Kammerflimmern. Die Arbeit beschreibt die verschiedenen Schritte, die zur Umsetzung der Aufgabe nötig sind. Dabei geben die allgemeinen Kapitel zunächst einen Einblick in den Aufbau des menschlichen Herzens und betrachten danach einige am Markt erhältliche 3D-Softwareprodukte. Eine Beschreibung der Möglichkeiten der verwendeten Software schafft die Grundlage zum Verständnis der folgenden Projektumsetzung. Eine an-schließende Projektreflexion zeigt Möglichkeiten zur Erweiterung des Funktionsum-fangs des entstandenen Models auf.
Die vorliegende Arbeit stellt die Entwicklung einer auf Unity basierenden 3D-Visualisierung von Verkehrssimulationsdaten vor. Es werden Lössungswege zur prozeduralen Mesherstellung einnes Straßennetzes gezeigt sowie zum UV-Mapping. Es wird beschrieben, wie simulierte Fahrzeuge in Unity erstellt, visualisiert und entlang gegebener Koordinaten mit einer bestimmten Geschwindigkeit bewegt werden können. Außerdem wird erläutert, wie mehrere Kameras mit unterschiedlichen Positionen - jeweils angepasst an die Simulationsdaten - in eine Simulation eingebaut werden können.
Die Arbeit beschäftigt sich mit der Abbildung eines pädiatrisch-onkologischen Dokumentations-und Managementsystems in einem KDMS. Das Klinische Dokumentations und Managementsystem (KDMS) ist MCC. Mit dieser Arbeit war zu beweisen, dass ein normeles KDMS für die pädiatrische Onkologie ausreicht. Es wurde eine pädiatrische Onkologie mittels Parametrierung erstellt. Mit der fertigen Paramierung kann nun ein Patientendurchlauf durchgeführt werden.
In der Halbleiterindustrie spielt die Fehleranalyse von defekten Bauteilen eine bedeutende Rolle. Damit Bauteile, zum Beispiel mittels Infrarotspektroskopie, auf Fehler untersucht werden können, muss als Vorpräparation dienender Arbeitsschritt realisiert werden. Mit Hilfe von Ultrakurzpulslaser wird das Substratmaterial (Silizium) eines integrierten Schaltkreises, ohne nennenswerte Schädigung der umliegenden Strukturen, auf wenige Mikrometer abgedünnt. Die fertigungsbedingte Biegung des Siliziums muss dabei berücksichtigt werden.
In dieser Bachelorarbeit werden die Prozessparameter Pulsenergie und Pulsabstand von verschiedenen Ultrakurzpulslasersystemen, sowie die Größe der abzutragenden Fläche, auf deren Einfluss auf die Ablationsrate untersucht und anschließend dargestellt. Diese ermittelten Daten geben die Basis für eine Berechnung des Materialabtrages, welche zur Optimierung des o.g. Arbeitsschrittes dienen soll. Zeit- und kostenintensive Vortests zur Abtragsrate sollen damit entfallen.
Sichere Authentifizierung spielt in Zeiten der stetig wachsenden Vernetzung und Mobilität von Anwendungen eine immer größer werdende Rolle. Es gibt eine Vielzahl verschiedener Authentifizierungsmethoden mit unterschieldichen Sicherheitsniveaus. Abgeleitete Identitäten können verschiedene Authentifizierungsmethoden miteinander verbinden und haben das Potential, mögliche Herausforderungen zu lösen. Zu diesen Herausforderugen gehören unter anderem die Fragen der Usability. Im Rahmen der Arbeit soll ein prototypisches Konzept entwickelt werden, welches sich auf die Ableitung der elektronischen Identität aus dem neuen Personalausweis, fokusiert. Auf Basis des Konzepts erfolgt das proof-of-concept in Form einer Smartphoneapp für Android.
In der vorliegenden Arbeit wurden mittels PECVD und ICPCVD hergestellte SiC-Schichten hinsichtlich ausgewählter Schichteigenschaften, wie Brechungsindex, Schichtdicke bzw. Wachstumsrate, Homogenität, Bindungsverhältnissen, Schichtspannung und Schichtzusammensetzung, untersucht. Ziel dabei die Herstellung spannungsarmer bzw.
Eine pathologische Raumforderung durch eine Verletzung hat eine Druckerhöhung innerhalb des Schädels zur Folge. Parameter wie der intrakranielle Druck (ICP), die intrakranielle Temperatur (ICT) und der Sauerstoffpartialdruck (ptiO2) können mit Hilfe von Messkathetern ermitteltet werden. Durch Veränderungen der Parameter lassen sich Rückschlüsse auf Hirnverletzungen ziehen. Ein Hersteller für Messkatheter, die im Neuromonitoring eingesetzt werden, ist die Firma RAUMEDIC AG. Neurochirurgische Präzisionsdruckkatheter, welche die zuvor beschriebene ICP-Erhöhung erfassen können, werden vor dem Inverkehrbringen auf Qualitätsanforderungen geprüft, um einen zuverlässigen Nutzen bei der Anwendung für Patienten, Anwender und Dritte gewährleisten zu können. Die Prüfung erfolgt bei der Herstellung der Katheter im Rahmen der Fertigung. Dazu wird das Driftverhalten bei konstanten Umgebungsbedingungen, der Offset, sowie die Druckänderung unter vorgeschriebenen Akzeptanzkriterien überprüft. Ein weiteres Testverfahren mit den gleichen Prüfmerkmalen befindet sich im Reklamationsbereich. In diesem Bereich werden Messkatheter, die bereits auf dem Markt sind aufgrund angeblicher Unzulänglichkeiten hinsichtlich Identität, Qualität, Haltbarkeit, Zuverlässigkeit, Gebrauchstauglichkeit, Sicherheit oder Leistung erneut überprüft. In der vorliegenden Arbeit soll eine Optimierung des Prüfverfahrens im Reklamationsbereich entwickelt werden, in dem ein automatisierter Mehrfachprüfplatz aufgebaut wird. Dies beinhaltet, dass sowohl mehrere Katheter gleichzeitig vermessen werden können, sowie die Überprüfung unterschiedlicher Parameter im gleichen Zeitraum. Der Ausgangspunkt für die Optimierung der Prüfmethode ist die Adaptierung wesentlicher Leistungsmerkmale gemäß DIN EN 60601-2-34 für invasive Blutdrucküberwachungsgeräte. Dabei ist der vorgegebene Parameterraum nicht auf das Neuromonitoring übertragbar. Eine Anpassung muss vorgenommen werden, wobei nicht nur die Temperatur, sondern auch die Druckverhältnisse angeglichen werden müssen. Bei der Versuchsdurchführung mit drei unterschiedlichen Druckerzeugern wurde festgestellt, dass ein dynamisches Prüfverfahren mit klinisch relevanten Umgebungsdrücken in den zuvor genannten Prüfkriterien realisierbar ist. Ziel dieser Arbeit ist eine Entwicklung einer erweiterten Prüfmethode, welche den Parameterraum Temperatur und Druck abdeckt. Vorteile, die diese Prüfmethode mit sich bringt, sind Zeiteinsparung, Automatisierung und Komprimierung des bestehenden Verfahrens bei gleichbleibender Aussagekraft.
Die Micro-Frontend-Architektur ermöglicht es, komplexe Anwendungen als separate Module zu entwickeln und diese unabhängig voneinander zu testen. Dabei kann jedes Modul durch ein anderes Team implementiert werden. Somit kann parallel an verschiedenen Aspekten der Anwendung gearbeitet werden, ohne dass sich die Teams gegenseitig behindern.
Die vorliegende Arbeit behandelt die Frage, welche Möglichkeiten der mobilen App-Entwicklung im Zusammenhang mit Micro-Frontends bereits existieren und ob diese für die produktive Entwicklung geeignet sind.
Dazu erfolgte eine Recherche zu bestehenden Ansätzen. Anschließend wurde auf Basis dieser Ansätze versucht, Beispiel-Apps mit diesen zu entwickeln. Dabei sollte die App aus zwei Teilen bestehen und eine einfache Navigation zwischen diesen Teilen ermöglichen. Es war hierbei mit Flutter und React Native möglich jeweils eine solche App zu entwickeln.
Abschließend wurden, auf Basis eines realen Szenarios, App-Prototypen entwickelt. Dabei wurden die Ansätze verwendet, mit denen es möglich war, eine Beispiel-App mit einfacher Navigation zu implementieren.
Diese beiden Ansätze wurden anhand der Entwicklung der Prototypen verglichen. Dabei hat sich gezeigt, dass beide Ansätze einem ähnlichen Konzept folgen. Es werden sogenannte MiniApps als Pakete (npm- beziehungsweise Pub-Pakete) entwickelt und mittels Paketverwaltungstools veröffentlicht. Diese Pakete können anschließend in einer Haupt-App eingebunden werden.
Flutter scheint diesbezüglich die bessere Alternative zu sein. Denn bei der App-Entwicklung mit React Native sind vermehrt Probleme aufgetreten. Bei der Verwendung von Flutter sind nur wenige kleine Probleme aufgetreten.
Aber auch Piral-Native könnte in Zukunft noch eine gute Alternative darstellen. Jedoch ist diese Erweiterung zum bestehenden Piral-Framework noch in der Entwicklung.
Es werden grafische und statistische Verfahren angewendet, um Ausreißer in Datensätzen zu finden. Dabei werden verschiedene statistische Tests an einer Stichprobe, welche aus einer Grundgesamtheit stammt, durchgeführt. Die Ergebnisse der Tests werden dabei nach Trefferquote und Anzahl der Berechnungsdurchläufe bewertet und verglichen. Zunächst wird in der Arbeit der Begriff Ausreißer charakterisiert und dabei Merkmale und Vorkommen beschrieben. Im darauffolgenden Abschnitt liegt das Augenmerk auf der Erkennung von Ausreißern. Hierbei werden die theoretischen Grundlagen zur grafischen Darstellung und zur Berechnung mithilfe der jeweiligen Ausreißertests erklärt. Schlussendlich wird die Frage beantwortet, was passiert, wenn man einen Ausreißer in einem Datensatz gefunden hat. Im praktischen Teil der Arbeit werden die vorher beschriebenen Ausreißertests auf eine Stichprobe angewandt und mithilfe einer 4-Felder-Tafel ausgewertet. Die Berechnungen der Tests werden dabei mit dem Statistikprogramm R durchgeführt. Am Ende der Arbeit gibt es eine Zusammenfassung dessen, welche Ergebnisse die einzelnen Tests hinsichtlich Trefferquote und Berechnungsdurchläufe erreicht haben
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
Mit dem massiven Ausbau datenverarbeitender Systeme in fast allen Branchen und Unter-nehmensgrößen werden Kennzahlen aus computergenerierten Standardanalysen verwendet, um Prozesse innerhalb des Unternehmens zu überwachen und zu optimieren. Durch den allzeit rasanten technologischen Fortschritt und immer günstiger werdende Hardware sind selbst in vielen kleineren Unternehmen Datenerfassungssysteme vorhanden, mit welchen Daten in Umfang und Menge weit über die Anforderungen der Standardanalysen hinaus gesammelt werden. Der technische Fortschritt spiegelt sich auch in den Prozessoptimierungen wieder. Im marktwirtschaftlichen Ringen setzen sich diejenigen Un-ternehmen durch, welche ihre Prozesse über die Standardanalysen hinaus optimieren kön-nen. Dazu werden neue Analyseverfahren wie zum Beispiel VisualAnalytics eingesetzt, welches sein Potential aus dem vollständigen Datenbestand schöpft. Hierbei werden neue Fragestellungen an die Daten durch Echtzeitvisualisierung des vollständigen oder teilweisen Datenbestandes und durch die Arbeit mit den Visualisierungen erörtert. Durch Zoomen und Filtern in den Visualisierungen können Fragestellungen so in kleinere Teilfragen aufgebro-chen werden, welche sich dann bis zur Datensatzebene hinab beantworten lassen. Eine Softwarelösung für VisualAnalytics ist VisualCockpit von der Firma n³. Dieses ist eine umfas-sende Lösung mit vielen Möglichkeiten zur Visualisierung der Daten sowie zur Arbeit mit den erstellten Analysen. Ziel dieser Bachelorarbeit ist es, auch kleineren und mittelständigen Unternehmen mit geringeren personellen Kapazitäten den Einstieg in VisualAnalytics mit VisualCockpit zu erleichtern, indem aus den ins VisualCockpit geladenen Daten automati-siert Basisanalysen generiert werden.
As one of the key technologies involved in communication networks, all-optical switching has witnessed many research efforts during the last decade. This work presents a detailed investigation of the properties and attractive interaction of spatial solitons in nematic liquid crystals for all-optical switching devices. This includes a description of basic properties such as their multimode behavior, as well as their power dependent interactions and signal steering. Furthermore, the temporal performance of an all-optical switching setup is analyzed and discussed. Thanks to their long-range, phase and wavelength independent interactions at milliwatts powers, and despite their slow response time in switching applications, nematicons proved to be an extremely promising testbed for soliton-based devices, including signal waveguides and power-dependent spatial steering devices.
Analyse bergbautypischer Stoffemissionen/Wasserpfad aus dem Sanierungsbereich im unteren Borbachtal
(2011)
In den sanierten Gebieten wie Schlema-Alberoda, die durch den Uranerzbergbau geprägt waren, spielen der Wasserhaushalt und die Kenntnis über den wassergebundenen Stofftransport im Bereich von Halden bzw. Absetzbecken eine wichtige Rolle. Da aufwendige Objektuntersuchungen nicht immer möglich sind, wird auch auf Modellierungen der Wasserhaushaltsgrößen zurückgegriffen, um komplexe stoffliche Fragestellungen zu beant-worten. Zwecks der Verringerung von Schadstoffemissionen, vor allem des Urans über Sickerwässer müssen die wasserhaushaltlichen/stofflichen Verhältnisse im Untersuchungsgebiet hinreichend analysiert und charakterisiert werden.
Die Arbeit befasst sich mit einer Analyse des neuen Kommunikationsstandards HL7 FHIR. Es werden theoretische und praktische Aspekte herausgearbeitet. Begriffe wie Ressourcen, Referenzen und Profile werden näher erläutert. Außerdem stehen verschiedene Zugriffsmöglichkeiten auf FHIR-Ressourcen im Mittelpunkt (REST, Java). Der abschließende Teil beinhaltet eine Erörterung, welche Punkte für eine Nutzung von FHIR sprechen, welche Anwendungsgebiete FHIR abdeckt und wie es die bisherigen Standards HL7v2 und CDA ergänzt.
Analyse des Spinwellentransportes in ferromagnetischen Nanostrukturen mit magnetooptischen Methoden
(2016)
Die Bachelorarbeit befasst sich mit der Propagation von Spinwellen in Ni81Fe19 Nanostrukturen. Diese experimentell gut kontrollierbaren Anregungszustände in Ferromagneten bieten vielversprechende Möglichkeiten für zukünftige Technologien im Bereich der Informationsübertragung. Die verwendeten Proben waren Streifenstrukturen unterschiedlicher Breite, einer Länge von 200 µm und einer Dicke von 100 nm. Ein statisches externes Magnetfeld konnte parallel zu den Streifen angelegt werden. Dies ermöglichten die Untersuchung der Magnetisierungsdynamik in der sogenannten Backward-Volume-Geometrie, welche einen der zwei Grenzfälle der Spinwellendispersion darstellt. Zur Anregung der Spinwellen wurden in den Untersuchungen dynamische Magnetfelder genutzt, welche durch Mikrowellenströme in dünnen Goldstrukturen erzeugt wurden. Ziel der Untersuchungen war die experimentelle Bestimmung der Abklinglängen, der Sättigungsmagnetisierung und der Dispersionsrelation. Der experimentelle Teil wurde an einem Brillouin-Lichtstreu-Mikroskop durchgeführt welches eine lediglich beugungsbegrenzte Analyse der Spinwellen-Intensität im Ortsraum ermöglicht und ebenfalls zur Untersuchung des Phasenprofils genutzt werden kann. Die BLS-Mikroskopie basiert dabei auf der inelastischen Streuung von Photonen an Magnonen welches eine Frequenzverschiebung des eingestrahlten Lichtes zur Folge hat.
Inhalt dieser Bachelorarbeit ist die Betrachtung der Entwicklung eines neuartigen Medizinproduktes anhand rechtlicher Grundlagen. Am Beispiel eines normothermen extrakorporalen Perfusionssystems für den Organtransport werden die Klassifizierung durchgeführt und mögliche Konformitätsbewertungsverfahren aufgezeigt. Die für Medizinprodukte geforderten technischen Anforderungen werden anhand von Beispielen, die auf das Gerätesystem anzuwenden sind, erläutert und durch technische Normen und anerkannte Richtlinien belegt.
Die vorliegende Bachelorarbeit befasst sich mit der Auswertung von elektromyografischer Messdaten die unter definierten Bedingungen aufgenommen wurden. Die Elektromyografie dient zur Messung von Muskelbeanspruchungen bei der Ausführung einer Bewegung. Dabei soll eine Analyse von einfachen und alltäglichen Bewegungen stattfinden, hier das aufstehen und hinsetzen. Mit großem Interesse wird einerseits das zeitliche Einsetzen der unterschiedlichen Muskelgruppen verfolgt. Ebenso interessant ist die Feststellung einer gewissen Reproduzierbarkeit der Aktivitätsverteilung der einzelnen Muskeln. Die Erkenntnisse können als Grundlage für eine funktionale Muskelstimulation dienen, die in einem Brain-Computer-Interface zur Therapie Querschnittgelähmter Menschen umgesetzt werden könnte.
In dieser Arbeit wurden Fitnesstracker ausgewählter Hersteller auf ihre Funktion und Genauigkeit getestet. Das Ziel war hierbei, ob handelsübliche Fitnesstracker für Belastungsuntersuchungen in der Arbeitswelt zum Einsatz kommen könnten. Darauf wurde speziell ein Augenmerk auf die Messung der Vitalparameter gelegt. Dafür wurden Modelltestszenarien entwickelten, um verschiedene Arbeitsbelastungen nachzustellen. In einer ersten Testmessung wurden Fitness-Wearables wurden zusammen mit Medizinprodukten eingesetzt, um diese miteinander referenzieren zu können. Dabei konnten schon erste Aussagen über die Fitnesstracker getroffen werden.
In der Welt der 3D-Engines gewinnt die Großbildprojektion immer höherer Auflösungen zunehmend an Bedeutung. Ins Besondere im Simulations- und Entertainmentbreich werden die Anforderungen vor allem an die Projektion immer vielseitiger. In der vorliegenden Arbeit soll es nun darum gehen, eine in der 3D-Render-Engine Unity erzeugte 3D-Szene auf eine vertikal zylindrisch gekrümmte Projektionsfläche zu ermöglichen. Dabei handelt es sich um den Fahrsimulator der Fakultät Kraftfahrzeugtechnik der Westsächsischen Hochschule Zwickau. Für jenen Anwendungsfall muss dies ohne Verzerrungen vor allem im Randbereich der Darstellung geschehen, um so eine realistische und realitätsgetreue Darstellung der Umwelt zu ermöglichen. Als Ziel soll eine bessere Geschwindigkeitswahrnehmung, sowie eine geringe "Motion-Sickness" auftreten.
Die Anforderungen an Web-Applikationen sind in den letzten Jahren exponentiell gestiegen. Die Interaktion mit Webseiten und die dynamische Darstellung von Inhalten waren nicht Bestandteil der Initialanforderungen bei der Entwicklung des World Wide Web, sind heute allerdings unverzichtbar. Zukünftig wird es weiterhin zu einer Ausweitung und Intensivierung der Anforderungen kommen. Um diesen gerecht zu werden haben sich im Laufe der Jahre zahlreiche Frameworks herausgebildet, die alle unterschiedliche Methoden und Technologien als Unterstützung bieten. Diese Arbeit bringt einen Überblick über die existierenden Frameworks und stellt deren Intentionen dar um sie mit spezifischen Anforderungen für ein Softwareprodukt der XCOM AG abzugleichen. Das Ziel ist dabei nicht die Neuentwicklung einer Web-Applikation, sondern die Erweiterung einer bestehenden, was den zweiten Teil dieser Arbeit ausmacht. Als Ergebnis präsentiert sich ein bestehendes Produkt, das durch ein bewusst gewähltes Framework erweitert wurde.
Krankenhausbetten erfüllen mehrere wichtige Funktionen. Sie dienen als Schlafplatz und Transportmittel. Manche Patienten sind den ganzen Tag auf das Klinikbett angewiesen. Umso wichtiger ist es, dass die Betten in technisch einwandfreien Zustand sind. Das wird durch die Prüfung nach der DGUV Vorschrift 3 gewährleistet, da dadurch Fehler frühzeitig erkannt werden und behoben werden können.
Das Ziel in der vorliegenden Bachelorarbeit ist es, durch Auswertung der Prüfungsergebnisse die Fehlerquote zu bestimmen, zu analysieren und zu bewerten und herauszufinden inwiefern sich Alter und Betttyp auf die Fehlerquote auswirken.
Um die Forschungsfrage zu beantworten, werden die Betten nach der DGUVV3 Vorschrift mithilfe der DIN EN 62353 geprüft und die Ergebnisse ausgewertet.
Es wurde festgestellt, dass die Gesamtfehlerquote zu hoch ist und das die meisten sicherheitsrelevanten Fehler bei Betten aufgetreten sind, die 15 Jahre oder älter waren.
Einleitung Das Lehren und Lernen im Digitalen Zeitalter ist geprägt von Felxbilität und Ereichbarkeit zu jeder Zeit. Nutzer von Lernplattformen (LMS) möchten zu vermittelnde Inhalte einfach und schnell von jedem Ort aus erreichen. Teamfähikeit spielt ebenso eine Rolle, wie selbständiges Erwerben von neuem Wissen und die Fertigkeit es anzuwenden. Diese Ziele sollen möglichst zu annehmbaren Bedingungen ermöglicht werden. Deshalb greifen Ausbildungseinrichtungen und auch Unternehmen zur Unterstüzung auf solche Lernmanagementsysteme (LMS) zurück. In dieser Arbeit wird das Content Management eines LMS untersucht. Herzu ist zunächst in einer Diskusion zu ermitteln, welche Anforderungen für die Inhaltliche Bearbeitung, das Bedienverhalten der Software und dessen Administration erforderlich sind. Als Diskusionsgrundlage dient ein zu schaffender Überblick über mögliche LMS. Dieser wird anhand einer Webrecherge erzeugt, der einige Bedingungen erfüllen muss. Ein sich daraus ergebender Favourite, ist im Bereich Content Management zu untersuchen. Für diese Analyse dienen die nun nach der Diskusion ermittelten Anforderungen an das System.
Analyse und Optimierung der Kommunikation zwischen den Komponenten des Fahrsimulators an der WHZ
(2015)
Mit verteilten Systemen können die Ressourcen mehrerer Rechnersysteme gebündelt und komplexe Berechnungen gegenüber einem einzelnen Rechnersystem schneller ausgeführt werden. Solch ein System wird auch für den Fahrsimulator am Institut für Energie und Verkehr an der Westsächsischen Hochschule Zwickau eingesetzt. Die aufwendigen Berechnungen sind dabei das Rendering der Szenen für die Leinwände und das Verhalten des Fahrzeugs in der virtuellen Welt, nach den Gesetzen der Physik. Diese sollen dabei möglichst schnell berechnet werden, denn Lenkbewegungen und andere Eingaben sollten natürlich so schnell es geht auch auf den Leinwänden als solche zu erkennen sein, damit ein realistisch wirkende Simulation entsteht. Neben schnellen Berechnungen ist dazu auch eine schnelle Kommunikation zwischen allen beteiligten Software- und Hardware-Komponenten notwendig. Diese Bachelorarbeit untersucht den Fahrsimulator am Institut für Energie und Verkehr hinsichtlich der Kommunikationsvorgänge. Dabei werden die Gesamtarchitektur vorgestellt, die verwendeten Technologien diskutiert, Schwachstellen im System erörtert und alternative Ansätze aufgezeigt. Es erfolgt dabei gleichzeitig eine Einordnung in den jeweiligen fachlichen Kontext. Die vorgestellten Möglichkeiten zur Optimierung legen dabei sowohl den Fokus auf Effizienz, als auch auf Effektivität. Es werden also Optimierungen vorgeschlagen, die mit kleinem Änderungsbedarf an der Gesamtarchitektur spürbare Performance-Steigerungen erzielen. Gleichermaßen werden auch solche Optimierungen diskutiert, die sogar noch bessere Ergebnisse erzielen würden, aber einen höheren Änderungsbedarf erforderlich machen.
Analyse und prototypische Entwicklung von Verfahren zur Extraktion von 3D-Modellen aus Bildmaterial
(2016)
Die Arbeit bietet einen Überblick zu Ansätzen und Verfahren zur automatischen Rekonstruktion von 3D-Modellen einer statischen Szene aus Bildmaterial einer einzigen, monokularen Kamera. Der Fokus liegt dabei auf der Rekonstruktion von Punkt- und Oberflächenmodellen. Zur Rekonstruktion von Punktmodellen werden die Ansätze Structure-from-Motion (SfM) für Fotomaterial sowie Simultaneous-Localisation-and-Mapping (SLAM) für die Verwendung von Videosequenzen untersucht. Weiterhin werden Verfahren zur Rekonstruktion von Oberflächenmodellen aus Punktmodellen betrachtet, unter anderem solche auf Basis der Delaunay-Triangulation, Ball-Pivoting, Greedy-Projection-Triangulation sowie Poisson-Surface-Reconstruction. Auf Basis des SLAM-Verfahrens LSD-SLAM wird ein prototypisches Rekonstruktionssystem entwickelt und im Vergleich zu einem bestehenden SfM-System getestet. Sowohl mit dem SfM-System als auch mit dem Prototyp lassen sich erfolgreich 3D-Modelle erzeugen, wobei das entwickelte System noch Optimierungspotential besitzt.
Diese Arbeit soll einen Überblick über REST und dessen Anwendung auf eine Web-Schnittstelle geben. Im ersten Teil wird REST als Architekturstil beschrieben und die Prinzipien, welche REST allgemein zugrundeliegen. Dabei wird starker Bezug auf die Dissertation von Roy Fielding [Fie00] genommen, in welcher er die Ideen von REST entwickelt und beschreibt. Da sich REST nicht zwangsläufig auf HTTP bezieht, sondern ein allgemeines Architekturmuster darstellt, soll im folgenden Abschnitt die Implementation von REST mittels HTTP betrachtet werden. Aufgrund der hohen Verbreitung und Universalität von HTTP bildet dies meist die Grundlage von RESTful-Webschnittstellen. Weiterhin analysiert diese Arbeit eine vorhandene Schnittstelle auf die Einhaltung der REST-Prinzipien. Diese Analyse soll exemplarisch verdeutlichen, welche Anforderungen an eine REST-Schnittstelle bestehen. Als Prüfkriterium wird das Richardson-Maturity-Model vorgestellt und die Schnittstelle darin eingeordnet. Dabei wird erkennbar, in welchen Aspekten REST-Prinzipien beim Schnittstellenentwurf berücksichtigt bzw. verletzt wurden. Weitergehend wird untersucht, welche Veränderungen an dieser Schnittstelle vor- genommen werden können um den REST-Prinzipien zu entsprechen. Dabei wird analysiert, welche Vorteile diese Veränderungen in Hinsicht auf das Design der Schnittstelle haben.
Das grundlegende Ziel dieser Bachelorarbeit bestand darin, in der Vergangenheit aufgenommene Messdaten zur Einschätzung eines möglichen Einflusses elektrischer Felder im Bereich des Mobilfunknetzes auf das vegetative Nervensystem neu zu betrachten und auszuwerten. Dazu standen Elektrokardiogramm- und Respirationsdaten von 15 Probanden zur Verfügung. Neben dem Finden neuer Erkenntnisse spielte vor allem die Artefakterkennung und -bereinigung der aufgenommenen Elektrokardiogramm-Signale mittels des Analyseprogrammes des von der Firma SUESS Medizin-Technik GmbH zur Verfügung gestellten Messplatzes SUEmpathy100 eine entscheidende Rolle. Weiterhin sollte anhand von Eigenmessungen der Einfluss anderer, auf das vegetative Nervensystem wirkender Beeinträchtigungen (z. B. durch sportliche Aktivität oder die Tageszeit) untersucht werden. Auch dabei standen neben einem Erkenntnisgewinn vor allem das Finden und die Eliminierung von Artefakten im Vordergrund.
Analyse von Plagiatssoftware
(2013)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Analyse von Plagiatssoftware. Im ersten Teil wurden verschiedene Softwareprodukte, die frei zugänglich waren, auf ihre Fähigkeiten zum Aufspüren von Plagiaten getestet. Dabei wurden verschiedene Testszenarien erstellt und abgeprüft. Es wurde zum Beispiel getestet, ob die Software ein Plagiat auch noch als solches erkannte, obwohl der Text umgeschrieben oder mit Synonymem versehen wurde. Im zweiten Teil wurde eine Umsetzung einer eigenen Software, zur Erkennung von Plagiaten in wissenschaftlichen Arbeiten, realisiert. Dabei wurden unterschiedliche Algorithmen zur Erkennung von Zeichenketten analysiert und die verschieden Datenbasen betrachtet. Nach-dem die einzelnen Komponenten zusammengetragen waren, wurde mit der Entwicklung eines Prototypen begonnen. Der Prototyp wurde mit zwei verschieden Algorithmen ausgestattet. Der erste Algorithmus findet Plagiate die wortwörtlich so übernommen worden sind. Der zweite Algorithmus untersucht, wie oft die Wörter des Musters innerhalb eines Text-abschnittes vorkommen und trifft dann eine Auswahl, ob ein Plagiat vorliegen könnte. Beide Algorithmen wurden zum Abschluss auf ihre Trefferquoten getestet.
In der vorliegenden Ausarbeitung wird nach einer Möglichkeit gesucht, die Breitung beim Warmwalzen von Stahlbrammen mittels eines künstlichen neuronalen Netzes näherungsweise berechnen zu können. Weiterhin sollen Grundlagen für ein Softwaremodul gelegt werden, mit dem das Netz von Personal im Walzwerk, auch ohne Vorkenntnisse gesteuert werden kann.
Diese Bachelorarbeit behandelt das Thema Analyse, Bewertung und konzeptionelle Zusammenlegung von FIS-Software-Tools. Nach einer Einführung in die Grundlagen der Volkswagen Group IT Services GmbH und der zu analysierenden Systeme werden einige Begriffe des Requirements Engineering erläutert.
Nach Abhandlung der Grundlagen werden verschiedene Methoden der Anforderungs-ermittlung vorgestellt. Es wird anhand von Einflüssen auf das Projekt die beste Ermittlungsmethode ausgewählt.
Im Weiteren wird die Vorbereitung und Durchführung der Anforderungsermittlung in Form von leitfadengestützten Experteninterviews sowie die Dokumentation der Anwendungsfälle beschrieben. Das methodische Vorgehen wird durch Literaturquellen begründet.
In einer Auswertung der ermittelten Anwendungsfälle werden diese priorisiert und bewertet. Auffallende Ergebnisse werden erklärt. Anschließend werden aus dieser Auswertung Kernanforderungen an ein mögliches Folgesystem abgeleitet. Zuletzt werden zwei Szenarien vorgestellt, welche mögliche Weiterentwicklungen der Systeme und die damit verbundenen Herausforderungen beschreiben.
In einer Auswertung der ermittelten Anwendungsfälle werden diese priorisiert und bewertet. Auffallende Ergebnisse werden erklärt. Anschließend werden aus dieser Auswertung Kernanforderungen an ein mögliches Folgesystem abgeleitet. Zuletzt werden zwei Szenarien vorgestellt, welche mögliche Weiterentwicklungen der Systeme und die damit verbundenen Herausforderungen beschreiben.
Diese Bachelorarbeit beschäftigt sich mit der Analyse, Entwurf und Implementie-rung einer Schnittstelle für die Integration und Visualisierung von Gebäudedaten in das Softwaresystem HighwayDesigner. Zuerst wurden mögliche dreidimensionale Gebäudeformate untersucht und eins ausgewählt, welches allen geforderten Kriterien entsprach. Aus den analysierten Formaten wurde dann konkret das CityGML-Format ausgewählt. Als Nächstes wurde eine Software konzipiert und danach ein Plugin entwickelt, welches die Visualisierung und das Importieren von Gebäude in das Softwaresystem ermög-licht. Im Laufe der Entwicklung ergab sich ein Problem in den Verschiedenheiten der Auflösungen von den DGM- und CityGML-Daten. Dies wurde durch eine Höhenanpassung behoben. Während der weiteren Arbeit wurde ein hohes Performanceproblem durch die Optimierung und den Einsatz eines Caches behoben. Die Möglichkeit der Selektion der zu importierenden Daten rundet die Arbeit ab.
Um Mitarbeitern des Heinrich-Braun-Klinikums den Zugriff auf die rechentechnische Infrastruktur auch außerhalb des Standortes Zwickau zu ermöglichen, wird auf eine VPN Verbindung und das Remote Desktop Protocol gesetzt. Durch das starke Wachstum der letzten Jahre fanden Fusionierungen medizinischer Einrichtungen statt, um die Wirtschaftlichkeit des Krankenhauses zu erhöhen. Für eine effektivere Arbeitsweise muss die Anbindung der Außenstellen schneller und damit besser skalierbar gelingen. Nur mit der Einführung einer neuen Virtualisierungstechnologie, der Desktopvirtualisierung, kann auch im HBK dieser Trend wunschgemäß verlaufen. Um die Desktopvirtualisierung optimal zu nutzen, ist eine Integration mit den anderen bereits im HBK eingesetzten Produkten notwendig. Zum Hauptaugenmerk zählen vor allem die Softwareverteilung baramundi und die Servervirtualisierungsplattform VMware vSphere. Die Verbesserung der Verzahnung erfolgte zusätzlich durch Skripte, welche aus speziellen Anforderungen des Krankenhauses entstanden sind. Künftig ist mit einer größeren Zahl virtueller Arbeitsplätze durch zusätzliche Standorte zu rechnen. Daher war eine Überprüfung der Hardware notwendig, um den künftigen Einsatz zu realisieren. Entscheidend sind hier die Flaschenhälse Datenspeicher, Hostarbeitsspeicher und Übertragungsraten des WANs zu den Außenstellen. Zusätzlich wurde durch eine Lösung zur externen Abfrage von E-Mails mit Exchange die Quantität der Desktops gesenkt. Dies führt zu einer Kostenersparnis.
Die Anzahl pflegebedürftiger Menschen im Alter steigt in Deutschland rapide an. Eine Vielzahl dieser Menschen möchte ihren Ruhestand in gewohnter Umgebung verbringen und entscheidet sich für die Pflege durch einen ambulanten Pflegedienst. Um eine professionelle und führsorgliche Pflege dieser Menschen zu gewährleisten, muss eine qualitativ hochwertige Pflegedokumentation angelegt werden. In Deutschland dokumentieren die meisten ambulanten Pflegedienste auf konventionelle Art und Weise. Diese Dokumentationsform ist aber mit vielen Problemen behaftet. Unleserlichkeit, Unvollständigkeit, vergessene Handzeichen, falsche Verwendung der vorgegebenen Formulare und Formulierungsschwierigkeiten sind nur die am häufigsten auftretenden Probleme. Um die Probleme der konventionellen Pflegedokumentation zu umgehen gibt es bereits einige Softwarelösungen. Diese versprechen eine Verbesserung der Qualität der Pflegedokumentation und Zeitersparnis. Doch viele Studien zeigen, dass die Einführung einer solchen Software oft nur einen Verbesserungsgrad von 60% aufweisen kann. Aus diesem Grund wurden die Mindestanforderungen an eine solche Dokumentationssoftware aufgestellt und Funktionen typischer EDV-Systeme festgelegt, die helfen, die Versprechen der Hersteller zu erfüllen. Des Weiteren musste erörtert werden, welche Rahmenbedingungen bei der Einführung einer solchen Software eine Rolle spielen.
CANopen stellt eine zentrale Komponente in der Produktpalette der SYS TEC electronic GmbH dar. Dabei spielen die Vermarktung entsprechender Hard- und Software eine entscheidende Rolle. Für die verschiedenen, aufbauenden Software- angebote stellt der CANopen-Stack die Basis dar. Um die Wartung von Systemen mit dieser zu erleichtern, soll eine Lösung gefunden werden eine FTP-Verbindung dar- über herzustellen. In der folgenden Arbeit wird das notwendige Vorwissen erläutert. Darauf aufbauend werden verschiedene Lösungsansätze besprochen. Der Hauptteil befasst sich mit der Konzeptionierung eines Proxy, welcher als normale Anwendung unter Linux oder Windows die notwendigen Netzwerkverbindungen über CAN weiterleitet. Zusätzlich werden Hinweise zur konkreten Implementierung gegeben.
Anwendung des navigations Moduls von ROS auf eine mobile Testplattform mit Mecanum Rädern. Es behandelt das Erstellen von Kartendaten mithilfe einer Tiefenbildkamera und die Ansteuerung der Testplattform mit Hilfe eines Arduino. Des weiteren werden alle Funktionen auch virtuell in einer Simulation abgebildet und getestet.
Das Sammeln, Organisieren und Verarbeiten von Informationen ist eines der Hauptaufgabengebiete der Informatik. Vielfältigste Informationen werden durch Personengruppen zusammengetragen, gemanagt und bei Bedarf wieder abgerufen. Aracube EIS ist ein Wissensmanagementsystem, welches diese Funktionen als Framework bereitstellt. Seine Aufgabe besteht darin, jegliche Informationen abbilden zu können, ohne sich auf ein bestimmtes Gebiet zu spezialisieren. Um unnötige Entwicklungsarbeit zu vermeiden, stellt es Grundfunktionen, wie z.B. eine Benutzerverwaltung mit Rechtesystem oder das automatische Erzeugen von Views anhand einer Datenbankstruktur, bereit. Diese Bachelorarbeit beschreibt die Vorgehensweise bei der Anwendungsentwicklung mit dem aracube EIS System. Begonnen von der Installation und Integration in die Entwicklungsumgebung, bis hin zur Programmierung von Datenstrukturen, wird systematisch die Herangehensweise erläutert.
Die Aufgabenstellung erfordert die Entwicklung eines modularen Push-Servers, wel- cher direkt von der Westsächsischen Hochschule Zwickau verwaltet und erweitert werden kann. Der Push-Server soll die Funktionalität besitzen Streams von verschie- denen Schnittstellen dynamisch lesen zu können, zu parsen und zu cachen. Das heißt der Server ist in der Lage bei ihm bekannten APIs automatisch nach aktuellen Nachrichten anzufragen und diese für die Weitergabe an eingetragene Empfänger aufzubereiten. Darüber hinaus muss der Push-Server eine Schnittstelle anbieten, über die sich Geräte (Smartphones) registrieren und authentifizieren können, sowie diese Geräteinformationen für den eigentlichen Pushversand speichern. Zur Demonstration dieser Funktionalität gehört ebenfalls eine Beispiel-Applikation für die WHZ. Ziel dieser mobilen Applikation ist es dem Nutzer die Möglichkeit zum Abonnement der vom WHZ-Push-Server bereitgestellten Neuigkeiten-Feeds zu ge- ben. Durch Registrierung der Applikation am Server werden die abonnierten Feeds gespeichert und das Gerät bei zielgruppengerechten Neuigkeiten via Push-Nachricht informiert.
Das Ziel der Arbeit ist es, ein bestehendes Bankmanagementsystem mithilfe des Framework Vaadins umzusetzen. Es handelt sich dabei um eine Abschlussarbeit von Michael Schott die im Jahre 2012 entwickelt wurde. Der Inhalt dieser Arbeit war es mit JSF, CDI und Arquillian ein fiktives Bank-System innerhalb einer Java EEUmgebung umzusetzen. In der Web-Applikation ist es möglich verschiedene Banken, Kunden und die zugehörigen Konten zu erstellen und anschließend Geld zu transferieren.
Aufbau einer generischen Schnittstelle zur Anbindung und Verwaltung von High-Performance-Clustern
(2020)
Mit der wachsenden Nachfrage nach rechenintensiven Simulationen und der gleichzeitig stagnierenden Entwicklungen im CPU-Markt werden größere Ressourcen für High Performance Computing benötigt. Neben den groß angelegten Serversysteme werden werden auch immer mehr Cloud Ressourcen für HPC angeboten. Bedingt durch die große Anzahl verschiedener Plattformen und Arten der Interaktionkann es zu Schwierigkeiten in der Anwendung von HPC für Nutzer kommen.
In dieser Arbeit wird eine Architektur für eine Anwendung entwickelt, die den Zugriff auf HPC Ressourcen für Anwender erleichtert. Anhand dieser Architektur wird ein Produkt entwickelt mit dem die Jobeinreichung und Jobübersicht über eine Weboberfläche und eine REST-Schnittstelle ermöglicht werden.
Die Firma Hesto-Med ist ein Fachhändler, Dienstleister und Hersteller für und von Medizin-technik. Eine Service-Analyse offenbarte Prozessdefekte und Unterschiede zwischen den Standorten des Unternehmens. Daher wurde entschieden ein gemeinsames Servicekonzept zu entwickeln, um die Servicequalität zu verbessern. Als Schwerpunkte dieser Arbeit wurden Dokumentation, Prozessmanagement und Softwarenutzung im innendienstlichen Service fest-gelegt. In diesen Bereichen sollten Modelle entstehen, die zur Annäherung der Standorte und Vermeidung von Schwachstellen führen. Überarbeitete Handlungsvorschriften, softwareseiti-ge Anpassungen und neue Prozessdefinitionen waren dabei Inhalte der Lösungsvorschläge. Daraus ergab sich eine Maßnahmensammlung für alle relevanten Teilprozesse. Unter Einbe-ziehung der Entscheidungsträger des Unternehmens wurde sich im Anschluss auf umzuset-zende Konsequenzen geeinigt. Ergebnis war ein standortübergreifendes Gesamtkonzept mit optimierter Prozessstruktur, dessen Realisierung die folgenden Handlungen bestimmen wird. Endgültige Bewertungen der Ergebnisse können erst nach dem Praxistest erfolgen.
Diese Arbeit behandelt den Aufbau eines Tieftemperatur-Rastertunnelmikroskops. Dieses Mikroskop soll stabile Messungen in einem Temperaturbereich von Raumtemperatur bis hinab zu zwanzig Kelvin ermöglichen. Der Einstieg in das Themengebiet der Rastertunnelmikroskopie wird hier über einen Blick auf die theoretischen Grundlagen gegeben. Im weiteren Verlauf der Arbeit werden einige wichtige Komponenten des experimentellen Aufbaus näher beschrieben. Mit den am Ende dieser Arbeit gezeigten Messungen konnte die Funktionsfähigkeit des Rastertunnelmikroskops aufgezeigt werden.
Die vorliegende Arbeit beschäftigt sich mit dem Aufbau und der Charakterisierung einer fasergekoppelten Laser-Weißlichtquelle für die Endoskopie. Ziel war es, eine effektive Beleuchtung des Gewebes zu ermöglichen, um eine genaue Diagnose und eine effektive Therapie durchführen zu können. Um das Ziel zu erreichen, wurde die LaserLight SMD als Lichtquelle gewählt, da sie eine hohe Lichtleitung sowie eine hohe Leuchtdichte aufweist.
Im Rahmen der Arbeit wurde zunächst versucht, die Lichtstrahlen zu kollimieren, um das Strahlparameterprodukt (SSP) und die Beugungsmaßzahl M2 zu bestimmen, die für eine optimale Faserkopplung notwendig sind. Allerdings erwies sich dieses Vorgehen als nicht ausreichend. Daher wurde ein zusätzlicher Versuch durchgeführt, bei dem die Laserstrahlen fokussiert wurden. Durch Fokussierung konnte die Beugungsmaßzahl für die geplante Anwendung verbessert werden, was zu einer höheren Bildqualität oder Tiefenschärfe führen kann. Die Messungen zeigen, dass der Laserstrahl optimal fokussiert wurde und eine konsistente Qualität aufweist. Die berechnete Beugungsmaßzahl des Laserlichts ist hoch, was in Endoskopie-Anwendungen jedoch von Vorteil sein kann, da eine gleichmäßige flächige Ausleuchtung gewährleistet werden kann.
Anschließend wurden die Lichtstrahlen in eine Faser eingekoppelt, was zu einer effektiven und optimalen eingekoppelten Lichtstrahlung führte. Die Ergebnisse zeigen jedoch, dass die Transmission der Faser bei einigen Wellenlängen niedriger war als theoretisch erwartet. Es ist daher empfohlen, weitere Untersuchungen durchzuführen, um die Verluste in der Faser genauer zu bestimmen und zu optimieren.
Des weiteren wurde die spektrale Verteilung der Lichtquelle vor und nach der Faserkopplung untersucht, wobei festgestellt wurde, dass die spektrale Leistungsdichte nach der Faserkopplung im Vergleich zur Messung vor der Kopplung deutlich reduziert ist. Dies kann auf Verluste im Fasersystem zurückzuführen sein, die mehrere Peaks in der spektralen Verteilung nach der Faserkopplung verursacht haben.
Insgesamt hat diese Arbeit gezeigt, dass eine fasergekoppelte Laser-Weißlichtquelle für die Endoskopie mit der LaserLight SMD als Lichtquelle eine vielversprechende Option darstellt. Durch die optimale Faserkopplung und Fokussierung des Laserstrahls konnten eine höhere Bildqualität oder Tiefenschärfe und eine effektive Beleuchtung des Gewebes erreicht werden. Es ist jedoch notwendig, weitere Untersuchungen durchzuführen, um die Verluste in der Faser zu minimieren und die spektrale Verteilung zu optimieren.
Die Messung der Lichtstreuung von Nano- und Mikropartikeln sowie von Gewebestrukturen spielt in der heutigen Zeit eine bedeutende Rolle, so können zum Beispiel durch Anwendung der Mie-Theorie Partikel identifiziert werden. Das Ziel dieser Arbeit ist es die winkelaufgelöste Streucharakteristik von Zellen aufzunehmen. Dazu wurde ein Messsystem zur Streulichtmessung aufgebaut und automatisiert. Durch die Automatisierung konnte die Messzeit auf ein Zehntel der ursprünglichen Zeit gesenkt werden. Für die Untersuchung der Anwendbarkeit des Messsystems auf Zellstrukturen wurden ideale sphärische Partikel mit unterschiedlicher Größe getestet und mit der Theorie verglichen. Zur Untersuchung der Lichtstreuung von Zellstrukturen wurden lebende und abgestorbene Zellen verwendet. Somit können die strukturellen Veränderungen von lebenden zu abgestorbenen Zellen nachgewiesen werden.
Das Ziel der vorliegenden Bachelorarbeit war es, die winkelaufgelösten Streucharakteristiken von Nano- und Mikro- Partikeln zu untersuchen. Dabei wurden ideale sphärische Partikel sowie biologische Zellen untersucht. Von besonderem Interesse war dabei, ob eine Veränderungen der Streucharakteristiken beim Zelltod oder bei der Erkrankung der Zellen auftritt. Aufgrund der Größenverhältnisse zwischen Wellenlänge und streuenden Partikeln wurden alle Betrachtungen ausgehend von der Mie- Theorie untersucht. Es wurde ein Messplatz entwickelt und die damit gemessenen Streukurven mit simulierten Streucharakteristiken verglichen.
Die Aufgabe dieser Arbeit bestand darin, einen möglichst einfachen Versuchsaufbau eines Laser-Doppler-Anemometers zu realisieren. Der Versuchsaufbau soll Studenten im Praktikumsversuch anschaulich den allgemeinen Aufbau eines LDA-Systems verdeutlichen. Zudem soll die Strömungsgeschwindigkeit einer Flüssigkeit in einem Rohr vermessen werden und der Druckverlust an einer Rohrwandung veranschaulicht werden.
Autorenreferat
Diese Arbeit befasst sich mit der Untersuchung und Bestimmung von Raumwinkeln, insbesondere von ophthalmologischen Geräten wie der Spaltlampe. Dazu wird eine Messvorrichtung entwickelt und charakterisiert, die aus einer Blende, einem Schirm und einer Kamera besteht.
Mit der Kamera wird ein Bild von der Lichtverteilung einer entsprechenden Strahlungsquelle aufgenommen. Dazu wird hier eine Spaltlampe verwendet. Deren Fläche wird mit einer Bildverarbeitungssoftware bestimmt und liefert damit den zur Bestimmung des Raumwinkels relevanten Wert.
Dabei ist der Blendendurchmesser und der Abstand der Blende zum Schirm variabel. Durch Variation dieser zwei Parameter ergeben sich zwei Messmethoden, die Blendenvariation und die Abstandsvariation. Davon eignet sich erstere für einen größeren Einstellbereich der variablen Parameter und ist demzufolge die empfohlene Herangehensweise.
Wasser ist die Voraussetzung für die Entstehung von Leben auf der Erde und somit eine der wichtigsten Ressourcen unseres Planeten. Um die Ressource Wasser auch in Zukunft weiterhin nutzen zu können, wird die Aufbereitung und Wiederverwertung von verschmutzten Wasser unabdingbar bleiben. In der vorliegenden Arbeit sollen die Betriebsparameter festgelegt und die Automatisierung für eine Verfahrenskombination für chemie- und biologiefreie Grauwasserbehandlungsverfahren verbessert werden. Dazu wurde im Vorfeld ein Demonstrator mit innovativer Fest-Flüssigtrennung, keramischer Membrantechnologie und photokatalytischen Oxidationsverfahren entwickelt. Die verschiedenen Reinigungsstufen wurden mit Hilfe von synthetischen und realen Grauwasser auf Reinigungsleistung und Reinigungsdauer getestet. Auf Grundlage dieser Ergebnisse konnte eine optimierte Ablauf-steuerung entwickelt werden. Die Grobfiltration mit Filterbeuteln mit einer Porengröße von 10 µm konnte die Anforderungen erfüllen. Die geplante Durchflusszeit, von 4,7 Minuten pro 100 Liter, konnte bei den erwarteten Rückhaltewerten problemlos erfüllt werden. Bei der Membranfiltration wurden die erwarteten Rückhaltewerte nicht vollständig erreicht. Die Trübung konnte zwar um 93,3 bis 99,9 % reduziert werden, doch die Messwerte für den chemischen Sauerstoffbedarf betrugen im Permeat 47,3 bis 101,0 mg/l. Durch diese hohen Konzentrationen konnten in der nachfolgenden Photokatalytischen Oxidation keine energieeffizienten Ablaufzeiten erzielt werden. Der chemische Sauerstoffbedarf konnte zwar auf 3,74 bis 4,26 mg/l reduziert werden, aber die Ablaufzeiten betrugen dabei bis zu 345,7 Stunden pro 200 Liter Grauwasserpermeat. Die Ammoniumkonzentration betrug nach der Photokatalyse 2,43mg/l. Im nachfolgenden Ionenaustauscher konnte die enthaltene Ammoniumkonzentration unter den Grenzwert der Trinkwasserverordnung reduziert werden. Eine Aussage darüber, ob das behandelte Wasser Trinkwasserqualität aufweist, konnte nicht getroffen werden. Die Gesamtdurchflusszeit betrug bis zu 512 Stunden und lag damit deutlich über den erwarteten Werten.
Für die Betrachtung atmosphärischer Vorgänge ist ein geeignetes Messsystem notwendig. Eine Möglichkeit bietet die Lidar-Technik (Light Detection and Ranging). Mit ihrer Hilfe ist es möglich, die Atmosphäre vom Boden aus bis in eine Höhe von ca. 105km zu studieren, um Temperatur, Teilchendichte und Windgeschwindigkeiten zu erfassen. Dazu wird ein Laserpuls in die Atmosphäre entsandt, der an Partikeln gestreut wird. Das rückgestreute Signal kann am Boden detektiert und ausgewertet werden. Um den gesamten Höhenbereich abzudecken, werden verschiedene Streumechanismen in unterschiedlichen Höhen genutzt. Bis zu einer Höhe von 80
Für den Export von Druckgeräten in das Gebiet der Zollunion - zu dem Russland, Weißrussland und Kasachstan gehören - gilt es, das Technische Reglement der Zollunion sowie auch das Berechnungsregelwerk GOST R 52857 anzuwenden. Diese Bachelorarbeit zeigt einen Vergleich des Technischen Anhanges I der Druckgeräterichtlinie mit der Anlage Nr. 2 des Technischen Reglements der Zollunion. Es werden das russische, das deutsche und das europäische Berechnungsregelwerk verglichen. Des Weiteren werden die Regularien der Zertifizierungs- und Prüfbescheinigungen verglichen. Damit soll ein Überblick geschaffen werden, worauf bei der Auslegung und Fertigung von Druckgeräten zum Export in das Gebiet der Zollunion geachtet werden muss.
Der Gegenstand dieser Abschlussarbeit ist ein exemplarischer Konvertierungsprozess der 3D-Daten des proprietären Formates zum Zielformat. Es geht dabei um das proprietäre Format ema der Firma imk automotive und das Format 3DPDF, das als Zielformat zusammen mit U3D-Format betrachtet wird. Im Zuge der Abschlussarbeit kann man drei Hauptteile der Arbeit hervorheben. Dabei lässt sich der Teil mit der Auswahl des Zielformates für die Konvertierung, der Teil mit der Umsetzung der Daten von ema-Format in das U3D-Format und der Teil mit der Integration von U3D-Datei in PDF-Dokumente unterscheiden. Für die Umsetzung und die Integration werden mehrere Lösungsansätze in Anspruch genommen, um die optimale Variante auswählen zu können. Die Umsetzung der ema-Daten in das U3D-Format erfolgt sowohl direkt als auch mit Hilfe des IDTF-Zwischenformates. Die Integration der beim Konvertierungsprozess entstandenen U3D-Datei in PDF-Dokumente hat auch mehrere Lösungswege. Einer von diesen ist die Möglichkeit der Integration über Latex, die Realisierung von welcher auch im Zuge der vorliegenden Abschlussarbeit betrachtet wird. Es gibt auch weitere Lösungswege, sie sind aber nicht getestet.
Aktuell existieren mehrere Frameworks, die für die Entwicklung von Single-Page Applications (SPAs) eingesetzt werden können. In der vorliegenden Arbeit wird eine Formel ermittelt, mit der die Wahl eines Frameworks beim Projektstart unterstützt wird. Die Formel setzt sich aus dem Entwicklungsaufwand, wie auch Performance, Wartbarkeit und Nachhaltigkeit zusammen. Die Kriterien wurden im Rahmen der Arbeit auf drei Entwicklungsframeworks für SPAs angewendet. Angular, Vue.js und React.js. Die Bewertung der Kriterien erfolgt über die Vergabe von Punktzahlen, wobei die Kriterien in Unterkriterien gegliedert sind. Die Punktzahlen müssen gewichtet werden, um Einfluss auf das Ergebnis zu nehmen. Standardmäßig kann eine Gleichverteilung von 25 Prozent pro Kriterium angenommen werden. Zur Bewertung der Kriterien und zur Darstellung der Verwendung und Gewichtung der Formel wird ein Projekt mit jedem der drei Frameworks implementiert. Das Ergebnis der Arbeit besteht aus drei Formeln, eine für jedes Framework, in der nur die Gewichtungen eingetragen werden müssen. Das Framework mit der größten Punktzahl kann für die Umsetzung des jeweiligen Projekts ausgewählt werden.
Die Strahlentherapie zählt neben der Chemotherapie und der Chirurgie zu den drei Säulen der Tumortherapie. Bei der Bestrahlungsplanung entstehen mehrere Planvarianten, die auf den Patienten angewendet werden könnten. Das Ziel dieser Arbeit ist es, neben den üblichen Kriterien wie dem Dosis-Volumen-Histogramm, den organspezifischen Dosiswerten und der räumlichen Dosisverteilung, zusätzliche Bewertungskriterien auf der Basis von strahlenbiologischen Konzepten zu untersuchen. Diese Modelle sind in Bestrahlungsplanungssytemen implementiert.
Die vorliegende Arbeit befasst sich mit der Theorie der strahlenbiologischen Modelle und mit deren Anwendung in der Therapieplanung anhand ausgewählter Fallbeispiele. Dabei wird gezeigt, dass die strahlenbiologischen Konzepte in mehreren Fällen eine Hilfestellung für die Auswahl des Bestrahlungsplanes sind. In einigen Fällen konnten auch die Grenzen der strahlenbiologischen Modelle aufgezeigt werden. Die implementierten Modelle stellen unter Berücksichtigung der Einschränkungen ein weiteres wertvolles Hilfsmittel zur Bewertung von Bestrahlungsplänen dar.
Auswirkung der Evolution des EJB-JEE-Komponenten-Frameworks auf Applikationsserver und Anwendungen
(2016)
In dieser Arbeit wird ein allgemeines Migrationsvorgehen beschrieben, um eine EJB 2.x Anwendung auf EJB 3.x zu migrieren. Dazu werden die benötigten Begriffe erläutert und es wird demonstriert, wie die jeweiligen Versionen implementiert werden können. Daraufhin werden die Unterschiede zwischen den Implementierungen gezeigt. Diese werden genutzt, um zu erläutern, wie eine Anwendung allgemein migriert werden kann. DIe Migration selbst wird außerdem an einer reelen Anwendung erprobt.
Die Protonentherapie ist ein hochpräzises, normalgewebeschonendes Bestrahlungsverfahren, das auf genaue anatomische Information zum Patienten angewiesen ist. Eine gleichzeitige Bildgebung mithilfe der Magnetresonanztomographie (MRT) würde diese Information in Echtzeit liefern. Ein Risiko hierbei sind durch die Protonenanlage induzierte Magnetfeldänderungen im Raum, die Bildverschiebungen im MR-Bild zur Folge haben könnten. Diese Verschiebungen wurden für verschiedene Zustände der Protonentherapieanlage gemessen und es wurde eine Pulssequenzabhängigkeit der Verschiebungen gefunden, welche auf die Stärke der MRT-Gradientenfelder zurückzuführen ist. Diese Verschiebungen sind von relevantem Ausmaß und müssen daher in der Anwendung kompensiert werden.
Objective: Sagittal balance (SB) plays important role in the successful treatment of spinal disorders. Segmental lordosis is an important SB parameter in spinal surgery and diagnosis, which can help to ensure proper surgical planning and better postoperative outcomes. The manual measurement of segmental lordosis is associated with problems such as time-consuming procedures, high error rates, and poor reproducibility.
The bachelor thesis proposes a solution by exploring and evaluating a more efficient and reliable AI-based method for determining segmental lordosis in preoperative patients, which is compared to measurements made by experienced physicians.
Methods: hidden due to a non-disclosure agreement.
Results: hidden due to a non-disclosure agreement.
Conclusions: hidden due to a non-disclosure agreement.
Die vorliegende Arbeit beschäftigt sich mit den Problemen der Automation von Geoinformationssystemen für die maschinelle Kartenerstellung aus statistischen Daten. Dafür wurden zunächst die verschiedenen Datenquellen und Datenformate betrachtet und gegeneinander verglichen. Dabei stellte der \enquote{Staatsbetrieb Geobasisinformation und Vermessung Sachsen} eigens für die Untersuchungen dieser Arbeit Kartenmaterial zur Verfügung. Daraufhin wurden verschiedene Geoinformationssysteme auf ihre Tauglichkeit für das Automationsvorhaben und den Kostenumfang analysiert. Es wurde festgestellt, dass das kostenfrei Quantum GIS mit einer Python"=Schnittstelle für die Automation am geeignetsten ist. Die zweite Hälfte dieser Arbeit behandelt das schrittweise Vorgehen, um die Automation mit dieser Software erreichen. Dabei wurden aufgetretene Probleme diskutiert und Lösungen in Form von Python"=Skripten hergeleitet. Schließlich konnte so eine vollständige, flexibel einsetzbare Lösung entwickelt werden. Alle Maßnahmen für die Automation wurden an einem konkreten Beispiel dargestellt, um das Zusammenspiel der verschiedenen Komponenten nachvollziehbar zu gestalten.
Diese Bachelorarbeit untersucht die Hintergründe und Motivation für die automatische Ausführung und Protokollierung von Tests auf Basis von Gherkin und Godog mit Hilfe von Xray Test Management für Jira.
Das Hauptziel ist die Steigerung der Effizienz bei der Testprotokollierung und -reporting. Durch die Automatisierung können manuelle Aufgaben reduziert werden, was zu einer verbesserten Effizienz und Zeitersparnis führt. Die Ergebnisse dieser Arbeit dienen als Grundlage für Unternehmen, um die Effizienz und Qualität ihrer Testprozesse zu steigern und einen Mehrwert zu schaffen.
Die verwendeten Technologien, Gherkin, Godog, Cucumber für Golang und Xray Test Management für Jira, werden vorgestellt und ihre Funktionen erläutert. Zusammenfassend ermöglichen diese Technologien eine effizientere Zusammenarbeit von Entwicklungs- und Testteams und verbessern die Softwarequalität.
Die Arbeit beschäftigt sich mit der Erstellung eines CRUD-Frameworks innerhalb einer Java Enterprise Umgebung. Ziel der Arbeit ist der Entwurf und die Umsetzung einer dynamische Benutzeroberfläche zur Manipulation von Entitäten und Beziehungen auf Basis des Javas- cript Frameworks ExtJS. Die erstellte Oberfläche passt sich dabei dynamisch an die jeweilige Entität mit zuvor erhaltener Informationen an. Diese Informationen werden serversetig mit Hilfe von Annotationen in den entsprechenden Klassen hinterlegt und ausgewertet. Die Kom- munikationsschnittstelle des Servers bildet eine Implementierung der Rest-Architektur über das HTTP-Protokoll. Für die Übertragung der Entitätsdaten werden die Objekte der entspre- chenden EJB-Klassen in eine vereinfachte Form überführt. Nach der Manipulation der Daten werden diese Daten serverseitig wieder in die entsprechenden Fachklassen transformiert und persistiert. Die Ergebnisse der Arbeit dienen als Grundlage für die Entwicklung eines quellof- fenen Frameworks für die Entwicklung von webbasierten Anwendungen.
Diese Arbeit beschreibt ein Konzept zur Implementierung eines Schaltplan- Vergleichs und der intelligenten Ergebnisdarstellung. Mit dem Konzept soll das Design-Center von Transim Technology Corp. erweitert werden. Für die Umsetzung wurde eine Anforderungsanalyse erstellt und eine theoretische Betrachtung mittels Graphentheorie durchgeführt.
Tests sind ein wichtiger Bestandteil im Unternehmensumfeld. Gerade für das komplexe, bei N+P entstandene Framework SPARTACUS wird es angestrebt, alle Anwendungsbausteine auch entsprechend zu verifizieren. Um das Verhalten des Gesamtsystems untersuchen zu können, sind Unit Tests nicht mehr ausreichend. Im Rahmen der Arbeit wurde ein Framework für Integrationstests erstellt, mithilfe dessen die Entwickler in Zukunft die Funktionalität alten und neuen Quelltexts prüfen können. Durch tägliche und wöchentliche Builds unter Nutzung aller offiziell unterstützten Datenbanksysteme kann so ausgeschlossen werden, dass Regressionen in den getesteten Teilen der Anwendung unentdeckt bleiben. Dabei steht die komplette serverseitige Funktionalität zur Verfügung, sodass sich Test- und Produktivumgebung in fast allen Bereichen gleich verhalten.
Ziel dieser Bachelorarbeit ist es, die Oberflächeneigenschaften von Implantatwerkstoffen,
in Form einer Titanlegierung, durch den Einsatz von Photonic Jet gezielt zu verändern.
Insgesamt wurden 10 unterschiedliche Strukturierungen auf der Titanprobe realisiert, die
sich in Strukturabstand und -stärke sowie in der Art der Musterung unterscheiden. Nach
der Bearbeitung wurden die Proben mittels Kontaktwinkelmessgerät untersucht. Mit der
Methode nach Owens, Wendt, Rabel und Kaelble (OWRK) erfolgte die Auswertung hinsichtlich
der Oberflächenenergie.
Dabei zeigte die Bearbeitung mit 100 nm Strukturabstand bei einer Pulsenergie von 3000 nJ
(Messung am Faserausgang - Dauermessung) die höchste Benetzbarkeit mit einer Oberflächenenergie von 49,13 mN/m. Durch eine hohen Benetzungsgrad kann die Anlagerung und
die Proliferation von Zellen beim Kontakt mit einer so bearbeiteten Oberfläche verbessert
werden.
Zusammenfassend lässt sich feststellen, dass die Benetzbarkeit der Titanproben durch die
Strukturierung mittels Photonic Jet gezielt beeinflusst werden konnte.
Ziel der vorliegenden Bachelorarbeit ist die Erstellung einer grafischen Benutzeroberfläche für den Bereich des Ambient Assisted Living, welche von älteren Menschen bedient werden kann, ohne dass diese dabei an ihre körperlichen Grenzen stoßen werden. Dazu erfolgte eine Analyse darüber, welchen Beeinträchtigungen die Zielgruppe unterliegt und mit welchen Methoden der Oberflächengestaltung diese ausgeglichen werden können. Anschließend wurde ein Designkonzept für eine derartige Bedienoberfläche erstellt und diese dann mittels der Programmiersprache Java in eine lauffähige Android-Applikation umgesetzt.
Die vorliegende Bachelorarbeit leistet einen Beitrag zum Aufbau eines in situ arbeitenden Laserpartikelzählers mit Echtzeitmessung für Ionenimplanter. Es werden unterschiedliche Komponenten, wie z.B. Lichtdetektoren, untersucht und diese zu einem Partikelzählmessplatz, der in atmosphärischer Umgebung betrieben wird, kombiniert. Das Funktionsprinzip des Messplatzes und das Auftreten von Partikelsignalen in Koinzidenz werden gezeigt. Es werden Möglichkeiten zur Verknüpfung der beiden Detektorausgangssignale vorgestellt und die Auswirkungen bei Koinzidenzverletzung untersucht. Ein weiterer Bestandteil ist die Automatisierung der Partikelerkennung. Dazu wird ein Auswertealgorithmus vorgestellt, der Partikel zählt und nach Höhe und Breite klassiert. Unter dessen Verwendung werden Einflüsse wie Samplerate der Messwerterfassung und Ausrichtung der Polarisationsebene der Laserstrahlung zu den Detektoren auf die Effizienz der Partikelzählung untersucht. Zum Abschluss werden Messabweichungen infolge der Messwerterfassung diskutiert.
Es wird ein Konzept für ein Messsystem evaluiert, welches eine örtliche Elementanalyse mittels Laserinduzierter Plasmaspektroskopie (engl.: laser-induced breakdown spectroscopy) (LIBS) ermöglicht.
Das Messsystem soll in den Prozess einer Materialablation integriert werden, bei dem Material von der Oberfläche von Glasträgern mithilfe von gepulster Laserstrahlung abgetragen wird. Während dieses Ablationsprozesses soll das ablatierte Material untersucht werden und eine örtliche Auflösung der qualitativen Elementzusammensetzung erfolgen.
Für die qualitative Analyse wird das entstehende Plasma mittels LIBS untersucht. Zusätzlich wird die Position des Laserfokus auf der Oberfläche der Glasträger ermittelt und erlaubt die Ortsauflösung des Laserfokus und somit auch des entstehenden Plasmas.
Die Verknüpfung der Ortsauflösung des Laserfokus und der Detektion der Strahlung des laserinduzierten Plasmas ermöglicht dann eine ortsaufgelöste Elementanalyse. Diese Arbeit soll entscheidende Beiträge liefern, welche die Umsetzung eines solchen Systems ermöglichen.
In dieser Bachelorarbeit werden folgende Themen behandelt: - Erklärung von Arbetiszeitmodellen und Cloud-Systemen - Amazon-Cloud vorgestellt und RDS- und EC2-Module näher erläutert - Tomcat Webserver installiert und konfiguriert - Oracle Datenbank: Tabellen, Funktionen und Prozeduren erstellt - Entwicklung von Datendiensten in Java zum Verbindungsaufbau zu einer Oracle Datenbank - grafische Oberfläche mit Apache Flex 4.6 erstellt und mit Hilfe von Datendiensten an Oracle Datenbank angebunden - Webservice erstellt und in ein vorhandenes Flex Projekt eingebunden
Die vorliegende Bachelorarbeit beschreibt das Facility Management und die Einführung eines CAFM Programms in der Elblandkliniken Gruppe. Die Arbeit stellt den Zusammenhang zwischen Personen, Prozessen, IT-System und Daten dar. Dabei wird auf den Zusammenhang von FM und CAFM eingegangen. Es wird beschrieben und analysiert, wie mit Hilfe der Software die Bereiche der Gerätebewirtschaftung, Instandhaltungsplanung, Störungsmanagement, Dokumentenverwaltung und Adressmanagement einheitlich für die Standorte der Elblandkliniken Gruppe abgebildet werden können. Dabei wird speziell auf die einzelnen Prozesse und Workflows der Medizintechnik eingegangen und die Umsetzung in die neue Software erläutert. Es wird erläutert, welche Vorteile sich für das Instandhaltungsmanagement ergeben und wie sich das Terminmanagement dadurch verbessert. Es wird darauf verwiesen, wie die gesetzlichen Vorgaben z.B. MPG und MPBetreibV eingehalten und dokumentiert werden müssen. Zudem wird erläutert, wie damit schnell und komfortabel gearbeitet, vorgegebene Aufgaben und Prüfungen durch optimale Bedienoberflächen und Schnittstellen zu Messgeräten erreicht werden können. Ziel der Arbeit ist es, einen Überblick über die neue Software und ihre Eigenschaften zu erhalten. Eine genaue Beschreibung für die Umsetzung wird für einzelne Bereiche herausgegriffen und beschrieben. Besonderer Wert wird zudem auf die ergonomischen Vorteile gelegt. Als Fazit der Bachelorarbeit steht die schnelle konsequente Realisierung des Vorhabens, die Software in den Elblandkliniken einzusetzen. Alle sich ergebenden Hindernisse bedürfen einer individuellen Lösung um das Gesamtkonzept zum Erfolg zu bringen.
Am Forschungszentrum Dresden-Rossendorf wird zur Zeit ein auf Laserstrahlung basierter Teststand für gasgefüllte Detektoren für kernphysikalische Anwendungen aufgebaut. Erstmals wurden Subpikosekunden-Laserpulse in einen Proportionalzähler hinein fokussiert, um laserinduzierte Elektronen nachzuweisen. Es werden erste Ergebnisse mit unterschiedlichen Energiedichten und einer Pulslänge von < 200 fs vorgestellt.
Bestimmung der Dichte und Gasaufnahme aufgedampfter reiner Siliziumschichten mittels Quarzmikrowaage
(2015)
Der erste Teil der Arbeit beschäftigt sich mit der Untersuchung eines alternativen Verfahrens zur Dichtebestimmung E-Strahl-aufgedampfter amorpher Silizium-Schichten (a-Si) mittels Schwingquarzmessung. Ziel war es einen Kompromiss zwischen hoher Genauigkeit und geringem apparativem Aufwand zu finden. Durch Messung der Si-Schichtdicke mittels Tastschnittgerät und der Massenbelegung aus der korrelierten Frequenzänderung des Schwingquarzes (SQ) nach Sauerbrey wurde die Schichtdichte bestimmt. Hierbei wurde der Einfluss des Quarzes (Oberflächenrauheit, Behandlungshistorie) und der Versuchsbedingungen (Substrattemperatur, Abscheiderate) auf die Dichte der Schichten und deren Genauigkeit untersucht. Im zweiten Teil wurde der Effekt der Gasabsorption auf diese Schichten in Abhängigkeit der Abscheidebedingungen untersucht. Dazu wurden frisch abgeschiedene a-Si-Schichten definierten Atmosphären (Druck, Gasart) ausgesetzt und mittels Schwingquarz in-situ die Massenbelegung aufgenommen.
Bestimmung der interfraktionellen Beweglichkeit der Prostata-Untersuchungen an CT- Kontrollserien-
(2011)
Das Prostatakarzinom zählt zu den häufigsten Tumorerkrankungen des Mannes. Abhängig vom Tumorstadium kann die alleinige Strahlentherapie zur vollständigen Genesung führen. Studien zeigen, dass eine Dosiseskalation der Gesamtdosis diese Erfolgsquote weiter steigern kann. Um potentielle Organbewegungen sowie Positionierungsunsicherheiten zu berücksichtigen, wird bei der Bestrahlungsplanung ein Sicherheitssaum um das Zielvolumen gelegt. Dieser Sicherheitssaum kann nicht beliebig groß gewählt werden, da umgebendes Normalgewebe sowie Risikoorgane bestmöglich geschont werden müssen. Um den Sicherheitssaum optimal zu dimensionieren, soll in dieser Arbeit die interfraktionelle Beweglichkeit der Prostata anhand von CT-Serien untersucht werden.Grundlage für diese Arbeit stellen Planungs- als auch wöchentlich in Bestrahlungsposition durchgeführte Kontroll-CT-Serien der Beckenregion von insgesamt 24 Patienten mit Prostatakarzinom dar. In der vorliegenden Arbeit konnte die Prostatabewegung in drei Raumrichtungen relativ zu den knöchernen Strukturen nachgewiesen werden. Aus den ermittelten Verschiebungen konnte ein Sicherheitssaum für das Zielvolumen empfohlen werden.
Bestimmung und Präzisierung von Nutzer-Standorten in Bluetooth-basierten Indoor-Navigationssystemen
(2019)
In dieser Bachelorarbeit werden Konzepte vorgestellt, mit deren Hilfe der Standort eines Nutzers innerhalb eines Indoor-Positionierungssystems ermittelt wird. Zunächst werden Grundlagen aus dem Bereich der Positionierung mit Bluetooth vorgestellt. Zur Standortbestimmung werden die Signale von Bluetooth-Sendern (Beacons) genutzt. Weiterhin werden Möglichkeiten vorgestellt, wie die ungenaue Standortbestimmung, bedingt durch Störungen des Bluetooth-Signals, präzisiert werden kann.
Anhand der zyklischen Voltammetrie sollen Titan, Wolfram, Messing (CuZn40) und Edelstahl (X5CrNi18-10) als inerte Elektroden Untersucht werden. Das Messverfahren der Zyklovoltammetrie wird dabei genauer betrachtet und Ergebnisse diskutiert. Zur Passivierung der Elektroden werden Aluminiumoxid Nanoschutzschichten mithilfe des ALD-Prozesses aufgebracht. Die Reaktionhemmende Wirkung des Aluminiumoxids wird bei unterschiedlicher Schichtdicke dargestellt und ausgewertet. Es werden Gründe für den Durchbruch der Schicht erläutert und Möglichkeiten zur Verbesserung vorgeschlagen.
Motivation dieser Bachelorarbeit ist es die Betrachtung und Bewertung des Web-Frameworks "Angular" auf seine Tauglichkeit für die Verwendung im Bereich des Kunden-Frontend im eBanking-/eBrokerage. Es ist fur das Unternehmen wichtig herauszufinden, ob es möglich ist, einige Teile der eBanking-Anwendung zu ergänzen oder zu ersetzen durch die Teile der Anwendung, die mit Angular entwickelt werden
Die vorliegende Bachelorarbeit untersucht die Machbarkeit der Anwendung resistiver Sensoren auf textilen Materialien zur Messung des Auflagedrucks auf kompressiblen Untergründen. Die Recherche hat gezeigt, dass es bereits Anwendungen im medizinischen und
weiteren Sektoren, wie zum Beispiel im Sport, gibt. Die Arbeit konzentriert sich auf die Möglichkeit der direkten Herstellung von Sensoren auf Textilien.
Zwei Herstellungsverfahren für leitfähige Strukturen auf textilen Substraten werden untersucht. Die verwendeten Verfahren zur Herstellung leitf¨ahiger Strukturen auf Textilien umfassen das Pulverdruckverfahren und die Stickerei. Die Stickerei ermöglicht die Platzierung von leitfähigen Fäden bzw. Kabeln auf Textilien, während der Pulverdruck mit funktionalen Pulvern leitfähige Strukturen auf Textilien erzeugt.
Obwohl es bereits eine Vielzahl von Messsystemen für die Erfassung des Auflagedrucks gibt, zielt diese Arbeit darauf ab, Sensoren auf einem textilen Substrat speziell für den Einsatz in einer Auflagedruck-Messmatte im Reitsport zu entwickeln.
Die experimentelle Untersuchung umfasst Zugversuche und Druckbelastungstests. Zunächst werden Zugversuche durchgeführt, um die Dehnungseigenschaften der Textilien zu bestimmen, sowie die Änderung des elektrischen Widerstandes von aufgebrachten Pulverstrukturen bei Dehnung. Darüber hinaus werden zyklische Zugversuche durchgeführt, um die Stabilität der aufgetragenen leitfähigen Strukturen zu überprüfen. Mithilfe dieser Informationen wurde ein Trägermaterial aus mehreren textilen Substraten für weitere Versuche gewählt.
Des Weiteren wird die Änderung des elektrischen Widerstands von aufgebrachten Stick- und Pulverstrukturen während zyklischen Druckbelastungstests auf kompressiblen Untergrund untersucht und verglichen.
Die Ergebnisse der Druckbelastungstests deuten darauf hin, dass die Stick- und Pulverstrukturen eine Veränderung des elektrischen Widerstands während zyklischer Druckbelastung aufweisen. Es wurde beobachtet, dass der elektrische Widerstand während der Belastung
der Pulverstrukturen abnimmt und nach der Entlastung ansteigt. Die gestickten Strukturen weisen gegenteiliges Verhalten auf. Dies eröffnet interessante Möglichkeiten für die Entwicklung von textilen Sensorlösungen zur Erfassung von Auflagedruck auf kompressiblen Untergründen.
Die Bachelorarbeit zeigt die Komplexität und Herausforderungen bei der Entwicklung von resistiven Sensoren auf textilen Materialien für medizinische und sportliche Anwendungen.
Bilderkennung und OCR von maschinell erstellten Überweisungsträgern auf einem Android-Smartphone
(2013)
Diese Bachelorarbeit behandelt die Bilderkennung und OCR von Überweisungsträgern. Es werden hierbei die freien Bibliotheken OpenCV für das maschinelle Sehen und Tesseract für die OCR (Optical Character Recognition) verwendet. Ausgehend vom grundlegenden Konzept eines bildverstehenden Prozesses, werden konkrete Verfahren für Bilderkennung und Bildaufbereitung vorgestellt. Ziel ist es, den Überweisungsträger mit Hilfe eines Android-Gerätes zu erkennen und die Daten der relevanten Felder auszulesen.
Ein Indoor Navigationssystem ist keine Neuheit. Vielverbreitet sind diese in Terminals einprogrammiert. Diese werden in großen Einkaufsläden, Kranken-häuser, Flughäfen und an einigen Universitäten verwendet. Allgemein finden Indoor Navigationssysteme in großen Gebäudekomplexen Verwendung. Terminals haben einen statischen Standort und müssen vom Besucher der jeweiligen Ortschafft aufgesucht werden. Mobile Endgeräte helfen dabei, sich von einem festen Standort zu entkoppeln. Zwei große Konzerne - Nokia und Google - sind dabei, Indoor Navigationssys-teme für Mobileendgeräte zu entwickeln. Der Campus-Navigationsservice übernimmt dabei die Idee, sich mobil in einem Gebäude zu navigieren. Der zu navigierende Bereich beschränkt sich dabei auf den Innenstadt Campus der Westsächsischen Hochschule Zwickau. Im Rahmen dieser Arbeit wurde eine Webanwendung entwickelt, die zur Orientierung auf dem Campus beiträgt. Durch Routen und Gebäudeplan anzeige, wird sich in Zukunft keiner mehr so schnell verlaufen.
Der Inhalt dieser Bachelorarbeit ist die Charakterisierung von Siliziumwaferoberflächen nach nasschemischer Textur oder Politur. Die Passivierung von HJT - Solarzellen durch die Abscheidung von a - Si:H wird auf den nasschemisch behandelten Wafern untersucht. Stand der Technik sind HJT - Solarzellen mit einer beidseitigen Textur der Wafer. Rasterelektronenmikroskopieaufnahmen, Reflexions - und Rauheitsmessung dienen der Charakterisierung der Waferoberflächen. Photolumineszenzbilder und Lebensdauermessungen zeigen einen Einfluss der Passivierung auf die Lebensdauer von Ladungsträgern. Die theoretischen Erwartungen konnten in dieser Arbeit nicht für alle Gruppen bestätigt werden, was weitere Experimente erfordert.
The aim of this work is to characterize the furnace gas sludge generated during wet mechanical blast furnace gas cleaning and to assess its potential for possible further use, taking into account the problem of heavy metal contamination. For this purpose, the process of wash water treatment and the resulting furnace gas sludge were analyzed analytically in cooperation with Vulkan Energiewirtschaft Oderbrücke GmbH. The analysis methods used here are enclosed to the measurement of pH value, electrical conductivity, dry matter content, ash content and calorific value. In addition, a comprehensive elemental analysis was carried out using atomic absorption spectroscopy and a microscopic examination of the furnace gas sludge was performed. The results obtained show that the furnace gas sludge is suitable for further use in any case, both within and outside the steelworks process. However, this requires a high level of technical effort, which is associated with high costs and requires further research and process optimization.
In dieser Bachelorarbeit wird ein Nd:Glas Faserlaser vorgestellt, der aufgebaut und anschließend charaketerisiert wurde. Folgende Charaketerisierungen wurden vorgenommen: -Charakterisierung der Pumpquelle (Laserdiode) -Absorptionswellenlänge des Neodyms -Emissionswellenlänge des Neodyms -differentieller Wirkungsgrad unterschiedlicher Faserwicklungen bzw. Faserlängen -Laserstrahlprofil -Strahlqualität
Für die Beschreibung von Bioprozessen mit Mikroorganismen ist die Erfassung mehrerer
Prozess-Parameter relevant. Die Biomassekonzentration eines biologischen Systems gibt Aufschluss über die Wachstumsprozesse der Organismen, die eine wichtige Rolle in der Bio-technologie spielen.
Zur online-Bestimmung der Biomasse wurde der „Cell Growth Quantifier“ der Firma aquila biolabs eingesetzt, welcher nach dem Prinzip der Rückstreumessung arbeitet.
Für die Kultivierung der Hefe Yarrowia lipolytica wurden Glucose als hydrophiles Substrat und Sonnenblumenöl als hydrophobes Substrat eingesetzt.
Zur Quantifizierung wurden Stoffbilanzen aufgestellt.
Bei der Fermentation mit Glucose konnten Wachstumskurven generiert und Wachstumsraten mit 0,09 h-1 für Glucose und 0,24 h-1 für Sonnenblumenöl bestimmt werden. Mit Hilfe des online-Signals konnte bei der Bilanzierung eine Änderung in der Reaktionsstöchiometrie festgestellt werden und ein Hinweis auf eine Unterteilung in zwei Phasen, aufgrund einer möglichen Produktbildung, gewonnen werden. Der Signalverlauf des online-Biomassesensors beim Einsatz hydrophiler Substrate entspricht weitestgehend den Werten der Methoden der offline Biomassebestimmung. Für die Fermentation mit Pflanzenöl konnte dagegen keine Korrelation festgestellt werden. Sowohl die Biomasse als auch das hydrophobe Substrat sorgen für ein Streusignal, welches auch nicht durch unterschiedliche Wellenlängeneinstellungen des online-Sensors getrennt werden konnte.
Gegenstand dieser Arbeit ist eine Methode, mit der sich relativ einfach und Substrat-schonend eine photokatalytisch reinigende Oberfläche herstellen läßt. Prinzip: Aufbringen entsprechender Eigenschaftsträger (hoch aktive TiO2 P25 -Partikel) zusammen mit einem Bindemittel (SiO2-Sol-Gel). In der resultierenden Komposit-Schicht müssen die P25-Partikel partiell freiliegen aber auch ausreichend in der Matrix stecken. Es wurden Beschichtungs-Sole mit unterschiedlichen Feststoffgehalten (w(SiO2), w(TiO2)) auf Glas- und Acrylglasscheiben angewandt (Tauchbeschichtung). Durchgeführte Untersuchungen: Methylenblau-Abbautest (photokatalytische Aktivität), Naß-Scheuertest (Abriebbeständigkeit), Profilometrie (Schichtdicke), UV/Vis-Spektroskopie (Transmissionsgrad), REM-EDX-Untersuchung (Partikelmenge und -verteilung; Ti-Gehalt). Ergebnis: geeignete Schichten auf Glas erhalten; Verbesserungspotential bei PMMA; Schichten ganz leicht milchig (auf Grund der Größe der P25-Partikel).
Das Ätzen von Grabenstrukturen in Silizium spielt eine wichtige Rolle in der Mikrosystem- bzw. Halbleitertechnik. Oft müssen Strukturen mit unterschiedlichen Breiten in ein Substrat geätzt werden. Auffällig ist dabei, dass die Ätzrate von der Breite der Öffnung abhängt. Schmalere Gräben werden langsamer geätzt als breitere. Es resultieren unterschiedliche Ätztiefen. Dieses Verhalten, welches als Aspect Ratio Dependent Etching (ARDE) bezeichnet wird, kann gezielt ausgenutzt werden (z.B. Strukturierung und Vereinzelung von Wafern), oder es stellt ein Problem im Herstellungsprozess dar, wenn die Ätztiefen zu stark variieren. Der Bosch-Prozess ist eine beliebte Technik, mit der tiefe und gleichzeitig schmale Gräben anisotrop geätzt werden können. Das Ziel der Arbeit bestand in einer Beeinflussung und Kompensation von ARDE. Dazu wurden verschiedene Rezepte ausprobiert. Es sollten dadurch Erkenntnisse gewonnen werden, welche Parameter im Ätzprozess Einfluss auf ARDE haben.
Die Verkapselung flexibler elektronischer Bauteile stellt eine große Herausforderung an die Herstellung der verwendeten Permeationsbarriereschichtsysteme dar. Das Fraunhofer FEP hat für diesen Zweck ein Verfahren entwickelt Mehrfachschichtsysteme mit geringer Permeation auf Polymerfolien herzustellen. Um die Permeation durch Defekte in der Barriereschicht so gering wie möglich zu halten, ist es notwendig die Entstehung dieser zu verstehen und zu vermeiden. Des Weiteren müssen die Auswirkungen bereits bestehender Defekte untersucht werden und Verfahren entwickelt werden ihren Einfluss auf die Permeation zu verringern. Im Rahmen dieser Arbeit soll dargestellt werden, welche Substratfolien am besten für die Herstellung von Permeationsbarrieren geeignet scheinen. Dazu wurden die Substratfolien auf ihre Defektdichte und -größe hin untersucht sowie der Einfluss der gefundenen Defekte auf prozessierte Barriereschichten simuliert. Um zu untersuchen, welche Auswirkungen einzelne Verfahrensschritte auf die Defektdichte der Permeationsbarrieren besitzen, wurde die Defektdichteentwicklung bei der Prozessierung von zwei verschieden Barriereschichtsystemen untersucht und die Ursache der entstandenen Defekte ermittelt. Es konnte gezeigt werden, dass sich unter den analysierten Substraten mit der Folie Teonex® Q65 FA die besten Barrierewirkungen erzielen lassen müssten. Des Weiteren konnten die Auswirkungen einzelner Verfahrensschritte auf die Defektdichte der Schicht bei der Herstellung von Permeationsbarriereschichtsystemen gezeigt werden. Es konnten außerdem mögliche Ursachen für die dabei entstandenen Defekte ermittelt werden.
In der heutigen Zeit wird es immer wichtiger, die Schichtparameter von abgeschiedenen Schichten zu erfassen, ohne dabei die funktionellen Schichten zu beschädigen und somit die Ausbeute zu verringern. Dafür wird immer häufiger auf Analyseverfahren zurückgegriffen, die auf Röntgenstrahlung basieren. Diese haben die Vorteile, dass es eine breite Auswahl an gut beherrschten Verfahren gibt. In dieser Arbeit wird die Auswirkung der Variation von ALD - Prozessparametern auf die entstehenden Wolfram - ALD - Schichten untersucht. Diese Schichten sollen später Röntgenoptiken verwendet werden. Dies wird über innseitig beschichtete Glaskapillare erfolgen. Um eine möglichst hohe Reflektivität zu erzielen, werden die Schichten mit Hilfe der Röntgenreflektometrie untersucht. Für eine bessere Interpretation werden zudem noch weitere Charakterisierungsverfahren hinzugezogen. Es gelang einige Tendenzen zwischen den ALD - Prozessparametern und den entstandenen Schichten festzustellen. Des Weiteren wurden noch Experimente zur Oberflächenbehandlung und verschiedene Schichtaufbauten durchgeführt welche gute Ergebnisse erzielten.