Refine
Year of publication
Document Type
- Diploma Thesis (825)
- Bachelor Thesis (629)
- Master's Thesis (353)
- Article (17)
- Part of a Book (5)
- Book (4)
- Report (3)
Institute
- Physikalische Technik, Informatik (1836) (remove)
In der vorliegenden Arbeit wird speziell die Abscheidung von Siliziumoxid- und Siliziumnitridschichten an einer neu entwickelten Forschungsanlage der Roth & Rau AG untersucht. Das Hauptaugenmerk liegt dabei auf Abscheidung von defektfreien und intrinsisch dichten PECVD - Barriereschichten (PECVD - Plasma Enhanced Chemical Vapour Deposition). Die neuartige Versuchsanlage bietet hierfür erstmalig die Untersuchungsmöglichkeit zur Schichtabscheidung mit drei unterschiedlichen Plasmaquellenkonzepten, die bereits in industriellen Beschichtungsanlagen erfolgreich eingesetzt werden und somit eine schnelle technische Umsetzung, sowie die Skalierbarkeit zur großflächigen Beschichtung gewährleisten.
Das Ziel dieser Bachelorarbeit war die Entwicklung und Validierung einer Methode zur Extrahierung von Pharmazeutika und Industriechemikalien aus Pflanzenteilen, sowie die anschließende Untersuchung zur Aufnahme von abwasserbürtigen Spurenstoffen in hydroponisch kultivierten Gurkenpflanzen aus dem Roof Water-Farm-Projekt Berlin. Untersucht wurden hierbei sechs ausgewählte organische Spurenstoffe mittels Flüssigchromatographie. Die Fest-Flüssig-Extraktion und QuEChERS-Extraktion wurden verglichen und basierend auf der Literaturrecherche und dem Fachwissen der Laborleitung wurden anhand von Leerwertproben beide Methoden auf deren Effizienz getestet. Mittels LC-ESI-MS/MS wurden die Proben untersucht und eine Validierung der Extraktionsmethoden war möglich. Unter Verwendung der ermittelten Extraktionsmethode, konnten die Realproben (Gurkenpflanzen) aufgearbeitet und anschlie-ßend die Konzentrationsbereiche der ausgewählten organischen Spurenstoffe, in einzelnen Pflanzenteilen, bestimmt werden. Anhand der ermittelten Ergebnisse wurde eine toxikologische Bewertung der Gurkenpflanzen vorgenommen.
Die vorliegende Arbeit thematisiert den Erstellungsprozess eines dreidimensionalen Computermodells des schlagenden Herzens. Die konkrete Problemstellung umfasst dabei sowohl die komplette Außenansicht des Herzens als auch die Amination der normalen Herzfrequenz sowie Bradykardie, Tachykardie und Kammerflimmern. Die Arbeit beschreibt die verschiedenen Schritte, die zur Umsetzung der Aufgabe nötig sind. Dabei geben die allgemeinen Kapitel zunächst einen Einblick in den Aufbau des menschlichen Herzens und betrachten danach einige am Markt erhältliche 3D-Softwareprodukte. Eine Beschreibung der Möglichkeiten der verwendeten Software schafft die Grundlage zum Verständnis der folgenden Projektumsetzung. Eine an-schließende Projektreflexion zeigt Möglichkeiten zur Erweiterung des Funktionsum-fangs des entstandenen Models auf.
Die vorliegende Arbeit stellt die Entwicklung einer auf Unity basierenden 3D-Visualisierung von Verkehrssimulationsdaten vor. Es werden Lössungswege zur prozeduralen Mesherstellung einnes Straßennetzes gezeigt sowie zum UV-Mapping. Es wird beschrieben, wie simulierte Fahrzeuge in Unity erstellt, visualisiert und entlang gegebener Koordinaten mit einer bestimmten Geschwindigkeit bewegt werden können. Außerdem wird erläutert, wie mehrere Kameras mit unterschiedlichen Positionen - jeweils angepasst an die Simulationsdaten - in eine Simulation eingebaut werden können.
The role accomlished by Major Histocompatibility Complex (MHC) molecules in initiating and regulating immune respouses, binding short pepticles and displaying them on the cell surface for recoguition by Tiell receptors, is of the atmost importance in immunlogogy. However, only a subset of peptider is capable of binding to any particular MHC molecule. The study was undertaken to rationalize MHC/ peptide interactions in terms of molecular structural requirements for the prediction of class I MHC buding peptides. Prediction of buding activities by means of computational methods can minimize experimental assays, and lead to the development of vaceines and immune-therapeutie drugs.
Diese Arbeit stellt ein Arbeitspaket eines Projektes mit dem Ziel der Einführung eines Mitarbeiterportals bei der Firma RealTech AG dar. GREP steht für Global RealTech Enterprise Portal und wurde mit dem Produkt SAP® Enterprise Portal 6.0 umgesetzt . GREP wird zukünftig das Intranet der RealTech AG ersetzen und zusätzliche Funktionen zur Verfügung stellen. Im Rahmen dieser Arbeit soll der Prozess Mitarbeitereintritt abgebildet werden, wobei die Medienbruchbeseitigung und die Implementierung im Vordergrund stehen. Die Aufgabenstellung der RealTech AG beinhaltet die Aufnahme von Soll- und Ist-Zustand des Prozesses Mitarbeitereintritt sowie die Beschreibung von Lösungsvorschlägen zur Beseitigung der Medienbrüche und Abbildung der Workflows zu beschreiben. Die Arbeit fokussiert eine Lösung, die in dem gegebenen Rahmenbedingen einen sofortigen Mehrwert für das Unternehmen schafft.
Die Arbeit beschäftigt sich mit der Abbildung eines pädiatrisch-onkologischen Dokumentations-und Managementsystems in einem KDMS. Das Klinische Dokumentations und Managementsystem (KDMS) ist MCC. Mit dieser Arbeit war zu beweisen, dass ein normeles KDMS für die pädiatrische Onkologie ausreicht. Es wurde eine pädiatrische Onkologie mittels Parametrierung erstellt. Mit der fertigen Paramierung kann nun ein Patientendurchlauf durchgeführt werden.
Thema dieser Diplomarbeit ist die Ablation periodischer Mikrostrukturen mittels Femtosekunden-Pulsen eines Ti:Saphir-Lasers unter Nutzung der Laserinterferenztechnik.Der Schwerpunkt liegt auf der gezielten Änderung der Strukturtopographie durch die definierte Beeinflussung von Anzahl, Phase sowie Lage der interferierenden Teilstrahlen. Flexibel gestaltbare Mikrostrukturen sind u.a. die Basis für die Herstellung photonischer Kristalle. Die Vorteile der Laserstrahlung, speziell ultrakurzer Pulse, in der Materialbearbeitung ermöglichen einen schädigungsarmen, direkten Materialabtrag im Mikrometerbereich. Dies gestattet den Einsatz von Femtosekundenlasern für die Herstellung periodischer Mikro- und Nanostrukturen. Die Aufspaltung des einfallenden Laserstrahles in zwei oder mehrere Teilstrahlen wird durch optische Transmissionsgitter realisiert. Über Anzahl und Typ der Beugungsgitter (Amplituden- bzw. Phasengitter) kann die Anzahl und Konfiguration der entstehenden Teilstrahlen beeinflusst werden. Die Phasenbeziehung der einzelnen Strahlen kann über Regelung des Abstands zwischen den optischen Gittern nahezu exakt kontrolliert werden. Für die Überlagerung der Teilstrahlen, unter Berücksichtigung der Interferenzbedingung, werden diese über ein Schwarzschild-Reflexions- bzw. Linsenobjektiv auf der Probenoberfläche zusammengeführt. Mit dieser Methode lassen sich verschiedenartige Mikrostrukturen erzeugen, deren Größe und Topographie von den definierten Eigenschaften der interferierenden Teilstrahlen abhängig sind. Die Strukturtiefen und
In der Halbleiterindustrie spielt die Fehleranalyse von defekten Bauteilen eine bedeutende Rolle. Damit Bauteile, zum Beispiel mittels Infrarotspektroskopie, auf Fehler untersucht werden können, muss als Vorpräparation dienender Arbeitsschritt realisiert werden. Mit Hilfe von Ultrakurzpulslaser wird das Substratmaterial (Silizium) eines integrierten Schaltkreises, ohne nennenswerte Schädigung der umliegenden Strukturen, auf wenige Mikrometer abgedünnt. Die fertigungsbedingte Biegung des Siliziums muss dabei berücksichtigt werden.
In dieser Bachelorarbeit werden die Prozessparameter Pulsenergie und Pulsabstand von verschiedenen Ultrakurzpulslasersystemen, sowie die Größe der abzutragenden Fläche, auf deren Einfluss auf die Ablationsrate untersucht und anschließend dargestellt. Diese ermittelten Daten geben die Basis für eine Berechnung des Materialabtrages, welche zur Optimierung des o.g. Arbeitsschrittes dienen soll. Zeit- und kostenintensive Vortests zur Abtragsrate sollen damit entfallen.
Die Reinhaltung der Luft ist für die menschliche Gesundheit und im Rahmen des Umweltschutzes unentbehrlich. Im Zuge der Industrialisierung kam es in der Vergangenheit zum Teil zu erheblichen Beeinträchtigungen der Luftqualität. Trotz umwelttechnisch deutlich verbesserter Produktionsabläufe werden auch weiterhin bestimmte Stoffe emittiert. Für die Entwicklung eines neuartigen und nachhaltigen Verfahrens zur Abluftreinigung hat der Forschungsverbund HUPAC im gleichnamigen Projekt die Abluftreinigung VOC- bzw. ammoniakbelasteter Abluft thematisiert. Diese beiden Substanzen sind von besonderer Relevanz für die Beeinträchtigung der Umwelt bzw. der Luftqualität. Für ihre Abreinigung aus der Abluft von Produktionsprozessen wurde im Projekt eine neuartige Technologie entwickelt, die aus einer Kombination adsorptiver und mikrobieller Prozesse auf der Basis huminsandhaltiger, zellulosebasierter Pellets verläuft. Bei den als reaktive Komponente eingesetzten Huminsanden handelt es sich um natürliche Substrate, welche aus Tagebauen des Lausitzer und Mitteldeutschen Braunkohle-Reviers kostengünstig gewonnen werden können, die über interessante physiko-chemische Eigenschaften verfügen und die damit generell für eine innovative Alternative als Substrat für Abreinigungsprozesse genutzt werden können. Die Eignung der aus den Sanden hergestellten Pellets für die Abluftreinigung wurde im Rahmen des HUPAC-Projekts laborativ sowie praktisch getestet und ausgewertet. Wie erwartet, können die Huminsand-Pellets die Schadstoffe (VOC bzw. Ammoniak) zunächst adsorptiv binden. Die fixierten Schadstoffe werden dann anschließend durch eine sich etablierende Mikroorganismenpopulation abgebaut. Im technologisch angelegten Projekt wurden Eignung der Substrate und Erfolg der Reinigungsleistung mit der Gegenüberstellung von input und output bewertet, wobei die Huminstoffe als
Die immer stärker werdende Bedeutung der visuellen Darstellung und die Allgegenwärtigkeit des Internets lassen das Bedürfnis nach Programmen steigen, die dreidimensionale Präsentationen in ansprechender Form ausführen können. Das im Verlauf dieser Diplomarbeit entwickelte Autorenwerkzeug ermöglicht es dem Benutzer, Kamerafahrten durch eine bereits existierende virtuelle Welt zu erstellen und zu speichern. Die erzeugte Videosimulation kann als Applet in Webseiten eingebunden werden, um es via Internet oder lokal für einen großen Personenkreis zugänglich zumachen. Nachdem Java 3D vorgestellt und Grundlagen zur Programmierung erläutert wurden, erfolgt die Erklärung des entwickelten Programms. Ein weiterer Schwerpunkt dieser Arbeit ist der Vergleich von Java 3D mit anderen Grafiksystemen.
Sichere Authentifizierung spielt in Zeiten der stetig wachsenden Vernetzung und Mobilität von Anwendungen eine immer größer werdende Rolle. Es gibt eine Vielzahl verschiedener Authentifizierungsmethoden mit unterschieldichen Sicherheitsniveaus. Abgeleitete Identitäten können verschiedene Authentifizierungsmethoden miteinander verbinden und haben das Potential, mögliche Herausforderungen zu lösen. Zu diesen Herausforderugen gehören unter anderem die Fragen der Usability. Im Rahmen der Arbeit soll ein prototypisches Konzept entwickelt werden, welches sich auf die Ableitung der elektronischen Identität aus dem neuen Personalausweis, fokusiert. Auf Basis des Konzepts erfolgt das proof-of-concept in Form einer Smartphoneapp für Android.
In der vorliegenden Arbeit wurden mittels PECVD und ICPCVD hergestellte SiC-Schichten hinsichtlich ausgewählter Schichteigenschaften, wie Brechungsindex, Schichtdicke bzw. Wachstumsrate, Homogenität, Bindungsverhältnissen, Schichtspannung und Schichtzusammensetzung, untersucht. Ziel dabei die Herstellung spannungsarmer bzw.
Abscheidung und Charakterisierung von wasserstoffhaltigem Siliciumnitrid mittels reaktivem Sputtern
(2008)
In der Photovoltaik wird Siliciumnitrid als Antireflex- und Passivierungsschicht eingesetzt. Aktuell kommen CVD-Verfahren bei der Herstellung zum Einsatz. Da CVD-Verfahren gefährliche Precusoren im Prozess verwenden, sollen diese durch das Sputtern abgelöst werden. Einen Beitrag dazu soll diese Diplomarbeit liefern, indem mit reaktivem Sputtern wasserstoffhaltige Siliciumnitridschichten erzeugt und charakterisiert werden. Rasterkraftmikroskopische Untersuchungen geben einen Aufschluss über das Oberflächenprofil. Die Bruchfläche der Siliciumnitridschicht ist mit dem Rasterelektronenmikroskop untersucht worden. Mit der Sinterung wurde die Siliciumnitridschicht der multikristallinen Siliciumwafer auf Blasenbildung untersucht. Abschließend wurde die Siliciumnitridschicht mit einem FTIR-Spektrometer auf Wasserstoffverbindungen mit Stickstoff und Silicium überprüft.
Eine pathologische Raumforderung durch eine Verletzung hat eine Druckerhöhung innerhalb des Schädels zur Folge. Parameter wie der intrakranielle Druck (ICP), die intrakranielle Temperatur (ICT) und der Sauerstoffpartialdruck (ptiO2) können mit Hilfe von Messkathetern ermitteltet werden. Durch Veränderungen der Parameter lassen sich Rückschlüsse auf Hirnverletzungen ziehen. Ein Hersteller für Messkatheter, die im Neuromonitoring eingesetzt werden, ist die Firma RAUMEDIC AG. Neurochirurgische Präzisionsdruckkatheter, welche die zuvor beschriebene ICP-Erhöhung erfassen können, werden vor dem Inverkehrbringen auf Qualitätsanforderungen geprüft, um einen zuverlässigen Nutzen bei der Anwendung für Patienten, Anwender und Dritte gewährleisten zu können. Die Prüfung erfolgt bei der Herstellung der Katheter im Rahmen der Fertigung. Dazu wird das Driftverhalten bei konstanten Umgebungsbedingungen, der Offset, sowie die Druckänderung unter vorgeschriebenen Akzeptanzkriterien überprüft. Ein weiteres Testverfahren mit den gleichen Prüfmerkmalen befindet sich im Reklamationsbereich. In diesem Bereich werden Messkatheter, die bereits auf dem Markt sind aufgrund angeblicher Unzulänglichkeiten hinsichtlich Identität, Qualität, Haltbarkeit, Zuverlässigkeit, Gebrauchstauglichkeit, Sicherheit oder Leistung erneut überprüft. In der vorliegenden Arbeit soll eine Optimierung des Prüfverfahrens im Reklamationsbereich entwickelt werden, in dem ein automatisierter Mehrfachprüfplatz aufgebaut wird. Dies beinhaltet, dass sowohl mehrere Katheter gleichzeitig vermessen werden können, sowie die Überprüfung unterschiedlicher Parameter im gleichen Zeitraum. Der Ausgangspunkt für die Optimierung der Prüfmethode ist die Adaptierung wesentlicher Leistungsmerkmale gemäß DIN EN 60601-2-34 für invasive Blutdrucküberwachungsgeräte. Dabei ist der vorgegebene Parameterraum nicht auf das Neuromonitoring übertragbar. Eine Anpassung muss vorgenommen werden, wobei nicht nur die Temperatur, sondern auch die Druckverhältnisse angeglichen werden müssen. Bei der Versuchsdurchführung mit drei unterschiedlichen Druckerzeugern wurde festgestellt, dass ein dynamisches Prüfverfahren mit klinisch relevanten Umgebungsdrücken in den zuvor genannten Prüfkriterien realisierbar ist. Ziel dieser Arbeit ist eine Entwicklung einer erweiterten Prüfmethode, welche den Parameterraum Temperatur und Druck abdeckt. Vorteile, die diese Prüfmethode mit sich bringt, sind Zeiteinsparung, Automatisierung und Komprimierung des bestehenden Verfahrens bei gleichbleibender Aussagekraft.
Die Micro-Frontend-Architektur ermöglicht es, komplexe Anwendungen als separate Module zu entwickeln und diese unabhängig voneinander zu testen. Dabei kann jedes Modul durch ein anderes Team implementiert werden. Somit kann parallel an verschiedenen Aspekten der Anwendung gearbeitet werden, ohne dass sich die Teams gegenseitig behindern.
Die vorliegende Arbeit behandelt die Frage, welche Möglichkeiten der mobilen App-Entwicklung im Zusammenhang mit Micro-Frontends bereits existieren und ob diese für die produktive Entwicklung geeignet sind.
Dazu erfolgte eine Recherche zu bestehenden Ansätzen. Anschließend wurde auf Basis dieser Ansätze versucht, Beispiel-Apps mit diesen zu entwickeln. Dabei sollte die App aus zwei Teilen bestehen und eine einfache Navigation zwischen diesen Teilen ermöglichen. Es war hierbei mit Flutter und React Native möglich jeweils eine solche App zu entwickeln.
Abschließend wurden, auf Basis eines realen Szenarios, App-Prototypen entwickelt. Dabei wurden die Ansätze verwendet, mit denen es möglich war, eine Beispiel-App mit einfacher Navigation zu implementieren.
Diese beiden Ansätze wurden anhand der Entwicklung der Prototypen verglichen. Dabei hat sich gezeigt, dass beide Ansätze einem ähnlichen Konzept folgen. Es werden sogenannte MiniApps als Pakete (npm- beziehungsweise Pub-Pakete) entwickelt und mittels Paketverwaltungstools veröffentlicht. Diese Pakete können anschließend in einer Haupt-App eingebunden werden.
Flutter scheint diesbezüglich die bessere Alternative zu sein. Denn bei der App-Entwicklung mit React Native sind vermehrt Probleme aufgetreten. Bei der Verwendung von Flutter sind nur wenige kleine Probleme aufgetreten.
Aber auch Piral-Native könnte in Zukunft noch eine gute Alternative darstellen. Jedoch ist diese Erweiterung zum bestehenden Piral-Framework noch in der Entwicklung.
Ziel dieser Arbeit ist es eine wissenschaftliche Abhandlung zum Thema Adaption einer Datenbanklösung mit Berücksichtigung betrieblicher Prozesse zu verfassen. Ein Teil der Arbeit ist die beispielhafte Weiterentwicklung einer existierenden Datenbanklösung und deren prototypische Implementierung. Die Datenbanklösung soll an neu definierte betriebliche Prozesse angepasst werden. Des Weiteren gehört zur Anpassung auch das Anbinden an angrenzende Systeme. Es ist nicht Gegenstand dieser Arbeit ein komplett neues System zu entwickeln. Die Grundlage bildet die Nutzung einer bereits bestehenden Datenbanklösung, mit dem Datenbanksystem PostgreSQL im Hintergrund und der Anwendungssoftware Access als clientseitiges Frontend.
Adressmanagement interner und externer Quellen für einen regionalen Telekommunikationsanbieter
(2008)
Privatwirtschaftliche Unternehmen als auch öffentliche Einrichtungen, die täglich mit einer Vielzahl von Adressen arbeiten, sind heute auf ein effektives Management ihrer Daten angewiesen. Je größer und komplexer die Unternehmens- oder Behördenstruktur ist, desto aufwändiger und fehleranfälliger ist die Verarbeitung personenbezogener Informationen. Unternehmensspezifische Wandlungen wie Fusionen oder Expansionen können Grund dafür sein, eine Neuorganisation der Daten durchzuführen, um die gewachsenen Informationswege einzugrenzen und eine zentrale Haltung zu gewährleisteten. Nicht mehr aktuelle Adressen oder mehrfach vorhandene Kontaktdaten (Dubletten) werden hierbei ausgesondert. Die vorliegende Arbeit befasst sich mit Strategien der Konsolidierung von Kontaktinformationen aus einander unabhängigen Datenquellen. Die Methodik der Duplikatsuche, die vor allem zur Ermittlung von Repräsentationen derselben Objekte in einer Informationsquelle genutzt wird, fand hierbei Anwendung. Zur Identifikation übereinstimmender Adressen zwischen zwei Datenbanken werden drei Verfahren gegenübergestellt und ausgewertet. Durch Kombination ausgewählter Vergleichsmerkmale erfolgte die Ermittlung der höchstmöglichen Übereinstimmungsquote
Phosphor ist einer der Grundbausteine des Lebens. Für Pflanzen gehört Phosphor zu den wichtigsten Mineralien, er ist wachstumsentscheidend. Aber Phosphor ist nicht substituierbar. Er stellt eine endliche Ressource dar. Staatliche Förderprogramme sowie politische Regularien und Restriktionen haben in den letzten 15 Jahren die Entwicklung verschiedenster Technologien zur Rückgewinnung von Phosphor forciert. Die vorliegende Arbeit fasst die neuen rechtlichen Grundlagen mit den entscheidenden Daten und Fristen zusammen. Zur Einschätzung des agronomischen Potenzials von Düngemitteln aus dem Phosphorrecycling wird in der Arbeit zunächst ein Überblick zum
Es werden grafische und statistische Verfahren angewendet, um Ausreißer in Datensätzen zu finden. Dabei werden verschiedene statistische Tests an einer Stichprobe, welche aus einer Grundgesamtheit stammt, durchgeführt. Die Ergebnisse der Tests werden dabei nach Trefferquote und Anzahl der Berechnungsdurchläufe bewertet und verglichen. Zunächst wird in der Arbeit der Begriff Ausreißer charakterisiert und dabei Merkmale und Vorkommen beschrieben. Im darauffolgenden Abschnitt liegt das Augenmerk auf der Erkennung von Ausreißern. Hierbei werden die theoretischen Grundlagen zur grafischen Darstellung und zur Berechnung mithilfe der jeweiligen Ausreißertests erklärt. Schlussendlich wird die Frage beantwortet, was passiert, wenn man einen Ausreißer in einem Datensatz gefunden hat. Im praktischen Teil der Arbeit werden die vorher beschriebenen Ausreißertests auf eine Stichprobe angewandt und mithilfe einer 4-Felder-Tafel ausgewertet. Die Berechnungen der Tests werden dabei mit dem Statistikprogramm R durchgeführt. Am Ende der Arbeit gibt es eine Zusammenfassung dessen, welche Ergebnisse die einzelnen Tests hinsichtlich Trefferquote und Berechnungsdurchläufe erreicht haben
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
ALADIN – Generator für Aufgaben und Lösung(shilf)en aus der Informatik und angrenzenden Disziplinen
(2022)
Die bisher verwendeten Programme zum Vergleich von in Bildern enthaltenen zweidimensionalen Figuren waren für diese Aufgabenstellung nicht geeignet. Deshalb wurden neue Algorithmen entwickelt und in einem Programm implementiert, um aus den vorhandenen Figuren Parameter zu extrahieren, die eine genauere Beschreibung und einen besseren Vergleich ermöglichen. Die gewonnenen Eigenschaftsbeschreibungen werden in Datenbanktabellen zur weiteren Verwendung abgelegt. Sie gewährleisten durch eine wachsende Datenbasis eine immer besser werdende Ergebnismenge. Die zur Analyse verwendeten Algorithmen schließen auch bereits bekannte Filterfunktionen und Formeln aus dem Bereich der Geometrie mit ein. Diese Arbeit gibt eine kurze Einführung in die Bildverarbeitung und beschreibt die einzelnen Funktionen des Programmes. <!-- #h:dissdiplBildverarbeitung.doc# -->
Mit dem massiven Ausbau datenverarbeitender Systeme in fast allen Branchen und Unter-nehmensgrößen werden Kennzahlen aus computergenerierten Standardanalysen verwendet, um Prozesse innerhalb des Unternehmens zu überwachen und zu optimieren. Durch den allzeit rasanten technologischen Fortschritt und immer günstiger werdende Hardware sind selbst in vielen kleineren Unternehmen Datenerfassungssysteme vorhanden, mit welchen Daten in Umfang und Menge weit über die Anforderungen der Standardanalysen hinaus gesammelt werden. Der technische Fortschritt spiegelt sich auch in den Prozessoptimierungen wieder. Im marktwirtschaftlichen Ringen setzen sich diejenigen Un-ternehmen durch, welche ihre Prozesse über die Standardanalysen hinaus optimieren kön-nen. Dazu werden neue Analyseverfahren wie zum Beispiel VisualAnalytics eingesetzt, welches sein Potential aus dem vollständigen Datenbestand schöpft. Hierbei werden neue Fragestellungen an die Daten durch Echtzeitvisualisierung des vollständigen oder teilweisen Datenbestandes und durch die Arbeit mit den Visualisierungen erörtert. Durch Zoomen und Filtern in den Visualisierungen können Fragestellungen so in kleinere Teilfragen aufgebro-chen werden, welche sich dann bis zur Datensatzebene hinab beantworten lassen. Eine Softwarelösung für VisualAnalytics ist VisualCockpit von der Firma n³. Dieses ist eine umfas-sende Lösung mit vielen Möglichkeiten zur Visualisierung der Daten sowie zur Arbeit mit den erstellten Analysen. Ziel dieser Bachelorarbeit ist es, auch kleineren und mittelständigen Unternehmen mit geringeren personellen Kapazitäten den Einstieg in VisualAnalytics mit VisualCockpit zu erleichtern, indem aus den ins VisualCockpit geladenen Daten automati-siert Basisanalysen generiert werden.
Diese Master-Thesis dokumentiert die Planung und Realisierung einer Validator-Komponente für webMethods Business Rules, einem Werkzeug zur grafischen Modellierung von Geschäftsregeln. Mithilfe des Validators soll der Anwender bei der Erstellung einer konsistenten Regelbasis unterstützt werden, um eventuell kostenintensive Fehlentscheidungen während der Geschäftsprozessautomatisierung zu vermeiden. Neben der ausführlichen Definition von Inkonsistenzen einer Regebasis, wie z.B. Schleifen, Widersprüchen, Redundanzen und Unvollständigkeiten werden Algorithmen zur Erkennung dieser entworfen. Hierbei werden zwei Ansätze aus der Fachliteratur vorgestellt und an die spezifischen Besonderheiten von Business Rules angepasst. Einen Schwerpunkt bildet die Interpretation von Inkonsistenzen für Regeln mit nicht booleschen Datentypen. Abschließend wird die Realisierung und Implementierung der entworfenen Algorithmen in Java dokumentiert und die Anbindung als Validator-Komponente für Business Rules beschrieben.
Inhalt dieser Arbeit ist Entwicklung eines Algorithmus zur Müdigkeitsdetektion im Automobil.
Mithilfe von Sensordatenfusion wird ein Algorithmus zur Müdigkeitsdetektion implementiert. Die Parameter, die in den Algorithmus einfließen, sind Puls, eCO2-, TVOC-Konzentration, Hautleitwert und Raumtemperatur.
Durch Literaturrecherche wird bestimmt, wie sich die Parameter bei Müdigkeit verhalten und ob Grenzwerte für Müdigkeit bei den verschiedenen Parametern existieren.
Die Datensätze, die zur Entwicklung des offline-Algorithmus dienen, werden in einer mehrstündigen Fahrsimulation mit mehreren Probanden aufgenommen.
As one of the key technologies involved in communication networks, all-optical switching has witnessed many research efforts during the last decade. This work presents a detailed investigation of the properties and attractive interaction of spatial solitons in nematic liquid crystals for all-optical switching devices. This includes a description of basic properties such as their multimode behavior, as well as their power dependent interactions and signal steering. Furthermore, the temporal performance of an all-optical switching setup is analyzed and discussed. Thanks to their long-range, phase and wavelength independent interactions at milliwatts powers, and despite their slow response time in switching applications, nematicons proved to be an extremely promising testbed for soliton-based devices, including signal waveguides and power-dependent spatial steering devices.
Ambient Assisted Living
(2012)
Analyse bergbautypischer Stoffemissionen/Wasserpfad aus dem Sanierungsbereich im unteren Borbachtal
(2011)
In den sanierten Gebieten wie Schlema-Alberoda, die durch den Uranerzbergbau geprägt waren, spielen der Wasserhaushalt und die Kenntnis über den wassergebundenen Stofftransport im Bereich von Halden bzw. Absetzbecken eine wichtige Rolle. Da aufwendige Objektuntersuchungen nicht immer möglich sind, wird auch auf Modellierungen der Wasserhaushaltsgrößen zurückgegriffen, um komplexe stoffliche Fragestellungen zu beant-worten. Zwecks der Verringerung von Schadstoffemissionen, vor allem des Urans über Sickerwässer müssen die wasserhaushaltlichen/stofflichen Verhältnisse im Untersuchungsgebiet hinreichend analysiert und charakterisiert werden.
Wo auch immer eine Umwandlung von elektrischer in mechanischer Energie und umgekehrt erfolgt, kommt aller Wahrscheinlichkeit nach nicht-kornorientiertes Elektroblech zum Einsatz. Aufkeimende Elektromobilität sowie die Forderung nach effektiver Ressourcennutzung richten die Aufmerksamkeit auf Herstellungsschritte und ihre Folgen. Laserstrahlschmelzschneiden von Elektroblech unter Verwendung eines Scheibenlasers, als äußerst exibles und leistungsstarkes Trennverfahren, wurde hinsichtlich der Verschlechterung der magnetischen Eigenschaften mit konventionell getrennten Proben verglichen. Zur Einschätzung des Potentials des Laserschneidverfahrens erfolgte eine umfassende Variation verschiedener Schneidparameter. Dabei dienten SST-Messungen zur Charakterisierung der magnetischen Eigenschaften. Unter Rücksichtnahme praktischer Anwendungen wurden hauptsächlich 5mm breite Streifen bei Frequenzen bis zu 500 Hz untersucht. Neben der generellen Analyse bezüglich magnetischer Eigenschaften erfolgten weiterhin Schneidversuche in Abhängigkeit zur Walzrichtung.
Die Diplomarbeit beschreibt die Wirkungsweise des Montage- steuerungssystems und betrachtet die Abläufe bezüglich Prozesssicherheit, Vollständigkeit von Daten und Systemstabilität. Anhand der Analyse wird Verbesserungspotential und notwendige Arbeiten bei Erweiterung aufgezeigt und Lösungsansätze dafür konzipiert. <!-- #h:dissdiplMontagesteuerungssystem.doc# -->
Ein Arzt ist in seiner täglichen Praxis mit vielen medizinischen Fragestellungen in Hinblick auf die Behandlung von Patienten konfrontiert. Um den Behandlungsprozess zu optimieren, werden im medizinischen Umfeld Leitlinien eingesetzt. Es handelt sich hierbei um systematisch entwickelte Entscheidungshilfen über die angemessene Vorgehensweise bei speziellen gesundheitlichen Problemen. Die meisten Leitlinien sind in gebundener Form bzw. im Internet auf Webseiten hinterlegt und lassen oft keine gezielte Suche nach den gewünschten Informationen zu einer speziellen Behandlungssituation zu. Es ist erstrebenswert, die Integration von medizinischen Leitlinien in Praxisverwaltungssysteme zu ermöglichen, um die Patientenversorgung durch Nutzung von evidenzbasierten Leitlinien zu verbessern, Qualitätsschwankungen in der Versorgung zu vermeiden und den Arzt über den aktuellen Stand der Forschung zu informieren. Ziel dieser Diplomarbeit ist es, die Integrationsmöglichkeiten von medizinischen Leitlinien in medizinische Informationssysteme speziell für den ambulanten Bereich zu analysieren. Dabei werden im Rahmen dieser Diplomarbeit die bereits existierenden Ansätze der EDV - technischen Integration von medizinischen Leitlinien ermittelt und ihre Anwendbarkeit für den ambulanten Bereich bewertet. Eine weitere Aufgabe stellt die Modellierung von Empfehlungen und Hinweisen einer exemplarisch gewählten Leitlinie mittels drei verschiedener Leitlinienrepräsentationsformate dar. Dabei soll die Eignung der einzelnen Modelle für den Einsatz in medizinischen Informationssystemen bewertet werden. Zu einem wichtigen Aufgabenteil dieser Arbeit zählt das Formulieren von Barrieren, welche dazu führen, dass bis zu dem jetzigen Zeitpunkt keine Informationssysteme existieren, welche Leitlinien vollständig computerbasiert interpretieren, präsentieren und ausführen können. Durch die während des Analyse- und Modellierungsprozesses gesammelten Erkenntnisse werden im Abschluss der Arbeit Ansätze zur Integration in medizinische Informationssysteme speziell für den niedergelassenen Bereich dargelegt und entsprechende Anforderungen an einzelne Komponenten formuliert.
In dieser Arbeit wird die Migration der Serverplattform ALPHA zu ITANIUM behandelt. Alle in diesem Zusammenhang stehende Probleme und Änderungen werden angesprochen. Hauptsächlich die Nutzung der Serverdienste in Bezug auf Dateifreigaben und die Portierung bestehender Applikationen. Die Unterschiede beider Architekturen werden ebenfalls kurz erläutert. Das zum Einsatz kommende Betriebssystem OpenVMS steht auf beiden Plattdormen zur Verfügung und wird auch weiterhin verwendet. Die aus dem Unternehmen MIBRAG mbH stammenden Anwendungen sind in der Programmiersprache Fortran entwickelt wurden, für welche auch auf der neuen Plattform ein Compiler zur Verfügung steht. Dies macht die umfangreiche Überprüfung des Programmcodes und eine eventuelle Anpassung nötig. Die dabei auftretenden Probleme werden in dieser Arbeit erläutert. Eine tiefgreifenden Änderung stellt die Umstellung bezüglich Datei- und Druckdiensten dar. Die bisher genutzte Software Advanced Server wurde nicht auf ITANIUM portiert, stattdessen erfolgt eine Umstellung auf Samba (Druck- und Dateifreigabedienst). In diesem Zusammenhang auftretende Probleme werden erläutert.
Im Bezug auf eine eventuelle Umstellung der bestehenden Intranetlösung der Fachgruppe Informatik der Westsächsischen Hochschule Zwickau versucht diese Diplomarbeit die Möglichkeiten und Grenzen des Produktes SharePoint Services 2003 von Microsoft aufzuschlüsseln. Um eine fundierte Grundlage für die Untersuchungen und Migrationserläuterungen nutzen zu können, werden essentielle Begriffe (Migration, Intranet, SharePoint) erläutert und die Struktur und Komponenten, welche letztlich den Aufbau des Systems bilden, des SharePoint Services dargestellt. Es werden die bisherigen Intranet-Funktionen, wie beispielsweise das vorlesungsbegleitende Dokumenten- und Skriptangebot, die Praktika-, Diplomarbeiten- und Softwareprojektbörse oder die Termin- und Veranstaltungsbekanntmachung, aufgelistet und auf Basis des Standardkomponentenangebots für SharePoint Services-Webseiten exemplarisch die Möglichkeit der Migration zum SharePoint Services erläutert. Weiterhin zeigt die Diplomarbeit Defizite sowie Vorteile der jetzigen Intranetlösung und des SharePoint Services auf und verdeutlicht die Notwendigkeit einer vereinheitlichten Intranetplattform für die Fachgruppe Informatik. Es werden die Leistungsfähigkeiten vom Microsoft SharePoint Services aufgezeichnet, die vom Hersteller vorgesehene Einsatzweise angesprochen und deren Vereinbarkeit mit den Vorstellungen und Wünschen an ein Intranet seitens der Fachgruppe überprüft.
Die Arbeit befaßt sich mit der Analyse der Raumluftbelastung in OP-Räumen von Krankenhäusern und Arztpraxen in Abhängigkeit vom Narkoseverfahren und den räumlichen Bedingungen. Die Notwendigkeit der Analyse ergibt sich der vorgeschriebenen Überwachung von Arbeitsplätzen, die mit Gefahrstoffen (Narkosegasen) belastet sind. Durch die Messung sollen Aussagen über die Einhaltung der MAK-Werte für Narkosegase in Abhängigkeit der jeweiligen Gegebenheiten getroffen werden. Außerdem ist von Interesse, ob es ausreicht, Lachgas als Leitkomponente zu messen, um Aussagen über die Konzentration der anderen Narkosegase treffen zu können. Grundlage dazu bildet ein Literaturstudium zu gesetzlichen Grundlagen der Gefahrstoffmessung, Narkosegasen und ihrem Gefährdungspotential, Narkosesystemen, Narkosegeräten und dem Prinzip der IR-Spektroskopie. <!-- #h:dissdiplNarkosesysteme.doc# -->
Die in der heutigen Zeit hergestellten Mikroprozessoren sind ein Wunderwerk der Technik und haben eine enorme Rechenleistung. Die Halbleiterindustrie hat das Bestreben, stets nach neuen Techniken zu suchen, die die Rechenleistung der Mikrochips erhöhen. Dabei ist die Signallaufzeit, die zwischen den einzelnen Rechenschritten benötigt wird, von entscheidender Bedeutung. Um diese zu verringern, müssen die Abstände zwischen den einzelnen Bauelementen verkleinert werden. Diese sogenannte Miniaturisierung besitzt aber den Nachteil, dass sich die Leiterbahnen aufgrund der entstehenden, reduzierten Abstände aufladen. Die daraus entstehenden, parasitären Kapazitäten beeinträchtigen die Signallaufzeit negativ und müssen durch geeignete Gegenmaßnahmen kompensiert werden. Eine Lösung des Problems ist durch den Einsatz von neuartigen Isolatoren mit niedriger Dielektrizitätszahl zu verzeichnen. Der Trick liegt in der, durch erzeugte Lufteinschlüsse, porösen Materialgestaltung. Als negativen Effekt besitzen diese Materialien jedoch schlechte, mechanische Stabilitäten. Unter Zuhilfenahme eines Vier-Punkt-Biege-Tests mit entsprechender Messsoftware werden die porösen Materialien in Ihren mechanischen Eigenschaften charakterisiert. Bei diesem Test wird ein Riss in einen Testschichtstapel eingebracht, um die Adhäsion (Gc) zwischen zwei Schichten oder in einer Schicht zu messen. Im Rahmen der vorliegenden Arbeit wurde unter anderem die Messsoftware durch den Einbau von neuen Strukturen aktualisiert und teilweise automatisiert. Es wurden Anpassungsfunktionen generiert, die die Verläufe der aufgenommenen Vier-Punkt-Biege-Kurven bereits während der Messung auswerten und wichtige Kennwerte, wie Probensteifigkeiten und Bruchkräfte automatisch ermitteln können. Mit der Funktion zur optischen Risslängenbestimmung wurden Analysen zu asymmetrischen Rissausbreitungen vorgenommen und interpretiert. Eine Untersuchung von Testwafern mit der Schichtreihenfolge Si/Cu/SiCN/SiCOH ergab meist niedrige Adhäsionswerte (Gc), wenn die Rissausbreitung in der Cu/SiCN-Grenzfläche erfolgte. Dies kann auf einen temporären Effekt der scheinbaren Grenzflächenschwächung, aufgrund einer Mindestschichtdicke durch das poröse SiCOH-Material als Endabscheidungsschicht, zurückgeführt werden. Verschiedene Testgeschwindigkeiten zeigen eine scheinbare Erhöhung der Schichthaftung auf. Außerdem wurden Unterschiede in der Schichthaftung, bei Verwendung verschiedener Epoxidharze festgestellt, die für die Probenpräparation verwendet werden. Desweiteren wurden Tests an Schichtsystemen durchgeführt, bei denen die Kupfer-Schicht einer Plasmabehandlung unterzogen wurde. Erhöhte Adhäsionswerte der Cu/SiCN-Grenzfläche (Gc-Werte) konnten im Vergleich mit einer unbehandelten Cu/SiCN-Grenzfläche festgestellt werden.
Diese Diplomarbeit beschäftigt sich mit der offenen Service Plattform orYx und den dafür notwendigen Kommunikationstechnologien. Dabei handelt es sich um ein vielfältig einsetzbares System, welches primär dazu dient, in Echtzeit physiologische Sensordaten zu erfassen, auszuwerten und dem Nutzer in Form von sinnvollen Auswertungen zu präsentieren. Im Fokus stehen dabei zunächst Anwendungen aus dem Fitness- oder Medizinbereich. Darauf aber nicht festgelegt, lässt sich orYx für eine Vielzahl anderer Einsatzgebiete nutzen, wo es notwendig ist, aus Sensordaten weiterführende Ableitungen in Echtzeit zu gewinnen.
Die Arbeit befasst sich mit einer Analyse des neuen Kommunikationsstandards HL7 FHIR. Es werden theoretische und praktische Aspekte herausgearbeitet. Begriffe wie Ressourcen, Referenzen und Profile werden näher erläutert. Außerdem stehen verschiedene Zugriffsmöglichkeiten auf FHIR-Ressourcen im Mittelpunkt (REST, Java). Der abschließende Teil beinhaltet eine Erörterung, welche Punkte für eine Nutzung von FHIR sprechen, welche Anwendungsgebiete FHIR abdeckt und wie es die bisherigen Standards HL7v2 und CDA ergänzt.
Analyse des Spinwellentransportes in ferromagnetischen Nanostrukturen mit magnetooptischen Methoden
(2016)
Die Bachelorarbeit befasst sich mit der Propagation von Spinwellen in Ni81Fe19 Nanostrukturen. Diese experimentell gut kontrollierbaren Anregungszustände in Ferromagneten bieten vielversprechende Möglichkeiten für zukünftige Technologien im Bereich der Informationsübertragung. Die verwendeten Proben waren Streifenstrukturen unterschiedlicher Breite, einer Länge von 200 µm und einer Dicke von 100 nm. Ein statisches externes Magnetfeld konnte parallel zu den Streifen angelegt werden. Dies ermöglichten die Untersuchung der Magnetisierungsdynamik in der sogenannten Backward-Volume-Geometrie, welche einen der zwei Grenzfälle der Spinwellendispersion darstellt. Zur Anregung der Spinwellen wurden in den Untersuchungen dynamische Magnetfelder genutzt, welche durch Mikrowellenströme in dünnen Goldstrukturen erzeugt wurden. Ziel der Untersuchungen war die experimentelle Bestimmung der Abklinglängen, der Sättigungsmagnetisierung und der Dispersionsrelation. Der experimentelle Teil wurde an einem Brillouin-Lichtstreu-Mikroskop durchgeführt welches eine lediglich beugungsbegrenzte Analyse der Spinwellen-Intensität im Ortsraum ermöglicht und ebenfalls zur Untersuchung des Phasenprofils genutzt werden kann. Die BLS-Mikroskopie basiert dabei auf der inelastischen Streuung von Photonen an Magnonen welches eine Frequenzverschiebung des eingestrahlten Lichtes zur Folge hat.