Refine
Year of publication
Document Type
- Diploma Thesis (825)
- Bachelor Thesis (629)
- Master's Thesis (353)
- Article (18)
- Part of a Book (5)
- Book (4)
- Report (4)
Institute
- Physikalische Technik, Informatik (1838) (remove)
In der vorliegenden Arbeit wird speziell die Abscheidung von Siliziumoxid- und Siliziumnitridschichten an einer neu entwickelten Forschungsanlage der Roth & Rau AG untersucht. Das Hauptaugenmerk liegt dabei auf Abscheidung von defektfreien und intrinsisch dichten PECVD - Barriereschichten (PECVD - Plasma Enhanced Chemical Vapour Deposition). Die neuartige Versuchsanlage bietet hierfür erstmalig die Untersuchungsmöglichkeit zur Schichtabscheidung mit drei unterschiedlichen Plasmaquellenkonzepten, die bereits in industriellen Beschichtungsanlagen erfolgreich eingesetzt werden und somit eine schnelle technische Umsetzung, sowie die Skalierbarkeit zur großflächigen Beschichtung gewährleisten.
Das Ziel dieser Bachelorarbeit war die Entwicklung und Validierung einer Methode zur Extrahierung von Pharmazeutika und Industriechemikalien aus Pflanzenteilen, sowie die anschließende Untersuchung zur Aufnahme von abwasserbürtigen Spurenstoffen in hydroponisch kultivierten Gurkenpflanzen aus dem Roof Water-Farm-Projekt Berlin. Untersucht wurden hierbei sechs ausgewählte organische Spurenstoffe mittels Flüssigchromatographie. Die Fest-Flüssig-Extraktion und QuEChERS-Extraktion wurden verglichen und basierend auf der Literaturrecherche und dem Fachwissen der Laborleitung wurden anhand von Leerwertproben beide Methoden auf deren Effizienz getestet. Mittels LC-ESI-MS/MS wurden die Proben untersucht und eine Validierung der Extraktionsmethoden war möglich. Unter Verwendung der ermittelten Extraktionsmethode, konnten die Realproben (Gurkenpflanzen) aufgearbeitet und anschlie-ßend die Konzentrationsbereiche der ausgewählten organischen Spurenstoffe, in einzelnen Pflanzenteilen, bestimmt werden. Anhand der ermittelten Ergebnisse wurde eine toxikologische Bewertung der Gurkenpflanzen vorgenommen.
Die vorliegende Arbeit thematisiert den Erstellungsprozess eines dreidimensionalen Computermodells des schlagenden Herzens. Die konkrete Problemstellung umfasst dabei sowohl die komplette Außenansicht des Herzens als auch die Amination der normalen Herzfrequenz sowie Bradykardie, Tachykardie und Kammerflimmern. Die Arbeit beschreibt die verschiedenen Schritte, die zur Umsetzung der Aufgabe nötig sind. Dabei geben die allgemeinen Kapitel zunächst einen Einblick in den Aufbau des menschlichen Herzens und betrachten danach einige am Markt erhältliche 3D-Softwareprodukte. Eine Beschreibung der Möglichkeiten der verwendeten Software schafft die Grundlage zum Verständnis der folgenden Projektumsetzung. Eine an-schließende Projektreflexion zeigt Möglichkeiten zur Erweiterung des Funktionsum-fangs des entstandenen Models auf.
Die vorliegende Arbeit stellt die Entwicklung einer auf Unity basierenden 3D-Visualisierung von Verkehrssimulationsdaten vor. Es werden Lössungswege zur prozeduralen Mesherstellung einnes Straßennetzes gezeigt sowie zum UV-Mapping. Es wird beschrieben, wie simulierte Fahrzeuge in Unity erstellt, visualisiert und entlang gegebener Koordinaten mit einer bestimmten Geschwindigkeit bewegt werden können. Außerdem wird erläutert, wie mehrere Kameras mit unterschiedlichen Positionen - jeweils angepasst an die Simulationsdaten - in eine Simulation eingebaut werden können.
The role accomlished by Major Histocompatibility Complex (MHC) molecules in initiating and regulating immune respouses, binding short pepticles and displaying them on the cell surface for recoguition by Tiell receptors, is of the atmost importance in immunlogogy. However, only a subset of peptider is capable of binding to any particular MHC molecule. The study was undertaken to rationalize MHC/ peptide interactions in terms of molecular structural requirements for the prediction of class I MHC buding peptides. Prediction of buding activities by means of computational methods can minimize experimental assays, and lead to the development of vaceines and immune-therapeutie drugs.
Diese Arbeit stellt ein Arbeitspaket eines Projektes mit dem Ziel der Einführung eines Mitarbeiterportals bei der Firma RealTech AG dar. GREP steht für Global RealTech Enterprise Portal und wurde mit dem Produkt SAP® Enterprise Portal 6.0 umgesetzt . GREP wird zukünftig das Intranet der RealTech AG ersetzen und zusätzliche Funktionen zur Verfügung stellen. Im Rahmen dieser Arbeit soll der Prozess Mitarbeitereintritt abgebildet werden, wobei die Medienbruchbeseitigung und die Implementierung im Vordergrund stehen. Die Aufgabenstellung der RealTech AG beinhaltet die Aufnahme von Soll- und Ist-Zustand des Prozesses Mitarbeitereintritt sowie die Beschreibung von Lösungsvorschlägen zur Beseitigung der Medienbrüche und Abbildung der Workflows zu beschreiben. Die Arbeit fokussiert eine Lösung, die in dem gegebenen Rahmenbedingen einen sofortigen Mehrwert für das Unternehmen schafft.
Die Arbeit beschäftigt sich mit der Abbildung eines pädiatrisch-onkologischen Dokumentations-und Managementsystems in einem KDMS. Das Klinische Dokumentations und Managementsystem (KDMS) ist MCC. Mit dieser Arbeit war zu beweisen, dass ein normeles KDMS für die pädiatrische Onkologie ausreicht. Es wurde eine pädiatrische Onkologie mittels Parametrierung erstellt. Mit der fertigen Paramierung kann nun ein Patientendurchlauf durchgeführt werden.
Thema dieser Diplomarbeit ist die Ablation periodischer Mikrostrukturen mittels Femtosekunden-Pulsen eines Ti:Saphir-Lasers unter Nutzung der Laserinterferenztechnik.Der Schwerpunkt liegt auf der gezielten Änderung der Strukturtopographie durch die definierte Beeinflussung von Anzahl, Phase sowie Lage der interferierenden Teilstrahlen. Flexibel gestaltbare Mikrostrukturen sind u.a. die Basis für die Herstellung photonischer Kristalle. Die Vorteile der Laserstrahlung, speziell ultrakurzer Pulse, in der Materialbearbeitung ermöglichen einen schädigungsarmen, direkten Materialabtrag im Mikrometerbereich. Dies gestattet den Einsatz von Femtosekundenlasern für die Herstellung periodischer Mikro- und Nanostrukturen. Die Aufspaltung des einfallenden Laserstrahles in zwei oder mehrere Teilstrahlen wird durch optische Transmissionsgitter realisiert. Über Anzahl und Typ der Beugungsgitter (Amplituden- bzw. Phasengitter) kann die Anzahl und Konfiguration der entstehenden Teilstrahlen beeinflusst werden. Die Phasenbeziehung der einzelnen Strahlen kann über Regelung des Abstands zwischen den optischen Gittern nahezu exakt kontrolliert werden. Für die Überlagerung der Teilstrahlen, unter Berücksichtigung der Interferenzbedingung, werden diese über ein Schwarzschild-Reflexions- bzw. Linsenobjektiv auf der Probenoberfläche zusammengeführt. Mit dieser Methode lassen sich verschiedenartige Mikrostrukturen erzeugen, deren Größe und Topographie von den definierten Eigenschaften der interferierenden Teilstrahlen abhängig sind. Die Strukturtiefen und
In der Halbleiterindustrie spielt die Fehleranalyse von defekten Bauteilen eine bedeutende Rolle. Damit Bauteile, zum Beispiel mittels Infrarotspektroskopie, auf Fehler untersucht werden können, muss als Vorpräparation dienender Arbeitsschritt realisiert werden. Mit Hilfe von Ultrakurzpulslaser wird das Substratmaterial (Silizium) eines integrierten Schaltkreises, ohne nennenswerte Schädigung der umliegenden Strukturen, auf wenige Mikrometer abgedünnt. Die fertigungsbedingte Biegung des Siliziums muss dabei berücksichtigt werden.
In dieser Bachelorarbeit werden die Prozessparameter Pulsenergie und Pulsabstand von verschiedenen Ultrakurzpulslasersystemen, sowie die Größe der abzutragenden Fläche, auf deren Einfluss auf die Ablationsrate untersucht und anschließend dargestellt. Diese ermittelten Daten geben die Basis für eine Berechnung des Materialabtrages, welche zur Optimierung des o.g. Arbeitsschrittes dienen soll. Zeit- und kostenintensive Vortests zur Abtragsrate sollen damit entfallen.
Die Reinhaltung der Luft ist für die menschliche Gesundheit und im Rahmen des Umweltschutzes unentbehrlich. Im Zuge der Industrialisierung kam es in der Vergangenheit zum Teil zu erheblichen Beeinträchtigungen der Luftqualität. Trotz umwelttechnisch deutlich verbesserter Produktionsabläufe werden auch weiterhin bestimmte Stoffe emittiert. Für die Entwicklung eines neuartigen und nachhaltigen Verfahrens zur Abluftreinigung hat der Forschungsverbund HUPAC im gleichnamigen Projekt die Abluftreinigung VOC- bzw. ammoniakbelasteter Abluft thematisiert. Diese beiden Substanzen sind von besonderer Relevanz für die Beeinträchtigung der Umwelt bzw. der Luftqualität. Für ihre Abreinigung aus der Abluft von Produktionsprozessen wurde im Projekt eine neuartige Technologie entwickelt, die aus einer Kombination adsorptiver und mikrobieller Prozesse auf der Basis huminsandhaltiger, zellulosebasierter Pellets verläuft. Bei den als reaktive Komponente eingesetzten Huminsanden handelt es sich um natürliche Substrate, welche aus Tagebauen des Lausitzer und Mitteldeutschen Braunkohle-Reviers kostengünstig gewonnen werden können, die über interessante physiko-chemische Eigenschaften verfügen und die damit generell für eine innovative Alternative als Substrat für Abreinigungsprozesse genutzt werden können. Die Eignung der aus den Sanden hergestellten Pellets für die Abluftreinigung wurde im Rahmen des HUPAC-Projekts laborativ sowie praktisch getestet und ausgewertet. Wie erwartet, können die Huminsand-Pellets die Schadstoffe (VOC bzw. Ammoniak) zunächst adsorptiv binden. Die fixierten Schadstoffe werden dann anschließend durch eine sich etablierende Mikroorganismenpopulation abgebaut. Im technologisch angelegten Projekt wurden Eignung der Substrate und Erfolg der Reinigungsleistung mit der Gegenüberstellung von input und output bewertet, wobei die Huminstoffe als
Die immer stärker werdende Bedeutung der visuellen Darstellung und die Allgegenwärtigkeit des Internets lassen das Bedürfnis nach Programmen steigen, die dreidimensionale Präsentationen in ansprechender Form ausführen können. Das im Verlauf dieser Diplomarbeit entwickelte Autorenwerkzeug ermöglicht es dem Benutzer, Kamerafahrten durch eine bereits existierende virtuelle Welt zu erstellen und zu speichern. Die erzeugte Videosimulation kann als Applet in Webseiten eingebunden werden, um es via Internet oder lokal für einen großen Personenkreis zugänglich zumachen. Nachdem Java 3D vorgestellt und Grundlagen zur Programmierung erläutert wurden, erfolgt die Erklärung des entwickelten Programms. Ein weiterer Schwerpunkt dieser Arbeit ist der Vergleich von Java 3D mit anderen Grafiksystemen.
Sichere Authentifizierung spielt in Zeiten der stetig wachsenden Vernetzung und Mobilität von Anwendungen eine immer größer werdende Rolle. Es gibt eine Vielzahl verschiedener Authentifizierungsmethoden mit unterschieldichen Sicherheitsniveaus. Abgeleitete Identitäten können verschiedene Authentifizierungsmethoden miteinander verbinden und haben das Potential, mögliche Herausforderungen zu lösen. Zu diesen Herausforderugen gehören unter anderem die Fragen der Usability. Im Rahmen der Arbeit soll ein prototypisches Konzept entwickelt werden, welches sich auf die Ableitung der elektronischen Identität aus dem neuen Personalausweis, fokusiert. Auf Basis des Konzepts erfolgt das proof-of-concept in Form einer Smartphoneapp für Android.
In der vorliegenden Arbeit wurden mittels PECVD und ICPCVD hergestellte SiC-Schichten hinsichtlich ausgewählter Schichteigenschaften, wie Brechungsindex, Schichtdicke bzw. Wachstumsrate, Homogenität, Bindungsverhältnissen, Schichtspannung und Schichtzusammensetzung, untersucht. Ziel dabei die Herstellung spannungsarmer bzw.
Abscheidung und Charakterisierung von wasserstoffhaltigem Siliciumnitrid mittels reaktivem Sputtern
(2008)
In der Photovoltaik wird Siliciumnitrid als Antireflex- und Passivierungsschicht eingesetzt. Aktuell kommen CVD-Verfahren bei der Herstellung zum Einsatz. Da CVD-Verfahren gefährliche Precusoren im Prozess verwenden, sollen diese durch das Sputtern abgelöst werden. Einen Beitrag dazu soll diese Diplomarbeit liefern, indem mit reaktivem Sputtern wasserstoffhaltige Siliciumnitridschichten erzeugt und charakterisiert werden. Rasterkraftmikroskopische Untersuchungen geben einen Aufschluss über das Oberflächenprofil. Die Bruchfläche der Siliciumnitridschicht ist mit dem Rasterelektronenmikroskop untersucht worden. Mit der Sinterung wurde die Siliciumnitridschicht der multikristallinen Siliciumwafer auf Blasenbildung untersucht. Abschließend wurde die Siliciumnitridschicht mit einem FTIR-Spektrometer auf Wasserstoffverbindungen mit Stickstoff und Silicium überprüft.
Eine pathologische Raumforderung durch eine Verletzung hat eine Druckerhöhung innerhalb des Schädels zur Folge. Parameter wie der intrakranielle Druck (ICP), die intrakranielle Temperatur (ICT) und der Sauerstoffpartialdruck (ptiO2) können mit Hilfe von Messkathetern ermitteltet werden. Durch Veränderungen der Parameter lassen sich Rückschlüsse auf Hirnverletzungen ziehen. Ein Hersteller für Messkatheter, die im Neuromonitoring eingesetzt werden, ist die Firma RAUMEDIC AG. Neurochirurgische Präzisionsdruckkatheter, welche die zuvor beschriebene ICP-Erhöhung erfassen können, werden vor dem Inverkehrbringen auf Qualitätsanforderungen geprüft, um einen zuverlässigen Nutzen bei der Anwendung für Patienten, Anwender und Dritte gewährleisten zu können. Die Prüfung erfolgt bei der Herstellung der Katheter im Rahmen der Fertigung. Dazu wird das Driftverhalten bei konstanten Umgebungsbedingungen, der Offset, sowie die Druckänderung unter vorgeschriebenen Akzeptanzkriterien überprüft. Ein weiteres Testverfahren mit den gleichen Prüfmerkmalen befindet sich im Reklamationsbereich. In diesem Bereich werden Messkatheter, die bereits auf dem Markt sind aufgrund angeblicher Unzulänglichkeiten hinsichtlich Identität, Qualität, Haltbarkeit, Zuverlässigkeit, Gebrauchstauglichkeit, Sicherheit oder Leistung erneut überprüft. In der vorliegenden Arbeit soll eine Optimierung des Prüfverfahrens im Reklamationsbereich entwickelt werden, in dem ein automatisierter Mehrfachprüfplatz aufgebaut wird. Dies beinhaltet, dass sowohl mehrere Katheter gleichzeitig vermessen werden können, sowie die Überprüfung unterschiedlicher Parameter im gleichen Zeitraum. Der Ausgangspunkt für die Optimierung der Prüfmethode ist die Adaptierung wesentlicher Leistungsmerkmale gemäß DIN EN 60601-2-34 für invasive Blutdrucküberwachungsgeräte. Dabei ist der vorgegebene Parameterraum nicht auf das Neuromonitoring übertragbar. Eine Anpassung muss vorgenommen werden, wobei nicht nur die Temperatur, sondern auch die Druckverhältnisse angeglichen werden müssen. Bei der Versuchsdurchführung mit drei unterschiedlichen Druckerzeugern wurde festgestellt, dass ein dynamisches Prüfverfahren mit klinisch relevanten Umgebungsdrücken in den zuvor genannten Prüfkriterien realisierbar ist. Ziel dieser Arbeit ist eine Entwicklung einer erweiterten Prüfmethode, welche den Parameterraum Temperatur und Druck abdeckt. Vorteile, die diese Prüfmethode mit sich bringt, sind Zeiteinsparung, Automatisierung und Komprimierung des bestehenden Verfahrens bei gleichbleibender Aussagekraft.
Die Micro-Frontend-Architektur ermöglicht es, komplexe Anwendungen als separate Module zu entwickeln und diese unabhängig voneinander zu testen. Dabei kann jedes Modul durch ein anderes Team implementiert werden. Somit kann parallel an verschiedenen Aspekten der Anwendung gearbeitet werden, ohne dass sich die Teams gegenseitig behindern.
Die vorliegende Arbeit behandelt die Frage, welche Möglichkeiten der mobilen App-Entwicklung im Zusammenhang mit Micro-Frontends bereits existieren und ob diese für die produktive Entwicklung geeignet sind.
Dazu erfolgte eine Recherche zu bestehenden Ansätzen. Anschließend wurde auf Basis dieser Ansätze versucht, Beispiel-Apps mit diesen zu entwickeln. Dabei sollte die App aus zwei Teilen bestehen und eine einfache Navigation zwischen diesen Teilen ermöglichen. Es war hierbei mit Flutter und React Native möglich jeweils eine solche App zu entwickeln.
Abschließend wurden, auf Basis eines realen Szenarios, App-Prototypen entwickelt. Dabei wurden die Ansätze verwendet, mit denen es möglich war, eine Beispiel-App mit einfacher Navigation zu implementieren.
Diese beiden Ansätze wurden anhand der Entwicklung der Prototypen verglichen. Dabei hat sich gezeigt, dass beide Ansätze einem ähnlichen Konzept folgen. Es werden sogenannte MiniApps als Pakete (npm- beziehungsweise Pub-Pakete) entwickelt und mittels Paketverwaltungstools veröffentlicht. Diese Pakete können anschließend in einer Haupt-App eingebunden werden.
Flutter scheint diesbezüglich die bessere Alternative zu sein. Denn bei der App-Entwicklung mit React Native sind vermehrt Probleme aufgetreten. Bei der Verwendung von Flutter sind nur wenige kleine Probleme aufgetreten.
Aber auch Piral-Native könnte in Zukunft noch eine gute Alternative darstellen. Jedoch ist diese Erweiterung zum bestehenden Piral-Framework noch in der Entwicklung.
Ziel dieser Arbeit ist es eine wissenschaftliche Abhandlung zum Thema Adaption einer Datenbanklösung mit Berücksichtigung betrieblicher Prozesse zu verfassen. Ein Teil der Arbeit ist die beispielhafte Weiterentwicklung einer existierenden Datenbanklösung und deren prototypische Implementierung. Die Datenbanklösung soll an neu definierte betriebliche Prozesse angepasst werden. Des Weiteren gehört zur Anpassung auch das Anbinden an angrenzende Systeme. Es ist nicht Gegenstand dieser Arbeit ein komplett neues System zu entwickeln. Die Grundlage bildet die Nutzung einer bereits bestehenden Datenbanklösung, mit dem Datenbanksystem PostgreSQL im Hintergrund und der Anwendungssoftware Access als clientseitiges Frontend.
Adressmanagement interner und externer Quellen für einen regionalen Telekommunikationsanbieter
(2008)
Privatwirtschaftliche Unternehmen als auch öffentliche Einrichtungen, die täglich mit einer Vielzahl von Adressen arbeiten, sind heute auf ein effektives Management ihrer Daten angewiesen. Je größer und komplexer die Unternehmens- oder Behördenstruktur ist, desto aufwändiger und fehleranfälliger ist die Verarbeitung personenbezogener Informationen. Unternehmensspezifische Wandlungen wie Fusionen oder Expansionen können Grund dafür sein, eine Neuorganisation der Daten durchzuführen, um die gewachsenen Informationswege einzugrenzen und eine zentrale Haltung zu gewährleisteten. Nicht mehr aktuelle Adressen oder mehrfach vorhandene Kontaktdaten (Dubletten) werden hierbei ausgesondert. Die vorliegende Arbeit befasst sich mit Strategien der Konsolidierung von Kontaktinformationen aus einander unabhängigen Datenquellen. Die Methodik der Duplikatsuche, die vor allem zur Ermittlung von Repräsentationen derselben Objekte in einer Informationsquelle genutzt wird, fand hierbei Anwendung. Zur Identifikation übereinstimmender Adressen zwischen zwei Datenbanken werden drei Verfahren gegenübergestellt und ausgewertet. Durch Kombination ausgewählter Vergleichsmerkmale erfolgte die Ermittlung der höchstmöglichen Übereinstimmungsquote
Phosphor ist einer der Grundbausteine des Lebens. Für Pflanzen gehört Phosphor zu den wichtigsten Mineralien, er ist wachstumsentscheidend. Aber Phosphor ist nicht substituierbar. Er stellt eine endliche Ressource dar. Staatliche Förderprogramme sowie politische Regularien und Restriktionen haben in den letzten 15 Jahren die Entwicklung verschiedenster Technologien zur Rückgewinnung von Phosphor forciert. Die vorliegende Arbeit fasst die neuen rechtlichen Grundlagen mit den entscheidenden Daten und Fristen zusammen. Zur Einschätzung des agronomischen Potenzials von Düngemitteln aus dem Phosphorrecycling wird in der Arbeit zunächst ein Überblick zum
Es werden grafische und statistische Verfahren angewendet, um Ausreißer in Datensätzen zu finden. Dabei werden verschiedene statistische Tests an einer Stichprobe, welche aus einer Grundgesamtheit stammt, durchgeführt. Die Ergebnisse der Tests werden dabei nach Trefferquote und Anzahl der Berechnungsdurchläufe bewertet und verglichen. Zunächst wird in der Arbeit der Begriff Ausreißer charakterisiert und dabei Merkmale und Vorkommen beschrieben. Im darauffolgenden Abschnitt liegt das Augenmerk auf der Erkennung von Ausreißern. Hierbei werden die theoretischen Grundlagen zur grafischen Darstellung und zur Berechnung mithilfe der jeweiligen Ausreißertests erklärt. Schlussendlich wird die Frage beantwortet, was passiert, wenn man einen Ausreißer in einem Datensatz gefunden hat. Im praktischen Teil der Arbeit werden die vorher beschriebenen Ausreißertests auf eine Stichprobe angewandt und mithilfe einer 4-Felder-Tafel ausgewertet. Die Berechnungen der Tests werden dabei mit dem Statistikprogramm R durchgeführt. Am Ende der Arbeit gibt es eine Zusammenfassung dessen, welche Ergebnisse die einzelnen Tests hinsichtlich Trefferquote und Berechnungsdurchläufe erreicht haben
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
ALADIN – Generator für Aufgaben und Lösung(shilf)en aus der Informatik und angrenzenden Disziplinen
(2022)
Die bisher verwendeten Programme zum Vergleich von in Bildern enthaltenen zweidimensionalen Figuren waren für diese Aufgabenstellung nicht geeignet. Deshalb wurden neue Algorithmen entwickelt und in einem Programm implementiert, um aus den vorhandenen Figuren Parameter zu extrahieren, die eine genauere Beschreibung und einen besseren Vergleich ermöglichen. Die gewonnenen Eigenschaftsbeschreibungen werden in Datenbanktabellen zur weiteren Verwendung abgelegt. Sie gewährleisten durch eine wachsende Datenbasis eine immer besser werdende Ergebnismenge. Die zur Analyse verwendeten Algorithmen schließen auch bereits bekannte Filterfunktionen und Formeln aus dem Bereich der Geometrie mit ein. Diese Arbeit gibt eine kurze Einführung in die Bildverarbeitung und beschreibt die einzelnen Funktionen des Programmes. <!-- #h:dissdiplBildverarbeitung.doc# -->
Mit dem massiven Ausbau datenverarbeitender Systeme in fast allen Branchen und Unter-nehmensgrößen werden Kennzahlen aus computergenerierten Standardanalysen verwendet, um Prozesse innerhalb des Unternehmens zu überwachen und zu optimieren. Durch den allzeit rasanten technologischen Fortschritt und immer günstiger werdende Hardware sind selbst in vielen kleineren Unternehmen Datenerfassungssysteme vorhanden, mit welchen Daten in Umfang und Menge weit über die Anforderungen der Standardanalysen hinaus gesammelt werden. Der technische Fortschritt spiegelt sich auch in den Prozessoptimierungen wieder. Im marktwirtschaftlichen Ringen setzen sich diejenigen Un-ternehmen durch, welche ihre Prozesse über die Standardanalysen hinaus optimieren kön-nen. Dazu werden neue Analyseverfahren wie zum Beispiel VisualAnalytics eingesetzt, welches sein Potential aus dem vollständigen Datenbestand schöpft. Hierbei werden neue Fragestellungen an die Daten durch Echtzeitvisualisierung des vollständigen oder teilweisen Datenbestandes und durch die Arbeit mit den Visualisierungen erörtert. Durch Zoomen und Filtern in den Visualisierungen können Fragestellungen so in kleinere Teilfragen aufgebro-chen werden, welche sich dann bis zur Datensatzebene hinab beantworten lassen. Eine Softwarelösung für VisualAnalytics ist VisualCockpit von der Firma n³. Dieses ist eine umfas-sende Lösung mit vielen Möglichkeiten zur Visualisierung der Daten sowie zur Arbeit mit den erstellten Analysen. Ziel dieser Bachelorarbeit ist es, auch kleineren und mittelständigen Unternehmen mit geringeren personellen Kapazitäten den Einstieg in VisualAnalytics mit VisualCockpit zu erleichtern, indem aus den ins VisualCockpit geladenen Daten automati-siert Basisanalysen generiert werden.
Diese Master-Thesis dokumentiert die Planung und Realisierung einer Validator-Komponente für webMethods Business Rules, einem Werkzeug zur grafischen Modellierung von Geschäftsregeln. Mithilfe des Validators soll der Anwender bei der Erstellung einer konsistenten Regelbasis unterstützt werden, um eventuell kostenintensive Fehlentscheidungen während der Geschäftsprozessautomatisierung zu vermeiden. Neben der ausführlichen Definition von Inkonsistenzen einer Regebasis, wie z.B. Schleifen, Widersprüchen, Redundanzen und Unvollständigkeiten werden Algorithmen zur Erkennung dieser entworfen. Hierbei werden zwei Ansätze aus der Fachliteratur vorgestellt und an die spezifischen Besonderheiten von Business Rules angepasst. Einen Schwerpunkt bildet die Interpretation von Inkonsistenzen für Regeln mit nicht booleschen Datentypen. Abschließend wird die Realisierung und Implementierung der entworfenen Algorithmen in Java dokumentiert und die Anbindung als Validator-Komponente für Business Rules beschrieben.
Inhalt dieser Arbeit ist Entwicklung eines Algorithmus zur Müdigkeitsdetektion im Automobil.
Mithilfe von Sensordatenfusion wird ein Algorithmus zur Müdigkeitsdetektion implementiert. Die Parameter, die in den Algorithmus einfließen, sind Puls, eCO2-, TVOC-Konzentration, Hautleitwert und Raumtemperatur.
Durch Literaturrecherche wird bestimmt, wie sich die Parameter bei Müdigkeit verhalten und ob Grenzwerte für Müdigkeit bei den verschiedenen Parametern existieren.
Die Datensätze, die zur Entwicklung des offline-Algorithmus dienen, werden in einer mehrstündigen Fahrsimulation mit mehreren Probanden aufgenommen.
As one of the key technologies involved in communication networks, all-optical switching has witnessed many research efforts during the last decade. This work presents a detailed investigation of the properties and attractive interaction of spatial solitons in nematic liquid crystals for all-optical switching devices. This includes a description of basic properties such as their multimode behavior, as well as their power dependent interactions and signal steering. Furthermore, the temporal performance of an all-optical switching setup is analyzed and discussed. Thanks to their long-range, phase and wavelength independent interactions at milliwatts powers, and despite their slow response time in switching applications, nematicons proved to be an extremely promising testbed for soliton-based devices, including signal waveguides and power-dependent spatial steering devices.
Ambient Assisted Living
(2012)
Analyse bergbautypischer Stoffemissionen/Wasserpfad aus dem Sanierungsbereich im unteren Borbachtal
(2011)
In den sanierten Gebieten wie Schlema-Alberoda, die durch den Uranerzbergbau geprägt waren, spielen der Wasserhaushalt und die Kenntnis über den wassergebundenen Stofftransport im Bereich von Halden bzw. Absetzbecken eine wichtige Rolle. Da aufwendige Objektuntersuchungen nicht immer möglich sind, wird auch auf Modellierungen der Wasserhaushaltsgrößen zurückgegriffen, um komplexe stoffliche Fragestellungen zu beant-worten. Zwecks der Verringerung von Schadstoffemissionen, vor allem des Urans über Sickerwässer müssen die wasserhaushaltlichen/stofflichen Verhältnisse im Untersuchungsgebiet hinreichend analysiert und charakterisiert werden.
Wo auch immer eine Umwandlung von elektrischer in mechanischer Energie und umgekehrt erfolgt, kommt aller Wahrscheinlichkeit nach nicht-kornorientiertes Elektroblech zum Einsatz. Aufkeimende Elektromobilität sowie die Forderung nach effektiver Ressourcennutzung richten die Aufmerksamkeit auf Herstellungsschritte und ihre Folgen. Laserstrahlschmelzschneiden von Elektroblech unter Verwendung eines Scheibenlasers, als äußerst exibles und leistungsstarkes Trennverfahren, wurde hinsichtlich der Verschlechterung der magnetischen Eigenschaften mit konventionell getrennten Proben verglichen. Zur Einschätzung des Potentials des Laserschneidverfahrens erfolgte eine umfassende Variation verschiedener Schneidparameter. Dabei dienten SST-Messungen zur Charakterisierung der magnetischen Eigenschaften. Unter Rücksichtnahme praktischer Anwendungen wurden hauptsächlich 5mm breite Streifen bei Frequenzen bis zu 500 Hz untersucht. Neben der generellen Analyse bezüglich magnetischer Eigenschaften erfolgten weiterhin Schneidversuche in Abhängigkeit zur Walzrichtung.
Die Diplomarbeit beschreibt die Wirkungsweise des Montage- steuerungssystems und betrachtet die Abläufe bezüglich Prozesssicherheit, Vollständigkeit von Daten und Systemstabilität. Anhand der Analyse wird Verbesserungspotential und notwendige Arbeiten bei Erweiterung aufgezeigt und Lösungsansätze dafür konzipiert. <!-- #h:dissdiplMontagesteuerungssystem.doc# -->
Ein Arzt ist in seiner täglichen Praxis mit vielen medizinischen Fragestellungen in Hinblick auf die Behandlung von Patienten konfrontiert. Um den Behandlungsprozess zu optimieren, werden im medizinischen Umfeld Leitlinien eingesetzt. Es handelt sich hierbei um systematisch entwickelte Entscheidungshilfen über die angemessene Vorgehensweise bei speziellen gesundheitlichen Problemen. Die meisten Leitlinien sind in gebundener Form bzw. im Internet auf Webseiten hinterlegt und lassen oft keine gezielte Suche nach den gewünschten Informationen zu einer speziellen Behandlungssituation zu. Es ist erstrebenswert, die Integration von medizinischen Leitlinien in Praxisverwaltungssysteme zu ermöglichen, um die Patientenversorgung durch Nutzung von evidenzbasierten Leitlinien zu verbessern, Qualitätsschwankungen in der Versorgung zu vermeiden und den Arzt über den aktuellen Stand der Forschung zu informieren. Ziel dieser Diplomarbeit ist es, die Integrationsmöglichkeiten von medizinischen Leitlinien in medizinische Informationssysteme speziell für den ambulanten Bereich zu analysieren. Dabei werden im Rahmen dieser Diplomarbeit die bereits existierenden Ansätze der EDV - technischen Integration von medizinischen Leitlinien ermittelt und ihre Anwendbarkeit für den ambulanten Bereich bewertet. Eine weitere Aufgabe stellt die Modellierung von Empfehlungen und Hinweisen einer exemplarisch gewählten Leitlinie mittels drei verschiedener Leitlinienrepräsentationsformate dar. Dabei soll die Eignung der einzelnen Modelle für den Einsatz in medizinischen Informationssystemen bewertet werden. Zu einem wichtigen Aufgabenteil dieser Arbeit zählt das Formulieren von Barrieren, welche dazu führen, dass bis zu dem jetzigen Zeitpunkt keine Informationssysteme existieren, welche Leitlinien vollständig computerbasiert interpretieren, präsentieren und ausführen können. Durch die während des Analyse- und Modellierungsprozesses gesammelten Erkenntnisse werden im Abschluss der Arbeit Ansätze zur Integration in medizinische Informationssysteme speziell für den niedergelassenen Bereich dargelegt und entsprechende Anforderungen an einzelne Komponenten formuliert.
In dieser Arbeit wird die Migration der Serverplattform ALPHA zu ITANIUM behandelt. Alle in diesem Zusammenhang stehende Probleme und Änderungen werden angesprochen. Hauptsächlich die Nutzung der Serverdienste in Bezug auf Dateifreigaben und die Portierung bestehender Applikationen. Die Unterschiede beider Architekturen werden ebenfalls kurz erläutert. Das zum Einsatz kommende Betriebssystem OpenVMS steht auf beiden Plattdormen zur Verfügung und wird auch weiterhin verwendet. Die aus dem Unternehmen MIBRAG mbH stammenden Anwendungen sind in der Programmiersprache Fortran entwickelt wurden, für welche auch auf der neuen Plattform ein Compiler zur Verfügung steht. Dies macht die umfangreiche Überprüfung des Programmcodes und eine eventuelle Anpassung nötig. Die dabei auftretenden Probleme werden in dieser Arbeit erläutert. Eine tiefgreifenden Änderung stellt die Umstellung bezüglich Datei- und Druckdiensten dar. Die bisher genutzte Software Advanced Server wurde nicht auf ITANIUM portiert, stattdessen erfolgt eine Umstellung auf Samba (Druck- und Dateifreigabedienst). In diesem Zusammenhang auftretende Probleme werden erläutert.
Im Bezug auf eine eventuelle Umstellung der bestehenden Intranetlösung der Fachgruppe Informatik der Westsächsischen Hochschule Zwickau versucht diese Diplomarbeit die Möglichkeiten und Grenzen des Produktes SharePoint Services 2003 von Microsoft aufzuschlüsseln. Um eine fundierte Grundlage für die Untersuchungen und Migrationserläuterungen nutzen zu können, werden essentielle Begriffe (Migration, Intranet, SharePoint) erläutert und die Struktur und Komponenten, welche letztlich den Aufbau des Systems bilden, des SharePoint Services dargestellt. Es werden die bisherigen Intranet-Funktionen, wie beispielsweise das vorlesungsbegleitende Dokumenten- und Skriptangebot, die Praktika-, Diplomarbeiten- und Softwareprojektbörse oder die Termin- und Veranstaltungsbekanntmachung, aufgelistet und auf Basis des Standardkomponentenangebots für SharePoint Services-Webseiten exemplarisch die Möglichkeit der Migration zum SharePoint Services erläutert. Weiterhin zeigt die Diplomarbeit Defizite sowie Vorteile der jetzigen Intranetlösung und des SharePoint Services auf und verdeutlicht die Notwendigkeit einer vereinheitlichten Intranetplattform für die Fachgruppe Informatik. Es werden die Leistungsfähigkeiten vom Microsoft SharePoint Services aufgezeichnet, die vom Hersteller vorgesehene Einsatzweise angesprochen und deren Vereinbarkeit mit den Vorstellungen und Wünschen an ein Intranet seitens der Fachgruppe überprüft.
Die Arbeit befaßt sich mit der Analyse der Raumluftbelastung in OP-Räumen von Krankenhäusern und Arztpraxen in Abhängigkeit vom Narkoseverfahren und den räumlichen Bedingungen. Die Notwendigkeit der Analyse ergibt sich der vorgeschriebenen Überwachung von Arbeitsplätzen, die mit Gefahrstoffen (Narkosegasen) belastet sind. Durch die Messung sollen Aussagen über die Einhaltung der MAK-Werte für Narkosegase in Abhängigkeit der jeweiligen Gegebenheiten getroffen werden. Außerdem ist von Interesse, ob es ausreicht, Lachgas als Leitkomponente zu messen, um Aussagen über die Konzentration der anderen Narkosegase treffen zu können. Grundlage dazu bildet ein Literaturstudium zu gesetzlichen Grundlagen der Gefahrstoffmessung, Narkosegasen und ihrem Gefährdungspotential, Narkosesystemen, Narkosegeräten und dem Prinzip der IR-Spektroskopie. <!-- #h:dissdiplNarkosesysteme.doc# -->
Die in der heutigen Zeit hergestellten Mikroprozessoren sind ein Wunderwerk der Technik und haben eine enorme Rechenleistung. Die Halbleiterindustrie hat das Bestreben, stets nach neuen Techniken zu suchen, die die Rechenleistung der Mikrochips erhöhen. Dabei ist die Signallaufzeit, die zwischen den einzelnen Rechenschritten benötigt wird, von entscheidender Bedeutung. Um diese zu verringern, müssen die Abstände zwischen den einzelnen Bauelementen verkleinert werden. Diese sogenannte Miniaturisierung besitzt aber den Nachteil, dass sich die Leiterbahnen aufgrund der entstehenden, reduzierten Abstände aufladen. Die daraus entstehenden, parasitären Kapazitäten beeinträchtigen die Signallaufzeit negativ und müssen durch geeignete Gegenmaßnahmen kompensiert werden. Eine Lösung des Problems ist durch den Einsatz von neuartigen Isolatoren mit niedriger Dielektrizitätszahl zu verzeichnen. Der Trick liegt in der, durch erzeugte Lufteinschlüsse, porösen Materialgestaltung. Als negativen Effekt besitzen diese Materialien jedoch schlechte, mechanische Stabilitäten. Unter Zuhilfenahme eines Vier-Punkt-Biege-Tests mit entsprechender Messsoftware werden die porösen Materialien in Ihren mechanischen Eigenschaften charakterisiert. Bei diesem Test wird ein Riss in einen Testschichtstapel eingebracht, um die Adhäsion (Gc) zwischen zwei Schichten oder in einer Schicht zu messen. Im Rahmen der vorliegenden Arbeit wurde unter anderem die Messsoftware durch den Einbau von neuen Strukturen aktualisiert und teilweise automatisiert. Es wurden Anpassungsfunktionen generiert, die die Verläufe der aufgenommenen Vier-Punkt-Biege-Kurven bereits während der Messung auswerten und wichtige Kennwerte, wie Probensteifigkeiten und Bruchkräfte automatisch ermitteln können. Mit der Funktion zur optischen Risslängenbestimmung wurden Analysen zu asymmetrischen Rissausbreitungen vorgenommen und interpretiert. Eine Untersuchung von Testwafern mit der Schichtreihenfolge Si/Cu/SiCN/SiCOH ergab meist niedrige Adhäsionswerte (Gc), wenn die Rissausbreitung in der Cu/SiCN-Grenzfläche erfolgte. Dies kann auf einen temporären Effekt der scheinbaren Grenzflächenschwächung, aufgrund einer Mindestschichtdicke durch das poröse SiCOH-Material als Endabscheidungsschicht, zurückgeführt werden. Verschiedene Testgeschwindigkeiten zeigen eine scheinbare Erhöhung der Schichthaftung auf. Außerdem wurden Unterschiede in der Schichthaftung, bei Verwendung verschiedener Epoxidharze festgestellt, die für die Probenpräparation verwendet werden. Desweiteren wurden Tests an Schichtsystemen durchgeführt, bei denen die Kupfer-Schicht einer Plasmabehandlung unterzogen wurde. Erhöhte Adhäsionswerte der Cu/SiCN-Grenzfläche (Gc-Werte) konnten im Vergleich mit einer unbehandelten Cu/SiCN-Grenzfläche festgestellt werden.
Diese Diplomarbeit beschäftigt sich mit der offenen Service Plattform orYx und den dafür notwendigen Kommunikationstechnologien. Dabei handelt es sich um ein vielfältig einsetzbares System, welches primär dazu dient, in Echtzeit physiologische Sensordaten zu erfassen, auszuwerten und dem Nutzer in Form von sinnvollen Auswertungen zu präsentieren. Im Fokus stehen dabei zunächst Anwendungen aus dem Fitness- oder Medizinbereich. Darauf aber nicht festgelegt, lässt sich orYx für eine Vielzahl anderer Einsatzgebiete nutzen, wo es notwendig ist, aus Sensordaten weiterführende Ableitungen in Echtzeit zu gewinnen.
Die Arbeit befasst sich mit einer Analyse des neuen Kommunikationsstandards HL7 FHIR. Es werden theoretische und praktische Aspekte herausgearbeitet. Begriffe wie Ressourcen, Referenzen und Profile werden näher erläutert. Außerdem stehen verschiedene Zugriffsmöglichkeiten auf FHIR-Ressourcen im Mittelpunkt (REST, Java). Der abschließende Teil beinhaltet eine Erörterung, welche Punkte für eine Nutzung von FHIR sprechen, welche Anwendungsgebiete FHIR abdeckt und wie es die bisherigen Standards HL7v2 und CDA ergänzt.
Analyse des Spinwellentransportes in ferromagnetischen Nanostrukturen mit magnetooptischen Methoden
(2016)
Die Bachelorarbeit befasst sich mit der Propagation von Spinwellen in Ni81Fe19 Nanostrukturen. Diese experimentell gut kontrollierbaren Anregungszustände in Ferromagneten bieten vielversprechende Möglichkeiten für zukünftige Technologien im Bereich der Informationsübertragung. Die verwendeten Proben waren Streifenstrukturen unterschiedlicher Breite, einer Länge von 200 µm und einer Dicke von 100 nm. Ein statisches externes Magnetfeld konnte parallel zu den Streifen angelegt werden. Dies ermöglichten die Untersuchung der Magnetisierungsdynamik in der sogenannten Backward-Volume-Geometrie, welche einen der zwei Grenzfälle der Spinwellendispersion darstellt. Zur Anregung der Spinwellen wurden in den Untersuchungen dynamische Magnetfelder genutzt, welche durch Mikrowellenströme in dünnen Goldstrukturen erzeugt wurden. Ziel der Untersuchungen war die experimentelle Bestimmung der Abklinglängen, der Sättigungsmagnetisierung und der Dispersionsrelation. Der experimentelle Teil wurde an einem Brillouin-Lichtstreu-Mikroskop durchgeführt welches eine lediglich beugungsbegrenzte Analyse der Spinwellen-Intensität im Ortsraum ermöglicht und ebenfalls zur Untersuchung des Phasenprofils genutzt werden kann. Die BLS-Mikroskopie basiert dabei auf der inelastischen Streuung von Photonen an Magnonen welches eine Frequenzverschiebung des eingestrahlten Lichtes zur Folge hat.
Inhalt dieser Bachelorarbeit ist die Betrachtung der Entwicklung eines neuartigen Medizinproduktes anhand rechtlicher Grundlagen. Am Beispiel eines normothermen extrakorporalen Perfusionssystems für den Organtransport werden die Klassifizierung durchgeführt und mögliche Konformitätsbewertungsverfahren aufgezeigt. Die für Medizinprodukte geforderten technischen Anforderungen werden anhand von Beispielen, die auf das Gerätesystem anzuwenden sind, erläutert und durch technische Normen und anerkannte Richtlinien belegt.
Die vorliegende Bachelorarbeit befasst sich mit der Auswertung von elektromyografischer Messdaten die unter definierten Bedingungen aufgenommen wurden. Die Elektromyografie dient zur Messung von Muskelbeanspruchungen bei der Ausführung einer Bewegung. Dabei soll eine Analyse von einfachen und alltäglichen Bewegungen stattfinden, hier das aufstehen und hinsetzen. Mit großem Interesse wird einerseits das zeitliche Einsetzen der unterschiedlichen Muskelgruppen verfolgt. Ebenso interessant ist die Feststellung einer gewissen Reproduzierbarkeit der Aktivitätsverteilung der einzelnen Muskeln. Die Erkenntnisse können als Grundlage für eine funktionale Muskelstimulation dienen, die in einem Brain-Computer-Interface zur Therapie Querschnittgelähmter Menschen umgesetzt werden könnte.
In dieser Arbeit wurden Fitnesstracker ausgewählter Hersteller auf ihre Funktion und Genauigkeit getestet. Das Ziel war hierbei, ob handelsübliche Fitnesstracker für Belastungsuntersuchungen in der Arbeitswelt zum Einsatz kommen könnten. Darauf wurde speziell ein Augenmerk auf die Messung der Vitalparameter gelegt. Dafür wurden Modelltestszenarien entwickelten, um verschiedene Arbeitsbelastungen nachzustellen. In einer ersten Testmessung wurden Fitness-Wearables wurden zusammen mit Medizinprodukten eingesetzt, um diese miteinander referenzieren zu können. Dabei konnten schon erste Aussagen über die Fitnesstracker getroffen werden.
In der Welt der 3D-Engines gewinnt die Großbildprojektion immer höherer Auflösungen zunehmend an Bedeutung. Ins Besondere im Simulations- und Entertainmentbreich werden die Anforderungen vor allem an die Projektion immer vielseitiger. In der vorliegenden Arbeit soll es nun darum gehen, eine in der 3D-Render-Engine Unity erzeugte 3D-Szene auf eine vertikal zylindrisch gekrümmte Projektionsfläche zu ermöglichen. Dabei handelt es sich um den Fahrsimulator der Fakultät Kraftfahrzeugtechnik der Westsächsischen Hochschule Zwickau. Für jenen Anwendungsfall muss dies ohne Verzerrungen vor allem im Randbereich der Darstellung geschehen, um so eine realistische und realitätsgetreue Darstellung der Umwelt zu ermöglichen. Als Ziel soll eine bessere Geschwindigkeitswahrnehmung, sowie eine geringe "Motion-Sickness" auftreten.
Die Anforderungen an Web-Applikationen sind in den letzten Jahren exponentiell gestiegen. Die Interaktion mit Webseiten und die dynamische Darstellung von Inhalten waren nicht Bestandteil der Initialanforderungen bei der Entwicklung des World Wide Web, sind heute allerdings unverzichtbar. Zukünftig wird es weiterhin zu einer Ausweitung und Intensivierung der Anforderungen kommen. Um diesen gerecht zu werden haben sich im Laufe der Jahre zahlreiche Frameworks herausgebildet, die alle unterschiedliche Methoden und Technologien als Unterstützung bieten. Diese Arbeit bringt einen Überblick über die existierenden Frameworks und stellt deren Intentionen dar um sie mit spezifischen Anforderungen für ein Softwareprodukt der XCOM AG abzugleichen. Das Ziel ist dabei nicht die Neuentwicklung einer Web-Applikation, sondern die Erweiterung einer bestehenden, was den zweiten Teil dieser Arbeit ausmacht. Als Ergebnis präsentiert sich ein bestehendes Produkt, das durch ein bewusst gewähltes Framework erweitert wurde.
Krankenhausbetten erfüllen mehrere wichtige Funktionen. Sie dienen als Schlafplatz und Transportmittel. Manche Patienten sind den ganzen Tag auf das Klinikbett angewiesen. Umso wichtiger ist es, dass die Betten in technisch einwandfreien Zustand sind. Das wird durch die Prüfung nach der DGUV Vorschrift 3 gewährleistet, da dadurch Fehler frühzeitig erkannt werden und behoben werden können.
Das Ziel in der vorliegenden Bachelorarbeit ist es, durch Auswertung der Prüfungsergebnisse die Fehlerquote zu bestimmen, zu analysieren und zu bewerten und herauszufinden inwiefern sich Alter und Betttyp auf die Fehlerquote auswirken.
Um die Forschungsfrage zu beantworten, werden die Betten nach der DGUVV3 Vorschrift mithilfe der DIN EN 62353 geprüft und die Ergebnisse ausgewertet.
Es wurde festgestellt, dass die Gesamtfehlerquote zu hoch ist und das die meisten sicherheitsrelevanten Fehler bei Betten aufgetreten sind, die 15 Jahre oder älter waren.
Analyse und Bewertung eines Akustischen Doppler Strömungsprofil Messgerätes in der marinen Anwendung
(2007)
In der vorliegenden Diplomarbeit werden die Messparameter des Akustischen Doppler Strömungsprofilmessgerätes (ADCP) der Firma SONTEK untersucht, welches am 4. September 2005 im Rahmen einer Messkampagne zur Untersuchung der Offshore-Bedingungen am Standort Amrumbank West in rund 22 Meter Wassertiefe installiert wurde. Von Interesse sind dabei hauptsächlich die signifikante Wellenhöhe, die Wellenperiode und das Tiefenprofil der Strömung
Einleitung Das Lehren und Lernen im Digitalen Zeitalter ist geprägt von Felxbilität und Ereichbarkeit zu jeder Zeit. Nutzer von Lernplattformen (LMS) möchten zu vermittelnde Inhalte einfach und schnell von jedem Ort aus erreichen. Teamfähikeit spielt ebenso eine Rolle, wie selbständiges Erwerben von neuem Wissen und die Fertigkeit es anzuwenden. Diese Ziele sollen möglichst zu annehmbaren Bedingungen ermöglicht werden. Deshalb greifen Ausbildungseinrichtungen und auch Unternehmen zur Unterstüzung auf solche Lernmanagementsysteme (LMS) zurück. In dieser Arbeit wird das Content Management eines LMS untersucht. Herzu ist zunächst in einer Diskusion zu ermitteln, welche Anforderungen für die Inhaltliche Bearbeitung, das Bedienverhalten der Software und dessen Administration erforderlich sind. Als Diskusionsgrundlage dient ein zu schaffender Überblick über mögliche LMS. Dieser wird anhand einer Webrecherge erzeugt, der einige Bedingungen erfüllen muss. Ein sich daraus ergebender Favourite, ist im Bereich Content Management zu untersuchen. Für diese Analyse dienen die nun nach der Diskusion ermittelten Anforderungen an das System.
Im Rahmen dieser Diplomarbeit wurde die objektorientierte Analyse und das objektorientierte Grobdesign für ein generisches Katalogsystem im WWW-Umfeld durchgeführt. Das Katalogsystem ist für die Aufnahme beliebiger Güter vorgesehen, die beliebig detailliert dargestellt werden können. Dabei ist von einer nicht vorhersagbaren Anzahl von Nutzern auszugehen. Ein wichtiges Kriterium ist außerdem die Mehrsprachigkeit sowohl bei den Gütern als auch bei den Benutzern. Die Diplomarbeit enthält außerdem eine Kurzeinführung in die Unified Modelling Language (UML). <!-- #h:dissdiplAnalyse und Design.doc# -->
Bei der Anwendung von Leistungsultraschall ( 20-40 KHz, 10-200 W/cm2) kommt es im biologischen Gewebe zu komplexen Wechselwirkungen. Ein Ziel der Arbeit bestand in einer detaillierten Analyse der vielseitigen Wirkmechanismen sowie der Ermittlung potentieller Messverfahren zu Bestimmung von schallphysikalischen Parametern im benannten Frequenz- und Intensitätsbereich anhand einer Literaturstudie. Ausgewählte Verfahren wurden im Anschluss experimentell nachvollzogen, ihre Ergebnisse aufgeführt und umfassend diskutiert. <!-- #h:dissdiplSchallphysikalische Parameter.doc# -->
Die vorliegende Arbeit stellt die Modellierung und Entwicklung einer mobilen Softwareanwendung für Wachdienste in sicherheitskritischen Bereichen vor. Die Software soll die strategische Evaluation von Qualitätsmanagement in großen Unternehmen mit Hilfe der Fragebogen-Methode unterstützen. Die Hauptanforderung dieser Arbeit ist die Entwicklung einer Webanwendung zur Erstelllung und Verwaltung von Fragebögen und Statistiken sowie auch zur Pflege und Verwaltung von Personaldaten von an der Evaluation beteiligten Mitarbeitern. Die Evaluierung mittels Fragebogen soll möglichst schnell und bequem für alle Beteiligten sein. Um dies zu erreichen, wird eine mobile Anwendung für die Fragebogenbeantwortung erstellt, Übermittlung, Bearbeitung und Speicherung der Ergebnisse automatisch durchgeführt wird. Die Softwareanwendung stellt eine Client-Server-Architektur dar, auf Server-Seite steht die Webanwendung und auf der Client-Seite die mobile Anwendung. Am Ende der Entwicklung soll ein Prototyp der Software zur Verfügung stehen.
Libelle Informatik GmbH bietet Lösungen für die Absicherung von Applikationen, Datenbanken und Dateisystemen an. Ihre Produkte DBShadow und FSShadow helfen dabei, die Ausfallzeiten zu reduzieren und gleichzeitig innerhalb kürzester Zeit verloren geglaubte Daten wiederherzustellen. Eine zeitversetzte Datenspieglung ist dieGrundidee von DBShadow und FSShadow.In dieser Diplomarbeit wird eine Ergänzungsfunktion in Form eines Prototypen für diese Produkte erarbeitet,welcher den Zustand eines System automatisch in vorgegebenen Zeitintervallen prüft und diesen auch protokolliert. Dieser Prototyp versetzt Anwender der Libelle Produkte in die Lage bestimmen zu können in welchen Zustand ein System zurückversetzt werden kann, falls ein Fehler auftritt.Hierbei kann das System ein Datenbanksystem, ein Betriebssystem oder ein Dateisystem sein. Dieser Prototyp sollte zudem mit einer graphischen Benutzungsschnittstelle ausgestattet werden, die es dem Anwender ermöglicht alle laufenden Prüfungen auszuwerten beziehungsweise zu ändern.In dieser Diplomarbeit werden alle durchlaufenen Arbeitsphasen beschrieben, von der Aufgabestellung über die Beschreibung von Grundkonzepten, die zur Erreichung der Funktionalitäten nötig sind bis hin zur genaueren Analyse der Anforderungen und dem Design des Prototypen. Die Implementierung und der Test des Prototypen werden ebenfalls gesondert vorgestellt. Da die Prüfungen frei konfigurierbar sind, werden zur Veranschaulichung der Vielseitigkeit des Prototypen zwei fiktive Anwendungsfälle diskutiert.
Diese Arbeit hat das Ziel, verschiedene Methoden und Techniken zur Anomalieerkennung und Ereigniskorrelation zu untersuchen. Während dieser Arbeit wird die Log-, Monitoring- und Reporting-Software Splunk analysiert. Die Grundlagen der statistischen Methoden und maschinellem Lernen dienen als Basis dieser Untersuchung. Diese Algorithmen ermöglichen die Erkennung von Ausreißern in vorhandenen Datensätzen. Hierfür wurden Anforderungen definiert und die Konzeption für den Einsatz entwickelt. Im Anschluss erfolgt die Vorstellung der Ansätze zur Anomalieerkennung und Ereigniskorrelation basierend auf praktischen Ergebnissen.
Diese Arbeit hat das Ziel, verschiedene Methoden und Techniken zur Anomalieerkennung und Ereigniskorrelation zu untersuchen. Während dieser Arbeit wird die Log-, Monitoring- und Reporting-Software Splunk analysiert. Die Grundlagen der statistischen Methoden und maschinellem Lernen dienen als Basis dieser Untersuchung. Diese Algorithmen ermöglichen die Erkennung von Ausreißern in vorhandenen Datensätzen. Hierfür wurden Anforderungen definiert und die Konzeption für den Einsatz entwickelt. Im Anschluss erfolgt die Vorstellung der Ansätze zur Anomalieerkennung und Ereigniskorrelation basierend auf praktischen Ergebnissen.
Das Erarbeiten von Architektur- und Prozessmodellen im Unternehmen ist eine anspruchsvolle Aufgabe, da komplexe Zusammenhänge möglichst einfach dargestellt werden sollen. Um die gewünschten Ergebnisse zu erzielen, ist eine systematische Vorbereitung und Durchführung der Modellierungsphase erforderlich. Gegenstand dieser Arbeit ist, die Architekturmodellierung mittels 3LGM² um die Möglichkeit einer prozessorientierten Betrachtung betrieblicher Abläufe durch eine geeignete Modellierungsnotation zu erweitern. Es wurden verschiedene Notationen strukturiert beschrieben und anhand eines Beispielprozesses abgebildet. Die Betrachtung der Notation gliedert sich in eine allgemeine Beschreibung über die Entstehung und die Anwendung jener Methode und eine Beschreibung der grafischen Symbole, über welche sie verfügt. Der Beispielprozess beschreibt einen Ausschnitt des Vertriebs von Informationstechnik und wurde in der jeweiligen Notation dargestellt. Auf dieser Grundlage erwies sich die Ereignisgesteuerte Prozesskette (EPK) als am Besten geeignet für die identifizierten Anforderungen. Darauf aufbauend wurden das 3LGM²-Modell für die Darstellung von Geschäftsprozessen überarbeitet und verschiedene Lösungsansätze für die Anpassung des 3LGM²-Baukastens aufgezeigt. Weiterhin ist es Ziel, ein Vorgehensmodell für die Analyse und Modellierung der Architektur eines Informationssystems und von Geschäftsprozessen zu erarbeiten. Dieses Vorgehen zur Analyse und Modellierung wird anhand des HBK vorgestellt. Hierfür wurde die Architektur der Verwaltung analysiert und modelliert. Beispielhaft wurden ausgewählte GP der Verwaltung modelliert.
In dieser Arbeit wird ein Verteiltes System betrachtet und neu gestaltet. Es hat die Aufgabe Kollisionsbetrachtungen von Roboteranlagen anhand eines rechnerinternen Modells durchzuführen. Diese Aufgabe ist sehr rechenintensiv und gut parallelisierbar, weshalb diese in Form eines Verteilten Systems berechnet werden. Es werden verschiedene Implementierungsmöglichkeiten betrachtet und gegenübergestellt. Letztlich wird eine Implementierung in Java genauer dokumentiert.
Analyse und Optimierung der Kommunikation zwischen den Komponenten des Fahrsimulators an der WHZ
(2015)
Mit verteilten Systemen können die Ressourcen mehrerer Rechnersysteme gebündelt und komplexe Berechnungen gegenüber einem einzelnen Rechnersystem schneller ausgeführt werden. Solch ein System wird auch für den Fahrsimulator am Institut für Energie und Verkehr an der Westsächsischen Hochschule Zwickau eingesetzt. Die aufwendigen Berechnungen sind dabei das Rendering der Szenen für die Leinwände und das Verhalten des Fahrzeugs in der virtuellen Welt, nach den Gesetzen der Physik. Diese sollen dabei möglichst schnell berechnet werden, denn Lenkbewegungen und andere Eingaben sollten natürlich so schnell es geht auch auf den Leinwänden als solche zu erkennen sein, damit ein realistisch wirkende Simulation entsteht. Neben schnellen Berechnungen ist dazu auch eine schnelle Kommunikation zwischen allen beteiligten Software- und Hardware-Komponenten notwendig. Diese Bachelorarbeit untersucht den Fahrsimulator am Institut für Energie und Verkehr hinsichtlich der Kommunikationsvorgänge. Dabei werden die Gesamtarchitektur vorgestellt, die verwendeten Technologien diskutiert, Schwachstellen im System erörtert und alternative Ansätze aufgezeigt. Es erfolgt dabei gleichzeitig eine Einordnung in den jeweiligen fachlichen Kontext. Die vorgestellten Möglichkeiten zur Optimierung legen dabei sowohl den Fokus auf Effizienz, als auch auf Effektivität. Es werden also Optimierungen vorgeschlagen, die mit kleinem Änderungsbedarf an der Gesamtarchitektur spürbare Performance-Steigerungen erzielen. Gleichermaßen werden auch solche Optimierungen diskutiert, die sogar noch bessere Ergebnisse erzielen würden, aber einen höheren Änderungsbedarf erforderlich machen.
Die vorliegende Arbeit befasst sich mit dem Bootvorgang eines eingebetteten Linux-Systems, mit dem Ziel, diesen zu beschleunigen. Der bestehende Bootvorgang wird analysiert und auf Schwachstellen hin untersucht, um daraus Optimierungspotentiale festzustellen und diese schließlich umzusetzen. Dabei müssen verschiedene Komponenten des eingebetteten Systems berücksichtigt werden, die an unterschiedlichen Phasen des Bootvorgangs beteiligt sind. Ein Großteil der Analysen und Optimierungen konzentriert sich auf die Parallelisierung von Prozessen im Init-System und den Einsatz eines neuen Komprimierverfahrens. Es wird ein Konzept aufgestellt und implementiert, das den parallelen Start von Diensten ermöglicht, die Abhängigkeiten untereinander besitzen. Für die Komprimierung des Linux-Kernels und des squashfs-Dateisystems wird der Brotli-Algorithmus in den Linux-Kernel aufgenommen, der eine schnelle Dekomprimierung mit hoher Kompressionsrate aufweist.
Bei der Analyse und Optimierung wurde sich auf die Kontaminationsgefahr des Kalibriermoduls des Atemgasanalysemesssystems und die Drift auf dem gemessenen Intensitätssignal beschränkt. Um eine mögliche Kontamination zu verhindern, sollte ein handelsüblicher Bakterienfilter gefunden werden, der die Kalibrierfunktion nicht behindert, d.h. es soll sich kein Druckunterschied vor und nach dem Filter aufbauen. Weiterhin wurden zwei verschiedene Optiken mit einander bzgl. ihrer Abhängigkeiten von Temperatur, Flow und Feuchte, durch Aufnahmen von Atemkurven und deren Driftverhalten verglichen. Zu dem wurde eine neue Elektronik getestet, die es ermöglicht, die Abklingzeit über das Impuls- und Phasenmessverfahren zu ermitteln. Diese beiden Methoden sollen mit der Intensitätsmessung bzgl. der Aufnahme von Atemkurven und deren Drift- und Rauschverhalten verglichen werden.
Diese Arbeit ist in zwei Teilbereiche untergliedert. Der erste Teil beschäftigt sich mit der Analyse eines vorhandenen Netzwerkes in Bezug auf dessen Probleme und derer Beseitigung. Im zweiten Teil erfogt die Planung eines neuen Netzwerkes. Hierbei werden Grundlagen die zur Entscheidung benötigt werden aufgeführt. Zur Realisierung des Netzwerkes werden die im ersten Teil der Arbeit analysierten Erkenntnisse und die Grundlagen verwendet. Weiterhin erfolgt eine Untersuchung der Neuerung des Betriebssystems 'Windows 2000 (Server)' gegenüber 'Windows NT 4.0 (Server)' im Bezug auf die Nutzerverwaltung und Funktionalität. Abschließend erfolgt eine Betrachtung im Hinblick auf die Verwendung eines File- und Mailservers in einem Netzwerk.
Analyse und prototypische Entwicklung von Verfahren zur Extraktion von 3D-Modellen aus Bildmaterial
(2016)
Die Arbeit bietet einen Überblick zu Ansätzen und Verfahren zur automatischen Rekonstruktion von 3D-Modellen einer statischen Szene aus Bildmaterial einer einzigen, monokularen Kamera. Der Fokus liegt dabei auf der Rekonstruktion von Punkt- und Oberflächenmodellen. Zur Rekonstruktion von Punktmodellen werden die Ansätze Structure-from-Motion (SfM) für Fotomaterial sowie Simultaneous-Localisation-and-Mapping (SLAM) für die Verwendung von Videosequenzen untersucht. Weiterhin werden Verfahren zur Rekonstruktion von Oberflächenmodellen aus Punktmodellen betrachtet, unter anderem solche auf Basis der Delaunay-Triangulation, Ball-Pivoting, Greedy-Projection-Triangulation sowie Poisson-Surface-Reconstruction. Auf Basis des SLAM-Verfahrens LSD-SLAM wird ein prototypisches Rekonstruktionssystem entwickelt und im Vergleich zu einem bestehenden SfM-System getestet. Sowohl mit dem SfM-System als auch mit dem Prototyp lassen sich erfolgreich 3D-Modelle erzeugen, wobei das entwickelte System noch Optimierungspotential besitzt.
Aufgabenstellung der Diplomarbeit war es, verschiedene Techniken der künstlichen Intelligenz (KI) in Computerspielen zu untersuchen und zu bewerten. Im ersten Teil der Arbeit wird der Begriff Künstliche Intelligenz definiert, die Ziele sowie unterschiedliche Arten der KI betrachtet. Im zweiten, dem Hauptteil der Diplomarbeit, werden die Techniken der KI im Einzelnen betrachtet. Neben Algorithmusbeispielen werden diese Techniken auch anhand von Grafiken erklärt. Zielstellung ist es hier, einen gewissen Überblick über die Möglichkeiten der KI zu geben und zu zeigen, dass diese auch auf andere Bereiche wie die Robotik übertragbar sind. Andererseits werden aber auch verschiedene Problembereiche der KI angesprochen und Lösungsmöglichkeiten vorgestellt. Im Einzelnen werden für jede Algorithmusart Vor- und Nachteile aufgezeigt und begründet. Damit wird ein Überblick über die gängigsten Techniken der KI-Programmierung gegeben. Verschiedene Methoden und Techniken werden vergleichend bewertet. Zur Demonstration zweier Algorithmen wurde in einem 3D-Level-Editor eine Karte erstellt, an der die Algorithmen praktisch erklärt werden. Im Anhang der Diplomarbeit befindet sich ein Beispiel für die Implementierung eines Verfahrens im 3D-Level-Editor. Zum Abschluss dieser Diplomarbeit werden alle Techniken der KI noch einmal zusammen-gefasst sowie Vor- und Nachteile beschrieben. Ein kleiner Ausblick in die Zukunft soll zeigen, welche Algorithmen und Techniken weiter an Bedeutung gewinnen oder verlieren werden.
Die Diplomarbeit bietet eine umfassende Zusammenstellung der diagnostischen und therapeutischen Möglichkeiten im Bereich der Arterienchirurgie auf der Grundlage einer umfangreichen Literaturrecherche. Die aus medizinischer Sicht wichtigsten bzw. häufigsten Erkrankungen der Arterien und Venen werden bezüglich der Symptome, der Diagnostik und der Therapie charakterisiert. Es folgt eine Beschreibung der heute gebräuchlichsten und in Erprobung befindlichen Geräte und Verfahren der Diagnostik. Im letzten Teil der Arbeit werden die Behandlungsmöglichkeiten für chronische und akute Verschlußprozesse der Arterien erläutert. <!-- #h:dissdiplGefäßchirurgie.doc# -->
Diese Arbeit soll einen Überblick über REST und dessen Anwendung auf eine Web-Schnittstelle geben. Im ersten Teil wird REST als Architekturstil beschrieben und die Prinzipien, welche REST allgemein zugrundeliegen. Dabei wird starker Bezug auf die Dissertation von Roy Fielding [Fie00] genommen, in welcher er die Ideen von REST entwickelt und beschreibt. Da sich REST nicht zwangsläufig auf HTTP bezieht, sondern ein allgemeines Architekturmuster darstellt, soll im folgenden Abschnitt die Implementation von REST mittels HTTP betrachtet werden. Aufgrund der hohen Verbreitung und Universalität von HTTP bildet dies meist die Grundlage von RESTful-Webschnittstellen. Weiterhin analysiert diese Arbeit eine vorhandene Schnittstelle auf die Einhaltung der REST-Prinzipien. Diese Analyse soll exemplarisch verdeutlichen, welche Anforderungen an eine REST-Schnittstelle bestehen. Als Prüfkriterium wird das Richardson-Maturity-Model vorgestellt und die Schnittstelle darin eingeordnet. Dabei wird erkennbar, in welchen Aspekten REST-Prinzipien beim Schnittstellenentwurf berücksichtigt bzw. verletzt wurden. Weitergehend wird untersucht, welche Veränderungen an dieser Schnittstelle vor- genommen werden können um den REST-Prinzipien zu entsprechen. Dabei wird analysiert, welche Vorteile diese Veränderungen in Hinsicht auf das Design der Schnittstelle haben.
Softwarearchitektur gilt als Königsdisziplin der Softwareentwicklung. Viele Aspekte sind für eine gute Architektur in Einklang zu bringen. Hierzu müssen neben Softwarequalitätskriterien wie Performance oder Wartbarkeit auch die Interessen aller Projektbeteiligten vom Kunden bis zum einzelnen Entwickler einbezogen werden. Je größer und komplexer ein Softwaresystem wird, desto herausfordernder ist auch die Entwicklung der Softwarearchitektur. Zudem entwickelt sich die Architektur aufgrund sich stetig ändernder Anforderung immer weiter. Bestehende Teile müssen umgestaltet und neue integriert werden. Es gilt die Komplexität zu beherrschen und den Überblick im Großen wie auch im Kleinen zu behalten. Von sich stetig ändernden Anforderungen ist auch das Softwaresystem HSCERP des Unternehmens HSC Solutions betroffen. Das ursprünglich für den Einsatz in Kleinstunternehmen ausgelegte System findet zunehmend mehr Interessenten mit einem immer größer werdenden Nutzerkreis. War die aktuelle Performance der Architektur unter Berücksichtigung der Anforderungen von Kleinst- und Kleinunternehmen angemessen, stößt sie in mittleren Unternehmen an ihre Grenzen. In der Softwaretechnik sind solche Probleme schon lange ein Thema. Sie wurden in zahlreichen Arbeiten behandelt und in Form von Standardarchitekturansätzen verarbeitet. Ziel dieser Arbeit ist die Untersuchung solcher Standardarchitekturen hinsichtlich ihrer Eignung zur Performancesteigerung von HSCERP. Zu den untersuchten Ansätzen zählen neben der weitverbreiteten Schichtenarchitektur und dem Ansatz des Domain Driven Designs auch das weniger bekannte Quasar, welches versucht eine Standardarchitektur speziell für ERP-Systeme zu beschreiben.
Diese Arbeit gibt einen Überblick über die bestehenden Methoden des sogenannten Web-Engineerings. Die verschiedenen Entwurfs-, Dokumentations- und Testmethoden werden vorgestellt, am praktischen Beispiel analysiert und abschließend bewertet. Der praktische Teil der Arbeit beschäftigt sich mit der Realisierung der Benutzerverwaltung eines CMS.
Das grundlegende Ziel dieser Bachelorarbeit bestand darin, in der Vergangenheit aufgenommene Messdaten zur Einschätzung eines möglichen Einflusses elektrischer Felder im Bereich des Mobilfunknetzes auf das vegetative Nervensystem neu zu betrachten und auszuwerten. Dazu standen Elektrokardiogramm- und Respirationsdaten von 15 Probanden zur Verfügung. Neben dem Finden neuer Erkenntnisse spielte vor allem die Artefakterkennung und -bereinigung der aufgenommenen Elektrokardiogramm-Signale mittels des Analyseprogrammes des von der Firma SUESS Medizin-Technik GmbH zur Verfügung gestellten Messplatzes SUEmpathy100 eine entscheidende Rolle. Weiterhin sollte anhand von Eigenmessungen der Einfluss anderer, auf das vegetative Nervensystem wirkender Beeinträchtigungen (z. B. durch sportliche Aktivität oder die Tageszeit) untersucht werden. Auch dabei standen neben einem Erkenntnisgewinn vor allem das Finden und die Eliminierung von Artefakten im Vordergrund.
Analyse von Plagiatssoftware
(2013)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Analyse von Plagiatssoftware. Im ersten Teil wurden verschiedene Softwareprodukte, die frei zugänglich waren, auf ihre Fähigkeiten zum Aufspüren von Plagiaten getestet. Dabei wurden verschiedene Testszenarien erstellt und abgeprüft. Es wurde zum Beispiel getestet, ob die Software ein Plagiat auch noch als solches erkannte, obwohl der Text umgeschrieben oder mit Synonymem versehen wurde. Im zweiten Teil wurde eine Umsetzung einer eigenen Software, zur Erkennung von Plagiaten in wissenschaftlichen Arbeiten, realisiert. Dabei wurden unterschiedliche Algorithmen zur Erkennung von Zeichenketten analysiert und die verschieden Datenbasen betrachtet. Nach-dem die einzelnen Komponenten zusammengetragen waren, wurde mit der Entwicklung eines Prototypen begonnen. Der Prototyp wurde mit zwei verschieden Algorithmen ausgestattet. Der erste Algorithmus findet Plagiate die wortwörtlich so übernommen worden sind. Der zweite Algorithmus untersucht, wie oft die Wörter des Musters innerhalb eines Text-abschnittes vorkommen und trifft dann eine Auswahl, ob ein Plagiat vorliegen könnte. Beide Algorithmen wurden zum Abschluss auf ihre Trefferquoten getestet.
In der vorliegenden Ausarbeitung wird nach einer Möglichkeit gesucht, die Breitung beim Warmwalzen von Stahlbrammen mittels eines künstlichen neuronalen Netzes näherungsweise berechnen zu können. Weiterhin sollen Grundlagen für ein Softwaremodul gelegt werden, mit dem das Netz von Personal im Walzwerk, auch ohne Vorkenntnisse gesteuert werden kann.
Sharewareprogramme sind meist kleinere Programme, die nach dem try before you buy- Prinzip vertrieben werden. D.h. der Nutzer kann sie über einen bestimmten Zeitraum hinweg kostenlos testen bevor er sich zum Kauf entschließt. Dieses Prinzip kann leicht missbraucht werden. Deshalb werden viele Sicherheitsmechanismen zum Schutz der Software erfunden. Diese Diplomarbeit beschäftigt sich mit der Analyse, der Umgehung und mit möglichen Verbesserungen dieser Mechanismen. Im ersten Kapitel werden die typischen Eigenschaften von Sharewareprogrammen (Trialperiode, abgeschaltete Funktionen, Nagscreens, Registrierungsschlüssel) näher untersucht. Das zweite Kapitel baschäftigt sich mit der Verbesserung dieser Eigenschaften. Im dritten Kapitel werden kommerzielle Schutzprogramme, die eine Manipulation der Sharewaretools verhindern sollen, näher analysiert. Als letztes wird noch auf den rechtlichen Aspekt eingegangen.
Diese Arbeit befasst sich mit Verfahren und Produkten zur automatisierten Softwareverteilung. Die Verfahren werden in dieser Arbeit anhand von Produkten in der Praxis getestet, um so gezielt eine Applitkation für die Beispielimplementation zu finden. Weiterhin beinhaltet die Arbeit ein Kostennutzen - Analyse eines konkreten Verfahrens.
Diese Bachelorarbeit behandelt das Thema Analyse, Bewertung und konzeptionelle Zusammenlegung von FIS-Software-Tools. Nach einer Einführung in die Grundlagen der Volkswagen Group IT Services GmbH und der zu analysierenden Systeme werden einige Begriffe des Requirements Engineering erläutert.
Nach Abhandlung der Grundlagen werden verschiedene Methoden der Anforderungs-ermittlung vorgestellt. Es wird anhand von Einflüssen auf das Projekt die beste Ermittlungsmethode ausgewählt.
Im Weiteren wird die Vorbereitung und Durchführung der Anforderungsermittlung in Form von leitfadengestützten Experteninterviews sowie die Dokumentation der Anwendungsfälle beschrieben. Das methodische Vorgehen wird durch Literaturquellen begründet.
In einer Auswertung der ermittelten Anwendungsfälle werden diese priorisiert und bewertet. Auffallende Ergebnisse werden erklärt. Anschließend werden aus dieser Auswertung Kernanforderungen an ein mögliches Folgesystem abgeleitet. Zuletzt werden zwei Szenarien vorgestellt, welche mögliche Weiterentwicklungen der Systeme und die damit verbundenen Herausforderungen beschreiben.
In einer Auswertung der ermittelten Anwendungsfälle werden diese priorisiert und bewertet. Auffallende Ergebnisse werden erklärt. Anschließend werden aus dieser Auswertung Kernanforderungen an ein mögliches Folgesystem abgeleitet. Zuletzt werden zwei Szenarien vorgestellt, welche mögliche Weiterentwicklungen der Systeme und die damit verbundenen Herausforderungen beschreiben.
Die Diplomarbeit befasst sich mit der Implementierung eines Berechtigungskonzeptes bei der Entwicklung vertiefter Internet-Anwendungen im Java-Umfeld. Der erste Teil beschäftigt sich mit dem 'Programmtechnischen Ansatz' der in Form der Eigenimplementierung eines Beispielprojektes auf Schwachstellenanalysiert wird. Im zweiten Teil werden die Vorteile eines 'Deklarativen Ansatzes' für ein Berechtigungskonzept näher beleuchtet. Durch Einführungskapitel zu Verzeichnissen, dem LDAP-Protokoll, der Java-Verzeichnisschnittstelle und der Sicherheitsumgebung von Applikationsservern werden dem Leser konzeptionelle Hintergründe schrittweise näher gebracht. Die Vorzüge des deklarativen Ansatzes werden anhand eines konkreten Verzeichnisses für das analysierte Beispielprojekt und der Implementierung eines voll funktionsfähigen Anwendungsprototypen ausführlich beschrieben.
Diese Bachelorarbeit beschäftigt sich mit der Analyse, Entwurf und Implementie-rung einer Schnittstelle für die Integration und Visualisierung von Gebäudedaten in das Softwaresystem HighwayDesigner. Zuerst wurden mögliche dreidimensionale Gebäudeformate untersucht und eins ausgewählt, welches allen geforderten Kriterien entsprach. Aus den analysierten Formaten wurde dann konkret das CityGML-Format ausgewählt. Als Nächstes wurde eine Software konzipiert und danach ein Plugin entwickelt, welches die Visualisierung und das Importieren von Gebäude in das Softwaresystem ermög-licht. Im Laufe der Entwicklung ergab sich ein Problem in den Verschiedenheiten der Auflösungen von den DGM- und CityGML-Daten. Dies wurde durch eine Höhenanpassung behoben. Während der weiteren Arbeit wurde ein hohes Performanceproblem durch die Optimierung und den Einsatz eines Caches behoben. Die Möglichkeit der Selektion der zu importierenden Daten rundet die Arbeit ab.
Um Mitarbeitern des Heinrich-Braun-Klinikums den Zugriff auf die rechentechnische Infrastruktur auch außerhalb des Standortes Zwickau zu ermöglichen, wird auf eine VPN Verbindung und das Remote Desktop Protocol gesetzt. Durch das starke Wachstum der letzten Jahre fanden Fusionierungen medizinischer Einrichtungen statt, um die Wirtschaftlichkeit des Krankenhauses zu erhöhen. Für eine effektivere Arbeitsweise muss die Anbindung der Außenstellen schneller und damit besser skalierbar gelingen. Nur mit der Einführung einer neuen Virtualisierungstechnologie, der Desktopvirtualisierung, kann auch im HBK dieser Trend wunschgemäß verlaufen. Um die Desktopvirtualisierung optimal zu nutzen, ist eine Integration mit den anderen bereits im HBK eingesetzten Produkten notwendig. Zum Hauptaugenmerk zählen vor allem die Softwareverteilung baramundi und die Servervirtualisierungsplattform VMware vSphere. Die Verbesserung der Verzahnung erfolgte zusätzlich durch Skripte, welche aus speziellen Anforderungen des Krankenhauses entstanden sind. Künftig ist mit einer größeren Zahl virtueller Arbeitsplätze durch zusätzliche Standorte zu rechnen. Daher war eine Überprüfung der Hardware notwendig, um den künftigen Einsatz zu realisieren. Entscheidend sind hier die Flaschenhälse Datenspeicher, Hostarbeitsspeicher und Übertragungsraten des WANs zu den Außenstellen. Zusätzlich wurde durch eine Lösung zur externen Abfrage von E-Mails mit Exchange die Quantität der Desktops gesenkt. Dies führt zu einer Kostenersparnis.
Nach einer einer kurzen Einführung in die Grundlagen werden die Anforderungen der Software erhoben. Da aufgrund einer Vielzahl mobiler Plattformen der Implementierungsaufwand sehr hoch ist, wurde zunächst nach einer plattformunabhängigen Lösung gesucht. Aufgrund der Ergebnisse der Evaluierung folgt eine native Realisierung für die Apple iOS-Plattform. So wird zunächst ein Konzept der Software aufgestellt und darauffolgend prototypisch implementiert. Der Prototyp zeigt, dass der Entwurf die gestellten Anforderungen erfüllt.
Applikationen im Java Enterprise Umfeld benötigen meist eine Funktionalität, mit welcher Daten vom Client, über mehrere Aufrufe hinweg, zugeordnet und verwaltet werden können. Meist wird diese Funktionalität von dem verwendeten Java-Framework abgedeckt. Diese Arbeit zeigt eine Alternative auf, welche den aktuellen Trend der Webentwicklung berücksichtigt. Dabei wird vor allem auf die Entwicklung des JavaScripts in den letzten Jahren eingegangen. Des Weiteren werden Anforderungen aufgestellt und Analysen verschiedener Technologien betrieben, welche zur Entwicklung einer Bibliothek benötigt werden. Dabei werden die möglichen Technologievarianten vorgestellt und erklärt, warum sich für eine bestimmte Technologie entschieden wurde. Hierbei wird auf Features eingegangen, welche im weiteren Verlauf der Arbeit noch praktische Anwendung finden. Das Ziel ist es, eine modulare Bibliothek zur Sessiondatenverwaltung zu konzipieren und deren Einsatz anhand eines Prototypen aufzuzeigen.
Masterarbeit beschäftigt sich damit, wie man für ein bereits existierendes Softwareprojekt ein eigenständiges Modul entwickelt, das eine bestimmte Funktionalität dieser Anwendung realisiert. Es wird dabei in die Entwicklungsphasen des Softwareprojektes eingegangen beginnend mit Planungsphase und abschließend mit Entwurfsphase. Dabei werden die Besonderheiten jeder Entwicklungsphase und die dabei verwendete Technologien beschrieben. Zum Schluss werden die Sicherheitsmaßnahmen für die Web Anwendungen betrachtet und die im Projekt berücksichtigte Sicherheitsmaßnahmen erläutert.
The use of fossil resources must be phased out during the next decades in order to stay below a well below 2°C trajectory adopted with the Paris Agreement. The growing threat of climate changes arises large uncertainties concerning natural and social systems and induced changes on economic activities and human welfare in the 21st century. As recent climate negotiations failed to achieve significant progress to stop the climate change, GHG emissions fragmented the international communities. Total carbon dioxide (CO2) concentration is at the highest levels ever recorded. Since, it is very important to differentiate the total CO2 and its origin.
Evidently, CO2 has been identifed as the most important GHG because it contributes the largest share to the anthropogenic increase of radiative forcing and grows fastest. Anthropogenic sources of CO2 emissions are fossilfuel combustion (FFC), cement production, traditional biomass combustion and land use change, which contain chlorouorocarbons, hydrochlorouorocarbons and others. Where Biogenic CO2 emission sources are fermentation, biogas and other biological process. Compare to atropogenicsource with high purity.
The thesis provides an improved overview of R&D, pilot, demonstration and commercial projects that capture CO2 from biogas plants and other biogenic sources and subsequently put this carbon to further use. Best practices in terms of business models and GHG saving potentials are described. The CO2 emissions mitigation are related to the innovation, technologies, investment and moreover the strong policies from the Government
Wässer natürlichen Ursprungs unterliegen in unterschiedlichem Maße Veränderungen, die durch physikalische, chemische oder biologische Vorgänge hervorgerufen werden. Treten diese während des Probentransportes bzw. der Lagerung im Labor auf, ist die Identität der Ergebnisse der nachfolgenden Untersuchungen und dem Werte der Vor-Ort-Messung nicht mehr gegeben. <!-- #h:dissdiplProbenkonservierung.doc# -->
Die analytischen Untersuchungen zur Sterilisationsstabilität und zum Quellverhalten monomolekularer Tetraetherlipidschichten, die als Antifoulingschichten auf Katheter eingesetzt werden sollen, erfolgen mit Hilfe der konfokalen Laser Scanning Mikroskopie (CLSM) und der fouriertransformierten Infrarotspektroskopie (FTIR). Dabei wird eine Flüssigkeitsmesszelle, die im Rahmen der SBSR-Technik eingesetzt wird, verwendet.
Das Kapitel Grundlagen integrierter Versorgung zielt auf den Einstieg in die aktuelle Versorgungspolitik und vermittelt eine grundlegendes Verständnis zu den Rahmenbedingungen der Integrierten Gesundheitsversorgung aus politischer Sicht sowie aus der Perspektive seiner beteiligten Akteure. Ziel dieses Abschnitts ist es, die Eigenschaften dieser Neugestaltung aufzuzeigen um die damit verbundenen Werkzeuge positionieren und in den strukturellen sowie gesetzlich, organisatorischen Hintergrund einzuordnen. Im Kapitel Komponenten eines integrierten Versorgungsnetzwerks liegt der Fokus auf der prinzipiellen Struktur sowie den Bestandteilen eines integrierten Versorgungsnetzwerks. Es werden die wesentlichen Komponenten sowie deren grundsätzlicher Aufbau untersucht. Ziel ist es Konzepte sowie Bestandteile und deren Aufbau überblicksartig zu beschreiben. Kriterien dazu bilden die Papiere des bIT4health-Konsortiums zum Aufbau einer flächendeckenden Telematikinfrastruktur. Die vom Klinikum MEK angestrebte einrichtungsübergreifende elektronische Patientenakte wird im Kapitel Rahmenbedingungen zunächst auf implementierungsabhängige Kriterien untersucht. Ziel des nächsten Abschnitts ist es, den für eine Anforderungsanalyse notwendigen Charakter der einrichtungsübergreifenden elektronischen Patientenakte im Umfeld der vorhandenen Möglichkeiten zu klären. Der Themenkomplex Geschäftsprozesse erfasst die Wissenslogistik im Behandlungsprozess des Arztes im Klinikum MEK. Als Szenario steht der Zugriff auf die Information sowie die wechselseitige Interaktion mit den Daten der Patientenakte während des Behandlungsablaufs im Vordergrund. Ziel ist es durch die Modellierung der identifizierten Geschäftsprozesse einen IST-Zustand zu erarbeiten, der als Ausgangspunkt für die Erarbeitung eines für das Klinikum MEK angepassten Anbindungskonzeptes zur Dokumentation von Patientendaten in eine einrichtungsübergreifende elektronische Patientenakte, dient. Aufbauend auf die im vorhergehenden Kapitel vorgenommene Fixierung der medizinischen und informationstechnologischen IST-Abläufe des Klinikums beschäftigt sich der Abschnitt fachliche, (nicht) funktionale Soll-Kriterien mit den durch eine Applikation zu implementierenden Anwendungsfälle. Die dazu identifizierten Anwendungsfälle beschreiben szenarisch vom Haus zu implementierende fachliche Anforderungen. Mittels dieser USE-Cases wird es im Verlauf dieses Kapitels möglich die als wesentlich erachteten Funktionalitäten dieser Applikation entsprechend einer aufgaben- und akteurbezogenen Sicht in einem Anforderungskatalog zu übernehmen und als Maßstab für die weitere Vorgehensweise zu definieren. Das Kapitel Rahmenbedingungen und Kommunikationskonzepte beschäftigt sich mit der Frage der Kommunikationsart. Dazu werden Verfahren und grundlegende Technologien zur Übertragung von medizinischen Daten identifiziert und auf ihren Charakter hin untersucht. Insbesondere geht es dabei um Inhalts- und Transportstandards des Gesundheitswesens, welche Ausschnittsweise mit verschiedenen Sicherheitsstandards kombiniert erläutert werden. Der weitere Verlauf betrachtet wesentliche Kommunikationsformate unter dem Aspekt einer einheitlichen Kommunikation zwischen dem Klinikum MEK und dem Telematik Service Provider. Dabei wird an die vorher untersuchten Standardtechnologien angeknüpft bzw. sich an darin enthaltene Kommunikationsverfahren orientiert. Neben der Schaffung einer durchgängigen und homogenen Schnittstelle ist es das Ziel, nach Möglichkeit Verfahren zu nutzen, die weit reichende Verbreitung finden und ohne zusätzlichen Mehraufwand mit größtmöglicher Kompatibilität implementiert werden können. Im Kapitel Ausgangspunkte zur Adaptierung des KIS geht es um die Vorraussetzungen zur Anbindung an ein integriertes Telematiknetzwerk. Die Betrachtungsgrundlage dazu liefert der bIT4health Konnektor der Telematik-Lösungsarchitektur. Mit der Darstellung seines inneren Aufbaus sowie der einzelnen Teilbausteine gelingt es die externen Schnittstellen zu identifizieren und Anbindungskriterien zu erarbeiten. Die angestellten Untersuchungen münden in einem Anforderungskatalog mit funktionalen und nichtfunktionalen Anforderungen zur Anbindung des KIS über den Konnektor. Im anschließenden Kooperationsmodell soll exemplarisch anhand eines theoretischen Kommunikationsablaufs die Aufgabe des Konnektors präzisiert und in den Gesamtprozess der Kommunikation zwischen dem Klinikum und der Telematikinfrastruktur eingeordnet werden.
Diese Arbeit beschäftigt sich im Rahmen der zunehmenden Digitalisierung des Gesundheitswesens in Deutschland mit neuen Strategien in der Behandlung des akuten nicht spezifischen Kreuzschmerzes. Hierbei steht insbesondere die Anbindung von Digital Health-Anwendungen an einen sogenannten Behandlungspfad dieses Beschwerdebildes im Fokus. Nachdem entsprechende theoretische Grundlagen dargelegt werden, beleuchtet die Arbeit den aktuellen Forschungsstand von Digital Health-Anwendungen in der Behandlung des nicht spezifischen Kreuzschmerzes. Hierbei wird sowohl auf Inhalte als auch den Einsatz und die Wirksamkeit der Digital Health-Anwendungen eingegangen. Im weiteren Verlauf wird ein leitlinienkonformer Behandlungspfad für den Erstkontakt des akuten nicht-spezifischen Kreuzschmerzes erstellt sowie derzeit in Deutschland verfügbare Digital Health-Anwendungen identifiziert und hinsichtlich ihrer vermittelten medizinischen Maßnahmen untersucht. Ausgehend vom erstellten Behandlungspfad sowie den Untersuchungsergebnissen wird ein sogenannter