Refine
Year of publication
Document Type
- Master's Thesis (353) (remove)
Institute
- Physikalische Technik, Informatik (353) (remove)
Is part of the Bibliography
- no (353)
Diese Master-Thesis dokumentiert die Planung und Realisierung einer Validator-Komponente für webMethods Business Rules, einem Werkzeug zur grafischen Modellierung von Geschäftsregeln. Mithilfe des Validators soll der Anwender bei der Erstellung einer konsistenten Regelbasis unterstützt werden, um eventuell kostenintensive Fehlentscheidungen während der Geschäftsprozessautomatisierung zu vermeiden. Neben der ausführlichen Definition von Inkonsistenzen einer Regebasis, wie z.B. Schleifen, Widersprüchen, Redundanzen und Unvollständigkeiten werden Algorithmen zur Erkennung dieser entworfen. Hierbei werden zwei Ansätze aus der Fachliteratur vorgestellt und an die spezifischen Besonderheiten von Business Rules angepasst. Einen Schwerpunkt bildet die Interpretation von Inkonsistenzen für Regeln mit nicht booleschen Datentypen. Abschließend wird die Realisierung und Implementierung der entworfenen Algorithmen in Java dokumentiert und die Anbindung als Validator-Komponente für Business Rules beschrieben.
Inhalt dieser Arbeit ist Entwicklung eines Algorithmus zur Müdigkeitsdetektion im Automobil.
Mithilfe von Sensordatenfusion wird ein Algorithmus zur Müdigkeitsdetektion implementiert. Die Parameter, die in den Algorithmus einfließen, sind Puls, eCO2-, TVOC-Konzentration, Hautleitwert und Raumtemperatur.
Durch Literaturrecherche wird bestimmt, wie sich die Parameter bei Müdigkeit verhalten und ob Grenzwerte für Müdigkeit bei den verschiedenen Parametern existieren.
Die Datensätze, die zur Entwicklung des offline-Algorithmus dienen, werden in einer mehrstündigen Fahrsimulation mit mehreren Probanden aufgenommen.
Ambient Assisted Living
(2012)
Wo auch immer eine Umwandlung von elektrischer in mechanischer Energie und umgekehrt erfolgt, kommt aller Wahrscheinlichkeit nach nicht-kornorientiertes Elektroblech zum Einsatz. Aufkeimende Elektromobilität sowie die Forderung nach effektiver Ressourcennutzung richten die Aufmerksamkeit auf Herstellungsschritte und ihre Folgen. Laserstrahlschmelzschneiden von Elektroblech unter Verwendung eines Scheibenlasers, als äußerst exibles und leistungsstarkes Trennverfahren, wurde hinsichtlich der Verschlechterung der magnetischen Eigenschaften mit konventionell getrennten Proben verglichen. Zur Einschätzung des Potentials des Laserschneidverfahrens erfolgte eine umfassende Variation verschiedener Schneidparameter. Dabei dienten SST-Messungen zur Charakterisierung der magnetischen Eigenschaften. Unter Rücksichtnahme praktischer Anwendungen wurden hauptsächlich 5mm breite Streifen bei Frequenzen bis zu 500 Hz untersucht. Neben der generellen Analyse bezüglich magnetischer Eigenschaften erfolgten weiterhin Schneidversuche in Abhängigkeit zur Walzrichtung.
Die in der heutigen Zeit hergestellten Mikroprozessoren sind ein Wunderwerk der Technik und haben eine enorme Rechenleistung. Die Halbleiterindustrie hat das Bestreben, stets nach neuen Techniken zu suchen, die die Rechenleistung der Mikrochips erhöhen. Dabei ist die Signallaufzeit, die zwischen den einzelnen Rechenschritten benötigt wird, von entscheidender Bedeutung. Um diese zu verringern, müssen die Abstände zwischen den einzelnen Bauelementen verkleinert werden. Diese sogenannte Miniaturisierung besitzt aber den Nachteil, dass sich die Leiterbahnen aufgrund der entstehenden, reduzierten Abstände aufladen. Die daraus entstehenden, parasitären Kapazitäten beeinträchtigen die Signallaufzeit negativ und müssen durch geeignete Gegenmaßnahmen kompensiert werden. Eine Lösung des Problems ist durch den Einsatz von neuartigen Isolatoren mit niedriger Dielektrizitätszahl zu verzeichnen. Der Trick liegt in der, durch erzeugte Lufteinschlüsse, porösen Materialgestaltung. Als negativen Effekt besitzen diese Materialien jedoch schlechte, mechanische Stabilitäten. Unter Zuhilfenahme eines Vier-Punkt-Biege-Tests mit entsprechender Messsoftware werden die porösen Materialien in Ihren mechanischen Eigenschaften charakterisiert. Bei diesem Test wird ein Riss in einen Testschichtstapel eingebracht, um die Adhäsion (Gc) zwischen zwei Schichten oder in einer Schicht zu messen. Im Rahmen der vorliegenden Arbeit wurde unter anderem die Messsoftware durch den Einbau von neuen Strukturen aktualisiert und teilweise automatisiert. Es wurden Anpassungsfunktionen generiert, die die Verläufe der aufgenommenen Vier-Punkt-Biege-Kurven bereits während der Messung auswerten und wichtige Kennwerte, wie Probensteifigkeiten und Bruchkräfte automatisch ermitteln können. Mit der Funktion zur optischen Risslängenbestimmung wurden Analysen zu asymmetrischen Rissausbreitungen vorgenommen und interpretiert. Eine Untersuchung von Testwafern mit der Schichtreihenfolge Si/Cu/SiCN/SiCOH ergab meist niedrige Adhäsionswerte (Gc), wenn die Rissausbreitung in der Cu/SiCN-Grenzfläche erfolgte. Dies kann auf einen temporären Effekt der scheinbaren Grenzflächenschwächung, aufgrund einer Mindestschichtdicke durch das poröse SiCOH-Material als Endabscheidungsschicht, zurückgeführt werden. Verschiedene Testgeschwindigkeiten zeigen eine scheinbare Erhöhung der Schichthaftung auf. Außerdem wurden Unterschiede in der Schichthaftung, bei Verwendung verschiedener Epoxidharze festgestellt, die für die Probenpräparation verwendet werden. Desweiteren wurden Tests an Schichtsystemen durchgeführt, bei denen die Kupfer-Schicht einer Plasmabehandlung unterzogen wurde. Erhöhte Adhäsionswerte der Cu/SiCN-Grenzfläche (Gc-Werte) konnten im Vergleich mit einer unbehandelten Cu/SiCN-Grenzfläche festgestellt werden.
Die vorliegende Arbeit stellt die Modellierung und Entwicklung einer mobilen Softwareanwendung für Wachdienste in sicherheitskritischen Bereichen vor. Die Software soll die strategische Evaluation von Qualitätsmanagement in großen Unternehmen mit Hilfe der Fragebogen-Methode unterstützen. Die Hauptanforderung dieser Arbeit ist die Entwicklung einer Webanwendung zur Erstelllung und Verwaltung von Fragebögen und Statistiken sowie auch zur Pflege und Verwaltung von Personaldaten von an der Evaluation beteiligten Mitarbeitern. Die Evaluierung mittels Fragebogen soll möglichst schnell und bequem für alle Beteiligten sein. Um dies zu erreichen, wird eine mobile Anwendung für die Fragebogenbeantwortung erstellt, Übermittlung, Bearbeitung und Speicherung der Ergebnisse automatisch durchgeführt wird. Die Softwareanwendung stellt eine Client-Server-Architektur dar, auf Server-Seite steht die Webanwendung und auf der Client-Seite die mobile Anwendung. Am Ende der Entwicklung soll ein Prototyp der Software zur Verfügung stehen.
Diese Arbeit hat das Ziel, verschiedene Methoden und Techniken zur Anomalieerkennung und Ereigniskorrelation zu untersuchen. Während dieser Arbeit wird die Log-, Monitoring- und Reporting-Software Splunk analysiert. Die Grundlagen der statistischen Methoden und maschinellem Lernen dienen als Basis dieser Untersuchung. Diese Algorithmen ermöglichen die Erkennung von Ausreißern in vorhandenen Datensätzen. Hierfür wurden Anforderungen definiert und die Konzeption für den Einsatz entwickelt. Im Anschluss erfolgt die Vorstellung der Ansätze zur Anomalieerkennung und Ereigniskorrelation basierend auf praktischen Ergebnissen.
Diese Arbeit hat das Ziel, verschiedene Methoden und Techniken zur Anomalieerkennung und Ereigniskorrelation zu untersuchen. Während dieser Arbeit wird die Log-, Monitoring- und Reporting-Software Splunk analysiert. Die Grundlagen der statistischen Methoden und maschinellem Lernen dienen als Basis dieser Untersuchung. Diese Algorithmen ermöglichen die Erkennung von Ausreißern in vorhandenen Datensätzen. Hierfür wurden Anforderungen definiert und die Konzeption für den Einsatz entwickelt. Im Anschluss erfolgt die Vorstellung der Ansätze zur Anomalieerkennung und Ereigniskorrelation basierend auf praktischen Ergebnissen.
Das Erarbeiten von Architektur- und Prozessmodellen im Unternehmen ist eine anspruchsvolle Aufgabe, da komplexe Zusammenhänge möglichst einfach dargestellt werden sollen. Um die gewünschten Ergebnisse zu erzielen, ist eine systematische Vorbereitung und Durchführung der Modellierungsphase erforderlich. Gegenstand dieser Arbeit ist, die Architekturmodellierung mittels 3LGM² um die Möglichkeit einer prozessorientierten Betrachtung betrieblicher Abläufe durch eine geeignete Modellierungsnotation zu erweitern. Es wurden verschiedene Notationen strukturiert beschrieben und anhand eines Beispielprozesses abgebildet. Die Betrachtung der Notation gliedert sich in eine allgemeine Beschreibung über die Entstehung und die Anwendung jener Methode und eine Beschreibung der grafischen Symbole, über welche sie verfügt. Der Beispielprozess beschreibt einen Ausschnitt des Vertriebs von Informationstechnik und wurde in der jeweiligen Notation dargestellt. Auf dieser Grundlage erwies sich die Ereignisgesteuerte Prozesskette (EPK) als am Besten geeignet für die identifizierten Anforderungen. Darauf aufbauend wurden das 3LGM²-Modell für die Darstellung von Geschäftsprozessen überarbeitet und verschiedene Lösungsansätze für die Anpassung des 3LGM²-Baukastens aufgezeigt. Weiterhin ist es Ziel, ein Vorgehensmodell für die Analyse und Modellierung der Architektur eines Informationssystems und von Geschäftsprozessen zu erarbeiten. Dieses Vorgehen zur Analyse und Modellierung wird anhand des HBK vorgestellt. Hierfür wurde die Architektur der Verwaltung analysiert und modelliert. Beispielhaft wurden ausgewählte GP der Verwaltung modelliert.
Die vorliegende Arbeit befasst sich mit dem Bootvorgang eines eingebetteten Linux-Systems, mit dem Ziel, diesen zu beschleunigen. Der bestehende Bootvorgang wird analysiert und auf Schwachstellen hin untersucht, um daraus Optimierungspotentiale festzustellen und diese schließlich umzusetzen. Dabei müssen verschiedene Komponenten des eingebetteten Systems berücksichtigt werden, die an unterschiedlichen Phasen des Bootvorgangs beteiligt sind. Ein Großteil der Analysen und Optimierungen konzentriert sich auf die Parallelisierung von Prozessen im Init-System und den Einsatz eines neuen Komprimierverfahrens. Es wird ein Konzept aufgestellt und implementiert, das den parallelen Start von Diensten ermöglicht, die Abhängigkeiten untereinander besitzen. Für die Komprimierung des Linux-Kernels und des squashfs-Dateisystems wird der Brotli-Algorithmus in den Linux-Kernel aufgenommen, der eine schnelle Dekomprimierung mit hoher Kompressionsrate aufweist.
Softwarearchitektur gilt als Königsdisziplin der Softwareentwicklung. Viele Aspekte sind für eine gute Architektur in Einklang zu bringen. Hierzu müssen neben Softwarequalitätskriterien wie Performance oder Wartbarkeit auch die Interessen aller Projektbeteiligten vom Kunden bis zum einzelnen Entwickler einbezogen werden. Je größer und komplexer ein Softwaresystem wird, desto herausfordernder ist auch die Entwicklung der Softwarearchitektur. Zudem entwickelt sich die Architektur aufgrund sich stetig ändernder Anforderung immer weiter. Bestehende Teile müssen umgestaltet und neue integriert werden. Es gilt die Komplexität zu beherrschen und den Überblick im Großen wie auch im Kleinen zu behalten. Von sich stetig ändernden Anforderungen ist auch das Softwaresystem HSCERP des Unternehmens HSC Solutions betroffen. Das ursprünglich für den Einsatz in Kleinstunternehmen ausgelegte System findet zunehmend mehr Interessenten mit einem immer größer werdenden Nutzerkreis. War die aktuelle Performance der Architektur unter Berücksichtigung der Anforderungen von Kleinst- und Kleinunternehmen angemessen, stößt sie in mittleren Unternehmen an ihre Grenzen. In der Softwaretechnik sind solche Probleme schon lange ein Thema. Sie wurden in zahlreichen Arbeiten behandelt und in Form von Standardarchitekturansätzen verarbeitet. Ziel dieser Arbeit ist die Untersuchung solcher Standardarchitekturen hinsichtlich ihrer Eignung zur Performancesteigerung von HSCERP. Zu den untersuchten Ansätzen zählen neben der weitverbreiteten Schichtenarchitektur und dem Ansatz des Domain Driven Designs auch das weniger bekannte Quasar, welches versucht eine Standardarchitektur speziell für ERP-Systeme zu beschreiben.
Nach einer einer kurzen Einführung in die Grundlagen werden die Anforderungen der Software erhoben. Da aufgrund einer Vielzahl mobiler Plattformen der Implementierungsaufwand sehr hoch ist, wurde zunächst nach einer plattformunabhängigen Lösung gesucht. Aufgrund der Ergebnisse der Evaluierung folgt eine native Realisierung für die Apple iOS-Plattform. So wird zunächst ein Konzept der Software aufgestellt und darauffolgend prototypisch implementiert. Der Prototyp zeigt, dass der Entwurf die gestellten Anforderungen erfüllt.
Applikationen im Java Enterprise Umfeld benötigen meist eine Funktionalität, mit welcher Daten vom Client, über mehrere Aufrufe hinweg, zugeordnet und verwaltet werden können. Meist wird diese Funktionalität von dem verwendeten Java-Framework abgedeckt. Diese Arbeit zeigt eine Alternative auf, welche den aktuellen Trend der Webentwicklung berücksichtigt. Dabei wird vor allem auf die Entwicklung des JavaScripts in den letzten Jahren eingegangen. Des Weiteren werden Anforderungen aufgestellt und Analysen verschiedener Technologien betrieben, welche zur Entwicklung einer Bibliothek benötigt werden. Dabei werden die möglichen Technologievarianten vorgestellt und erklärt, warum sich für eine bestimmte Technologie entschieden wurde. Hierbei wird auf Features eingegangen, welche im weiteren Verlauf der Arbeit noch praktische Anwendung finden. Das Ziel ist es, eine modulare Bibliothek zur Sessiondatenverwaltung zu konzipieren und deren Einsatz anhand eines Prototypen aufzuzeigen.
Masterarbeit beschäftigt sich damit, wie man für ein bereits existierendes Softwareprojekt ein eigenständiges Modul entwickelt, das eine bestimmte Funktionalität dieser Anwendung realisiert. Es wird dabei in die Entwicklungsphasen des Softwareprojektes eingegangen beginnend mit Planungsphase und abschließend mit Entwurfsphase. Dabei werden die Besonderheiten jeder Entwicklungsphase und die dabei verwendete Technologien beschrieben. Zum Schluss werden die Sicherheitsmaßnahmen für die Web Anwendungen betrachtet und die im Projekt berücksichtigte Sicherheitsmaßnahmen erläutert.
Diese Arbeit beschäftigt sich im Rahmen der zunehmenden Digitalisierung des Gesundheitswesens in Deutschland mit neuen Strategien in der Behandlung des akuten nicht spezifischen Kreuzschmerzes. Hierbei steht insbesondere die Anbindung von Digital Health-Anwendungen an einen sogenannten Behandlungspfad dieses Beschwerdebildes im Fokus. Nachdem entsprechende theoretische Grundlagen dargelegt werden, beleuchtet die Arbeit den aktuellen Forschungsstand von Digital Health-Anwendungen in der Behandlung des nicht spezifischen Kreuzschmerzes. Hierbei wird sowohl auf Inhalte als auch den Einsatz und die Wirksamkeit der Digital Health-Anwendungen eingegangen. Im weiteren Verlauf wird ein leitlinienkonformer Behandlungspfad für den Erstkontakt des akuten nicht-spezifischen Kreuzschmerzes erstellt sowie derzeit in Deutschland verfügbare Digital Health-Anwendungen identifiziert und hinsichtlich ihrer vermittelten medizinischen Maßnahmen untersucht. Ausgehend vom erstellten Behandlungspfad sowie den Untersuchungsergebnissen wird ein sogenannter
Die Arbeit nutzt das Requirements Engineering zum Erheben funktionaler und nicht-funktionaler Anforderungen an eine Bedienoberfläche. Zielgruppe sind ältere multimorbide Menschen. Die zu entwickelnde App soll die Möglichkeit einer Videosprechstunde und das Übertragen von Vitaldaten, die von medizinischen Kleingeräten gewonnen wurden, an die elektronische Patientenakte ermöglichen.
In der folgenden Abhandlung geht es im wesentlichen um die Evaluation des Intenta S-2000 3D-Vision Sensor. Dieser Smart-Sensor basiert auf einem Stereokamera-Sensorsystem und erlaubt die Erfassung der dreidimensionalen Umgebung und die Erkennung von Objekten und Personen, sowie Ereignissen in dieser. Hierfür berechnet er sich aus den beiden Stereobildern eine 3D-Punktwolke, welche die Umgebung abbildet. Anhand dieser Daten können dann, je nach Anwendungsfall und Konfiguration der Software des Sensors, verschiedene Detektionsaufgaben ausgeführt werden. Angefangen bei einfachem Tracking, also Personen- bzw. Objektverfolgung, über Personenzählung, bis hin zu Verhaltensanalyse reichen die Anwendungsmöglichkeiten. Jedoch erzeugen solche komplexe Anwendungsmöglichkeiten auch Probleme bei der Evaluierung. Die bisher verwendete Tool-Kette ist den vielfältigen Möglichkeiten und auch der großen Testdatenmenge aus vielerlei Gründen nicht mehr gewachsen. Die Evaluation soll in Zukunft automatisch anhand vorgegebener Referenzdaten und abhängig vom Anwendungsfall erfolgen. Als Ergebnis dessen sollen qualitative Einschätzungen der verschiedenen Trackerrevisionen anhand ausgewählter und aussagekräftiger Metriken erzeugt werden, um etwaige Probleme nach Revisionsänderungen bzw. Konfigurationsänderungen zu erkennen. Auch die Qualität der Tracking-Algorithmen über den Entwicklungsverlauf soll darüber vergleichbar gemacht werden und dementsprechend die Wirksamkeit der Änderungen nachweisbar zu machen.
Ein medizinisches elektrisches Gerät muss jederzeit ein hohes Maß an Sicherheit für Patienten, Anwender und Dritte gewährleisten. Um den Schutz vor elektrischem Schlag sicherzustellen, fordert die DIN EN 60601-1 zwei Schutzmaßnahmen. In dieser Masterarbeit werden die möglichen Schutzmaßnahmen aufgeführt und erläutert sowie Stellen und Komponenten, wo diese im Gerät konstruktiv umgesetzt werden können, aufgezeigt. Das Prüfverfahren zur Prüfung der Isolation als Schutzmaßnahme wird dargelegt. Außerdem wurden eine Übersicht und eine Tabelle erstellt, welche die Auswahl der notwendigen Prüfspannung erleichtern. Die Tabelle enthält zusätzlich die erforderlichen Luft- und Kriechstrecken. Für die Durchführung der Prüfung zwischen beliebigen Punkten im Gerät mit einem SECUTEST SIII+ H wurde ein Adapter angefertigt. Ein weiterer Teil ist die Erläuterung der Prüfung defibrillationsgeschützter Anwendungsteile. Für diese Prüfung wurde ein entsprechendes Prüfgerät geplant, gebaut und getestet.
Am Helmholtz-Zentrum Dresden-Rossendorf wurde ein lasergestützter Teststand für gasgefüllte Kernstrahlungsdetektoren aufgebaut. Der Teststand erzeugt UV-Laserpulse mit einer Pulslänge von wenigen Pikosekunden. Es wird gezeigt, dass es mit Hilfe eines stark fokussierten Laserstrahls möglich ist, Elektron-Ion-Paare in einem wohl definierten Raumvolumen innerhalb eines RPC-Testdetektors (RPC = Resistive Plate Chambers) zu erzeugen und nachzuweisen. Erste Messungen wichtiger Kenngrößen, wie z.B. des ersten Townsend-Koeffizienten oder der Elektronendriftgeschwindigkeit in verschiedenen Timing-RPC-Gasmischungen, werden vorgestellt.
In den letzten Jahren ist die Rechenleistung von Computern und zugleich die Auflösung der zum anzeigen von Hologrammen benötigten Spatial Light Modulaturen stark angestiegen. Dadurch erfährt das Themengebiet der synthetisch erzeugten Hologramme einen enormen Aufschwung. Es soll daher eine Plattform aufgebaut werden, mit welcher synthetische Hologramme erzeugt und evaluiert werden können. Zudem sollen die Inhalte als Grundlage für einen Versuch zum Einstieg in dieses Themengebiet dienen.
Es wurde mittels eines Transmissions Spatial Light Modulatrs ein inline Versuchsaufbau zum anzeigen von Phasenhologrammen realisiert. Als Methoden zum generieren der Phasenhologramme wurden die Fourier Optik und der Gerchberg-Saxton Algorithmus gewählt. Aus didaktischen Gründen wurde der Versuchsteil in mehrere Teilgebiete unterteilt um ein Gefühl für die verschiedenen Aspekte der digitalen Holografie zu vermitteln. Die so erzeugten rekonstruierten Bilder wurden hinsichtlich ihrer Qualität mittels SSIM bewertet und Effekte welche auftreten erläutert. Zudem wurde der gesamte Pythoncode so angelegt, dass dieser parallel zu dieser Arbeit als eine Versuchsanleitung dienen kann.
Mit einer Web-Services-Architektur wird es möglich, Geschäftsfunktionen jeder Art in Form von Diensten bereitzustellen. Je weiter sich dieses Architekturmodell entwickelt, desto besser sind Unternehmen in der Lage, Web Services externer Anbieter als Business Services einzusetzen, um ihr eigenes Angebot und Know-how auszuweiten. Durch ihre breite Akzeptanz und die vorhandene Netzwerk-Technologie sind Web Services auf dem besten Wege, die Geschäftsabwicklung innerhalb und zwischen Unternehmen von Grund auf zu revolutionieren. Schließlich machen Web Services den technischen Teil der Integration einfacher, und somit kann man sich auf das eigentliche Ziel von Integrationsprojekten die durchgängige IT Abbildung von Geschäftsprozessen zuWeb Services sind Technologiekomponenten, die auf offenen Standards basieren und die Kommunikation und Interoperabilität mit anderen Anwendungen über ein Kommunikationsnetzwerk ermöglichen. Sie nutzen branchenspezifische Standardprotokolle und die vorhandene Web Infrastruktur. Damit bieten sie die Möglichkeit, die Geschäftsprozesse eines Unternehmens intern wie extern zu integrieren.konzentrieren. Nach einem Anwendungsbeispiel und der Darstellung der Einschränkungen des implementierten Webapplikation dient das abschließende Kapitel der Arbeit dazu, eine Übersicht über die Möglichkeiten der realisierten Werkzeuge zu geben und Vorschläge für mögliche und wünschenswerte Erweiterungen des Systems darzulegen. Im Bereich der Flexibilität ermöglichen die in der Arbeit dargestellten Konzepten die Aktionen, Werkzeuge und Dialoge, die statisch oder dynamisch aus der Properties- oder XML-Datei zu bauen sind. Falls die Applikation um eine neue Sprache oder einen neuen Parameter erweitert werden soll, wird nicht auf den Quellcode zugegriffen, sondern es müssen nur die Steuerdatei geändert und neue Dateien mit der sprachspezifischen bzw. dem neuen erweiterten Parameter spezifischen Informationen erzeugt werden. Falls die Applikation um eine neue Aktion erweitert werden soll, muss folgendes gemacht werden: (hier nur einen Verweis auf diese Vorgehensweise, weil diese nicht Teil der Aufgabenstellung ist (Priorität))
Superkontinuumslichtquellen revolutionierten in den letzten Jahren viele Bereiche der opti-schen Messtechnik, wie zum Beispiel Mikroskopie und optische Kohärenztomografie. Die fehlende Möglichkeit der Modulation und die Stabilität der bestehenden Systeme limitieren die Einsatzmöglichkeiten. Ziel dieser Arbeit war die Entwicklung einer direkt steuerbaren Laserquelle mit geeigneten Parametern zur Erzeugung eines breitbandigen Spektrums in mik-rostrukturierten Fasern. Die erforderlichen Laserparameter, speziell die Pulslängen und Puls-spitzenleistungen sowie die daraus resultierende Konversionseffizienz wurden anhand bestehender passiv gütegeschalteter Festkörperlasersysteme ermittelt und als Zielgrößen für das zu entwickelnde System festgelegt. Der Einsatz einer Laserdiode, welche mit Hilfe eines hierfür entwickelten Kontrollers repro-duzierbar Nanosekundenpulse mit einer Repetitionsrate bis in den MHz-Bereich emittiert, ermöglicht eine direkte Ansteuerung des Systems. Die Signale der Laserdiode wurden in ei-nem zweistufigen Faserverstärker auf den erforderlichen Leistungsbereich verstärkt, in eine mikrostrukturierte Faser gekoppelt und ein breitbandiges Spektrum generiert. Eine breite Auswahl erforderlicher Komponenten des Faserverstärkers wurden evaluiert und deren An-ordnung optimiert. Mit Hilfe dieser Komponenten konnte das Gesamtsystem hinsichtlich der spektralen Leistungsdichte bei unterschiedlichen Repetitionsraten und unter Nutzung ver-schiedener mikrostrukturierter Fasern charakterisiert werden.
In dieser Arbeit wird das Konzept eines Messsystems vorgestellt, welches eine zeitlich und örtlich aufgelöste Analyse von Elementen ermöglicht. So soll die Schweißnaht einer Probe sowie die Eindringtiefe eines Schweißlasers bei der Aluminiumrohrproduktion kontrolliert werden. Dieses Messsystem basiert auf dem Prinzip der laserinduzierten Plasmaspektroskopie (eng.: laser-induced breakdown spectroscopy, LIBS). Dabei wird ein hochenergetischer Laser verwendet, um auf der bestrahlten Probenoberfläche ein Plasma zu erzeugen. Dieses Plasma emittiert charakteristische Strahlung, die Rückschlüsse auf die elementare Zusammensetzung der Probe zulässt.
Zunächst wurden die Spektren der im Schweißprozess verwendeten Metalle, Aluminium und Titan, mit Hilfe von LIBS erfasst. Die Untersuchungen zeigten elementspezifische Strahlung für Aluminium bei 396 nm und für Titan bei 500 nm. Für die separate Erfassung dieser charakteristischen Emissionslinien wurde ein geeigneter Messaufbau mittels Strahlteiler, Filter sowie Avalanche Photodetektoren umgesetzt. Dieses Konzept ermöglicht die spektrale und zeitliche Trennung der elementspezifischen Signale, wie Messungen an reinen Metallen zeigten. Ein mit Titan verschweißtes Aluminiumblech wurde im rechten Winkel zur Schweißnaht in 30\,µm Schritten untersucht. Die Ergebnisse zeigten erhöhte Signale des Detektors für den Wellenlängenbereich von 500 nm, was auf das Vorkommen von Titan hinwies. Diese Annahme wurde durch eine zusätzliche Untersuchung mit der energiedispersiven Röntgenspektroskopie (engl.: energy dispersive X-ray spectroscopy, EDX) bestätigt und wies auf eine Materialdurchmischung in der Mitte der Schweißnaht hin. Des Weiteren wurde während der Produktion eines Aluminiumrohrs das laserinduzierte Schweißplasma mit dem Messsystem analysiert. Bei diesem Arbeitsprozess wurde die Laserleistung schrittweise erhöht um ein Durchschweißen zu erzielen, sodass ein Titanplättchen in der Schweißunterlage elementspezifische Strahlung emittiert. Bei einer Leistung von 250 W war eine Signalerhöhung des Detektors für den Wellenlängenbereich von 500 nm zu erkennen, was auf eine Titanablation aufgrund des Durchschweißen hinwies. Diese Vermutung wurde durch Ablationsspuren auf der Schweißunterlage bestätigt.
Für den Fortschritt im Bereich der Erforschung von extrem kurzen Prozessen in Materialien und zur Entwicklung neuer fortschrittlicher Industrieanlagen, ist es von essentieller Wichtigkeit Studenten mit dem Themenbereich von ultrakurzen Pulsen vertraut zu machen. Deshalb, ist es für die Lehreinrichtungen notwendig, über innovative und zugleich einfach handhabende Praktikumsaufbauten zu verfügen. Ziel dieser Arbeit ist die Realisierung eines Lehraufbaus, mit dem es möglich ist, alle essentiellen Prozesse und Mechanismen zur Erzeugung von ultrakurzen Pulsen im Femtosekundenbereich anschaulich darzustellen. In dieser Arbeit wurden unterschiedlichste optische Komponenten sowie Typen und Längen von optischen Fasern getestet, um einen stabilen modenkoppelnden Aufbau zu generieren. Dabei wurde vor allem ein Augenmerk auf die resultierende Dispersion gelegt, sowie auf die einfache Justierbarkeit des Gesamtaufbaus. Schlussendlich wurde ein selbststartender Femtoskeundenlaser mit einer Pulsdauer im Bereich von 200-400xfs aufgebaut und hinsichtlich seiner Stabilität charakterisiert. Die erhaltenen Ergebnisse zeigen, dass der realisierte Erstaufbau für den Einsatz im Lehrbetrieb gut geeignet ist. Zusätzlich zu dem modengekoppelten Ultrakurzpulslaser, wurde im Verlauf der Arbeit, für die exakte Bestimmung der Pulsdauer ein Autokorrelator aufgebaut und für die Vermessung der Pulse verwendet.
Diese Arbeit entstand aus vorangegangenen Experimenten, Ionen in einem Speicherring mit einem Dauerstrich-Laser zu kühlen. In der vorgelegten Arbeit wurde ein mehrstufiges, gepulstes Lasersystem entwickelt, welches eine intensivere Ionenkühlung zum Ziel hat. Hauptaugenmerk liegt hierbei zunächst auf der Erzeugung bandbreitenlimitierter Pulse mit einer Impulsdauer von 50 ps, was einer spektralen Breite von 30 pm entspricht. Des Weiteren ist es erforderlich, eine Pulsenergie von 5 µJ bei einer Pulswiederholrate von 1 MHz zu erreichen. Die initiale Pulswiederholungsrate von 78 MHz der Quelle wird von dem fs-Oszillator Mikan bereitgestellt, wodurch die geforderten 1MHz mit einer Pulspickerzelle eingestellt werden kann. Der in dieser Arbeit entstandene Monochromator erreichte die geforderte Bandbreite 30pm bei der nötigen Leistungsübertragung von 0,1%. Diese bandbreitenlimitierten Pulse konnten in der aufgebauten ersten Multipassverstärkerstufe erfolgreich verstärkt werden. Mit einem in dieser Arbeit entstandenem schmalbandigem cw-Laser konnten das Verstärkersystem und der Monochromator schmalbandig und variabel in der Wellenlänge gespeist werden. Mit der breitbandigen Quelle des Mikan und der schmalbandigen Quelle des cw-Lasers konnten die aufgebauten Systeme ausführlich untersucht werden. Dabei wurde besonderen Wert auf das Konzept des Multipasses und des verwendeten Yb:YAG-Laserkristalls gelegt. Diese Untersuchungen stellten das Fundament für die Verstärkerstufen des Ionenkühlexperimentes dar. Die Systeme wurden alle modular aufgebaut, so kann am Speicherring unter maßvollem Aufwand das bisher gezeigte Leistungsspektrum reproduziert werden.
Die vorliegende Masterarbeit stellt eine Aufbereitung des Notfalldatensatzes sowie eine Implementierungsmöglichkeit eines Prototyps innerhalb der Interoperabilitätsplattform „HealthShare“ vor. Zu diesem Zweck erfolgt im ersten Schritt die Beschreibung notweniger Grundlagen sowie die sich daraus ergebende Definition relevanter Begrifflichkeiten. Im nächsten Schritt findet eine Analyse des Notfalldatensatzes statt. In diesem Zusammenhang werden Aspekte zum Anlegen, Auslesen, Aktualisieren und Löschen sowie Voraussetzungen und Kriterien des Notfalldatensatzes veranschaulicht und datenbanktechnisch betrachtet. Mithilfe des theoretischen Aufbaus sowie der datenbanktechnischen Betrachtung des Notfalldatensatzes wird im weiteren Schritt ein Konzept für die Umsetzung des Notfalldatensatzes erstellt. Infolgedessen wird die Kommunikation zwischen dem Notfalldatensatz und dem Anwendungssystem betrachtet. Es erfolgt eine Konzeption des Ausgabeformulars, um eine mögliche Umsetzung in HealthShare zu simulieren. Anschließend werden mehrere Eingabeformu-lare konzipiert.
Abschließend erfolgt die prototypische Umsetzung und erste Implementierung der erschlossenen Informationen.
Die Festlegung der Abgrenzung von Microservices ist heute eine große Herausforderung bei der Entwicklung von verteilten Systemen. Eine falsche Aufteilung verhindert die Vorteile der Microservice-Architektur und führt zu einem hohen Koordinierungsaufwand der Teams bei der Bereitstellung der neuen Funktionen. Viele sind der Meinung, dass die Abgrenzung von Microservices um die Geschäftsdomäne herum modelliert werden sollte. Deshalb kann die Verwendung von strategischen Domain Driven Design-Konzepten wie Bounded Context und Context Mapping der Schlüssel zur erfolgreichen Dekomposition von Microservices sein.
Das Ziel dieser Masterarbeit besteht in der Forschung des Einflusses des strategischen Designs auf die Qualität der Dekomposition von Microservices. Dazu wird die folgende Forschungsfrage gestellt: "Wie gut können die Grenzen von Microservices durch die Werkzeuge des statistischen Domain Driven Design modelliert werden?"
Um die Forschungsfrage zu beantworten, wurde ein experimentelles Microservice-System modelliert. Als Studienfall wurde die Domäne von Meisterplan betrachtet, die von dem Unternehmen itdesign zur Verfügung gestellt wurde.
Im Rahmen der Modellierung wurden acht Bounded Contexts im Meisterplan-System festgelegt und detailliert beschrieben, die in der Folge als potenzielle Kandidaten für Microservices vorgestellt wurden. Außerdem wurden die Wege der Teamkoordination bei der Entwicklung durch Context Mapping modelliert. Das entstandene Modell wirkte sich positiv auf den Grad der Unabhängigkeit zwischen Microservices und Entwicklungsteams aus. Zudem wurde ein gutes Verständnis der Struktur und der Geschäftslogik der Fachdomäne erreicht.
Weitere Forschungen zu den Auswirkungen des strategischen Designs auf die Dekomposition von Microservices könnten sich auf die technische Umsetzung des entstehenden Modells konzentrieren.
Die Diagnosefindung für Hautkrebserkrankungen kann mit neuronalen Netzen erleichtert werden. Diese benötigen jedoch eine große Anzahl an Trainingsdaten, die im medizinischen Kontext häufig nicht vorhanden sind.
In dieser Arbeit wird ein Cycle-GAN genutzt, um Bilddaten zur Erweiterung begrenzter, medizinischer Datensätze zu erzeugen. Ein öffentlich zugänglicher, dermatologischer Bilddatensatz dient als Grundlage des Trainings. Die gewählte Architektur erlaubt es, Daten der Klasse Naevi in Daten der Klasse Melanome umzuwandeln. Der Einfluss verschiedener Parameter wurde untersucht.
Ein Großteil der durchgeführten Versuche konzentriert sich auf die Gewichtung der vier Lossfunktionen, anhand derer das Netz seinen Trainingsprozess optimiert. Wobei der adversariale Loss die Klassenzugehörigkeit bewertet, der Identitätsloss zur Qualitätserhaltung dient und die beiden Cycle-Loss den mathematischen Identitätsfunktionen der Datenverteilungen entsprechen.
Weiterhin wurde die Wirkung der Datenstandardisierung und -vorbereitung geprüft. Auch die Folgen einer Mehrfachnutzung ausgewählter Daten wurden betrachtet. Die Diskriminatoren des Cycle-GAN wurden hinsichtlich ihres Nutzens als Klassifikatoren für reale Daten getestet. Um die Nutzbarkeit der generierten Daten in Trainingsprozessen zu prüfen, wurde ein Klassifikator auf realen und anschließend auf generierten Daten trainiert.
Die erzielte Genauigkeit für Melanome stimmte in beiden Trainingsprozessen überein.
Die Thesis untersucht und veranschaulicht Augmented Reality Verfahren und ordnet diese ein. Neben theoretischen Aspekten zur Augmented Reality allgemein, wird ein besonderes Augenmerk auf Prinzipien der Objekterkennung, die genutzten Koordinatensystem, sowie markerbasierte Verfahren gelegt. Hier finden sich repräsentative Beispiele, welche mit Hilfe der Software "ARToolkit" angefertigt wurden und anhand von Codeauszügen erklärt werden. Abschließend wird ein Ausblick über mögliche künftige Verfahren gegeben.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Ziel der Arbeit ist die Auswertung von Fahrzeugflotteninformationen zur Erkennung von Angriffen auf die IT-Systeme oder Steuergeräte im Fahrzeug.
Mit Hilfe von Algorithmen zur Anomalie-Suche in univariaten und multivariaten Daten wird der Unterschied zwischen normalem Verhalten und einem System, welches angegriffen wird, herausgestellt.
Die Arbeit beinhaltet die theoretischen Grundlagen von Anomalien und Methoden, um sie zu finden. Die Masterarbeit umfasst auch Themen wie Sicherheit und Schwachstellenüberwachung. Der praktische Teil wird ein Versuch sein, eine Anwendung zum Auffinden von Anomalien in Autos zu erstellen.
Automatische Codegenerierung für Domain-Driven Design-Implementierungen auf Basis von Event Modeling
(2022)
In dieser Arbeit wird das „ONoteReader“-Projekt vorgestellt.
Hierbei handelt es sich um eine frei verfügbare und nicht kommerzielle Software, die auf Basis eines „Event Models“ [Dym19] wiederverwendbaren Programmcode generiert. Event Modeling ist eine Methode, Systeme ausführlich zu modellieren und deren Verhalten zu beschreiben, bevor diese implementiert werden. Dabei wird der Fokus auf eine ereignisgesteuerte Systemarchitektur gelegt. Die für den Vorgang benötigten Event Models werden von „oNote“ (onote.com) bereitgestellt. oNote ist ein Online-Tool, mit dessen Hilfe man ereignisgesteuerte Informationssysteme designen kann [oNo21]. ONoteReader ist eine Desktop-Anwendung, die ein in oNote entworfenes Event Model in Form einer JSON-Datei entgegennimmt.
Dieses Modell wird in Java-Quellcode umwandelt und anschließend im gewählten Dateiverzeichnis des Nutzers abspeichert.
Ziel der Software ist es, die fachlichen und technischen Bestandteile des Event Models so wiederzuverwenden, wie sie zuvor definiert wurden. Dadurch kann aus dem vorliegenden Modell direkt und ohne Aufwand Code generiert werden, ohne diesen selbst implementieren zu müssen. Der hierbei generierte Java-Code spiegelt das Event Model detailgetreu wider und orientiert sich dabei an der Vorgabe von „Domain-Driven Design“ (DDD). Einem Ansatz, bei dem das Software-Entwurfsmodell der Fachlichkeit des zugrundeliegenden Systems entsprechen soll [Ver13]. ONoteReader richtet sich an jene, die vorhaben, ein oNote Event Model in Java umzusetzen und dabei Zeit und Aufwand sparen möchten.
Das Unternehmen SYSTEC electronic GmbH bietet verschiedene Steuerungen einer PLC/ SPS Produktlinie an. Diese werden mithilfe der Entwicklungsumgebung OpenPCS pro- grammiert. Die so erstellten Programme werden in einer Laufzeitumgebung auf der Steue- rung ausgeführt. Das Laufzeitsystem wird von SYSTEC für die konkreten Steuerungen und deren Peripherie angepasst und erweitert. Die Arbeit verfolgt das Ziel Systemtests für das Laufzeitsystem und dessen Anpassungen automatisch durchführen zu können. In der folgenden Arbeit werden die notwendigen Grundlagen erläutert. Außerdem wer- den Anforderungen erhoben und mögliche Ansätze beschrieben, wie diese erfüllt werden können. Aus den Ansätzen wird anhand geeigneter Kriterien eine Wahl getroffen, die in der Lösung verwendet wird. Im Anschluss werden die einzelnen Aufgaben und Komponen- ten der Implementierung beschrieben. Danach wird ein Vergleich zwischen Anforderungen und Ergebnissen gezogen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick an weitere mögliche Entwicklungen gegeben.
In der vorliegenden Arbeit wird die aktuelle Situation der Elektromobilität in Deutschland erörtert, um daraus Beiträge für ein nichtthermisches Verfahren zur Aufbereitung von Lithium-Ionen Ni1/3Mn1/3Co1/3O2-Traktionsenergiespeichern zu liefern. Bestehende Recyclingverfahren arbeiten dagegen mit energie- und kostenintensiven pyro
Diese Arbeit befasst sich der Bewertung der Impedanzspektroskopie als Methode für die Schichtdickenmessung an komplexen geometrischen Formen. Dafür wird die Herstellung und Untersuchung von Kondensatoren für Grundlegende Betrachtungen herangezogen. Als Basis wird der Aufbau eines Plattenkondensators genutzt. Hierfür wird über das RF-Sputtern ein Metall/Isolator/Metallsystem auf eine 18x18 große Siliziumprobe abgeschieden. Für die Metallschicht wird Titan verwendet und als Isolator kommt Titanoxid zum Einsatz. Die Mes-sung der einzelnen Schichten erfolgt über das spektrale Ellipsometer und die Röntgenreflek-tometrie. Beide Varianten werden gegeneinander abgeglichen, um zu sehen, welches Mess-verfahren sich besser für die Bestimmung der Schichtdicke eignet. Mit den gemessenen Da-ten des Schichtsystems erfolgt anschließend eine Impedanzmessung. Da die zumessenden Proben in der Form von Plattenkondensatoren sind, ist ein kapazitives Verhalten zu erwarten. In einem doppelt logarithmischen Diagramm, indem die Impedanz über der Messfrequenz aufgetragen ist, sollte es zu einem linearen Anstieg bei größeren Frequenzen kommen. Aus diesem Verhalten wird die Kapazität des Systems heraus berechnet und für die Berechnung der Schichtdicke der dielektrischen Schicht verwendet. Ziel ist es, anhand eines hergestellten Messsystems eine realistische Schichtdicke über die Impedanzspektroskopie berechnen zu können. Der praktische Hintergrund ist die Beschichtung von Bohrern.
Für die Entwicklung neuer Medikamente und zur Züchtung künstlicher Organe ist es essenziell, die Wechselwirkungen zwischen verschiedenen Organen zu Untersuchen. Darum ist es notwendig, über ein komplexes und realitätsnahes Modellsystem zu verfügen, Lab-on-Chip Bioreaktoren bieten diese Möglichkeit. Ziel dieser Arbeit ist es, ein Messsystem zu entwickeln, das unter Ausnutzung von im Stoffwechsel aller eukaryotischen Zellen vorkommenden Substanzen zur kontinuierlichen Überwachung der Zellen geeignet ist. Als geeignete Markerfreie Messung hat sich die Fluoreszenzlebensdauermessung an NADH erwiesen. Die Änderungen des Metabolismus der Zelle sowie ihrer Umgebung führen zu einer Verschiebung der Fluoreszenzlebensdauer im einstelligen ns-Bereich. Da einige Stoffwechelprozesse in allen eukaryotischen Zellen gleich sind, konnte Saccharomyces cerevisiae als Modellorganismus zur realitäsnahen Messung eingesetzt werden. In dieser Arbeit wurden zeit- und frequenzbasierte Messmethoden zur ns-genauen Bestimmung der Fluoreszenzlebensdauer untersucht. Dabei wurden die Zellen gezielt mit den zellschädigenden Stoffen HCl sowie Triton-X100 behandelt und die Änderung vermessen. Es konnte gezeigt werden, dass sich die Fluoreszenzlebensdauer bei induzierter Apoptose um 1,4 ns verlängert, sowie durch induzierte Nekrosen um 0,5 ns verringert. Die Messergebnisse zeigen, dass es möglich ist, den Vitalitätszustand der Zellen optisch zu analysieren.
This work aimed to apply the Floating Film Transfer Method (FTM), developed by Kaneto et.al., as a new way of coating planar and nonplanar substrates with photoresist. Focus laid on the creation of a workflow to coat the substrate and process it by UV-Lithography and Nanoimprint lithography. Conventional coating methods like spin-, spray- or dip coating are well established in today’s industry but are limited in their capabilities to coat curved and structured surfaces. FTM offers the possibility to overcome these limitations. Therefore, two negative resists AR N 4400 and AR N 4600 10 as well as two positive resists AR P 3110 and AZ MIR 701 were drop cast on deionized water. The resist spreads into a thin film that can be transferred to a planar or curved substrate. Profilometric and ellipsometric measurements were conducted to evaluate the topography of the resist. A non-uniform thickness distribution was found depending on the resist and parameters like solid content, water temperature, and the amount of surfactant. UV-Lithography and Nanoimprintl ithography were successfully performed with these films. Resolutions as low as 2,3±0,4 µm were achieved by UV-Lithography of AR P 3110. A periodic pattern with a pitch of 1,51 µm was transferred by thermal nanoimprint lithography to AR N 4400 10. As proof of concept Laser Direct Writing was performed to structure AZ MIR 701coated on a glass vial.
Für die Charakterisierung von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen wird eine Messprozedur benötigt, die den Anforderungen einer solchen Produktion gewachsen ist. Zum einen ist es notwendig, dass die Genauigkeit und Präzision der verwendeten Messsysteme besser ist, als die Prozessstreuung der Abscheideprozesse. Nur so ist es möglich den Prozess zu kontrollieren. Hierfür werden in der Masterarbeit die Messsysteme mit Hilfe einer Messsystemanalyse untersucht. Zum anderen ist es notwendig, den Eingriff in den Herstellungsprozess so gering wie möglich zu halten. Hierfür werden in der Masterarbeit alternative Messmethoden zur Charakterisierung der elektrischen Eigenschaften der Indium-Zinn-Oxid-Schichten evaluiert. Als Ergebnis der Masterarbeit wird eine Messprozedur dargelegt, die für die Charakterisierung der elektrischen Eigenschaften von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen geeignet ist.
Im Rahmen dieser Masterthesis soll der Laserbohrprozess in der KSG Leiterplatten GmbH an einem ausgewählten PTFE-Basismaterial mit keramischen Füllstoffen bezüglich der ablaufenden Vorgänge untersucht und charakterisiert werden. Dazu erfolgt einerseits eine umfangreiche Darstellung des aktuellen wissenschaftlichen Standpunktes zum Thema Laserablation diverser Materialien und andererseits eine Darlegung der heutigen technischen Rahmenbedingungen. Als Gegenstand der Untersuchungen, werden Sacklochbohrungen in das gewählte Material eingebracht und analysiert. Hintergründe und Ablauf der durchgeführten Experimente werden ebenfalls genau erläutert. Unter anderem werden hierbei verschiedene zur Verfügung stehende Untersuchungsmethoden hinsichtlich ihrer Anwendbarkeit zur Evaluation der Microvias erprobt. Weiterhin erfolgt eine Auswertung der Variation der Bohrparameter Pulsanzahl, Pulsdauer und Laserleistung bezüglich möglicher Zusammenhänge. Ebenso wird ein einfaches theoretisches Berechnungsmodell zur Ermittlung der benötigten Laserpulsanzahl aufgestellt und evaluiert und die Prozessfähigkeit des Laserbohrverfahrens bezogen auf den inneren Bohrdurchmesser des Sacklochs mit Hilfe statistischer Methoden bewertet. Schlussendlich werden die gewonnenen Ergebnisse interpretiert, zusammengefasst und aus den Beobachtungen hypothetische Prozessabläufe formuliert.
Diese Arbeit befasst sich mit der Beschichtung dünner Kunststofffolien mithilfe der .arcPECVD-Beschichtung. Die Beschichtung erfolgt in der Anlage labFlex 200 des Fraunhofer Institutes FEP. Für diesen Prozess soll eine Methode für die Temperaturerfassung an der aus Graphit bestehenden Boosteranode erarbeitet und bewertet werden. Ein wichtiger Bestandteil dieser Arbeit bildet die Untersuchung in wie fern eine Variierung von Parameter Einfluss auf den Prozessablauf nimmt. Hierfür wurde ein Versuchsplan aufgestellt, der unterschiedliche Parametereinstellungen kombiniert. Somit kann der Einfluss verschiedenster Parameter mit auf den Prozess untersucht werden. Ebenso wird der Einfluss der Parameter auf die Beschichtungsrate hin untersucht. Dies soll ermöglichen, eine gezielte Aussage über das Beschichtungsverhalten geben zu können. Weiterer Kernpunkt dieser Arbeit ist Variation der Geometire der Graphitboosteranode. Die Variation erfolgt über Veränderungen in der Höhe und Veränderungen in der Breite der Anode. Diese geometrischen Variationen werden in Bezug auf die Versuchsparameter hin analysiert um eine Aussage darüber treffen zu können, ob und wie die Veränderung der Anodenhöhe/breite einen Einfluss auf die Prozessparameter und auf die Beschichtungsrate hat.
Conceptual design of load balanced streaming of multimedia data within shared web applications
(2011)
In this master's thesis it has been researched the possibility of a network of shared web applications in a server-supported (hybrid) peer-to-peer network where peers retransmit specified parts of the progressively download (streamed) multimedia data, with focus on economically bandwidth usage. A conceptual design of a real-world peer-to-peer video-on-demand service, controlled by a central server, was developed, including a payment procedure for commercial use. Different network overlay scenarios were proposed and their advantages and disadvantages were discussed. Bandwidth calculations have supported those predications. Algorithms for dynamically handling changes in the network structure were developed. Communication protocols were conceptualized accordant to the needs of the proposed shared applications. Methods for keeping the quality of experience high were discussed. A zipper mode, higher-level slice structure for the data was proposed, and enhanced to a multiple-stream system for sending and receiving data. Error and data loss handling procedures were designed.
The sysWORXX CTR-700 is a versatile edge controller solution developed by SYSTEC electronic AG and sold since 2017. The embedded device is designed for industrial environments to control other machines and equipment connected to it
over Ethernet network, CAN bus or a set of digital and analog input/output pins.
As a central controller in such automated environments, security is an important aspect. Especially integrity of all devices as well as confidentiality of stored and processed data must be ensured. Furthermore, provable authenticity of hardware is crucial to secure the controller's environment and prevent counterfeit hardware.
The sysWORXX CTR-700 has a built-in cryptographic co-processor ATECC508A from Microchip Inc. This ac:HSM provides hardware support for algorithms based on elliptic curve cryptography as well as secured slots for cryptographic keys and other confidential secrets.
This thesis analyses requirements for secure hardware verification and license management supported by the ac:HSM to enhance the existing solutions by leveraging military-grade cryptography standard algorithms and processes. Over
the course of this document, security principles are presented, relevant cryptographic systems and algorithms are explained to build a strong foundation and understanding.
Furthermore, the ATECC508A is introduced with its capabilities and prerequisites for secure confidential operation.
The proposed solution is a form of a vendor acrlong:PKI system. Technical and organizational policies for the ac:PKI are covered. They are accompanied by a detailed process description for provisioning the sysWORXX CTR-700 and the integrated ac:HSM. The process is supported by a set of custom-built tools for managing licenses and devices.
Schlaganfall zählt zu den folgeschweren altersassoziierten Erkrankungen mit zunehmender Anzahl der Betroffenen. Diese Arbeit widmet sich dem Gegenstand der Schlaganfallnachsorge und setzt sich in diesem Kontext mit Versorgungsansätzen und der Anwendung digitaler Technologien auseinander. Sie beleuchtet das Potenzial eines Connected Care Ansatzes für die Versorgungssituation in der Schlaganfallnachsorge, bestehend aus patientenzentrierter Versorgungssteuerung und integrierter IT-Unterstützung. Das Forschungsvorhaben umfasst eine qualitative Analyse mit dem Schwerpunkt auf qualitative Experteninterviews. Es folgt eine Bewertung der Förderfaktoren und Barrieren und die Anforderungsermittlung an ein optimales Versorgungskonzept. Insgesamt geht aus der Untersuchung der Nutzwert eines Connected Care Versorgungs-konzepts für Patienten, Angehörige und interdisziplinäre Leistungserbringer hervor.
Aluminiumoxid hat das Potential herkömmliche Oberflächenpassivierungen als besserer Passivator von Silizium basierten Solarzellen abzulösen. Seit 2004 werden Al2O3-Dünnschichten als Passivierung für kristallines Silizium erforscht. Optimierte Sputterprozesse anderer Forschungsgruppen erreichen eine Oberflächenrekombinations-geschwindigkeit von SORG = 2
Die vorliegende Masterarbeit beschäftigt sich mit dem Design und Aufbau eines Berichtswesens für die Volkswagen Sachsen GmbH, welches auf SAP BusinessObjects basiert und der werksspezifischen Aufwertung von Fertigungs- und Qualitätsdaten im Fahrzeugwerk Zwickau dient. Die Lösung dieser Aufgabe wurde in drei Schritten realisiert. Die erste Phase beinhaltete dabei die Analyse der Systemlandschaft, die Analyse von Vorgaben, die Aufnahme der Kundenanforderungen und die Erstellung einer Anforderungsspezifikation an das Berichtswesen. In der nachfolgenden Designphase erfolgte, basierend auf den Ergebnissen der Analysephase, der Entwurf eines ausgewogenen und strukturierten Konzeptes für den Aufbau des Berichtswesens, welches verschiedene Aspekte betrachtet und das Vorgehen zur späteren Umsetzung festlegt. Berücksichtigt werden dabei die Definition zu erstellender Berichte, der Zugriff auf die Datenbasis, ein Konzept zur Verwaltung von Berichts-Metadaten, eine Webanwendung zum Zugriff auf Berichte, der Entwurf eines einheitlichen Layouts/Look & Feel sowie ein vorläufiges Betriebs- und Support-konzept. Die dritte Phase beinhaltete die praktische Realisierung des Großteils der Design-entwürfe unter SAP BusinessObjects 4.0. Die Webanwendung wurde mit Java und JavaServer Pages implementiert. Die Ergebnisse der Arbeit sind ein vollständiges Konzept zum Aufbau eines Berichts-wesens sowie dessen prototypische Realisierung. Es wird bereits im Arbeitsprozess eingesetzt und bietet dennoch vielfältige Erweiterungsansätze.
Mit der revolutionären Entwicklung von Computern und dem Internet verwenden die meisten Restaurants Bestellmanagementsystem, um die Bestellinformationen innerhalb des Restaurants zu kontrollieren und zu verwalten. Der Einsatz des Bestellmanagementsystems hat dem Restaurant viele Vorteile gebracht, wie zum Beispiel die Reduzierung der Investitionen in Humanressourcen, die Verbesserung der Arbeitseffizienz und die Verringerung der Fehlerwahrscheinlichkeit. Viele bestehende Bestellverwaltungssysteme berücksichtigen jedoch nicht, ob die Oberfläche schön und prägnant ist. Und manche Systeme sind zu kompliziert in der Bedienung und nicht gut genug in der Schnittstellenreaktion. Daher wird ein Bestellmanagementsystem basierend auf einer Web-Front-End-Komponentisierung entworfen und implementiert.
Das System nutzt die Idee, Web-Front-End und Back-End zu trennen. Dieser Artikel stellt hauptsächlich die Entwicklung von Frontend-Seiten vor. Das Frontend wird unter dem leichtgewichtigen progressiven Vue.js-Framework entwickelt, das auf dem Model-View-View-Modell (MVVM) basiert. Die Gesamtstruktur des Systems wurde auf Basis der Browser-Server (B/S) Architektur aufgebaut; die Systemfunktionen wurden über HTML5, CSS3 und Node.js realisiert. Schließlich wird die Gesamtfunktion des Systems durch das vom Drittanbieter bereitgestellte Backend-Schnittstellendokument getestet und angepasst.
Dem Design entsprechend ist das System in zwei Teile gegliedert: den Vordergrund und den Hintergrund. An der Rezeption können Benutzer Tische auswählen, Menüs durchsuchen, Gerichte bestellen und Bestellungen einsehen. Im Hintergrundteil kann der Benutzer die Klassifizierung, die Verwaltung der Gerichte und die Verwaltung des Tisches verwalten. Test und Betrieb zeigen, dass das Interface-Layout des Systems übersichtlich ist, die Funktion sinnvoll, die Bedienung einfach ist und grundsätzlich den Anforderungen genügt. Gleichzeitig zeichnet sich das System durch geringes Gewicht, einfache Transplantation und hohe Stabilität aus, was sich sehr gut für den Einsatz in Restaurants eignet.
Diese Arbeit beschreibt die Weiterentwicklung einer Web-Applikation, welche im Rahmen des europäischen EVI-GENORET-Projekts zur Erfassung phänotypischer Patientendaten verwendet wird. Das EVI-GENORET-Projekt verfolgt u.a. das Ziel, durch Erforschung bestimmter Netzhauterkrankungen die Diagnose- und Therapieverfahren für diese zu verbessern. Zu Beginn dieser Arbeit werden Rahmenbedingungen erläutert, welche sich aus der Projektorganisation ergeben, sowie Problemstellungen und Ziele der Bearbeitung abgeleitet. Hierauf folgt eine kurze Einlassung zu den Themen Anforderungsanalyse und Entwicklungsprozess, ebenfalls in Hinblick auf bestimmte Rahmenbedingungen der Bearbeitung, sowie eine nähere Betrachtung der zu speichernden Patientendaten. Im Folgenden wird die bisher implementierte Version des Erfassungssystems beschrieben. Hierbei werden technologische und strukturelle Mängel herausgearbeitet, welche zur Entscheidung der vollständigen Reimplementierung führten. In den folgenden Kapiteln wird die Reimplementierung der bisherigen Funktionalität schrittweise erläutert, wobei zusätzlich Komponenten eines ebenfalls zuvor betrachteten Technologie-Prototyps verwendet werden. Im nächsten Kapitel dieser Arbeit werden die umfangreichen und vollständig neu implementierten Erfassungsmasken betrachtet, sowie ausgewählte übergreifende Funktionalität wie das automatische Speichern von Webformular-Inhalten. Am Ende dieser Arbeit folgt ein Kapitel zum Thema Integration des entstandenen Erfassungssystems mit anderen Systemen des EVI-GENORET-Projekts, welchem sich eine Gesamtzusammenfassung mit Ausblick anschließt.
Unnoticed by many, a congenital cardiac anomaly is in existence, which can be found in over a quarter of the total population. It is associated with the occurrence of strokes, migraine with and without an aura and feelings of faintness.This refers to the atrial septal defect (ASD) or one of its forms, the patent foramen ovale (PFO). Eventhough this illness, depended on the manifestation, can remain without any symptoms, it should still be considered to treat the condition, to prevent possible complications in a higher age. In recent years, based on several studies, a closure of ASDs and PFOs has been established as the preferred approach and is therefore increasingly replacing the medicinal treatment. In the context of this Master
To improve the quality of education in applied laser physics, a new and innovative educational platform was designed, realized and tested. The system focusses on the improvement of the theoretical, experimental and numerical skills in the topics of ultra-short pulsed fiber based laser systems and related measurement techniques. The main content of the platform is the fundamental understanding of the technologies of an ytterbium-doped fiber based Master-Oscillator Power-Amplifier and a 2nd order intensity autocorrelator. A wide range of system parameters are variable and metrologically accessible. Thus the underlying physical mechanisms are illustrated and, by this the fundamental understanding of the system, improved. To transfer actual industrial and scientific topics into the experimental education of students, the complex lab course aims for a full characterization of the system by experimental work and a numerical analysis by simulating the system dynamics. A state-of-the-art educational tool was created to demonstrate current industrial sys-tems. An amplification of 37.2 dB was achieved. The pulses with a temporal width of 30.6 picoseconds possessed a pulse peak power of 14.2 kW. By the analysis of the material specific spectral properties, the rate equation model can be applied and im-portant system parameters determined.
The Faculty of Languages at the University of Applied Sciences Zwickau has a knowledge
base on critical incidents. Critical incidents capture and structure insights from critical situations in international mobility [Fet15]. With the rapid development of data and information, the
research platform CIs to Go has a clear need for a central search infrastructure that will allow
users to find and discover more relevant critical incidenst (or intercultural experinces as named
in the research platform CIs to Go). The data and information about critical incidents are stored
in open-source relational database management system PostgreSQL.
Nowadays it is inconceivable to use traditional RDBMS tools to analyze the data as they
grow very fast. The amount of information has steadily increased for years. Big Data provides
a solution for analyzing large amounts of data. Many search engine providers offer the solution
for analyzing large volumes of data, and companies are looking for open source solutions that
can quickly and reliably search, analyze, and evaluate large volumes of data. Elasticsearch
is a Lucene based search engine. Elasticsearch uses the concept of indexing to speed up the
search. This search engine provides a variety of options for free text queries, fuzzy matching
and indexing data. First, search engines and NLP toolkits are reviewed. This thesis also defines
the functional requirements of these tools. Then, an evaluation is given by indicating the positive
and negative aspects of the tools.
This thesis presents a complete search engine to be deployed on the research platform CIs
to Go as a new visual tool that helps in the process of searching for and finding intercultural
experiences.
Diese Arbeit befasst sich mit der Erprobung agiler Entwicklungsmethoden innerhalb eines großen Unternehmens. Dabei wird die Einsetzbarkeit dieser Methoden im gegebenen Umfeld betrachtet. Hierfür wird dieses zunächst beschrieben, um zum Abschluss Merkmale einer eventuellen Neuausrichtung besser einordnen zu können. Dabei hilft auch die kurze Darstellung bereits bekannter Qualitätsmerkmale eines Softwareentwicklungsprozesses. Der Einsatz agiler Entwicklungsmethoden soll jedoch nicht zum Ausbruch von Chaos und Ad-hoc-Programmierung führen. Die zielgerichtete Entwicklung bedingt einen fokussierten Ermittlungsprozess und eine Anforderungsanalyse, um effizient die Kundenwünsche in eine Softwarelösung einfließen zu lassen. Ob dieser Analyseprozess im Rahmen eines klassischen Vorgehens vorangestellt oder durch agiles Vorgehen integriert stattfinden kann, ist eine Kernfrage dieser Arbeit.
Digitalisierung der Hersteller-Krankenhaus-Schnittstelle am Beispiel medizinischer Implantate
(2021)
Angesichts der ständig steigenden Anforderungen an die Effizienz und Qualität der angebotenen Dienstleistungen wurde im unternehmerischen Kontext analysiert, wie die Dienstleistungserbringung neugestaltet werden könnte.
Diesbezüglich bestand das Ziel dieser Arbeit darin, die Digitalisierung der Serviceprozesse zwischen dem untersuchten Unternehmen und seinen Kunden zu prototypisieren.
Dafür wurde einerseits ein Webportalprototyp entwickelt, der den Kunden des untersuchten Unternehmens die Möglichkeit bietet, OP-Termine zu buchen sowie Produktbestellungen aufzunehmen. Andererseits wurde auch ein remote Supportprototyp vorgestellt, mit welchem die Fernbegleitung einer medizinischen Implantation und Nachsorgendienstleistungen realisiert werden konnten.
Die Prototypentwicklung wurde nach den Phasen des V-Modells durchgeführt und getestet. Zuerst wurde eine Ist-Analyse durchgeführt, die den derzeitigen Verlauf der in dieser Arbeit verarbeiteten Prozesse mit dessen Verbesserungspotenzialen darstellt. Im Anschluss daran wurde eine Soll-Analyse präsentiert, die eine Lösungsmöglichkeit zur Optimierung der in der Ist-Analyse dargestellten Prozesse bietet. Dann wurde eine Anforderungsanalyse durchgeführt, bei der die aus den Prozessen resultierenden Anforderungen an die zu entwickelnden Prototypen erfasst und zusammengefasst wurden. Danach wurde der Webportalprototyp mittels der Entwicklungsplattform Outsystems entwickelt.
Der remote Supportprototyp wurde hingegen mit dem Tablet Microsoft Surface Pro 7, dem „USB 2.0 to DVI adapter“, dem „E-piphan AV.io HD“ und der Software GoToMeeting aufgebaut. Die beiden Prototypen wurden bei Kunden vorgestellt und anschließend wurden Feedbacks zur technischen Machbarkeit eingeholt.
Im Vergleich zu den bisherigen Prozessen erhöhen die entwickelten Prototypen die Flexibilität des Kunden und des Unternehmensmitarbeiters, da der Kunde rund um die Uhr OP-Termine über das Webportal buchen sowie Produkte bestellen und sofort eine Bestätigungsnachricht erhalten kann. Der Außendienstmitarbeiter hingegen muss nicht mehr reisen, um den Kunden bei einer medizinischen Implantation zu unterstützen.
Es wird ein neuartiges, interferometrisches Verfahren zur Analyse dünner Filme beschrieben.
Die Arbeit beschäftigt sich mit der domänenübergreifenden Sentiment Analysis.
Es soll überprüft werden, ob ein trainiertes Modell auf Review-Daten für die Klassifikation von Twitter-Nachrichten verwendet werden kann. Dazu werden die Verfahren Transformer und Ensemble-Methoden genutzt.
Das Ergebnis der Arbeit zeigt, dass die Transformer die besten Ergebnisse liefern, jedoch für den praktischen Einsatz die Werte verbessert werden müssen.
In dieser Master Arbeit geht es um eine funktionale Erweiterung des vorhandene Schweißtraktor System. Hierbei werden Konzepte untersucht wie eine Echtzeit-Bildverarbeitung, mit Hilfe eines Mini-Platinen-Rechner zu realisieren ist und deren Entwicklung, als prototypische Anwendung. Ziel ist die Schweißprozessüberwachung, wobei auf dem Schweißprodukt die Schweißnähte, als Kanten erkannt werden sollen. Diese Arbeit behandelt zuerst wichtigsten Grundlagenwissen über das Lichtspektrum im Zusammenhang mit Lichtbogenstrahlung, welcher während dem Schweißprozess entstehen, ergänzend kommt die Struktur der Bildverarbeitungssysteme und dazugehörige Bildverarbeitungsschritte. Anhand dieser Grundlagen wird ein ausführliches Lösungskonzept erarbeitet. Wo alle benötigten Komponenten für die weitere Realisierung untersucht, verglichen und ausgewählt. Aufgrund diese ausgewählten Komponenten und dem Konzept, konnte ein Prototyp realisiert werden. Auch die Computer Vision Bibliothek OpenCV ist Bestandteil dieser Arbeit, diese bietet große Auswahl von Bearbeitungsmethoden für die Erkennung bestimmte Bildmerkmalen. Dabei wurden auch die entsprechenden OpenCV Methoden untersucht um ein optimale Kantenerkennung realisieren zu können. Ein Konzept für die Erstellung einer Schnittstelle zwischen der prototypischen Anwendung und dem Schweißtraktor, rundet das Themengebiet ab.
Diese Master-Thesis beschäftigt sich mit Möglichkeit der echtzeitfähigen Vermeidung von Kollisionen zwischen Baugruppen, Werkstück und Werkzeug innerhalb von Werkzeugma-schinen. Sie wurde in Zusammenarbeit mit dem Institut für Werkzeugmaschinen und Produk-tionsprozesse der TU Chemnitz verfasst. Die Grundlage bilden Voxel-Modelle, welche durch Octrees repräsentiert werden. Kernpunkte der Arbeit sind Untersuchungen zu Schnitttests zwischen Voxel-Modellen zur Feststellung von Kollisionen und dem Materialabtrag der beim Zusammenstoß von Werkzeug und Werkstück entsteht. Für letzteren werden Algorithmen für die mengentheoretische Operation Differenz zwischen Octrees beschrieben. Im Rahmen dieser Arbeit entstanden mit Hilfe der VTK-Bibliothek und Vorarbeiten von Herrn Schumann zwei Programme und eine C++ Bibliothek für Voxel-Grafiken. Dabei han-delt es sich die Implementierung des Kollisionsvermeidungssystems und einem Tool zur Ge-nerierung von Voxel-Modellen aus CAD-Daten. Als gemeinsame Code-Basis wurde zudem Bibliothek VoxelLib erstellt.
In dieser Arbeit wird die Norm für Funktionale Sicherheit (ISO 26262) bezüglich den Anforderungen für die Konzeption eines sicheren Systems betrachtet. Anschließend werden vor allem die Anforderungen an die Software sowie dem Betriebssystem analysiert. Auf dieses Wissen aufbauend wird die Herangehensweise beschrieben, um ein prototypisches Testsystem zu erstellen. Anhand des Testsystems sollen Linux spezifische Mechaniken und Architekturkonzepte verwendet und anschließend die Eignung im Sinne der Norm ISO 26262 bewertet werden. Dadurch sollen Grenzen und Möglichkeiten von Linux beispielhaft dargestellt werden.
Schleifen ist ein bedeutsames und hochpräzises Verfahren in der mechanischen Fertigung. Durch verschiedene Einflüsse kann es bei der Bearbeitung von Werkstücken zur Entstehung von Schleifbrand kommen. Schleifbrand ist eine lokale Gefügeumwandlung im Bauteil, die Belastbarkeit und Langlebigkeit des Werkstückes herabsetzt. Eingeführte Detektionsverfahren für die Erkennung von Schleifbrand sind: Wirbelstromprüfung und Nitalätzung. Um die Funktion dieser Verfahren in regelmäßigen Abständen zu prüfen, werden Vergleichskörper mit künstlicher Inhomogenität durch Laserbehandlung hergestellt. Zur Verbesserung der Prozessfähigkeit und zur Minimierung des Geometrieeinflusses der Bauteile wurde eine Optimierung der Laseroptik durchgeführt. Für die Auslegung der Optik wurde eine Strahlcharakterisierung des kollimierten und fokussierten Strahls vorgenommen. Es wurde eine Aufweitung des Laserstrahls durchgeführt und der Arbeitspunkt wurde vom des fokussierten Stahl in den Fokus verschoben. Benutzt wurde hierfür eine zweilinsige Teleskopanordnung. Daraufhin wurde die Funktionalität der optimierten Optik mit diversen Probenkörpern unter Variation Prozess-, Material- und Geometrieparameter untersucht. Die Ergebnisse der Laserbehandlung mit optimierter Laseroptik wurden mit denen der Ausgangsoptik verglichen und eine Verbesserung der Prozessfähigkeit festgestellt.
Gegenstand der vorliegenden Arbeit ist es, die mechanischen Eigenschaften additiver Fertigungsverfahren unter Berücksichtigung der Bauraumausrichtung während der Herstellung zu untersuchen. Daraus soll eine optimale Ausrichtung für 3D gedruckte Schädelimplantate bezogen auf deren Festigkeit resultieren. Für die Durchführung dieser Versuche werden standardisierte Prüfverfahren in Form von Zugversuch und Kerbschlagbiegeversuch gewählt. Die Defizitanalyse konzentriert sich dabei auf die werkstofftechnischen Aspekte. Hierbei sollen verschiedene Prozessparameter für die additive Fertigung eingestellt werden, wodurch eine Einflussbeurteilung am gedruckten Bauteil erfolgen kann. Des Weiteren sollen bestehende Fertigungsverfahren patientenspezifischer Schädelimplantate auf deren Materialeigenschaften sowie Biokompatibilität aufgelistet und untersucht werden. Daraus ergibt sich ein selbst zu konstruierender Versuchsstand, welcher das Verhalten von Schädelimplantaten in einem Schädelmodell bei externer Krafteinwirkung untersucht.
Der ständige Anspruch die alltäglichen Systeme zu verbessern, indem sie optimiert und erweitert werden, erfordert eine permanente Verbesserung der Entwicklungsprozesse. Hierfür kann, mit Hilfe der Einführung neuer Entwicklungskonzepte, der gesamte Prozess verbessert werden. Im Gegensatz zur Prozesserneuerung besteht die Möglichkeit die einzelnen Entwicklungsphasen zu überarbeiten, indem neue Methoden eingeführt werden. Dementsprechend werden in dieser Master Thesis formale Methoden untersucht, die die Analysephase und den Anforderungsmanagementprozess unterstützen sollen. Die Unterstützung bezieht sich dabei auf die Vorteile, die ein Entwicklungsteam durch die Nutzung von Formalismen und formalen Sprachen erhält. Mit Hilfe dieser Vorteile und der rechnergestützten Datenverarbeitung soll es möglich sein, der zunehmenden Systemkomplexität zu entgegnen, indem die Spezifikation und das Management von funktionellen Anforderungen verbessert wird. Hierzu wird der Anforderungsmanagementprozess im Allgemeinen und in der Automobilindustrie dargestellt. Weiterhin werden spezielle formale Methoden vorgestellt und analysiert, die den Bereich der Beschreibung funktioneller Anforderungen bei reaktiven Systemen umfassen. Aus der Analyse heraus wird ein Formalismus identifiziert, der eine mögliche Unterstützung im speziellen Anforderungsmanagementprozess des Automotivbereiches bieten soll. Ausgehend von dieser konkreten formalen Methode, wird gleichfalls ein prinzipielles methodisches Vorgehen beschrieben. Dieses wird unter Nutzung eines entsprechenden Anwendungstools für eine praktische Anwendbarkeit untersucht.
Gegenstand der Arbeit ist die Untersuchung von Plasmaparametern einer Dielektrika-Trockenätzanlage AMAT Centura Super-e für die Halbleiterproduktion mittels des SEERS-Systems Hercules® APC. Mittels statistischer Versuchsplanung werden die Einstellgrößen Leistung, Druck, magnetischer Fluss sowie die Gasflüsse variiert und der Einfluss auf Elektronenstoßrate, Elektronendichte und Ätzraten analysiert. Es zeigen sich nichtlineare Abhängigkeiten in den Plasmaparametern. Die Charakterisierung der Ätzprozesse der Super-e erfolgt anhand von Plasmadaten aus 4 Monaten Produktion. Die Plasmaparameter sind über die Rezepte determiniert und zeigen Streuverhalten. Die Daten werden zudem auf Korrelationen zu bekannten Einflussgrößen untersucht. Über die Plasmastunden der Kammer ergibt sich eine Langzeitdrift. Diese bildet sich auch in den Ätzraten und dem Ätzprofil ab. Es lassen sich zudem Kurzzeitdrifts durch Prozessinteraktionen aufzeigen und Produktabhängigkeiten beobachten.
Die Arbeit ist in sechs Teile gegliedert. Kapitel 2 und Kapitel 3 haben den Auftrag ein Grundlagenverständnis zur jeweils betrachteten Thematik aufzubauen. Anschlieÿend erfolgt die Beschreibung der Konzeption und Realisierung des Projekts. Dabei werden auf die Anforderungsanalyse, die Formulierung der zu erreichenden Ziele, der Projektverlauf sowie die Validierung, ob beziehungsweise inwiefern die gesteckten Ziele erreicht wurden, eingegangen. In Kapitel 5 werden alle Ergebnisse niedergeschrieben und zusammengefasst. Abschlieÿend findet ein Ausblick statt, in welchem betrachtet wird, wie die während der Masterarbeit entstandene Software weiterentwickelt werden kann und welche weiteren Einsatzmöglichkeiten existieren können.
Im Modul "Spezifikations- und Verifikationsmethoden" wird im Rahmen der Praktika ein System spezifiziert. Tools zum Abbilden, Erstellen und Management kommen nicht zum Einsatz. Aufgabe der Arbeit ist es, die Durchführung effizienter zu gestalten. D.h., dass durch den gezielten Tooleinsatz das Arbeiten unterstützt wird und die Studenten dazu angehalten werden, Requirements richtig zu erfassen und zu verwalten. Im Rahmen der Praktika werden verschiedene Diagrammtypen der UML verwendet sowie atomare textliche Anforderungen definiert und mehrmals überarbeitet. Die Erfassung, Verwaltung und die Überarbeitung der Anforderungen erfolgt aktuell formlos. Mit fortschreitenden Praktika werden verschiedene Reviewtechniken angewendet, wodurch ebenfalls teilweise Formalien eingeführt werden und Techniken aus dem Bereich des RE vermittelt werden. Den Studierenden soll, unter Berücksichtigung der durch das Studium vorgegebenen Randbedingungen, erlebbar ein Eindruck der Tätigkeiten im Rahmen des RE vermittelt werden. Außerdem sollen die Möglichkeiten und Grenzen bei der Durchführung mittels Textverarbeitung veranschaulicht werden sowie darauf basierend mögliche Auswege aufgezeigt werden.
Die Analyse des Erfolgs eines Webauftritts gewinnt zunehmend an Bedeutung. Viele Betreiber von Webauftritten setzen Webanalyseanwendungen ein, um die Akzeptanz der Besucher zu ermitteln und Schwachstellen aufzudecken. Diese gewonnenen Informationen müssen verarbeitet und die geeigneten Verbesserungsmaßnahmen ermittelt werden. Je genauer diese Analyse durchgeführt wird, desto mehr Aufwand ist für diesen gesamten Vorgang einzuplanen. Die vorliegende Arbeit zeigt wie Webanalyse im Allgemeinen abläuft und an welchen Stellen die einzelnen Phasen Verbesserungspotential bieten. Hauptziele der Arbeit sind die Erweiterung der Aufnahmedaten für eine detailliertere Analyse, die Erarbeitung einer Möglichkeit Regeln definieren zu können und die praktische Umsetzung einer automatisierten Auswertung. Um dynamische Webauftritte besser analysieren zu können, wird eine Erweiterung der Aufnahme von Webanalysedaten vorgenommen. Dies umfasst die Aufzeichnung von genauen Maskendurchläufen eines Besuchers. Aus diesem Grund beschäftigt sich der erste Teil der Arbeit mit den Unterschieden zwischen Webseite und Webauftritt. Dabei wird auf die unterschiedlichen Ziele eingegangen, für die Webauftritte erstellt werden können. Für die automatische Auswertung wird eine Möglichkeit erarbeitet, Aussagen über den Datenbestand zu treffen. Mit Hilfe dieser Aussagen können Regeln definiert werden, mit denen die Webanalysedaten vom System geprüft und dem Besitzer des Webauftritts eine Maßnahmenliste der fehlgeschlagenen Regeln präsentiert werden können. Der Vorteil dieser Methode liegt darin, dass dem Besitzer Verbesserungsmöglichkeiten seines Webauftritts angezeigt werden und er diese nicht durch umfangreiche Analyse der Daten selbstständig ermitteln muss.
In dieser Arbeit wurden Blitzlampen auf ihre spektrale Modifizierbarkeit hin untersucht. Es wird gezeigt, dass sich das Spektrum durch die Variation der Blitzparameter, insbesondere durch Erhöhung der Blitzspannung und Verkürzung der Pulszeit, in Richtung des UV-Bereiches verschieben lässt. Die Auswirkungen dieser verschiedenen Blitzparameter auf dotierte ZnO-Schichten wurden durch Messungen von optischen und elektrischen Eigenschaften analysiert. Bei den untersuchten Proben handelt es sich um ZnO-Schichten, welche mit dem ALD-Verfahren auf Si-Wafern abgeschieden worden sind. Nach der Dotierung mit Phosphor und Antimon wurden die Proben unter verschiedenen Blitzparametern ausgeheilt. Mit der Hall-Messung konnte nachgewiesen werden, dass es nach Phosphorimplantation unter bestimmten Ausheilbedingungen in einer Sauerstoffatmosphäre möglich war, in ZnO eine p-Leitfähigkeit zu erzeugen. Die Photolumineszenzmessungen zeigen in Abhängigkeit von den ALD, Implantations- und Ausheilbedingungen verschiedene Lumineszenzbanden im UV und sichtbaren Bereich, die in der Literatur z.T. kontrovers verschiedenen, bekannten Defekten zugeordnet werden. Bemerkenswert ist das Auftreten einer roten Lumineszenz, die mit der Phosphorimplantation und einer Sauerstoffatmosphäre beim Ausheilen korreliert ist.
Eine umfassende elektrochemische Charakterisierung von Lithiumionenzellen ist nötig, da diese unter anderem die Angabe der Restkapazität der Zelle ermöglicht, was in vielen industriellen Anwendungen von entscheidender Bedeutung ist. Darüber hinaus werden Lithiumionenzellen auf der Welt in verschiedenen Temperaturbereichen eingesetzt, was zum Beispiel einen Einfluss auf Kapazität und mögliche Stromraten haben kann. Da in der Industrie im Allgemeinen viele Zellen miteinander verknüpft werden, um z. B. notwendige Stromstärken zu liefern oder höhere Kapazitäten zu ermöglichen, sind sogenannte Batteriemanagementsysteme im Einsatz, die die Kenntnis verschiedener Parameter der Zelle erfordern. Die vorliegende Arbeit beschäftigt sich mit kommerziellen Zellen und untersucht für den industriellen Einsatz wichtige Parameter.
Lithiumtitanat-Elektroden finden in schnellladefähigen Lithiumionen-Akkumulatoren Anwendung. Aus der hohen Potenziallage gegenüber den herkömmlichen Graphitelektroden resultiert eine höhere Toleranz für Überspannungen und eine bessere Effizienz auch bei hohen Ladeströmen. Mit einer entsprechenden Gegenelektrode hergestellte Akkumulatorzellen können damit häufig in weniger als 20 Minuten geladen werden und gelten als Hochleistungszellen. Zusätzlich haben diese Zellen eine besonders hohe Lebensdauer von über 10 000 Zyklen. Herstellungsparamter wie Pastenzusammensetzung, Schichtdicke und Verdichtung nehmen auf die Hochstromfähigkeit der Lithiumtitanat-Elektrode Einfluss. Um diese zu quantifizieren sind Parameter gezielt ausgehend von einer Referenzkonfiguration variiert worden. Für die Charakterisierung sind hauptsächlich der Innenwiderstand und die nutzbare Entladekapazität bei höheren Stromraten betrachtet worden. Es konnte herausgestellt werden, dass die elektronische Leitfähigkeit des halbleitenden Lithiumtitanat den Innenwiderstand der Elektrode maßgeblich bestimmt, woraus eine exponentielle Temperaturabhängigkeit resultiert. Der Transport der Lithiumionen innerhalb der Elektrode, aber auch im Elektrolyten findet ausreichend schnell statt, sodass bei den durchgeführten Messungen keine transportlimitierten Effekte beobachtet werden konnten. Durch Verdichtung der Elektroden wurde die elektrische Leitfähigkeit der Elektroden weiter verbessert, ohne sich negativ auf die Ionenleitfähigkeit innerhalb des Kristalls auszuwirken. Eine weitere Leistungssteigerung konnte durch Erhöhung des Kohlenstoff-Binder-Verhältnisses und Verringerung der Schichtdicke erzielt werden. Eine Stabilitätsmessung über 500 Zyklen wurde durchgeführt und Alterungseffekte gezielt provoziert. Damit konnten Erkenntnisse über den sicheren Betrieb und Arbeitsbereich von Lithiumtitanat-Elektroden gewonnen werden.
Diese Arbeit beleuchtet im Rahmen der aktuellen gesundheitspolitischen Entwick-lungen in Deutschland die Chancen und Anforderungen, die mit der Implementie-rung einer IT-gestützten Pflegeprozessdokumentation in der Akutpflege im Kran-kenhaus verbunden sind. Dabei wird die Digitalisierung der Pflege im Kontext des Gesamtbehandlungsprozesses im Krankenhaus betrachtet. Ein Anforderungskata-log stellt die gesetzlichen, inhaltlichen sowie funktionalen und nicht-funktionalen Anforderungen für Softwareprodukte dar. In einer Marktanalyse werden aus Erfah-rungsberichten von drei deutschen Kliniken Vor- und Nachteile unterschiedlicher Lösungsvarianten für IT-gestützte Pflegedokumentation gegenübergestellt. Es wer-den Auswirkungen auf bestehende Prozesse in der Pflege am Beispiel der Klini-kum Chemnitz gGmbH untersucht und Handlungsempfehlungen für ein Einfüh-rungskonzept von Softwarelösungen ausgesprochen.
Stereo matching methods are usually relying on rectified images to calculate disparities. If the rectification is inaccurate or not present at all most stereo matching algorithms will produce distorted disparity maps. In this thesis an approach is described that overcomes this issue for the PatchMatch Stereo algorithm. As groundwork for stereo matching four rectification procedures namely Bouget
Die Arbeit beschreibt das Zusammenwirken der Android-Plattform mit einem Geoinformationssystem auf Basis der PostGIS-Datenbank. Die Arbeit ist in drei Kapitel unterteilt. Im ersten Kapitel wurden die Grundlagen der Technologien beschrieben, im zweiten Kapitel wurde das Design der Lösung dargestellt und im letzten Kapitel wurde die Implementierung der Prototyp-Applikation erklärt. Zum Schluss folgt eine Zusammenfassung.
Die Menge an Informationen in Unternehmen steigt seit Jahren immer weiter an. Hierbei handelt es sich um massive Datensätze, die hochvariabel, komplex und wachsend sind, und aus verschiedenen Datenquellen wie JIRA, Confluence oder GitLab stammen. Hieraus entwickelt sich ein Bedarf nach zentralen, unternehmensinternen Plattformen zur Auswertung, Suche und Verwaltung dieser massiven Datensätze.
Im Bereich der Anbieterlandschaft gibt es viele Lösungen für die Analyse großer Datenmengen. Dies kommt daher, dass Unternehmen nach Open-Source-Lösungen suchen, mit denen große Datenmengen schnell und zuverlässig gesucht, analysiert und ausgewertet werden können. Mit Hilfe von Elasticsearch kann der Zugriff auf Daten beschleunigt werden. Elasticsearch ist eine auf Lucene basierende Volltextsuchmaschine. Die Suchmaschine stellt eine Vielzahl von Möglichkeiten für Freitextabfragen, für die Indexierung von Daten, sowie für die Administration über eine HTTP/RESTful Schnittstelle zur Verfügung. Mit der konsequenten Ausrichtung auf horizontale Skalierungen und Ausfallsicherheiten besitzt Elasticsearch hervorragende Eigenschaften einer Suchmaschine.
Die vorliegende Masterarbeit entstand bei der mogic GmbH in Leipzig. Die Aufgabe der Masterarbeit ist es eine Suchplattform zur Analyse und Suche personalisierter, unternehmensinterner Informationen aus verteilten Datenquellen der mogic GmbH für die Mitarbeiter zu implementieren. Diese Suchplattform soll mit Elasticsearch und Spring Framework entwickelt werden. Die Implementierung der Suchplattform soll in einer unternehmensinternen Webanwendung eingesetzt werden.
Digitale Daten unterstützen medizinische Fachkräfte in der Diagnose und individuelleren Be-handlungen. Die wesentlichsten Informationen kompakt und individuell anzuzeigen, kann die Therapiegenauigkeit steigern. Ziel dieser Masterthesis ist die Entwicklung einer Augmented-Reality-Brille für medizinische Anwendungen. Folgend der virtuellen Produktentwicklung wur-den Anforderungen anhand einer Literaturrecherche, eines Interviews mit einem Arzt und ge-setzlichen Richtlinien analysiert. Der optische Aufbau des Systems konnte mit der Software “Zemax OpticStudio“ spezifiziert werden. Dazu wurden geeignete Linsen klassifiziert und an-hand der Simulationssoftware ein optimiertes Optikdesign ermittelt. Weiter erfolgte eine Be-stimmung von geeigneten Hardwarekomponenten und ein virtuelles Mechanikdesign mit “SolidWorks“ entstand. Die Konstruktion soll dabei leicht, flexibel und anatomisch angepasst sein. Im Ergebnis entstand mittels additiven Druckverfahren ein physischer Aufbau einer Augmented-Reality-Brille.
Die vorliegende Arbeit thematisiert die Nutzung eines kollaborierenden Roboters als haptisches Eingabegerät. Die konkrete Problemstellung umfasst dabei die Schaffung einer Schnittstelle zu einer übergeordneten VR-Anwendung in Form einer Bibliothek. Es werden sowohl die mathematischen Grundlagen der Kinematik von mechanischen Strukturen (Arm) mit 6 und 7 Freiheitsgraden, die Funktionalität und Schnittstellen des Roboters, wie auch die Kommunikation zwischen den Komponenten erörtert. Die Arbeit beschreibt die verschiedenen Schritte, die zur Umsetzung der Aufgabe nötig sind. Dabei geben die allgemeinen Kapitel zunächst einen Überblick über einige am Markt erhältliche haptische Eingabegeräte und kollaborierende Roboter. Eine Beschreibung verschiedener Möglichkeiten der Realisierung schafft die Grundlage zum Verständnis der folgenden Projektumsetzung. Eine anschließende Projektreflexion zeigt Möglichkeiten zur Erweiterung des Nutzungsumfangs der entstandenen Bibliothek auf.
Die Kriminalität im Darknet, ist ein bedeutendes Thema, womit sich auch die Polizei immer intensiver befassen muss. Der Wunsch nach einer Möglichkeit, die Fülle an Informationen im Darknet zu fassen und für die eigene Ermittlungsarbeit zu nutzen, ist der Ausgangspunkt für diese Arbeit.
Die vorliegende Masterarbeit behandelt die Entwicklung einer Suchmaschine für das Darknet und die dazugehörige Datenakquise mittels Webcrawler. Dem Leser wird zunächst eine Einführung in den fachlichen Kontext gegeben, welcher das Darknet, Tor, I2P und einen Überblick über Webcrawler behandelt. Im Anschluss werden Herausforderungen des Crawling-Prozesses vorgestellt.
Darauffolgend wird die im Rahmen der Arbeit entwickelte Anwendung mit ihren einzelnen Komponenten beschrieben. Anschließend werden Verbesserungsvorschläge für die entwickelte Anwendung vorgestellt, und abschließend ein Fazit gezogen.
Nach einer Einführung in domänenspezifische Sprachen und deren Entwicklung, beginnt die Planung des Projektes. Dabei werden die Grob- und Feinziele ausgewertet sowie erste Diagramme erzeugt. Diese werden im Folgenden verfeinert. Im Anschluss wird gezeigt, was getan werden muss, um mit der Entwicklung zu beginnen. Auf Besonderheiten bei der technischen Umsetzung weist der nachfolgende Abschnitt hin. Daraufhin ist das Ergebnis dargestellt und mit anderen Methoden zur Testdatenerzeugung verglichen. Ein Fazit sowie der Blick in die Zukunft schließen die Arbeit ab.
Die Anwendungsmöglichkeiten von Augmented Reality (AR) Technologien in der Medizin sind momentan noch sehr begrenzt. Vielversprechend sind jedoch Ansätze in der Neurochirurgie. In dieser Arbeit wird ein Ansatz untersucht, der eine neue Operationstechnologie für die transphenoidale Resektion von Hypophysentumoren vorschlägt. Bei diesem Verfahren wird AR - Technologie
zur Registrierung und zum Tracking von Instrumenten eingesetzt. Damit soll eine höhere Genauigkeit und daraus folgend weniger postoperative Komplikationen erreicht werden. Die vorliegende Arbeit beschäftigt sich mit der Genauigkeitsüberprüfung dieser neuartigen Technologie.
Grundlegend wird der Entwicklungs- und Konstruktionsprozess einer Messvorrichtung beschrieben sowie eine Einschätzung der Genauigkeit anhand von ermittelten Messwerten. Die Genauigkeitsbestimmung wird durch die manuelle Ausrichtung eines Hologramms und durch eine graphische Bewertung evaluiert.
Im Rahmen dieser Masterarbeit wird ein System zur Erfassung aller relevanten Daten, die während des Produktionsprozesses der Pendix-Antriebssätze und Ersatzteile entstehen, entwickelt. Dabei soll das Bestandssystem, bei dem eine Erfassung aller Informationen separat und dateibasiert von der jeweiligen Arbeitsstation erfolgt, durch eine Middleware ersetzt werden. Damit wird die Datenerfassung vereinheitlicht und die heterogenen Daten zusammengeführt. Der größte Vorteil ist dabei in der einfacheren Verwaltung und Auswertung zu erwarten. Um eine Verbesserung der Produktionsdatenerfassung zu ermöglichen, ist ein Verständnis der Prozessschritte notwendig. Während der Produktion durchlaufen die einzelnen Komponenten mehrere Stationen. Zuerst werden die Einzelteile (Stator, Rotor, Leistungselektronik) des elektrischen Motors zusammengebaut. Im nächsten Schritt durchläuft der Antrieb eine Reihe von Inbetriebnahmetests durch die sichergestellt wird, dass der Motor alle nötigen Anforderungen erfüllt. Dabei werden die Ergebnisse der Messungen erfasst, welche sich speziell für statistische Auswertungen im Rahmen von Qualitätssicherungsmaßnahmen eignen. Die Batterie wird vorgefertigt von einer Fremdfertigung geliefert. Auch hier wird vor dem Versand an den Endkunden eine Reihe von Messungen durchgeführt. Die gewonnenen Daten eignen sich ebenfalls als Indikator für die Qualitätssicherung. Zuletzt werden die einzelnen Komponenten (Motor, Batterie, weitere Einzelteile) in Sets nach Wunsch des Kunden zusammengestellt (Kommissionierung) und an diesen versendet. Die dabei erfassten Daten sind elementar für etwaige Garantieansprüche, Rückrufe oder ähnliches. Darüber hinaus eignen sich die Daten für Verkaufsstatistiken und zukünftige Produktionsplanungen. Um eine langfristige Wartbarkeit und Plattformunabhängigkeit zu gewährleisten ist eine Entwicklung dieser Funktionen, im Rahmen einer Middleware genannten, anwendungsneutralen Plattform, sinnvoll. Die Umsetzung als Webservice mit einer REST-Schnittstelle ist aus heutiger Sicht ein wichtiger Schritt, um zukünftigen Entwicklungen hin zu endkundenbasierter Software (Webshop, Kundenportal, Smartphone-Apps) zu begegnen. Eine Sammlung von Technologien und Schnittstellen (Framework) die eine solche Entwicklung stark vereinfachen und beschleunigen ist das Spring Framework, deshalb soll die Projektumsetzung mit diesem erfolgen. Im ersten Schritt ist die Umsetzung der Datenerfassung am Beispiel des idealen Produktionsprozesses geplant und die generische Anzeige der Daten anhand von einfachen Filtern. Sowie daraus ein erstes funktionierendes System entstanden ist, kann die
Die wachsende Globalisierung trägt dazu bei, dass die Bedeutung des Internets, nicht nur für global arbeitende Unternehmen, weiterhin an Bedeutung zunimmt. Die Konkurrenz von Ländern mit niedrigem Lohnniveau zwingt zur Reduzierung von Aufwand und Kosten. Unternehmen benötigen deshalb Software, die sie bei der Lösung dieser Herausforderung so gut wie möglich unterstützt. Das Ergebnis dieser Arbeit ist die Integration des neuen Programmiermodells der Java Context and Dependency Injection (CDI) aus Java EE 6 in neue Plattformen zur Erweiterung von GeneSEZ, als Code-Generierungssoftware. Zunächst werden dafür in dieser Arbeit die theoretischen Grundlagen geschaffen. Im Anschluss daran werden die Bestandteile und Eigenschaften von CDI und Weld, als Referenzimplementierung, erläutert. Daraufhin werden Plattformen für die Modell-zu-Modell- und die Modell-zu-Code-Transformationen erarbeitet. Im Besonderen widmet sich diese Arbeit der Generierung von Annotation Types und der Generierung des Home Patterns. Als praktische Anwendung wird die Verwendung der erarbeiteten Lösungen an einem Beispielprojekt erläutert.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer Smart Home Steuereinheit. Dabei werden verschiedene Lösungsansätze analysiert und im Hinblick auf die Einbettung von Multi-Person Konzepten beurteilt. Unter den Multi-Person Konzepten ist im Wesentlichen die Erkennung und Berücksichtigung von Bewohnern eines Hauses zu verstehen. Die Umsetzung dieser Multi-Person Erkennung und Verwaltung ist jedoch Bestandteil einer weiteren Masterarbeit. In Kombination bilden beide Teilprojekte eine Multi-Person Smart Home Steuereinheit. Als Grundlage dient die Smart Home Software Z-Way, welche in Verbindung mit dem Smart Home Framework Eclipse SmartHome die Laufzeitumgebung für die Multi-Person Konzepte bildet. Die Integration beider Systeme ist die wesentliche Herausforderung dieser Ausarbeitung, einschließlich der Auseinandersetzung mit verschiedenen Kommunikationsmodellen und der Verknüpfung der unterschiedlichen Datenmodelle. Neben einer abgeschlossenen Entwicklung zur Integration von Z-Way in Eclipse SmartHome, zählt die Abbildung von Anwendungsszenarien zu sogenannten Z-Way Apps zu den wichtigsten Ergebnissen.
Diese Masterthesis untersucht die Möglichkeit, Context Mapping mit Hilfe von JetBrains MPS modellieren zu können und dabei auch Fachlogik in Form von Code in die Modelle einfließen zu lassen.
Das Ziel besteht darin, eine DSL zu entwickeln, welche von Anwendern genutzt werden kann, um Bounded Context, die Beziehungen zwischen den Bounded Contexts und Fachlogik zu modellieren.
Lehrunterlagen, die in einem multilingualen Kontext eingesetzt werden, zeichnen sich dadurch aus, dass unterschiedliche Materialien mit gleichem Inhalt erstellt und in verschiedene Sprachversionen übersetzt werden müssen. Änderungen am Inhalt müssen getrennt in allen Materialien angepasst werden. Das Projekt Internationalisierung von Lehrunterlagen hat sich zum Ziel gesetzt eine Plattform zu schaffen, welche diesen Prozess weitestgehend unterstützt. Im Rahmen dieser Masterarbeit wird ein Editor entwickelt, der als Teilkomponente in dieser Plattform eingesetzt werden soll. Dabei werden die speziellen Anforderungen betrachtet, die an eine Bearbeitung solcher speziellen Inhalte gestellt werden. Anschließend wird gezeigt, wie eine Editor durch Nutzung geeigneter Technologien konzipiert werden kann. Dabei stehen die besonderen Eigenschaften von internationalisierbaren Lehrunterlagen im Mittelpunkt und es wird gezeigt wie diese bestmöglich unterstützt werden können.
Die Therapiemöglichkeiten zum Zeitpunkt eines auftretenden Glioblastoma multiforme sind oft begrenzt. Der hyperthermische Effekt stellte sich als wirksame Form der Behandlung heraus. In der Arbeit wird ein Ansatz beschrieben, welcher magnetische Nanopartikel als Energiewandler verwendet. Bei dem Verfahren verbleiben die Partikel während der derzeitigen Behandlung als Implantat im menschlichen Organismus und bedingen den Verzicht auf postoperative MRT-Diagnostik. Die vorliegende Arbeit beschäftigt sich mit der Überprüfung eines Konzepts der rückstandsfreien Behandlung durch die Verwendung eines Ballonkatheters. Grundlegend wird das thermische und physikalische Verhalten von Ballonkathetern im Kontext der NanoTherm®-Therapie untersucht. Ebenfalls wird der Entwicklungs- und Konstruktionsprozess von zwei Messaufbauten zur Überprüfung des Konzepts beschrieben. Die Bestimmung des Wärmeverhaltens von magnetischen Nanopartikeln in einem Ballonkatheter wird an einem Aufbau grundlegend untersucht.
Entwicklung eines Messmoduls zur Beurteilung von Haltung, Bewegung und Aktivität im Arbeitsumfeld
(2020)
Ziel der Arbeit ist die Konzeption eines Messystems zur Erfassung von Haltung und Bewegung im Arbeitsumfeld als Teilmodul des Forschungsprojektes midasKMU. Dazu werden die Möglichkeiten der messtechnischen Erfassung von Bewegung und Position am Körper dargestellt sowie die anatomischen Besonderheiten der bewegten Gelenke. Zusammen mit den bisherigen Ergebnissen aus dem Forschungsprojekt und der Betrachtung der arbeitswissenschaftlichen Methoden sowie aktuell verfügbaren Systemen wird ein Anforderungskatalog nach MoSCoW - Kriterien aufgestellt. Auf Grundlage des Kataloges wird ein theoretisches Konzept für die messtechnische Erfassung relevanter Größen mithilfe am Körper getragener Sensoren vorgestellt. Im praktischen Teil der Arbeit wird das Konzept für die unteren Extremitäten prototypisch umgesetzt. Das entstandene Modul wird mithilfe eines Testaufbaus geprüft und mit dem theoretischen Anforderungskatalog verglichen. Die Auswertung der Messergebnisse wird zur Verbesserung und Erweiterung des theoretischen Konzeptes verwendet. Im Ausblick der Arbeit werden nächste Schritte vorgestellt um den Prototypen genauer, stabiler und benutzerfreundlicher zu gestalten mit dem Ziel eine Anwendung im Arbeitsumfeld zu ermöglichen.
Mit der vorliegenden Arbeit wurde ein Messplatz zur Bestimmung der Partikelgrößen und -verteilung in dispersen Systemen entwickelt. Es konnten für die Analyse wichtige mathematische Beziehungen zur Programmierung der Amplitudenstreufunktion erarbeitet werden. Zudem wurden anhand theoretischer und experimenteller Untersuchungen, die Rahmenbedingungen für die Datenerfassung analysiert. Es konnten bereits erste Programmsequenzen einer Software für den Messplatz umgesetzt werden, welche in naher Zukunft weiter ausgebaut werden sollen. Die Komponenten zur elektronischen Abnahme des Detektorwinkels und die Halterung der Probenkammer wurden konstruiert, gefertigt und mit der vorliegenden Arbeit ausführlich beschrieben. Anhand abschließender Untersuchungen, bei welchen eine monochromatische Lichtquelle und eine Superkontinuumsquelle zum Einsatz kamen, werden weitere notwendige Schritte diskutiert.
Die vorliegende Masterarbeit beschäftigt sich mit der Konzeption und prototypischen Umsetzung zweier unterschiedlicher optischer Ansätze, um die Beinlänge und Lage des Hüftrotationszentrums im Rahmen von Hüftendoprothesenoperationen zu bestimmen. Nach eingehenden Betrachtungen zum gegenwärtigen Stand der Technik, der medizinischen Grundlagen sowie dem Verständnis der Funktionsweise der eingesetzten Technologien werden beide Verfahren bezüglich medizinischer und technischer Anforderungen untersucht. Ziel der Arbeit ist es, sowohl einen Versuchsstand unter Verwendung von Markern, handelsüblichen RGB-Kameras und der Open Source Software Kinovea als auch ein Messverfahren auf Basis der Infrarot-Tiefenkamera Microsoft Kinect zu entwerfen. Die beiden untersuchten Verfahren sollen schlussendlich hinsichtlich deren Eignung und einem möglichen Praxiseinsatz beurteilt werden. Anhand exemplarischer Beinlängenmessungen und anschließender Auswertung der gewonnenen Resultate werden Aussagen über Genauigkeit, Laufzeitverhalten und Benutzbarkeit getroffen und ermöglichen darüber hinaus eine vergleichende Betrachtung beider Varianten.
Die Entwicklung von Datenloggern im Bereich der Photovoltaik ist gekennzeichnet durch die schwunghafte Entwicklung dieser Branche. Es gibt eine Vielzahl von Kommunikationsprotokollen, welche in einem Datenlogger umgesetzt und implementiert werden müssen. Durch andere Branchen, wie zum Beispiel die Automobilindustrie, werden die Prinzipien der Automatisierung schon seit vielen Jahren gezeigt. Auch an der Softwareentwicklung ist diese nicht spurlos vorüber gegangen und es gibt viele Ansätze und Werkzeuge um Software automatisch zu erstellen. Diese Arbeit beschäftigt sich daher mit der Entwicklung eines Softwaregenerators zur Entwicklung von Programmbibliotheken welche Kommunikationsprotokolle implementieren. Die Erstellung des Softwaregenerators erfolgt dazu anhand einer Referenzimplementierung des Kommunikationsprotokolls ModbusRTU. Für dieses Beispielprotokoll wird dazu eine Spezifikation für die Protokollbibliothek erstellt und diese Protokollbibliothek implementiert. Anhand der entstandenen Referenzimplementierung wird anschließend die Spezifikation des Softwaregenerators vorgenommen. Auf Grund dieser Spezifikation wird das Softwaregeneratorsystem ausgewählt. Anschließend wird ein Softwaregenerator erstellt mit dessen Hilfe Artefakte generiert werden mit denen serielle Kommunikationsprotokolle schnell und in hoher Qualität in Protokollbibliotheken überführt werden können. Dadurch soll der Arbeitsaufwand bei der Implementierung solcher Protokolle verringert werden und gleichzeitig die Wartbarkeit und Erweiterbarkeit der Protokollbibliotheken gesteigert werden.
Ein System zur objektiven Bewertung spezifischer Gesichtsfeldausfälle, durch die Mehrkanalableitung visuell evozierter Potentiale, muss gesetzliche Anforderungen einhalten und nach geltenden Normen und Richtlinien umgesetzt werden. In dieser Masterarbeit ist ein Stimulator auf Basis der Digital-Light-Processing-Technologie konzipiert und entwickelt worden. Im gebrauchstauglichkeitsorientierten Entwicklungsprozess ist der Prototyp auf die Einhaltung der geltenden Richtlinien der International Society for Clinical Electrophysiology of Vision verifiziert und hinsichtlich in der Verwendung mit dem Elektrophysiologiegerät EP-1000 der Medizin und Service GmbH validiert worden. Anhand der Ergebnisse erfolgten die Beurteilung spezifischer Gefahrenpotentiale, sowie die Erarbeitung des weiteren Entwicklungsbedarfs für die Mehrkanalableitung visuell evozierter Potentiale.
Entwicklung eines Tools zur Erstellung und Veröffentlichung von dynamischen interaktiven Karten
(2015)
Die vorliegende Masterarbeit zeigt auf, wie mit vorgegebenen Technologien und Anwendungsfällen ein Tool erstellt wird, das für die Erstellung und Veröffentlichung von dynamischen interaktiven Karten dient. Nach der Herausarbeitung von thematischen Grundlagen erfolgt die Untersuchung von Anforderungen spezieller Fälle, sowie eine Einarbeitung und Darstellung der Möglichkeiten der Software-Infrastruktur. In Anbetracht dieser wird ein abstraktes Konzept aufgezeigt, dass Raum für die Interpretation in der Nutzung bestimmter Rahmenwerke lässt. Bei der anschließenden Erläuterung der Implementierung, werden eingesetzte Frameworks genannt und auf Besonderheiten im Quelltext eingegangen.
Ziel dieser Arbeit ist die Entwicklung eines Filters, der nach seiner Sterilisation bei einer Filtra-tionsgeschwindigkeit von 2.000-3.000 ml/min Endotoxine aus einer Peritonealdialyselösung filtert. Dazu werden zwei Versuchsreihen durchgeführt. Zum einen werden verschiedene Filtertypen auf ihre maximale Filtrationsgeschwindigkeit ohne Druckbeeinflussung, unter einem Druck von 4 bar und bei plötzlichem Anstieg der Filt-rationsgeschwindigkeit untersucht. Dazu wird die Filtrationsgeschwindigkeit unter den im vorangegangenen Satz genannten Begebenheiten schrittweise um 500 ml/min erhöht und der Filter zwischendurch auf Leckagen am Faserbündel überprüft. Zum anderen werden Filter eines ausgewählten Filtertyps einerseits unsteril und andererseits nach der Gammasterilisation bezüglich ihrer Endotoxinrückhaltung getestet. Hierbei werden die Filter mit einer Challengelösung durchflossen. Von den von der Challengelösung und vom Filtrat genommenen Proben wird die Endotoxinmenge bestimmt und der Log Reduction Value gebildet. Die Ergebnisse der Versuche zur Filtrationsgeschwindigkeit zeigen, dass eine Prallplatte die Fasern der Filter vor Leckagen schützt. Außerdem halten gamma- und dampfsterilisierte Filter einer höheren Filtrationsgeschwindigkeit Stand als unsterile Filter, was vermutlich an den geweiteten Poren liegt. Die Endotoxinrückhaltung in Dianeal ist bei den gammasterilisierten Filtern geringer als bei den unsterilen Filtern, in Dianeal ist die Rückhaltung grundsätzlich geringer als in Wasser. Es fällt jedoch auf, dass die Endotoxinrückhaltung in Dianeal bei den unsterilen Filtern ein wenig höher liegt als bei den gammasterilisierten Filtern, die Rückhaltung der Filter in Wasser je-doch in etwa gleich ist. Grund für diesen Unterschied scheinen eine Porenweitung der gammasterilisierten Filter und die Verformung der Endotoxine bzw. Spaltung der Endotoxin-Aggregate durch Dianeal zu sein. Schlussfolgernd lässt sich sagen, dass durch eine Prallplatte, Dampf- oder Gammasterilisa-tion höhere maximale Filtrationsgeschwindigkeit erreicht werden können. Gleichzeitig nimmt die Endotoxinrückhaltung durch die Gammasterilisation und eine damit verbundene Poren-weitung jedoch ab. Auch Dianeal scheint durch die Verformung der Endotoxine bzw. Spal-tung der Endotoxin-Aggregate einen negativen Einfluss auf die Siebrückhaltung von Endoto-xinen zu haben.
Während der stationären oder ambulanten Behandlung im Krankenhausalltag wird für jeden einzelnen Patienten ein Fall angelegt, welcher alle erfassten Informationen (persönliche Daten, Diagnosen, Labordaten) enthält. Damit ist für die Mitarbeiter des Krankenhauses der Zugriff auf diese Daten jederzeit gewährleistet. Neben den bereits bestehenden Diagnosen und Erstdiagnosen sollten auch alle Folgediagnosen, die im Zuge der Behandlung gestellt werden, aufgenommen werden. Resultierend aus diesen erfassten Informationen ist der stationäre Fall später in diagnosebezogene Fallgruppen, Diagnosis Related Groups oder DRG, einzuordnen. Ziel der vorliegenden Arbeit ist die Entwicklung eines Verfahrens zur Diagnoseerkennung auf Grundlage von Laborwerten, welches dem Krankenhauspersonal als unterstützendes Hilfsmittel zur Seite gestellt werden kann. Das zu erstellende Framework kann aufgrund der vorliegenden Laborwerte noch nicht dokumentierte Diagnosen aufzeigen und somit zum einen einer lückenhaften Dokumentation vorbeugen, zum anderen kann eine nachträgliche Anpassung der Abrechnung erfolgen. Zur Umsetzung wurde zunächst eine Vorstudie durchgeführt, welche bestätigt, dass es mehrere Diagnosen gibt, die eine Veränderung der DRG bewirken und demnach die Entwicklung eines solchen Verfahrens sinnvoll ist. Infolge dessen schloss sich die Auswahl sowohl eines geeigneten Beispiellaborwertes (Troponin) als auch Laborkataloges (LOINC) an. Durch die anschließende Zuordnung einer Laborleistung zu einer Diagnose über LOINC-Codes wurde die Diagnoseerkennung aus Laborwerten realisierbar. Aufbauend auf diesem Verfahren wurde im Rahmen der Vismedica-Software das Laborframework implementiert. Dafür wurden Anforderungen an die zu erstellende Software festgelegt und während der Definition und Erstellung des Datenmodells berücksichtigt. Während dieser Umsetzung wurde ein DatastoreObjekt angelegt und die Befüllung dessen anschließend mittels Expertenroutinen implementiert. Im Ergebnis zeigt sich, dass die Möglichkeit besteht, aus vorhandenen Laborwerten automatisiert zugeordnete Diagnosen abzuleiten und sich durch die erneute Falleinstufung eine veränderte DRG ergeben kann. Eine nachträgliche Dokumentation sollte fachmedizinisch kontrolliert durchgeführt werden. Neben der angestrebten Verbesserung der Qualität der Diagnosedokumentation wäre eine nachweisliche Steigerung der DRG-Fallpauschalen-Beträge erreichbar und das Framework demnach ein effektives Hilfsmittel zur Kontrolle der derzeitigen Diagnosedokumentation.