Refine
Has Fulltext
- yes (55) (remove)
Year of publication
Document Type
- Master's Thesis (55) (remove)
Institute
- Physikalische Technik, Informatik (55) (remove)
Is part of the Bibliography
- no (55)
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
Zielsetzung der vorliegenden Arbeit war eine Transformation von BPMN-Elementen in logische Aussagen. Hierfür wurden zunächst die Anforderungen definiert und eine Analyse der BPMN-Diagramme durchgeführt, wobei häufig verwendete BPMN-Elemente ausgewählt wurden. Darüber hinaus wurde ein Konzept mit der Übersicht über die wichtigsten Schritte erstellt. Des Weiteren wurde ein Transformationsprogramm für die ausgewählte BPMN-Elemente und deren Eigenschaften entwickelt.
Die Funktionsweise dieses Programms basiert auf der Java-Programmiersprache und nutzt die XSLT-Implementierung Saxon. Das
Transformationsprogramm durchsucht die gegebene Datei nach BPMN-Diagrammen, analysiert die gefundenen BPMN-XML-Dateien und erzeugt die Prolog-Datei mit den Fakten. Anschließend wurden in dieser Arbeit Prolog-Regeln definiert, um zu zeigen, wie die generierten logischen Aussagen zur Validierung von BPMN-Diagrammen eingesetzt werden können.
In den letzten Jahren ist die Rechenleistung von Computern und zugleich die Auflösung der zum anzeigen von Hologrammen benötigten Spatial Light Modulaturen stark angestiegen. Dadurch erfährt das Themengebiet der synthetisch erzeugten Hologramme einen enormen Aufschwung. Es soll daher eine Plattform aufgebaut werden, mit welcher synthetische Hologramme erzeugt und evaluiert werden können. Zudem sollen die Inhalte als Grundlage für einen Versuch zum Einstieg in dieses Themengebiet dienen.
Es wurde mittels eines Transmissions Spatial Light Modulatrs ein inline Versuchsaufbau zum anzeigen von Phasenhologrammen realisiert. Als Methoden zum generieren der Phasenhologramme wurden die Fourier Optik und der Gerchberg-Saxton Algorithmus gewählt. Aus didaktischen Gründen wurde der Versuchsteil in mehrere Teilgebiete unterteilt um ein Gefühl für die verschiedenen Aspekte der digitalen Holografie zu vermitteln. Die so erzeugten rekonstruierten Bilder wurden hinsichtlich ihrer Qualität mittels SSIM bewertet und Effekte welche auftreten erläutert. Zudem wurde der gesamte Pythoncode so angelegt, dass dieser parallel zu dieser Arbeit als eine Versuchsanleitung dienen kann.
Gegenstand/Zielstellung:
Gegenstand der Masterthesis bilden Kommunikationsbarrieren hörgeschädigter Patienten in der stationären Krankenhausversorgung. Die potenziell davon betroffenen 220.000 Menschen in Deutschland sind zur barrierefreien Kommunikation auf einen Gebärdensprachdolmetscher angewiesen, welcher nicht immer unmittelbar verfügbar ist. Das Konzeptionieren einer App, welche Kommunikation unterstützt und dadurch hilft, Vermeidungsstrategien von Arztbesuchen abzubauen, ist das Ziel der Arbeit. Weiterhin soll diese App einem Dolmetschermangel temporär befristet entgegenwirken können. Digitalisierung bietet hier enormes Potential, sofern eine zielgruppenspezifische und anwenderfreundliche Umsetzung erfolgt.
Methodik:
Zunächst erfolgt eine Zusammenfassung der Datengrundlage (Bachelorthesis). Anschließend soll durch eine kombinierte SWOT-Analyse vorhandene technische und informationstechnischer Unterstützungsmöglichkeiten Hörgeschädigter in der stationären Patientenversorgung eruiert werden. Durch eine 9-Felder-Matrix werden Probleme und Herausforderungen dieser Patientengruppe priorisiert. Zur nutzerbezogenen Modellierung der App wird die Methodik der Persona angewandt. Nicht-funktionale Anforderungen werden durch die Muss-Soll-Kann-Methode kategorisiert. Die Modellierung von Use-Case- und Anwendungsdiagrammen erfolgt mit Microsoft VISIO, ebenso die prototypische Oberflächengestaltung. Letztere begrenzt sich auf das Erstellen von Lo-Fi-Oberflächen (Wireframes).
Ergebnisse:
Es wurden fünf Personas erstellt. Die Kombination von SWOT-Analyse und 9-Felder-Matrix führte zur Definition von Anwendungsfällen (Use-Cases) und nicht-funktionalen Anforderungen. Die Anwendungsfälle wurden durch Use-Case-Diagramme visualisiert und erweitert. Um das Verhalten des Systems zu beschreiben, wurden acht Aktivitätsdiagramme modelliert. Dieses Verhalten wurde in 156 Wireframes dargestellt und an einem Beispielszenario veranschaulicht.
Diskussion/ Schlussfolgerung:
Es konnten alle Ziele der Arbeit erreicht werden. Die genutzten Methoden erwiesen sich als zweckmäßig. Da die Modellierung allein keine Kommunikationsbarrieren in der Patientenversorgung Hörgeschädigter überwinden kann, muss die Anwendung zukünftig zum funktionierenden System entwickelt und auf den Markt eingeführt werden.
Nutzererwartungen an IT-Systeme haben sich in den letzten Jahren verändert. Online-Dienste müssen ständig verfügbar sein und im Millisekunden-Bereich Anfragen bearbeiten. Traditionelle IT-Systeme haben Probleme, die Erwartungen nachhaltig zu erfüllen. Reaktive und asynchrone Systeme erfüllen mit modernen Konzepten die Erwartungen besser.
In dieser Arbeit werden die Grundlagen von Asynchronität und reaktiven Systemen dargestellt. Dazu zählen Konzepte, wie Streaming oder Actor Model. Verteilung und Skalierung von reaktiven Systemen werden betrachtet.
Im Hauptteil der Arbeit wird ein Vergleich von Werkzeugen für die Implementierung reaktiver Systeme durchgeführt. Die Werkzeuge Project Reactor, vlingo XOOM und Akka werden verglichen. Die Vergleichskriterien betrachten u. A. den Funktionsumfang, die Einstiegshürde für Entwickler und die Leistungsfähigkeit der Werkzeuge. Die Bewertung der Kriterien wird durch die Implementierung eines Prototypen mit den drei Werkzeugen unterstützt.
Aus den Bewertungen der Kriterien entstehen Rangfolgen, die durch die Ermittlung der Durchschnittsplatzierungen zu einer Gesamtbewertung der Werkzeuge führen. Aus der Gesamtbewertung und den in dieser Arbeit gewonnenen Eindrücken werden unterschiedliche Einsatzgebiete für die Werkzeuge definiert.
Die Darstellung von Volumendaten in der Medizin reicht vom einfachen Anzeigen einzelner zweidimensionaler Schnittbilder bis hin zur komplexen Analyse dreidimensionaler Datenwolken. Dabei stellen das Direct Volume Rendering und Indirect Volume Rendering zwei wesentliche Methoden der Visualisierung von dreidimensionalen Daten dar.
In der Kieferorthopädie und -chirurgie spielen Darstellungen von DVT-Daten (Digital Volume Tomography) in der Diagnostik oder bei der digitalen Behandlungs-und Operationsplanung eine zentrale Rolle. Da die Volumenvisualisierung immer mehr an Bedeutung gewinnt, entwickeln sich die Rendering-Methoden stetig weiter. Insbesondere für Implementierungsaufgaben in eigene Systeme müssen aktuelle Entwicklungs- und Forschungsarbeiten stets verfolgt und analysiert werden. Ziel dieser Arbeit ist die Darstellung und Auswertung aktueller Methoden des Direct Volume Rendering, sowie der Extraktion von Objektoberflächen mittels des Indirect Volume
Rendering. Ein weiteres Ziel ist die Erstellung eines umfangreichen Überblickes über bereits praktisch, implementierte Rendering-Methoden. Auf Grundlage der Ergebnisse können Software-Funktionen in OnyxCeph realisiert werden. Sowohl für das direkte, als auch indirekte Volumen-Rendering wurde eine theoretische Literaturrecherche und eine Übersicht der praktischen Anwendung der untersuchten Verfahren erarbeitet. Anhand der Recherche und Analyse wissenschaftlicher Arbeiten konnten Kenntnisse über theoretische Ansätze sowie aktuelle Forschungsergebnisse im Bereich der Visualisierung von Volumendaten gewonnen werden. Weiterhin wurden ausgewählte Software-Produkte genutzt, um bereits eingesetzte Rendering-Verfahren auf Funktionalität und Leistungsfähigkeit zu analysieren.
Im Bereich des Direct Volume Rendering konnten erweiterte Interpolations-, Klassifikations-, Schattierungs- und Visualisierungsmethoden des Ray Casting-Algorithmus untersucht werden. Die 1D Gauß-Transferfunktion stellte sich als
eine einfache und nützliche Alternative zu konventionellen stückweise-linearen Übertragungsfunktion heraus. Für eine detaillierte Darstellung kann der Verarbeitungsprozess durch Shading-Methoden erweitert werden. So sind in der Praxis überwiegend gradientenbasierte Shading-Modelle eingesetzt. Deep Shadow Maps stellen dabei eine nützliche Ergänzung dar. Weiterhin konnten erweiterte Rendering-Methoden untersucht werden.
Neben der Maximum Intensity Projection kann die Minimum Intensity Projection für die Darstellung von Wurzelkanälen eingesetzt werden. Die Depth-enhanced Maximum Intensity Projection und Maximum Intensity Difference Accumulation bieten zwei vereinfachte Alternativen zum Ray Casting an, um eine nahezu korrekte dreidimensionale Darstellung erstellen zu können. Die Maximum Intensity Difference Accumulation erwies sich im Rahmen dieser Arbeit als eine besonders effektive Erweiterung zu bereits vorhandenen
Rendering-Verfahren. Auf Grundlage der gewonnenen Erkenntnisse während Recherchearbeit konnte Maximum Intensity Difference Accumulation in das Software-Produkt OnyxCeph implementiert werden. Die generierten Visualisierungen ermöglichten eine verbesserte Tiefenwahrnehmung, die dem klassischen Direct Volume Rendering ähnelt. In Kombination mit Beleuchtungsmethoden können zudem Oberflächenstrukturen analysiert werden.
Im Indirect Volume Rendering spielte die Segmentierung einzelner Volumenstrukturen durch das Iso-Surface Rendering eine besondere Rolle. Zur Generierung einer Oberfläche können verschiedene Methoden, wie der klassische Marching Cube-Algorithmus, die Level-Set-Methode und Surface-Nets eingesetzt werden. Die Literaturrecherche zeigte, dass Bestrebungen unternommen wurden, um alternative Algorithmen zum konventionellen Marching Cube-Verfahren zu entwickeln. So besteht die Möglichkeit den Rechenaufwand durch einen Simplified Pattern Marching Cube- oder Marching Tetrahedra-Algorithmus zu reduzieren. Weiterhin wurden Erweiterungen zur verbesserten Darstellung betrachtet.
So kann durch den Laplace-Filter oder Mittelwertfilter eine Weichzeichnung der Oberflächennetze erzeugt werden. Für eine erhöhte Auflösung besteht die Möglichkeit, die konventionelle Catmull-Clark -Methode oder die 4-8 Subdivision anzuwenden. In diesem Projekt konnte ein umfangreicher Überblick über aktuelle Methoden der Visualisierung von Volumendaten in der Zahnmedizin erstellt werden. Dabei repräsentieren sowohl die theoretischen, wissenschaftlichen Ansätze, als auch die praktische Lösungsansätze den aktuellen Stand der Technik und Forschung. Die Erkenntnisse können die Grundlage für Implementierungen darstellen.
Die analytische Elektronenmikroskopie ist eine häufig genutzte Charakterisierungsmethode für Festkörperoberflächen. Sie findet im Rahmen der Entwicklung, Modifizierung und Prüfung von Werkstoffen weitreichenden Einsatz. Daher bildet dieses Verfahren einen wesentlichen Baustein der Fachhochschulausbildung in vielen physikalisch orientierten Studiengängen.
Die vorliegende Arbeit befasst sich mit der Erstellung eines Praktikumskonzeptes für die Ausbildung von Bachelor- und Masterstudierenden an der Fakultät PTI der Westsächsischen Hochschule Zwickau. Insgesamt vier sowohl mikroskopisch als auch spektroskopisch orientierte Versuche wurden so gestaltet, dass sie didaktisch aufeinander aufbauend absolviert werden können. Dafür wurden zahlreiche Proben, unterschiedliche Detektoren sowie Kontrastvarianten auf ihre methodische und laborpraktische Eignung hin untersucht. Außerdem erfolgte eine vergleichende Betrachtung des Einflusses diverser Anregungs- und Auswerteparameter bei der energiedispersiven Röntgenspektroskopie.
Anhand von Experteninterviews, Peer-Befragungen und studentischem Feedback konnten sowohl die Gestaltung der Aufgabenstellung als auch der zeitliche Ablauf der Praktika optimiert werden. Zusätzlich fließen Berechnungen sowie komplexe Übungen als neue Komponenten in die Experimente ein. Durch eine adressatenspezifische Anpassung hinsichtlich Inhalt und Probenmaterial können die Praktika für Teilnehmer der Biomedizin- und Umwelttechnik oder perspektivisch auch anderer Studiengänge noch interessanter gestaltet werden.
Die strahlentherapeutische Behandlung mit Protonen von bestimmten Tumorentitäten, welche sich zum Beispiel in der Lunge, dem zentralen Nervensystem oder der Prostata befinden, stellt eine vielversprechende Alternative zu der konventionellen Photonentherapie dar. Zur Bestrahlungsplanung für die Bestrahlung mit Protonen werden Computertomographien (CT) verwendet.
Da es keinen direkten mathematischen Zusammenhang zwischen den Wechselwirkungen von Photonen bei der CT-Bildgebung und Protonen bei der Bestrahlung gibt, müssen heuristische Kalibrierkurven (HLUT) für jedes CT-Gerät individuell angefertigt werden. Die Motivation der Arbeit war es, das Kleintierbestrahlungsgerät Small Animal Radiation Treatment integrated beamline (SmART+ IB) für die Strahlenforschung mit Protonen vorzubereiten, das heißt die Voraussetzungsen für die Bestrahlungsplanung im Protonenstrahl zu schaffen.
Diese Masterarbeit beschäftigt sich mit der Erstellung von HLUT’s für das SmART+ IB zur zukünftigen Bestrahlungsplanung für Protonen-Kleintierbestrahlung. Im Rahmen dieser Arbeit wurden die Bildqualität und die Strahlendosen von vier Aufnahmeprotokollen des SmART+ IB’s ermittelt, bewertet und mit dem Präzisionbestrahlungsgerät für Kleintiere (SAIGRT) verglichen. Das SAIGRT wird aktuell zur Bestrahlungsplanung mit Protonen am „OncoRay - Nationales Zentrum für Strahlenforschung in der Onkologie“ verwendet. Die Ergebnisse zeigen eine gleichwertige Bildqualität und Strahlendosis der CT-Aufnahmen der beiden Geräte. Jedoch entstehen durch Strahlaufhärtungsartefakte Abweichungen von bis zu 50 HU von der tatsächlichen CT-Zahl eines zylinderförmigen Phantoms mit einem Durchmesser von 30 mm.
Zusätzlich wurden im Rahmen der Arbeit HLUT’s nach der empirischen Methode und nach der stöchiometischen Methode erstellt. Mithilfe von unbekannten Materialien konnte die Genauigkeit der erstellten HLUT’s validiert werden. Der wichtigste Teil der Bestrahlungsplanung ist die Reichweitenvorhersage und mittels dem Bildgebungsprotokoll Mouse Bone Low Dose (60 kV; 0,5 mA) und der empirischen HLUT kann bei einer Strahlendosis von 22 mGy die Reichweite auf 0,5 mm genau bestimmt werden.
Berliner Blau wurde mittels potentiostatischer elektrochemischer Abscheidung auf Gold und ITO synthetisiert.
Eine Untersuchung der Morphologie und der Zusammensetzung wurde in Abhängigkeit von ausgewählten thermodynamischen Eigenschaften durchgeführt. Diese wurden zusammen mit hergestellten Schichten von Natriumhexacyanoferrat und Cobalthexacyanoferrat mithilfe ausgewählter spektroskoskopischen Untersuchungsmethoden (REM, XPS, EDX, XRD, Raman) analysiert. Kubische Kristalle unterschiedlicher Gitterparameter und Zusammensetzung konnten ermittelt werden. Elektrische Messungen konnten ein resistives Schaltverhalten in den untersuchten Schichten zeigen.
Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von TiN/AlN-Multischichten. Ein besonderer Fokus liegt dabei auf der Untersuchung der thermischen Stabilität der Schichten.
Die Erzeugung der Schichtsysteme erfolgt mittels reaktivem RF-Magnetronsputtern in der Beschichtungsanlage LA 250 S (Fa. Von Ardenne). Es werden zwei Typen von Multischichten hergestellt: Typ 1 mit Periodendicken d = 14,1 nm…15.9 nm und Typ 2 mit Periodendicken dP = 4,44 nm…5,35 nm.
Um die thermische Stabilität zu untersuchen werden die Proben bei unterschiedlichen Temperaturen im Bereich von 170 °C…800 °C unter Stickstoffatmosphäre getempert.
Zur Charakterisierung der Schichtsysteme wird neben der Röntgenreflektometrie (XRR) die Röntgenphotoelektronenspektroskopie (XPS) verwendet. Dabei dient die XRR zur Bestimmung der Dichte und Schichtdicke, respektive Periodendicke der Schichten. Die XPS liefert währenddessen Aussagen zur Schichtzusammensetzung.
Die Untersuchungen zeigen eine thermische Stabilität der Multischichten für Temperaturen bis 700 °C hinsichtlich ihrer Multischicht-Struktur. Bei einer Temperatur von 800 °C bleiben die Multischicht-Strukturen jedoch nicht erhalten.
In dieser Arbeit wird ein statistisch anlernbares Modell vorgestellt, das in der Lage ist die komplexwertige Übertragungsfunktion einer optischen Multimodefaser auf Basis ebenfalls komplexwertiger Datensätze zu approximieren.
Zu diesem Zweck werden komplexwertige Schichten eines neuronalen Netzes implementiert und ein deterministisch inspiriertes Modell des zugrundeliegenden Systems aufgebaut. Die Konvergenz des Modells beim Training
für verschiedene, durch Simulation erhaltene, Datensätze wird gezeigt. Die Interpretierbarkeit des Modells in dem Sinne, dass aus dem antrainierten Modell die Eigenlösungen der zugrundeliegenden Differentialgleichungen, also die Moden der Faser gewonnen werden können, wird ebenfalls überprüft.
Zudem wird gezeigt, dass ein effizientes Umlernen des Modells auf sich kontinuierlich verändernde Faserzustände möglich ist, solange die eingeführten Perturbationen nicht zu stark vom jeweils vorherigen Zustand abweichen.
Die Diagnosefindung für Hautkrebserkrankungen kann mit neuronalen Netzen erleichtert werden. Diese benötigen jedoch eine große Anzahl an Trainingsdaten, die im medizinischen Kontext häufig nicht vorhanden sind.
In dieser Arbeit wird ein Cycle-GAN genutzt, um Bilddaten zur Erweiterung begrenzter, medizinischer Datensätze zu erzeugen. Ein öffentlich zugänglicher, dermatologischer Bilddatensatz dient als Grundlage des Trainings. Die gewählte Architektur erlaubt es, Daten der Klasse Naevi in Daten der Klasse Melanome umzuwandeln. Der Einfluss verschiedener Parameter wurde untersucht.
Ein Großteil der durchgeführten Versuche konzentriert sich auf die Gewichtung der vier Lossfunktionen, anhand derer das Netz seinen Trainingsprozess optimiert. Wobei der adversariale Loss die Klassenzugehörigkeit bewertet, der Identitätsloss zur Qualitätserhaltung dient und die beiden Cycle-Loss den mathematischen Identitätsfunktionen der Datenverteilungen entsprechen.
Weiterhin wurde die Wirkung der Datenstandardisierung und -vorbereitung geprüft. Auch die Folgen einer Mehrfachnutzung ausgewählter Daten wurden betrachtet. Die Diskriminatoren des Cycle-GAN wurden hinsichtlich ihres Nutzens als Klassifikatoren für reale Daten getestet. Um die Nutzbarkeit der generierten Daten in Trainingsprozessen zu prüfen, wurde ein Klassifikator auf realen und anschließend auf generierten Daten trainiert.
Die erzielte Genauigkeit für Melanome stimmte in beiden Trainingsprozessen überein.
Das Ziel dieser Arbeit ist es eine Migration des Java – Programms in die Produktivumgebung bzw. des MES Systems zu vollziehen.
Dabei wird der Aufbau des Programms grundlegend verändert bzw refactort. Zusätzlich dazu erfolgt eine Betrachtung und ggf. Vereinfachung der Datenbeschaffung– und Haltung. Des Weiteren ist die Schnittstellenfunktionalität zu erweitern. Hierunter fällt u.a. die Anforderungsanalyse, Ausweitung der Datenbeschaffung bzw. Speicherung (z.B. redundante Speicherung der Daten abzulösen).