Refine
Year of publication
Document Type
- Master's Thesis (353) (remove)
Institute
- Physikalische Technik, Informatik (353) (remove)
Is part of the Bibliography
- no (353)
Ziel dieser Arbeit war es, den Umgang mit einer großen Anzahl von Softwareschwachstellen, konkret Common Vulnerabilities and Exposures (CVEs) zu erleichtern. Dazu wurden drei Ansätze untersucht: die Entwicklung eines eigenen Vulnerability Management Systems (VMS), die Untersuchung von Filtermöglichkeiten für CVEs und die Identifizierung von Attributen zur Priorisierung von Schwachstellen. Das eigens entwickelte VMS, der CVE-Tracker, ermöglicht die effiziente Verwaltung und Organisation der über 1300 gefundenen CVEs, insbesondere im Hinblick auf Mehrfachvorkommen in verschiedenen Software-Releases sowie die automatische Abfrage der CVEs von der National Vulnerability Database (NVD).
Als Ergebnis konnten wichtige Erkenntnisse gewonnen werden, die bei der Implementierung eines VMS berücksichtigt werden müssen. Die Untersuchung von verschiedenen Anfragetypen zum Filtern der CVEs gibt einen detaillierten Einblick in das Verhalten der CVE-API der NVD. Es konnte ein Anfragetyp identifiziert werden, der für den Einsatz in VMS geeignet ist. Im letzten Ansatz wurden Attribute für eine mögliche Priorisierung von CVEs identifiziert, darunter CVSS-Scores, Common Weakness Enumeration (CWE) und Social Media Analysen. Insgesamt wurden sieben Attribute gefunden, die, wenn sie richtig verstanden werden, zu einer guten Priorisierung beitragen können.
Die Arbeit verdeutlicht die Herausforderungen bei der Verwaltung der Sicherheit einer Software mit großen Mengen an CVEs und bietet eine Grundlage für zukünftige Forschung. Mögliche Erweiterungen umfassen den Einsatz von künstlicher Intelligenz für eine präzisere Filterung, die Einbeziehung weiterer Schwachstellendatenbanken und die Vertiefung der Analyse von Social-Media-Plattformen für eine umfassendere Bewertung der Relevanz von CVEs.
Diese Arbeit beschäftigt sich mit theoretischen und praktischen Ansätzen, um eine Java-Anwendung im browser anzuzeigen. Dabei werden einige Möglichkeiten der Datenübertragung zwischen client und server erklärt und theoretische Ansätze zur Eigenentwicklung präsentiert (mit Code-Beispielen). Außerdem werden Anwendungen vorgestellt, die die Überführung in eine Webanwendung automatisch durchführen. Diese werden für die Nutzung mit einer JavaFX-basierten Anwendung näher untersucht, wobei nur eine von drei Anwendungen (JPro) tatsächlich weitergehend untersucht werden kann. Dabei werden Probleme im Zusammenhang mit der Nutzung von JPro diagnostiziert und Lösungsvorschläge abgegeben, wie diese Probleme behoben werden können. Letztendlich wird eine Empfehlung abgegeben, welche der theoretischen Ansätze bzw. der vorgestellten Anwendung am Besten geeignet ist, um die Portierung einer
Anwendung in eine Webanwendung durchzuführen.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
Diese Masterarbeit, wurde in Zusammenarbeit mit der Firma Geuder AG, Standort Heidelberg, erarbeitet. Ziel und Zweck dieser Arbeit war es, den Beschriftungsprozess der chirurgischen Instrumente zu validieren und somit für prozesssicher zu erklären. Zum Validierungsprozess gehören verschiedene Teilprozesse wie die Erstellung eines Validierungsplans, in dem beschrieben wird, was das Ziel der Validierung ist und wie es erreicht werden soll bzw. mit welchen Materialien es umgesetzt wird. Des Weiteren wurde eine Fehlermöglichkeitsanlayse (FMEA) durchgeführt, um entstehende Hindernisse im Prozess betrachten zu können und einen Notfallplan zu erstellen. An die FMEA schließen sich die Funktionsqualifikation (OQ) und die Leistungsqualifikation (PQ) an. Die IQ (Installationsqualifikation) , die noch vor der OQ stattfindet wurde von der Firma FOBA übernommen. Die OQ wurde im Rahmen verschiedener Tests durchgeführt. Die Laserparameter für die Anlassbeschriftung wurden auf ihre Randbedingungen getestet. Diese sind vor allem bei rauen oder grob verschmutzten Beschriftungsfläche zu finden. Im Anschluss an die OQ, in der die Rahmenbedingungen festgelegt wurden, um ein gutes Beschriftungsergebnis erzielen zu können, wird eine PQ durchgeführt. Diese ist kein Bestandteil dieser Arbeit.
Diese Masterarbeit widmet sich der Thematik der Digital Twins (DT), einer Technologie, die in den letzten Jahren zunehmend an Bedeutung gewonnen hat, sowie der Verwendung von DTs im Retail. Im Fokus steht dabei der virtuelle Shelf als DT von Regalen in Einzelhandelsgeschäften. Ziel ist es, mithilfe des virtuellen Shelfs Services der GK in einem realitätsnahen Umfeld zu testen und präsentieren.
Der virtuelle Shelf bietet eine Visualisierung der Regale für einen großformatigen 72-Zoll Bildschirm und ermöglicht es den Nutzern, Interaktionen mit einem Regal zu simulieren. Zusätzlich zu den Auswirkungen der Interaktionen auf das Regal können mithilfe der Visualisierung zusätzliche Hintergrundinformationen dargestellt werden, wie beispielsweise die Bestandsinformationen eines Artikels.
Die Forschungsfrage, die dieser Arbeit zugrunde liegt, lautet: „Ist ein virtueller Shelf als Digital Twin geeignet, um den Prozess des Instore Fulfillments zu simulieren und zu visualisieren?“ Zur Beantwortung dieser Frage werden verschiedene Aspekte behandelt, darunter die Definition eines Digital Twins, die Schritte zur Erstellung eines solchen, die Definition des Instore Fulfillment-Prozesses, die Konzeptionierung und die prototypische Realisierung des virtuellen Shelfs sowie eine Studie zur Validierung
dieses DTs.
Durch die systematische Untersuchung dieser Punkte wird nicht nur die Eignung des virtuellen Shelfs als Digital Twin für den Instore Fulfillment-Prozess beleuchtet, sondern auch wertvolle Erkenntnisse für die zukünftige Anwendung und Weiterentwicklung dieser innovativen Technologie gewonnen.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
Gewinnung von Informationen aus technischen Zeichnungen mittels KI-Methoden zur Bilderkennung
(2023)
Diese Masterarbeit untersucht maschinelles Lernen für die Objekterkennung in technischen Zeichnungen, mit Schwerpunkt auf der Identifizierung von Tabellen, Bildern, Geräten und regulären Boxen. Verschiedene Algorithmen wurden betrachtet, darunter TensorFlow, Keras- OCR, OpenCV und YOLO. Die Studie ergab, dass die Kombination von FCN, Spatial Transformer Network, Canny Edge Detection, FCN, Faster R-CNN, Template Matching und YOLO mit STN signifikante Verbesserungen bei der Objekterkennung im Vergleich zur alleinigen Verwendung von FCN erzielte.
Darüber hinaus führte das Training von YOLOv5 als erstes Modell und seine Verfeinerung mit einem gelabelten Datensatz zu noch besseren Leistungen. Die Erkenntnisse aus dieser Forschung können Branchen zugutekommen, die stark auf technische Zeichnungen für ihre Geschäftsabläufe angewiesen sind.
Der Medizin stehen zur Versorgung der Bevölkerung immer bessere Methoden zur Verfügung, die auf nichtinvasivem Weg den Blick ins Körperinnere erlauben. Bei der Tomographie nahm dabei eine besonders rasante Entwicklung. Fortschreitende Technik brachte jedoch auch spezielle Fehlerquellen mit sich. Artefakte in der Bildgebung können die Folge sein. Da sie zu Fehlinterpretationen und unpassenden Diagnosen führen können, ist der geeignete Umgang mit ihnen von großer Wichtigkeit.
Die OvGU hat sich zur Aufgabe gestellt, Studierende der Studiengänge Medizintechnik sowie Medical Systems Engineering auf diese Praxisanforderung mit Hilfe des CT-Train vorzubereiten. Er nutzt Modelllokomotiven, um durch ein spielerisches Element das Lernen zu unterstützen.
Im hier beschriebenen Projekt wurde diese speziell konzipierte Lehr-Versuchsanordnung für den Gebrauch in einem Praktikum zur Praktischen Bildgebung umgesetzt und eine entsprechende Anleitung für die Studierenden erstellt.
Zu diesem Zweck wurde der vorhandene Laser-Scanner zu einem Röntgen-Computertomographen mit speziellen Scanobjekten umgebaut. Anschaulichkeit und eine Vielzahl von Interventionsmöglichkeiten für die Studierenden standen dabei im Vordergrund. Röhrenspannung und Anodenstromstärke lassen sich an der Quelle ebenso einstellen, wie am Detektor die Dauer der Detektionen und die Anzahl ihrer Wiederholungen. Weitere Interventionen ermöglicht der Code. Die Versuchsanordnung erfordert zudem bei den Voreinstellungen die gründliche Beschäftigung mit der Geometrie des Aufbaus.
Zu systematischen Untersuchungen mit den genannten Parametern und an unterschiedlichen Scanobjekten werden die Studierenden in der Anleitung angehalten. Sie regt die Studierenden ebenfalls an, nach Möglichkeiten zu suchen, wie Mensch-induzierte Artefakte sich am CT-Train simulieren lassen. Die Ergebnisse ihrer Versuche können durch Auswertung der gewonnenen Datensätze mit geeignetem MatLab-Code veranschaulicht werden.
Prinzipiell sind am funktionsfähigen CT-Train Simulationen von Artefakten denkbar. Die Nutzung der Anordnung hat gezeigt, dass dazu Datensätze mit hoher Datendichte vorteilhaft sind. Um diese kontrolliert zu generieren, ist es notwendig, zunächst gute Kenntnisse über einen Zusammenhang zwischen den Detektorparametern zu erlangen, der nicht vorhergesehen wurde. Das Auftreten von Artefakten anhand einer raschen Abfolge von Schnittbildern zu erkennen, fällt naturgemäß schwer. Deshalb wird zu deren Auffinden eine volume rendering Methode empfohlen.
Zielsetzung der vorliegenden Arbeit war eine Transformation von BPMN-Elementen in logische Aussagen. Hierfür wurden zunächst die Anforderungen definiert und eine Analyse der BPMN-Diagramme durchgeführt, wobei häufig verwendete BPMN-Elemente ausgewählt wurden. Darüber hinaus wurde ein Konzept mit der Übersicht über die wichtigsten Schritte erstellt. Des Weiteren wurde ein Transformationsprogramm für die ausgewählte BPMN-Elemente und deren Eigenschaften entwickelt.
Die Funktionsweise dieses Programms basiert auf der Java-Programmiersprache und nutzt die XSLT-Implementierung Saxon. Das
Transformationsprogramm durchsucht die gegebene Datei nach BPMN-Diagrammen, analysiert die gefundenen BPMN-XML-Dateien und erzeugt die Prolog-Datei mit den Fakten. Anschließend wurden in dieser Arbeit Prolog-Regeln definiert, um zu zeigen, wie die generierten logischen Aussagen zur Validierung von BPMN-Diagrammen eingesetzt werden können.