Refine
Year of publication
Document Type
- Diploma Thesis (825)
- Bachelor Thesis (631)
- Master's Thesis (354)
- Article (18)
- Part of a Book (5)
- Book (4)
- Report (4)
Institute
- Physikalische Technik, Informatik (1841) (remove)
In dieser Bachelorarbeit wird die Entwicklung einer Service-Struktur zur Suche, Filterung und Abfrage von ETF- und Fondsdaten vorgestellt. Der Fokus liegt auf der Modernisierung einer bestehenden Anwendung, ursprünglich in Go entwickelt, durch die Überführung in das moderne Quarkus-Framework. Ziel ist es, die Datenverarbeitung und -bereitstellung zu optimieren und manuelle Prozesse, durch die Verwendung von Schnittstellen, zu automatisieren.
Es werden die Herausforderungen und Einschränkungen des bestehenden Services analysiert und eine Lösung zur Verbesserung der Effizienz und Performance durch die Anwendung von Quarkus, Hibernate und anderen Technologien vorgeschlagen. Die Arbeit beleuchtet die Implementierung und Bewertung der neuen Service-Struktur, die eine effektivere Handhabung und Analyse von ETF- und Fondsdaten ermöglicht.
Die Aufbereitung von Medizinprodukten ist ein sehr wichtiger und komplexer Bestandteil im Krankenhaus. Aus diesem Grund beschäftigt sich die vorliegende Masterarbeit mit dem Thema der Prozessoptimierung in der Aufbereitungseinheit für Medizinprodukte und konzentriert sich auf die Einflussfaktoren sowie deren Auswirkungen auf den Aufbereitungsprozess.
Um eine umfangreiche Analyse durchzuführen, wurden verschiedene Methoden angewandt. Es fand ein Vergleich zwischen den Sterilisationsverfahren statt, um die jeweiligen Vor- und Nachteile herauszustellen. Darüber hinaus wurden Beobachtungen durchgeführt, um den Prozessablauf und die einzelnen Arbeitsschritte zu analysieren und mögliche Schwachstellen zu identifizieren und zu beurteilen. Für die Bewertung der Zeiteffizienz wurden detaillierte Zeitaufnahmen durchgeführt, die Rückschlüsse über die Dauer des Prozesses und ihre einzelnen Phasen geben sollte.
Basierend auf den Daten und Analyseergebnissen wurden schließlich konkrete Handlungsempfehlungen abgeleitet. Diese Empfehlungen zielen darauf ab, den Aufbereitungsprozess effizienter zu gestalten. Sie umfassen dabei Schulungen für die Mitarbeitenden, eine Überarbeitung mancher Operationssets und eine Überprüfung des Personalbedarfs.
Insgesamt zeigt die Masterarbeit einen detaillierten Einblick in den Aufbereitungsprozess des Heinrich-Braun-Klinikums Zwickau und formuliert Optimierungsmöglichkeiten, die als Grundlage für zukünftige Verbesserungen dienen können.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung eines innovativen Lernassistenten namens MentorAI, der auf Chatbot-Technologie und fortschrittlichen Sprachmodellen basiert. Das Hauptziel besteht darin, eine leistungsstarke Anwendung zu schaffen, die umfassende Unterstützung für Studierende während ihres Lernprozesses bietet.
Die Motivation für dieses Projekt gründet sich in der zunehmenden Relevanz von Chatbots in der digitalen Welt. MentorAI, als Chatbot-basierte Sprachmodell-Anwendung, strebt danach, den Lernprozess zu optimieren, indem er effiziente und individuelle Unterstützung bietet. Dieser Lernassistent fungiert als Schlüsselkomponente für die Erklärung komplexer Lerninhalte, die Beantwortung von Fragen und die Schaffung einer interaktiven Lernerfahrung.
Die methodische Herangehensweise umfasst die theoretischen Grundlagen von künstlicher Intelligenz (KI), Verarbeitung natürlicher Sprache, Transformer und Sprachmodelle, insbesondere ChatGPT, und Chatbots. Nach dieser Einführung wird LangChain erläutert, gefolgt von der Implementierung von MentorAI. Die Ergebnisse dieser Arbeit verdeutlichen, dass MentorAI als Lernassistent einen bedeutenden Meilenstein darstellt. Der KI-Assistent kann präzise und nützliche Antworten liefern, Rechenaufgaben lösen und Aufgaben systematisch bearbeiten, was auf die Effektivität der aktuellen Parametereinstellungen hinweist. Diese Arbeit betont die Potenziale von Chatbot-Technologien im Bildungskontext und deren Fähigkeit, den Lernprozess zu optimieren, individualisierte Informationsvermittlung
zu ermöglichen und ein verbessertes Lernerlebnis für Studierende zu schaffen.
OpenStreetMap (OSM) is a large open database for geographic data created and maintained by volunteers. OSM's main data use is rendering an extremely detailed map of the world. Data quality is an important issue for applications like routing of pedestrians to public transport facilities. In this report we describe different schemes for mapping bus stops in OSM and we provide statistics on usage of those schemes, the good ones and the not so good ones.
Background: Proctoring represents a cornerstone in the acquisition of state‐of‐the‐art cardiovascular interventions. Yet, travel restrictions and containment measures during the COVID‐19 pandemic limited on‐site proctoring for training and expert support in interventional cardiology.
Methods and Results: We established a teleproctoring setup for training in a novel patent foramen ovale closure device system (NobleStitch EL, HeartStitch Inc, Fountain Valley, CA) at our institution using web‐based real‐time bidirectional audiovisual communication. A total of 6 patients with prior paradoxical embolic stroke and a right‐to‐left shunt of grade 2 or 3 were treated under remote proctorship after 3 cases were performed successfully under on‐site proctorship. No major device/procedure‐related adverse events occurred, and none of the patients had a residual right‐to‐left shunt of grade 1 or higher after the procedure. Additionally, we sought to provide an overview of current evidence available for teleproctoring in interventional cardiology. Literature review was performed identifying 6 previous reports on teleproctoring for cardiovascular interventions, most of which were related to the current COVID‐19 pandemic. In all reports, teleproctoring was carried out in similar settings with comparable setups; no major adverse events were reported.
Conclusions: Teleproctoring may represent a feasible and safe tool for location‐independent and cost‐effective training in a novel patent foramen ovale closure device system. Future prospective trials comparing teleproctoring with traditional on‐site proctoring are warranted.
Auf digitalen Märkten besteht, wer die zugrundeliegenden digitalen, unternehmensbezogenen oder akteursübergreifenden institutionellen Arrangements versteht und aktiv gestaltet. Dazu werden ausgereifte, von Forschung und Praxis diskutierte und gemeinsam weiter entwickelte Methoden zum Design digitaler Plattformen, Geschäftsmodelle und Service-Ökosysteme benötigt. Einen gemeinschaftlichen Aufschlag hierzu macht der folgende Artikel. Er entstand aus einem offenen Aufruf in der Wirtschaftsinformatik-Community – über Mailing-Listen und soziale Medien. Im Ergebnis führen sieben Forschergruppen (oder einzelne Forscher und Forscherinnen) ihre aktuellen Erkenntnisse zu diesem Thema zusammen.
Ziel dieser Arbeit war es, den Umgang mit einer großen Anzahl von Softwareschwachstellen, konkret Common Vulnerabilities and Exposures (CVEs) zu erleichtern. Dazu wurden drei Ansätze untersucht: die Entwicklung eines eigenen Vulnerability Management Systems (VMS), die Untersuchung von Filtermöglichkeiten für CVEs und die Identifizierung von Attributen zur Priorisierung von Schwachstellen. Das eigens entwickelte VMS, der CVE-Tracker, ermöglicht die effiziente Verwaltung und Organisation der über 1300 gefundenen CVEs, insbesondere im Hinblick auf Mehrfachvorkommen in verschiedenen Software-Releases sowie die automatische Abfrage der CVEs von der National Vulnerability Database (NVD).
Als Ergebnis konnten wichtige Erkenntnisse gewonnen werden, die bei der Implementierung eines VMS berücksichtigt werden müssen. Die Untersuchung von verschiedenen Anfragetypen zum Filtern der CVEs gibt einen detaillierten Einblick in das Verhalten der CVE-API der NVD. Es konnte ein Anfragetyp identifiziert werden, der für den Einsatz in VMS geeignet ist. Im letzten Ansatz wurden Attribute für eine mögliche Priorisierung von CVEs identifiziert, darunter CVSS-Scores, Common Weakness Enumeration (CWE) und Social Media Analysen. Insgesamt wurden sieben Attribute gefunden, die, wenn sie richtig verstanden werden, zu einer guten Priorisierung beitragen können.
Die Arbeit verdeutlicht die Herausforderungen bei der Verwaltung der Sicherheit einer Software mit großen Mengen an CVEs und bietet eine Grundlage für zukünftige Forschung. Mögliche Erweiterungen umfassen den Einsatz von künstlicher Intelligenz für eine präzisere Filterung, die Einbeziehung weiterer Schwachstellendatenbanken und die Vertiefung der Analyse von Social-Media-Plattformen für eine umfassendere Bewertung der Relevanz von CVEs.
Diese Arbeit beschäftigt sich mit theoretischen und praktischen Ansätzen, um eine Java-Anwendung im browser anzuzeigen. Dabei werden einige Möglichkeiten der Datenübertragung zwischen client und server erklärt und theoretische Ansätze zur Eigenentwicklung präsentiert (mit Code-Beispielen). Außerdem werden Anwendungen vorgestellt, die die Überführung in eine Webanwendung automatisch durchführen. Diese werden für die Nutzung mit einer JavaFX-basierten Anwendung näher untersucht, wobei nur eine von drei Anwendungen (JPro) tatsächlich weitergehend untersucht werden kann. Dabei werden Probleme im Zusammenhang mit der Nutzung von JPro diagnostiziert und Lösungsvorschläge abgegeben, wie diese Probleme behoben werden können. Letztendlich wird eine Empfehlung abgegeben, welche der theoretischen Ansätze bzw. der vorgestellten Anwendung am Besten geeignet ist, um die Portierung einer
Anwendung in eine Webanwendung durchzuführen.
Im Mittelpunkt des Artikels steht die Frage, welche Eingabemethoden sich für die Eingabe längerer Texte auf Mobiltelefonen eignen. Der Grund dafür ist, dass Artikel über Eilmeldungen in der Regel lang sind und die Verwendung einer Handytastatur zur Eingabe langer Texte sowohl ineffizient als auch mühsam ist.
Daher änderte ich meine Zielsetzung in
1. eine geeignete Eingabemethode für das Schreiben langer Texte auf Mobiltelefonen auf der Grundlage der Literatur zu finden.
2. eine geeignete Eingabemethode für die Erfassung von kritischen Ereignissen zu finden.
3. schließlich die Bewertung dieser Eingabemethoden in Bezug auf Komfort und Effizienz.
In der vorliegenden Diplomarbeit wird ein Konzept zur hochverfügbaren Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erarbeitet und getestet. Dafür wurde im Vorfeld eine Anforderungsanalyse zur Ermittlung der Anforderungen an diese hochverfügbaren Anbindungen durchgeführt. Im Folgenden wurden Technologien zur Erfüllung der Anforderungen ermittelt, kombiniert und auf Nutzwerte verglichen. Die Kombination der Technologien mit dem höchsten Nutzwert wurde in einem Prototyp umgesetzt und in einer Testumgebung auf die Erfüllung der Anforderungen getestet. Ziel dieser Arbeit war es dabei ein herstellerneutrales, infrastrukturunabhängiges und in verschiedenen Anwendungsfällen nutzbares Konzept zu entwickeln. Diese Unabhängigkeit und Offenheit soll es ermöglichen, dieses Konzept in verschiedenen Szenarien, welche eine Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erfordern, einsetzen zu können. Dadurch soll die Zeit zur Konzeption einer Lösung in der Praxis erheblich gesenkt werden.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
Diese Masterarbeit, wurde in Zusammenarbeit mit der Firma Geuder AG, Standort Heidelberg, erarbeitet. Ziel und Zweck dieser Arbeit war es, den Beschriftungsprozess der chirurgischen Instrumente zu validieren und somit für prozesssicher zu erklären. Zum Validierungsprozess gehören verschiedene Teilprozesse wie die Erstellung eines Validierungsplans, in dem beschrieben wird, was das Ziel der Validierung ist und wie es erreicht werden soll bzw. mit welchen Materialien es umgesetzt wird. Des Weiteren wurde eine Fehlermöglichkeitsanlayse (FMEA) durchgeführt, um entstehende Hindernisse im Prozess betrachten zu können und einen Notfallplan zu erstellen. An die FMEA schließen sich die Funktionsqualifikation (OQ) und die Leistungsqualifikation (PQ) an. Die IQ (Installationsqualifikation) , die noch vor der OQ stattfindet wurde von der Firma FOBA übernommen. Die OQ wurde im Rahmen verschiedener Tests durchgeführt. Die Laserparameter für die Anlassbeschriftung wurden auf ihre Randbedingungen getestet. Diese sind vor allem bei rauen oder grob verschmutzten Beschriftungsfläche zu finden. Im Anschluss an die OQ, in der die Rahmenbedingungen festgelegt wurden, um ein gutes Beschriftungsergebnis erzielen zu können, wird eine PQ durchgeführt. Diese ist kein Bestandteil dieser Arbeit.
ALADIN – Generator für Aufgaben und Lösung(shilf)en aus der Informatik und angrenzenden Disziplinen
(2022)
Context: VR as an application to enhance well-being is sparsely researched in the elderly population. The aim of the pilot study was to analyze the effect of 360° videos of different categories on the state of mind of seniors in nursing facilities. Furthermore, for the implementation in everyday life, the usability of the system and the experience for seniors should be evaluated.
Methods: The VR experience was used as a supplement to existing care services in three facilities on eight subjects. Mood state was assessed using the Questionnaire for the Assessment of Happiness before and after the intervention. Demographic data and technology acceptance were collected beforehand. After the intervention, subjects were interviewed about confounding factors and side effects, and nursing home staff were interviewed about the usability of the system and the organizational concept of implementation.
Results: There was a positive effect on state of mind. Gender and spatial mobility turned out to be influencing factors. Categories containing people, animals and action achieved the highest increases in the state of mind. Interest in using technical devices correlated negatively with the change in mood state. None of the subjects found the VR goggles distracting or reported motion sickness. Very good usability was indicated by the employees.
Conclusion: A very high willingness to use this technology was found among nursing staff and residents. The tendencies of the positive effect of 360° videos on the state of mind, as well as differentiation based on the mentioned characteristics gender and spatial mobility, should be verified by a larger sample to empirically validate the use of this technology to increase the quality of life.
Electrical and thermal measurements were conducted during the plasma electrolytic polishing (PEP) of cemented tungsten carbide (WC-Co) materials to characterize energetic aspects of the process in relation to the temporal development of the gaseous layer near the workpiece. The power transferred to the workpiece is determined using a calorimetric probe and employing the time derivative of the temperature curve. It shows distinct heating phases due to the generation of the gaseous layer. At the beginning of the process, a typical power of 367 ± 17 W is transferred to the workpiece of a surface area of 14 cm2. At longer process times, a stabilized gaseous layer limits the power transferred to the workpiece to 183 ± 3 W. In an attempt to describe the heat transferred to the electrolyte, the electrolyte temperature was measured using a thermocouple situated 15 mm away from the workpiece. The local electrolyte temperature increases from 70 to 81 °C for an immersion depth of 20 mm. Moreover, the spatiotemporal development of the electrolyte temperature was obtained by 2D-hydrodynamic modeling using COMSOL Multiphysics®. The modeling results for the local temporal temperature development are in excellent agreement with the experimental values when the turbulent model is applied up to t = 65 s. Afterward, the laminar model leads to a better agreement. Furthermore, line scan x-ray photoelectron spectroscopy revealed that aliphatic carbon was preferentially removed. Only a slight compositional gradient in the vertical direction after the PEP process was observed.
Routing games over time are widely studied due to various applications, e.g., transportation, road and air traffic control, logistic in production systems, communication networks like the internet, and financial flows. In this article, we present a new competitive packet routing game with edge priorities motivated by traffic and transportation. In this model a set of selfishly acting players travels through the network over time. If the number of players who want to enter an edge at the same time exceeds the inflow capacity of this edge, then edge priorities with respect to the preceding edge are used to resolve these conflicts, which is similar to right-of-way rules in traffic. We analyze the efficiency of pure Nash equilibria, present an efficient algorithm for computing equilibria in symmetric games, and show that it is NP-hard to decide whether a Nash equilibrium exists in an asymmetric game. Furthermore, we address the problem of constructing optimal priorities.
Certifying Fully Dynamic Algorithms for Recognition and Hamiltonicity of Threshold and Chain Graphs
(2023)
Solving problems on graphs dynamically calls for algorithms to function under repeated modifications to the graph and to be more efficient than solving the problem for the whole graph from scratch after each modification. Dynamic algorithms have been considered for several graph properties, for example connectivity, shortest paths and graph recognition. In this paper we present fully dynamic algorithms for the recognition of threshold graphs and chain graphs, which are optimal in the sense that the costs per modification are linear in the number of modified edges. Furthermore, our algorithms also consider the addition and deletion of sets of vertices as well as edges. In the negative case, i.e., where the graph is not a threshold graph or chain graph anymore, our algorithms return a certificate of constant size. Additionally, we present optimal fully dynamic algorithms for the Hamiltonian cycle problem and the Hamiltonian path problem on threshold and chain graphs which return a vertex cutset as certificate for the non-existence of such a path or cycle in the negative case.
This article presents a cost-effective ultraviolet-ozone cleaner (UV/O3 Cleaner) for surface pre-treatment of substrates in the field of semiconductor technology. The cleaner consists of two chambers, the upper one contains the electronics, including the time counter. The lower chamber contains the two UV sterilisation lamps and a UV reflector of anodized aluminium, which confines the area of high Ozone concentration in the area of interest. The device is successfully used for surface cleaning and modification of different materials. To this end, the two important wavelengths 253.7 nm (excitation of organic residues) and 184.9 nm (production of ozone from the atmospheric environment as a strong oxidant) were first detected. The effectiveness of UV/O3 cleaning is demonstrated by improving the properties of indium tin oxide (ITO) for OLED fabrication. The contact angle of water to ITO could be reduced from 90° to 3° and for diiodomethane, it was reduced from 55° to 31° within the 10 min of irradiation. This greatly improved wettability for polar and non-polar liquids can increase the flexibility in further process control. In addition, an improvement in wettability is characterized by measuring the contact angles for titanium dioxide (TiO2) and polydimethylsiloxane (PDMS). The contact angle of water to TiO2 decreased from 70° to 10°, and that of diiodomethane to TiO2 from 54° to 31°. The wettability of PDMS was also greatly increased. Here, the contact angle of water was reduced from 109° to 24° and the contact angle to diiodomethane from 89° to 49°.
Article Highlights
We report a cost-effective dry-cleaning device for surface cleaning and modification based on ultraviolet-ozone irradiation.
Contact angle measurements show an increase of wettability for different materials due to surface modification.
The UVO3 pre-treatment improves layer formation and optoelectrical properties of OLEDs.
Sodium iron hexacyanoferrate (NaFeHCF) films were electrodeposited on Au/Cr/Si for the study of growth behavior and physical properties. The NaFeHCF films were studied by different analytical methods to prove the chemical composition, morphology and crystal structure. The grains of the film grow with a cubic structure with an average lattice parameter of 10.10 Å and the preferential growth direction along the [111] direction of the cubic cell. The films show a repeatable bipolar resistive switching behavior accompanied by high current changes (up to a factor of ~105). The different resistive states in the materials are dominated by ohmic conduction.
The electrical conduction mechanism of resistive switching Prussian white (PW) thin films obtained by the electrodeposition method was examined by AC impedance spectroscopy and DC current–voltage measurements. Using an electrode tip to contact PW grown over Au, robust unipolar resistive switching was observed with a current change of up to three orders of magnitude, high repeatability, and reproducibility. Moreover, electrical impedance spectroscopy showed that the resistive switching comes from small conductive filaments formed by potassium ions before the establishment of larger conductive channels. Both voltammetry and EIS measurements suggest that the electrical properties and conductive filament formation are influenced by defects and ions present in the grain boundaries. Thus, PW is a potential material for the next generation of ReRAM devices.
Prussian blue (PB) layers were electrodeposited for the fabrication of Au/PB/Ag stacks to study the resistive switching effect. The PB layers were characterized by different techniques to prove the homogeneity, composition, and structure. Electrical measurements confirmed the bipolar switching behavior with at least 3 orders of magnitude in current and the effect persisting for the 200 cycles tested. The low resistance state follows the ohmic conduction with an activation energy of 0.2 eV.
Die fortschreitende Vernetzung von Geräten im Internet der Dinge in Kombination mit der Digitalisierung verändert Märkte und Branchen nachhaltig. Im Rahmen des DiWo-Chain Projektes wird an der Entwicklung und lokalen Integration der Blockchain-Technologie in digitale Dienstleistungen der Wohnungswirtschaft geforscht. Durch die verwendete Blockchain-Technologie soll die Gestaltung von effizienten, betriebs-, manipulations- und datenschutzsicheren Dienstleistungen der Wohnungswirtschaft ermöglicht werden. In diesem Beitrag wird eine Lösung beschrieben, welche die Integration und Realisierung vereinfacht. Zur Umsetzung wurde eine Java OSGi-Anwendung in Kombination mit einer Angular-Anwendung für die Interaktion mit der Hyperledger Fabric Blockchain entwickelt. Diese Blockchain-basierte Lösung kann dynamisch für diverse Anwendungsfälle angepasst werden. In diesem Beitrag werden ausgewählte Szenarien der Wohnungswirtschaft beschrieben, die für den Einsatz der entwickelten Lösung geeignet sind.
Diese Masterarbeit widmet sich der Thematik der Digital Twins (DT), einer Technologie, die in den letzten Jahren zunehmend an Bedeutung gewonnen hat, sowie der Verwendung von DTs im Retail. Im Fokus steht dabei der virtuelle Shelf als DT von Regalen in Einzelhandelsgeschäften. Ziel ist es, mithilfe des virtuellen Shelfs Services der GK in einem realitätsnahen Umfeld zu testen und präsentieren.
Der virtuelle Shelf bietet eine Visualisierung der Regale für einen großformatigen 72-Zoll Bildschirm und ermöglicht es den Nutzern, Interaktionen mit einem Regal zu simulieren. Zusätzlich zu den Auswirkungen der Interaktionen auf das Regal können mithilfe der Visualisierung zusätzliche Hintergrundinformationen dargestellt werden, wie beispielsweise die Bestandsinformationen eines Artikels.
Die Forschungsfrage, die dieser Arbeit zugrunde liegt, lautet: „Ist ein virtueller Shelf als Digital Twin geeignet, um den Prozess des Instore Fulfillments zu simulieren und zu visualisieren?“ Zur Beantwortung dieser Frage werden verschiedene Aspekte behandelt, darunter die Definition eines Digital Twins, die Schritte zur Erstellung eines solchen, die Definition des Instore Fulfillment-Prozesses, die Konzeptionierung und die prototypische Realisierung des virtuellen Shelfs sowie eine Studie zur Validierung
dieses DTs.
Durch die systematische Untersuchung dieser Punkte wird nicht nur die Eignung des virtuellen Shelfs als Digital Twin für den Instore Fulfillment-Prozess beleuchtet, sondern auch wertvolle Erkenntnisse für die zukünftige Anwendung und Weiterentwicklung dieser innovativen Technologie gewonnen.
Die vorliegende Diplomarbeit beschreibt die Vorgehensweise und Durchführung einer Systemanalyse bezüglich der bei der Stadtentwässerung Dresden GmbH vorhandenen Prozesse zur Probendaten-Bereitstellung sowie der Verwendung dieser Daten durch das Personal der Fachbereiche. Bei den Probendaten handelt es sich um Messergebnisse des unternehmenseigenen Betriebslabors aus analytischen Messverfahren und von digitalen Messgeräten. Ziel der Arbeit ist es, den Ist-Stand der Prozesse zu erfassen und Schwachstellen zu ermitteln. Auf Basis der gewonnenen Erkenntnisse soll ein neues System zur Verarbeitung dieser Daten gefunden und ein damit einhergehend verbesserter Prozess entworfen werden. Hierbei sind zum einen die Anforderungen der Datenbereitstellenden und derjenigen, welche die Daten im Unternehmen nutzen, zu berücksichtigen und zu erfassen.
Einleitend wird auf die theoretischen Grundlagen einer Systemanalyse und den aktuellen Stand der Technik im Bereich der Informationsversorgung eingegangen. Es werden weiterhin relevante Techniken und Systeme vorgestellt, welche sich für einen neuen Soll-Prozess eignen könnten. Zudem werden Möglichkeiten der Prozessmodellierung diskutiert.
Im praktischen Teil der Arbeit werden die Erkenntnisse genutzt, um den Ist-Stand für die Probendaten-Bereitstellung zu erfassen. Daraufhin folgend wird mittels einer Nutzwertanalyse und unter Auswertung von Experteninterviews eine für die Stadtentwässerung Dresden GmbH geeignete Lösung entworfen und in einem Soll-Prozess modelliert.
Abschließend werden die Ergebnisse in einem Prototyp als Testimplementierung umgesetzt. Es folgt eine Auswertung, inwiefern die Aufgabenstellung und definierte Probleme gelöst sowie Zielstellungen erreicht worden sind.
The book is the second of four volumes on data science and artificial intelligence. This second volume covers data visualization tool and techniques as well as fundamentals of supervised machine learning: linear regression, artificial neural networks, support-vector machines, decision trees, ensemble methods and more.
The book 'Reinforcement Learning: An Introduction' by Sutton and Barto is the standard text book for introductory courses to reinforcement learning. Next to concrete algorithms and extensive examples the book contains several fundamental results related to Markov decision processes (MDPs) and Bellman equations in Chapters 3 and 4. Unfortunately some proofs are missing, some theorems lack precise formulation, and for some results the line of arguments is quite garbled.
In this note we provide all missing proofs, give precise formulations of theorems and untangle the line of arguments. Further, we avoid using random variables and their expected values. Since we (like Sutton/Barto) restrict our attention to finite MDPs all expected values can be made explicit avoiding overloaded notation and murky conclusions.
This article bridges the gap between introductory literature like Sutton/Barto and research literature containing exact formulations and proofs of relevant results, but being less accessible to beginners due to higher generality and complexity.
Konzeption eines Versuchsstandes zur Charakterisierung der elektrischen Kenngrößen von Solarmodulen
(2023)
Um Photovoltaik-Module auf ihre Leistungsfähigkeit zu testen und diese weiterzuentwickeln, ist es notwendig ihre elektrischen Kenngrößen replizierbar testen zu können.
Das Ziel der vorliegenden Arbeit ist es, zu diesem Zweck einen Versuchstand zu errichten und ein Programm zu schreiben, welches das automatische Abfahren einer Strom-Spannungs-Kennlinie ermöglicht.
Dazu wurden verschiedene Strahlungsquellen mit je spezifischen Eigenschaften verwendet. Bei den Strahlungsquellen handelte es sich um LED-, Halogen- sowie Xenon-Strahler. Mit diesen wurden beispielsweise bei unterschiedlichen Bestrahlungsstärken Kennlinien aufge-nommen, welche es zu vergleichen galt. Außerdem wurden die manuelle und die automatisierte Aufnahme der Kennlinie verglichen.
Die Kennlinien zeigen, dass Xenonstrahler am besten für die Messung elektrischer Kenngrößen von Photovoltaik-Modulen geeignet sind. Nicht nur ist das Spektrum des Strahlers am ähnlichsten dem des AM1,5-Spektrums, sondern dieser hat dazu am wenigsten Wärmeeinfluss auf das zu messende Modul. Zudem ist die automatisierte Aufnahme der Kennlinie wesentlich schneller als die manuelle.
Mit den gewonnenen Erkenntnissen lassen sich die elektrischen Kenngrößen der Photovoltaik-Module künftig qualitativ hochwertiger und schneller testen.
Die folgende Ausarbeitung mit dem Titel „Projektplanung für die Umstrukturierung betrieblicher Prozessabläufe einer deutschen Halbleiterfertigung mit der Zielsetzung einer Emissionsreduzierung“ bildet die abschließende Diplomarbeit, welche im Rahmen des berufsbegleitenden
Studienganges „Umwelttechnik und Recycling“ an der Westsächsischen Hochschule Zwickau (WHZ) erstellt wird.
Zunächst beschreibt der folgend Gliederungspunkt den Anlass dieses Planungskonzeptes und konkretisiert die zugrundeliegende Aufgabenstellung dieser Ausarbeitung. Im Anschluss wird kurz das Unternehmen vorgestellt, auf welches sich die Betrachtung bezieht. Theoretische Grundlagen wichtiger Regelwerke sind aufgeführt, um das nötige Verständnis für die Relevanz sowie die Zielsetzung zu vermitteln.
Folgend werden organisatorische Projektstrukturen geplant und aufgezeigt. Eine konkret definierte Zielstellung gibt das Mindestmaß der erwarteten Emissionsreduzierung vor. Weiterhin ist eine Phasenplanung der Durchführungsschrittfolge aufgezeigt sowie die Aufstellung des Projektteams inkl. des Kommunikationsverhaltes. Ergebnisse aus Beziehungsanalysen beteiligter Interessengruppen sind enthalten sowie Diskussionen über das Eintreten von Risiken.
Der Hauptteil beschäftigt sich mit der Planung und Darstellung potenzieller Umstrukturierung bestehender Prozessabläufe des zugrundeliegenden Betriebsstandortes. Hierbei wird zunächst die aktuelle CO2-Bilanzierung aufgezeigt, da diese die Grundlage der Maßnahmenplanung bildet. Der Schwerpunkt liegt dabei auf den Ausstoß von Treibhausgasen. Andere Emissionen wie beispielsweise Lärm, Licht, Vibrationen oder auch Funkwellen werden in dieser Projektplanung nicht mit betrachtet. Zu jedem der aufgezeigten Einzelvorhaben sind Angaben bezüglich Kostenumfang sowie der Umsetzungsdauer vermerkt. Nach der erfolgten Vorstellung werden konkrete Umsetzungsmodelle beschrieben, wie die gesetzte Zielstellung, unter Beachtung verschiedener Rahmenbedingungen, realisiert werden könnte. Der abschließenden Zusammenfassung nachgelagert wird ein Ausblick gegeben, wie mit den gewonnenen Erkenntnissen dieser Ausarbeitung umgegangen wird.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Diese Bachelorarbeit untersucht die Hintergründe und Motivation für die automatische Ausführung und Protokollierung von Tests auf Basis von Gherkin und Godog mit Hilfe von Xray Test Management für Jira.
Das Hauptziel ist die Steigerung der Effizienz bei der Testprotokollierung und -reporting. Durch die Automatisierung können manuelle Aufgaben reduziert werden, was zu einer verbesserten Effizienz und Zeitersparnis führt. Die Ergebnisse dieser Arbeit dienen als Grundlage für Unternehmen, um die Effizienz und Qualität ihrer Testprozesse zu steigern und einen Mehrwert zu schaffen.
Die verwendeten Technologien, Gherkin, Godog, Cucumber für Golang und Xray Test Management für Jira, werden vorgestellt und ihre Funktionen erläutert. Zusammenfassend ermöglichen diese Technologien eine effizientere Zusammenarbeit von Entwicklungs- und Testteams und verbessern die Softwarequalität.
Die Erstellung und Bearbeitung dieser Bachelorarbeit dient dazu Daten in Bezug auf Laserapplizierte Hautschädigungen zu erstellen. Im Rahmen dessen werden an einem Tierhautmodell mit einem Kohlenstoffdioxidlaser Hautschäden erzeugt und untersucht. Der notwendige Versuchsaufbau wird geplant und Auswerteroutinen evaluiert. Es erfolgt die Charakterisierung der Schädigungsbereiche und eine Berechnung der geschädigten Fläche sowie der dazugehörigen Flächenenergie. Mit den gewonnen Erkenntnissen konnten Aussagen über mögliche Grenzwerte der Flächenenergie getroffen werden.
Das Ziel dieses Projekts bestand darin, die Schaltzeit schaltbarer PDLC-Folien zu messen und die Abhängigkeit der Schaltzeit von der Temperatur zu untersuchen. Um dies zu erreichen, wurde zunächst ein Laboraufbau erstellt, der hauptsächlich aus einer LED-Lichtquelle, einem Sensor, einem Oszilloskop und einem Trenntransformator bestand. Wenn die Probe mit einer elektrischen Feld angelegt wurde, die von einem Trenntransformator bereitgestellt wurde, richteten sich die Flüssigkristalle im Polymerfilm aus und ließen Licht durch (was zu einem transparenten Aussehen führte). Dieses Licht wurde vom Sensor erfasst und in ein elektrisches Signal umgewandelt, das anschließend an das Oszilloskop gesendet wurde. Die Anstiegszeit dieses Signals wurde im Bereich von 10% bis 90% der aufsteigenden Flanke gemessen. Die Schaltzeit wurde bei Raumtemperatur (24,2 °C) ermittelt. Anschließend wurden die Proben einmal auf eine niedrige Temperatur von 1 °C und einmal auf eine hohe Temperatur von 39,6 °C temperiert und erneut gemessen, um den Einfluss der Temperatur auf die Schaltzeit zu untersuchen.
Die Ergebnisse zeigten eindeutig, dass die meisten Proben eine schnellere Reaktionsrate bei höheren Temperaturen im Vergleich zu niedrigeren Temperaturen aufwiesen. Alle Messwerte waren bei Temperaturen von 39,6 °C und 24,2 °C homogener und wiesen eine höhere Messgenauigkeit auf, während bei 1 °C die Messwerte eine geringe Homogenität und niedrigere Messgenauigkeit aufwiesen. Es wurde auch festgestellt, dass die Schaltzeit bei einigen Proben deutlich schneller war als bei anderen. Die manuelle Schaltung und die unpassenden Parameter des Signalverlaufs könnten bei einigen Proben zu höheren Schaltzeitwerten geführt haben, da sie vermehrt Nulldurchgänge in der aufsteigenden Flanke des Wechselsignals verursachten. Dies ließe sich möglicherweise durch die Implementierung einer automatischen Schaltung und die Verwendung eines Funktionsgenerators beheben. Mit diesem Generators könnte die Messfrequenz des Sinussignals gesenkt werden, sodass die Schaltzeit deutlich kürzer ist als die ansteigende Flanke. Alternativ könnten auch andere Signalformen wie Rechtecksignale erzeugt werden, bei denen die Probleme, die durch den Sinus verursacht werden, nicht auftreten. Dies könnte in weiteren Experimenten vermieden werden. Des Weiteren könnten die Temperierungsbedingungen während der Versuchsdurchführung Ungenauigkeiten bei den aufgenommenen Messwerten verursacht haben. Dies ließe sich eventuell durch die Verbesserung der Bedingungen für die Temperierung der Proben verhindern. Dadurch könnte der Temperaturverlust während des Messvorgangs reduziert werden, was zu einer höheren Genauigkeit führt. Darüber hinaus sollte der Einfluss der Lebensdauer auf die Schaltzeit in zukünftigen Experimenten berücksichtigt werden, indem nicht nur die Anstiegszeit, sondern auch die Abstiegszeit beim Ausschalten untersucht wird. Dies wäre insbesondere bei Langzeitexperimenten relevant.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
Gewinnung von Informationen aus technischen Zeichnungen mittels KI-Methoden zur Bilderkennung
(2023)
Diese Masterarbeit untersucht maschinelles Lernen für die Objekterkennung in technischen Zeichnungen, mit Schwerpunkt auf der Identifizierung von Tabellen, Bildern, Geräten und regulären Boxen. Verschiedene Algorithmen wurden betrachtet, darunter TensorFlow, Keras- OCR, OpenCV und YOLO. Die Studie ergab, dass die Kombination von FCN, Spatial Transformer Network, Canny Edge Detection, FCN, Faster R-CNN, Template Matching und YOLO mit STN signifikante Verbesserungen bei der Objekterkennung im Vergleich zur alleinigen Verwendung von FCN erzielte.
Darüber hinaus führte das Training von YOLOv5 als erstes Modell und seine Verfeinerung mit einem gelabelten Datensatz zu noch besseren Leistungen. Die Erkenntnisse aus dieser Forschung können Branchen zugutekommen, die stark auf technische Zeichnungen für ihre Geschäftsabläufe angewiesen sind.
Die vorliegende Bachelorarbeit untersucht die Machbarkeit der Anwendung resistiver Sensoren auf textilen Materialien zur Messung des Auflagedrucks auf kompressiblen Untergründen. Die Recherche hat gezeigt, dass es bereits Anwendungen im medizinischen und
weiteren Sektoren, wie zum Beispiel im Sport, gibt. Die Arbeit konzentriert sich auf die Möglichkeit der direkten Herstellung von Sensoren auf Textilien.
Zwei Herstellungsverfahren für leitfähige Strukturen auf textilen Substraten werden untersucht. Die verwendeten Verfahren zur Herstellung leitf¨ahiger Strukturen auf Textilien umfassen das Pulverdruckverfahren und die Stickerei. Die Stickerei ermöglicht die Platzierung von leitfähigen Fäden bzw. Kabeln auf Textilien, während der Pulverdruck mit funktionalen Pulvern leitfähige Strukturen auf Textilien erzeugt.
Obwohl es bereits eine Vielzahl von Messsystemen für die Erfassung des Auflagedrucks gibt, zielt diese Arbeit darauf ab, Sensoren auf einem textilen Substrat speziell für den Einsatz in einer Auflagedruck-Messmatte im Reitsport zu entwickeln.
Die experimentelle Untersuchung umfasst Zugversuche und Druckbelastungstests. Zunächst werden Zugversuche durchgeführt, um die Dehnungseigenschaften der Textilien zu bestimmen, sowie die Änderung des elektrischen Widerstandes von aufgebrachten Pulverstrukturen bei Dehnung. Darüber hinaus werden zyklische Zugversuche durchgeführt, um die Stabilität der aufgetragenen leitfähigen Strukturen zu überprüfen. Mithilfe dieser Informationen wurde ein Trägermaterial aus mehreren textilen Substraten für weitere Versuche gewählt.
Des Weiteren wird die Änderung des elektrischen Widerstands von aufgebrachten Stick- und Pulverstrukturen während zyklischen Druckbelastungstests auf kompressiblen Untergrund untersucht und verglichen.
Die Ergebnisse der Druckbelastungstests deuten darauf hin, dass die Stick- und Pulverstrukturen eine Veränderung des elektrischen Widerstands während zyklischer Druckbelastung aufweisen. Es wurde beobachtet, dass der elektrische Widerstand während der Belastung
der Pulverstrukturen abnimmt und nach der Entlastung ansteigt. Die gestickten Strukturen weisen gegenteiliges Verhalten auf. Dies eröffnet interessante Möglichkeiten für die Entwicklung von textilen Sensorlösungen zur Erfassung von Auflagedruck auf kompressiblen Untergründen.
Die Bachelorarbeit zeigt die Komplexität und Herausforderungen bei der Entwicklung von resistiven Sensoren auf textilen Materialien für medizinische und sportliche Anwendungen.
Der Medizin stehen zur Versorgung der Bevölkerung immer bessere Methoden zur Verfügung, die auf nichtinvasivem Weg den Blick ins Körperinnere erlauben. Bei der Tomographie nahm dabei eine besonders rasante Entwicklung. Fortschreitende Technik brachte jedoch auch spezielle Fehlerquellen mit sich. Artefakte in der Bildgebung können die Folge sein. Da sie zu Fehlinterpretationen und unpassenden Diagnosen führen können, ist der geeignete Umgang mit ihnen von großer Wichtigkeit.
Die OvGU hat sich zur Aufgabe gestellt, Studierende der Studiengänge Medizintechnik sowie Medical Systems Engineering auf diese Praxisanforderung mit Hilfe des CT-Train vorzubereiten. Er nutzt Modelllokomotiven, um durch ein spielerisches Element das Lernen zu unterstützen.
Im hier beschriebenen Projekt wurde diese speziell konzipierte Lehr-Versuchsanordnung für den Gebrauch in einem Praktikum zur Praktischen Bildgebung umgesetzt und eine entsprechende Anleitung für die Studierenden erstellt.
Zu diesem Zweck wurde der vorhandene Laser-Scanner zu einem Röntgen-Computertomographen mit speziellen Scanobjekten umgebaut. Anschaulichkeit und eine Vielzahl von Interventionsmöglichkeiten für die Studierenden standen dabei im Vordergrund. Röhrenspannung und Anodenstromstärke lassen sich an der Quelle ebenso einstellen, wie am Detektor die Dauer der Detektionen und die Anzahl ihrer Wiederholungen. Weitere Interventionen ermöglicht der Code. Die Versuchsanordnung erfordert zudem bei den Voreinstellungen die gründliche Beschäftigung mit der Geometrie des Aufbaus.
Zu systematischen Untersuchungen mit den genannten Parametern und an unterschiedlichen Scanobjekten werden die Studierenden in der Anleitung angehalten. Sie regt die Studierenden ebenfalls an, nach Möglichkeiten zu suchen, wie Mensch-induzierte Artefakte sich am CT-Train simulieren lassen. Die Ergebnisse ihrer Versuche können durch Auswertung der gewonnenen Datensätze mit geeignetem MatLab-Code veranschaulicht werden.
Prinzipiell sind am funktionsfähigen CT-Train Simulationen von Artefakten denkbar. Die Nutzung der Anordnung hat gezeigt, dass dazu Datensätze mit hoher Datendichte vorteilhaft sind. Um diese kontrolliert zu generieren, ist es notwendig, zunächst gute Kenntnisse über einen Zusammenhang zwischen den Detektorparametern zu erlangen, der nicht vorhergesehen wurde. Das Auftreten von Artefakten anhand einer raschen Abfolge von Schnittbildern zu erkennen, fällt naturgemäß schwer. Deshalb wird zu deren Auffinden eine volume rendering Methode empfohlen.
Die Arbeit wendet eine umfassende Methodik an, die eine Literaturrecherche, die Analyse bestehender Anwendungen, die Implementierung und die Evaluierung eines zielgruppenspezifischen Prototyps einer mobilen App für die Stellensuche umfasst.
Ziel der Bachelorarbeit ist es, Funktionen einer mobilen App zur Stellensuche zu identifizieren, die sich positiv auf die Effektivität der mobilen App bei der Stellenvermittlung auswirken. Basierend auf vorangegangenen Forschungsarbeiten und einer Analyse bestehender Apps sollen die identifizierten Funktionen, die zum bestehenden System passen, in die mobile App implementiert werden. Um die Effektivität der App zu evaluieren, wird eine Befragung von internen Testnutzern durchgeführt.
Abschließend werden Empfehlungen für die Entwicklung und Verbesserung mobiler Apps zur Berufsstellensuche gegeben, um eine effiziente Stellenvermittlung zu gewährleisten.