Refine
Year of publication
Document Type
- Diploma Thesis (818)
- Bachelor Thesis (616)
- Master's Thesis (340)
- Article (2)
- Part of a Book (2)
Institute
- Physikalische Technik, Informatik (1778) (remove)
Language
- German (1778) (remove)
In dieser Bachelorarbeit wird die Entwicklung einer Service-Struktur zur Suche, Filterung und Abfrage von ETF- und Fondsdaten vorgestellt. Der Fokus liegt auf der Modernisierung einer bestehenden Anwendung, ursprünglich in Go entwickelt, durch die Überführung in das moderne Quarkus-Framework. Ziel ist es, die Datenverarbeitung und -bereitstellung zu optimieren und manuelle Prozesse, durch die Verwendung von Schnittstellen, zu automatisieren.
Es werden die Herausforderungen und Einschränkungen des bestehenden Services analysiert und eine Lösung zur Verbesserung der Effizienz und Performance durch die Anwendung von Quarkus, Hibernate und anderen Technologien vorgeschlagen. Die Arbeit beleuchtet die Implementierung und Bewertung der neuen Service-Struktur, die eine effektivere Handhabung und Analyse von ETF- und Fondsdaten ermöglicht.
Die Aufbereitung von Medizinprodukten ist ein sehr wichtiger und komplexer Bestandteil im Krankenhaus. Aus diesem Grund beschäftigt sich die vorliegende Masterarbeit mit dem Thema der Prozessoptimierung in der Aufbereitungseinheit für Medizinprodukte und konzentriert sich auf die Einflussfaktoren sowie deren Auswirkungen auf den Aufbereitungsprozess.
Um eine umfangreiche Analyse durchzuführen, wurden verschiedene Methoden angewandt. Es fand ein Vergleich zwischen den Sterilisationsverfahren statt, um die jeweiligen Vor- und Nachteile herauszustellen. Darüber hinaus wurden Beobachtungen durchgeführt, um den Prozessablauf und die einzelnen Arbeitsschritte zu analysieren und mögliche Schwachstellen zu identifizieren und zu beurteilen. Für die Bewertung der Zeiteffizienz wurden detaillierte Zeitaufnahmen durchgeführt, die Rückschlüsse über die Dauer des Prozesses und ihre einzelnen Phasen geben sollte.
Basierend auf den Daten und Analyseergebnissen wurden schließlich konkrete Handlungsempfehlungen abgeleitet. Diese Empfehlungen zielen darauf ab, den Aufbereitungsprozess effizienter zu gestalten. Sie umfassen dabei Schulungen für die Mitarbeitenden, eine Überarbeitung mancher Operationssets und eine Überprüfung des Personalbedarfs.
Insgesamt zeigt die Masterarbeit einen detaillierten Einblick in den Aufbereitungsprozess des Heinrich-Braun-Klinikums Zwickau und formuliert Optimierungsmöglichkeiten, die als Grundlage für zukünftige Verbesserungen dienen können.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung eines innovativen Lernassistenten namens MentorAI, der auf Chatbot-Technologie und fortschrittlichen Sprachmodellen basiert. Das Hauptziel besteht darin, eine leistungsstarke Anwendung zu schaffen, die umfassende Unterstützung für Studierende während ihres Lernprozesses bietet.
Die Motivation für dieses Projekt gründet sich in der zunehmenden Relevanz von Chatbots in der digitalen Welt. MentorAI, als Chatbot-basierte Sprachmodell-Anwendung, strebt danach, den Lernprozess zu optimieren, indem er effiziente und individuelle Unterstützung bietet. Dieser Lernassistent fungiert als Schlüsselkomponente für die Erklärung komplexer Lerninhalte, die Beantwortung von Fragen und die Schaffung einer interaktiven Lernerfahrung.
Die methodische Herangehensweise umfasst die theoretischen Grundlagen von künstlicher Intelligenz (KI), Verarbeitung natürlicher Sprache, Transformer und Sprachmodelle, insbesondere ChatGPT, und Chatbots. Nach dieser Einführung wird LangChain erläutert, gefolgt von der Implementierung von MentorAI. Die Ergebnisse dieser Arbeit verdeutlichen, dass MentorAI als Lernassistent einen bedeutenden Meilenstein darstellt. Der KI-Assistent kann präzise und nützliche Antworten liefern, Rechenaufgaben lösen und Aufgaben systematisch bearbeiten, was auf die Effektivität der aktuellen Parametereinstellungen hinweist. Diese Arbeit betont die Potenziale von Chatbot-Technologien im Bildungskontext und deren Fähigkeit, den Lernprozess zu optimieren, individualisierte Informationsvermittlung
zu ermöglichen und ein verbessertes Lernerlebnis für Studierende zu schaffen.
Auf digitalen Märkten besteht, wer die zugrundeliegenden digitalen, unternehmensbezogenen oder akteursübergreifenden institutionellen Arrangements versteht und aktiv gestaltet. Dazu werden ausgereifte, von Forschung und Praxis diskutierte und gemeinsam weiter entwickelte Methoden zum Design digitaler Plattformen, Geschäftsmodelle und Service-Ökosysteme benötigt. Einen gemeinschaftlichen Aufschlag hierzu macht der folgende Artikel. Er entstand aus einem offenen Aufruf in der Wirtschaftsinformatik-Community – über Mailing-Listen und soziale Medien. Im Ergebnis führen sieben Forschergruppen (oder einzelne Forscher und Forscherinnen) ihre aktuellen Erkenntnisse zu diesem Thema zusammen.
Ziel dieser Arbeit war es, den Umgang mit einer großen Anzahl von Softwareschwachstellen, konkret Common Vulnerabilities and Exposures (CVEs) zu erleichtern. Dazu wurden drei Ansätze untersucht: die Entwicklung eines eigenen Vulnerability Management Systems (VMS), die Untersuchung von Filtermöglichkeiten für CVEs und die Identifizierung von Attributen zur Priorisierung von Schwachstellen. Das eigens entwickelte VMS, der CVE-Tracker, ermöglicht die effiziente Verwaltung und Organisation der über 1300 gefundenen CVEs, insbesondere im Hinblick auf Mehrfachvorkommen in verschiedenen Software-Releases sowie die automatische Abfrage der CVEs von der National Vulnerability Database (NVD).
Als Ergebnis konnten wichtige Erkenntnisse gewonnen werden, die bei der Implementierung eines VMS berücksichtigt werden müssen. Die Untersuchung von verschiedenen Anfragetypen zum Filtern der CVEs gibt einen detaillierten Einblick in das Verhalten der CVE-API der NVD. Es konnte ein Anfragetyp identifiziert werden, der für den Einsatz in VMS geeignet ist. Im letzten Ansatz wurden Attribute für eine mögliche Priorisierung von CVEs identifiziert, darunter CVSS-Scores, Common Weakness Enumeration (CWE) und Social Media Analysen. Insgesamt wurden sieben Attribute gefunden, die, wenn sie richtig verstanden werden, zu einer guten Priorisierung beitragen können.
Die Arbeit verdeutlicht die Herausforderungen bei der Verwaltung der Sicherheit einer Software mit großen Mengen an CVEs und bietet eine Grundlage für zukünftige Forschung. Mögliche Erweiterungen umfassen den Einsatz von künstlicher Intelligenz für eine präzisere Filterung, die Einbeziehung weiterer Schwachstellendatenbanken und die Vertiefung der Analyse von Social-Media-Plattformen für eine umfassendere Bewertung der Relevanz von CVEs.
Diese Arbeit beschäftigt sich mit theoretischen und praktischen Ansätzen, um eine Java-Anwendung im browser anzuzeigen. Dabei werden einige Möglichkeiten der Datenübertragung zwischen client und server erklärt und theoretische Ansätze zur Eigenentwicklung präsentiert (mit Code-Beispielen). Außerdem werden Anwendungen vorgestellt, die die Überführung in eine Webanwendung automatisch durchführen. Diese werden für die Nutzung mit einer JavaFX-basierten Anwendung näher untersucht, wobei nur eine von drei Anwendungen (JPro) tatsächlich weitergehend untersucht werden kann. Dabei werden Probleme im Zusammenhang mit der Nutzung von JPro diagnostiziert und Lösungsvorschläge abgegeben, wie diese Probleme behoben werden können. Letztendlich wird eine Empfehlung abgegeben, welche der theoretischen Ansätze bzw. der vorgestellten Anwendung am Besten geeignet ist, um die Portierung einer
Anwendung in eine Webanwendung durchzuführen.
Im Mittelpunkt des Artikels steht die Frage, welche Eingabemethoden sich für die Eingabe längerer Texte auf Mobiltelefonen eignen. Der Grund dafür ist, dass Artikel über Eilmeldungen in der Regel lang sind und die Verwendung einer Handytastatur zur Eingabe langer Texte sowohl ineffizient als auch mühsam ist.
Daher änderte ich meine Zielsetzung in
1. eine geeignete Eingabemethode für das Schreiben langer Texte auf Mobiltelefonen auf der Grundlage der Literatur zu finden.
2. eine geeignete Eingabemethode für die Erfassung von kritischen Ereignissen zu finden.
3. schließlich die Bewertung dieser Eingabemethoden in Bezug auf Komfort und Effizienz.
In der vorliegenden Diplomarbeit wird ein Konzept zur hochverfügbaren Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erarbeitet und getestet. Dafür wurde im Vorfeld eine Anforderungsanalyse zur Ermittlung der Anforderungen an diese hochverfügbaren Anbindungen durchgeführt. Im Folgenden wurden Technologien zur Erfüllung der Anforderungen ermittelt, kombiniert und auf Nutzwerte verglichen. Die Kombination der Technologien mit dem höchsten Nutzwert wurde in einem Prototyp umgesetzt und in einer Testumgebung auf die Erfüllung der Anforderungen getestet. Ziel dieser Arbeit war es dabei ein herstellerneutrales, infrastrukturunabhängiges und in verschiedenen Anwendungsfällen nutzbares Konzept zu entwickeln. Diese Unabhängigkeit und Offenheit soll es ermöglichen, dieses Konzept in verschiedenen Szenarien, welche eine Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erfordern, einsetzen zu können. Dadurch soll die Zeit zur Konzeption einer Lösung in der Praxis erheblich gesenkt werden.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
Diese Masterarbeit, wurde in Zusammenarbeit mit der Firma Geuder AG, Standort Heidelberg, erarbeitet. Ziel und Zweck dieser Arbeit war es, den Beschriftungsprozess der chirurgischen Instrumente zu validieren und somit für prozesssicher zu erklären. Zum Validierungsprozess gehören verschiedene Teilprozesse wie die Erstellung eines Validierungsplans, in dem beschrieben wird, was das Ziel der Validierung ist und wie es erreicht werden soll bzw. mit welchen Materialien es umgesetzt wird. Des Weiteren wurde eine Fehlermöglichkeitsanlayse (FMEA) durchgeführt, um entstehende Hindernisse im Prozess betrachten zu können und einen Notfallplan zu erstellen. An die FMEA schließen sich die Funktionsqualifikation (OQ) und die Leistungsqualifikation (PQ) an. Die IQ (Installationsqualifikation) , die noch vor der OQ stattfindet wurde von der Firma FOBA übernommen. Die OQ wurde im Rahmen verschiedener Tests durchgeführt. Die Laserparameter für die Anlassbeschriftung wurden auf ihre Randbedingungen getestet. Diese sind vor allem bei rauen oder grob verschmutzten Beschriftungsfläche zu finden. Im Anschluss an die OQ, in der die Rahmenbedingungen festgelegt wurden, um ein gutes Beschriftungsergebnis erzielen zu können, wird eine PQ durchgeführt. Diese ist kein Bestandteil dieser Arbeit.
ALADIN – Generator für Aufgaben und Lösung(shilf)en aus der Informatik und angrenzenden Disziplinen
(2022)
Die fortschreitende Vernetzung von Geräten im Internet der Dinge in Kombination mit der Digitalisierung verändert Märkte und Branchen nachhaltig. Im Rahmen des DiWo-Chain Projektes wird an der Entwicklung und lokalen Integration der Blockchain-Technologie in digitale Dienstleistungen der Wohnungswirtschaft geforscht. Durch die verwendete Blockchain-Technologie soll die Gestaltung von effizienten, betriebs-, manipulations- und datenschutzsicheren Dienstleistungen der Wohnungswirtschaft ermöglicht werden. In diesem Beitrag wird eine Lösung beschrieben, welche die Integration und Realisierung vereinfacht. Zur Umsetzung wurde eine Java OSGi-Anwendung in Kombination mit einer Angular-Anwendung für die Interaktion mit der Hyperledger Fabric Blockchain entwickelt. Diese Blockchain-basierte Lösung kann dynamisch für diverse Anwendungsfälle angepasst werden. In diesem Beitrag werden ausgewählte Szenarien der Wohnungswirtschaft beschrieben, die für den Einsatz der entwickelten Lösung geeignet sind.
Diese Masterarbeit widmet sich der Thematik der Digital Twins (DT), einer Technologie, die in den letzten Jahren zunehmend an Bedeutung gewonnen hat, sowie der Verwendung von DTs im Retail. Im Fokus steht dabei der virtuelle Shelf als DT von Regalen in Einzelhandelsgeschäften. Ziel ist es, mithilfe des virtuellen Shelfs Services der GK in einem realitätsnahen Umfeld zu testen und präsentieren.
Der virtuelle Shelf bietet eine Visualisierung der Regale für einen großformatigen 72-Zoll Bildschirm und ermöglicht es den Nutzern, Interaktionen mit einem Regal zu simulieren. Zusätzlich zu den Auswirkungen der Interaktionen auf das Regal können mithilfe der Visualisierung zusätzliche Hintergrundinformationen dargestellt werden, wie beispielsweise die Bestandsinformationen eines Artikels.
Die Forschungsfrage, die dieser Arbeit zugrunde liegt, lautet: „Ist ein virtueller Shelf als Digital Twin geeignet, um den Prozess des Instore Fulfillments zu simulieren und zu visualisieren?“ Zur Beantwortung dieser Frage werden verschiedene Aspekte behandelt, darunter die Definition eines Digital Twins, die Schritte zur Erstellung eines solchen, die Definition des Instore Fulfillment-Prozesses, die Konzeptionierung und die prototypische Realisierung des virtuellen Shelfs sowie eine Studie zur Validierung
dieses DTs.
Durch die systematische Untersuchung dieser Punkte wird nicht nur die Eignung des virtuellen Shelfs als Digital Twin für den Instore Fulfillment-Prozess beleuchtet, sondern auch wertvolle Erkenntnisse für die zukünftige Anwendung und Weiterentwicklung dieser innovativen Technologie gewonnen.
Die vorliegende Diplomarbeit beschreibt die Vorgehensweise und Durchführung einer Systemanalyse bezüglich der bei der Stadtentwässerung Dresden GmbH vorhandenen Prozesse zur Probendaten-Bereitstellung sowie der Verwendung dieser Daten durch das Personal der Fachbereiche. Bei den Probendaten handelt es sich um Messergebnisse des unternehmenseigenen Betriebslabors aus analytischen Messverfahren und von digitalen Messgeräten. Ziel der Arbeit ist es, den Ist-Stand der Prozesse zu erfassen und Schwachstellen zu ermitteln. Auf Basis der gewonnenen Erkenntnisse soll ein neues System zur Verarbeitung dieser Daten gefunden und ein damit einhergehend verbesserter Prozess entworfen werden. Hierbei sind zum einen die Anforderungen der Datenbereitstellenden und derjenigen, welche die Daten im Unternehmen nutzen, zu berücksichtigen und zu erfassen.
Einleitend wird auf die theoretischen Grundlagen einer Systemanalyse und den aktuellen Stand der Technik im Bereich der Informationsversorgung eingegangen. Es werden weiterhin relevante Techniken und Systeme vorgestellt, welche sich für einen neuen Soll-Prozess eignen könnten. Zudem werden Möglichkeiten der Prozessmodellierung diskutiert.
Im praktischen Teil der Arbeit werden die Erkenntnisse genutzt, um den Ist-Stand für die Probendaten-Bereitstellung zu erfassen. Daraufhin folgend wird mittels einer Nutzwertanalyse und unter Auswertung von Experteninterviews eine für die Stadtentwässerung Dresden GmbH geeignete Lösung entworfen und in einem Soll-Prozess modelliert.
Abschließend werden die Ergebnisse in einem Prototyp als Testimplementierung umgesetzt. Es folgt eine Auswertung, inwiefern die Aufgabenstellung und definierte Probleme gelöst sowie Zielstellungen erreicht worden sind.