Refine
Year of publication
Document Type
- Diploma Thesis (825)
- Bachelor Thesis (629)
- Master's Thesis (353)
- Article (17)
- Part of a Book (5)
- Book (4)
- Report (3)
Institute
- Physikalische Technik, Informatik (1836) (remove)
Abstract:
Background: Proctoring represents a cornerstone in the acquisition of state‐of‐the‐art cardiovascular interventions. Yet, travel restrictions and containment measures during the COVID‐19 pandemic limited on‐site proctoring for training and expert support in interventional cardiology.
Methods and Results: We established a teleproctoring setup for training in a novel patent foramen ovale closure device system (NobleStitch EL, HeartStitch Inc, Fountain Valley, CA) at our institution using web‐based real‐time bidirectional audiovisual communication. A total of 6 patients with prior paradoxical embolic stroke and a right‐to‐left shunt of grade 2 or 3 were treated under remote proctorship after 3 cases were performed successfully under on‐site proctorship. No major device/procedure‐related adverse events occurred, and none of the patients had a residual right‐to‐left shunt of grade 1 or higher after the procedure. Additionally, we sought to provide an overview of current evidence available for teleproctoring in interventional cardiology. Literature review was performed identifying 6 previous reports on teleproctoring for cardiovascular interventions, most of which were related to the current COVID‐19 pandemic. In all reports, teleproctoring was carried out in similar settings with comparable setups; no major adverse events were reported.
Conclusions: Teleproctoring may represent a feasible and safe tool for location‐independent and cost‐effective training in a novel patent foramen ovale closure device system. Future prospective trials comparing teleproctoring with traditional on‐site proctoring are warranted.
Zusammenfassung: Auf digitalen Märkten besteht, wer die zugrundeliegenden digitalen, unternehmensbezogenen oder akteursübergreifenden institutionellen Arrangements versteht und aktiv gestaltet. Dazu werden ausgereifte, von Forschung und Praxis diskutierte und gemeinsam weiter entwickelte Methoden zum Design digitaler Plattformen, Geschäftsmodelle und Service-Ökosysteme benötigt. Einen gemeinschaftlichen Aufschlag hierzu macht der folgende Artikel. Er entstand aus einem offenen Aufruf in der Wirtschaftsinformatik-Community – über Mailing-Listen und soziale Medien. Im Ergebnis führen sieben Forschergruppen (oder einzelne Forscher und Forscherinnen) ihre aktuellen Erkenntnisse zu diesem Thema zusammen.
Ziel dieser Arbeit war es, den Umgang mit einer großen Anzahl von Softwareschwachstellen, konkret Common Vulnerabilities and Exposures (CVEs) zu erleichtern. Dazu wurden drei Ansätze untersucht: die Entwicklung eines eigenen Vulnerability Management Systems (VMS), die Untersuchung von Filtermöglichkeiten für CVEs und die Identifizierung von Attributen zur Priorisierung von Schwachstellen. Das eigens entwickelte VMS, der CVE-Tracker, ermöglicht die effiziente Verwaltung und Organisation der über 1300 gefundenen CVEs, insbesondere im Hinblick auf Mehrfachvorkommen in verschiedenen Software-Releases sowie die automatische Abfrage der CVEs von der National Vulnerability Database (NVD).
Als Ergebnis konnten wichtige Erkenntnisse gewonnen werden, die bei der Implementierung eines VMS berücksichtigt werden müssen. Die Untersuchung von verschiedenen Anfragetypen zum Filtern der CVEs gibt einen detaillierten Einblick in das Verhalten der CVE-API der NVD. Es konnte ein Anfragetyp identifiziert werden, der für den Einsatz in VMS geeignet ist. Im letzten Ansatz wurden Attribute für eine mögliche Priorisierung von CVEs identifiziert, darunter CVSS-Scores, Common Weakness Enumeration (CWE) und Social Media Analysen. Insgesamt wurden sieben Attribute gefunden, die, wenn sie richtig verstanden werden, zu einer guten Priorisierung beitragen können.
Die Arbeit verdeutlicht die Herausforderungen bei der Verwaltung der Sicherheit einer Software mit großen Mengen an CVEs und bietet eine Grundlage für zukünftige Forschung. Mögliche Erweiterungen umfassen den Einsatz von künstlicher Intelligenz für eine präzisere Filterung, die Einbeziehung weiterer Schwachstellendatenbanken und die Vertiefung der Analyse von Social-Media-Plattformen für eine umfassendere Bewertung der Relevanz von CVEs.
Diese Arbeit beschäftigt sich mit theoretischen und praktischen Ansätzen, um eine Java-Anwendung im browser anzuzeigen. Dabei werden einige Möglichkeiten der Datenübertragung zwischen client und server erklärt und theoretische Ansätze zur Eigenentwicklung präsentiert (mit Code-Beispielen). Außerdem werden Anwendungen vorgestellt, die die Überführung in eine Webanwendung automatisch durchführen. Diese werden für die Nutzung mit einer JavaFX-basierten Anwendung näher untersucht, wobei nur eine von drei Anwendungen (JPro) tatsächlich weitergehend untersucht werden kann. Dabei werden Probleme im Zusammenhang mit der Nutzung von JPro diagnostiziert und Lösungsvorschläge abgegeben, wie diese Probleme behoben werden können. Letztendlich wird eine Empfehlung abgegeben, welche der theoretischen Ansätze bzw. der vorgestellten Anwendung am Besten geeignet ist, um die Portierung einer
Anwendung in eine Webanwendung durchzuführen.
Im Mittelpunkt des Artikels steht die Frage, welche Eingabemethoden sich für die Eingabe längerer Texte auf Mobiltelefonen eignen. Der Grund dafür ist, dass Artikel über Eilmeldungen in der Regel lang sind und die Verwendung einer Handytastatur zur Eingabe langer Texte sowohl ineffizient als auch mühsam ist.
Daher änderte ich meine Zielsetzung in
1. eine geeignete Eingabemethode für das Schreiben langer Texte auf Mobiltelefonen auf der Grundlage der Literatur zu finden.
2. eine geeignete Eingabemethode für die Erfassung von kritischen Ereignissen zu finden.
3. schließlich die Bewertung dieser Eingabemethoden in Bezug auf Komfort und Effizienz.
In der vorliegenden Diplomarbeit wird ein Konzept zur hochverfügbaren Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erarbeitet und getestet. Dafür wurde im Vorfeld eine Anforderungsanalyse zur Ermittlung der Anforderungen an diese hochverfügbaren Anbindungen durchgeführt. Im Folgenden wurden Technologien zur Erfüllung der Anforderungen ermittelt, kombiniert und auf Nutzwerte verglichen. Die Kombination der Technologien mit dem höchsten Nutzwert wurde in einem Prototyp umgesetzt und in einer Testumgebung auf die Erfüllung der Anforderungen getestet. Ziel dieser Arbeit war es dabei ein herstellerneutrales, infrastrukturunabhängiges und in verschiedenen Anwendungsfällen nutzbares Konzept zu entwickeln. Diese Unabhängigkeit und Offenheit soll es ermöglichen, dieses Konzept in verschiedenen Szenarien, welche eine Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erfordern, einsetzen zu können. Dadurch soll die Zeit zur Konzeption einer Lösung in der Praxis erheblich gesenkt werden.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
Diese Masterarbeit, wurde in Zusammenarbeit mit der Firma Geuder AG, Standort Heidelberg, erarbeitet. Ziel und Zweck dieser Arbeit war es, den Beschriftungsprozess der chirurgischen Instrumente zu validieren und somit für prozesssicher zu erklären. Zum Validierungsprozess gehören verschiedene Teilprozesse wie die Erstellung eines Validierungsplans, in dem beschrieben wird, was das Ziel der Validierung ist und wie es erreicht werden soll bzw. mit welchen Materialien es umgesetzt wird. Des Weiteren wurde eine Fehlermöglichkeitsanlayse (FMEA) durchgeführt, um entstehende Hindernisse im Prozess betrachten zu können und einen Notfallplan zu erstellen. An die FMEA schließen sich die Funktionsqualifikation (OQ) und die Leistungsqualifikation (PQ) an. Die IQ (Installationsqualifikation) , die noch vor der OQ stattfindet wurde von der Firma FOBA übernommen. Die OQ wurde im Rahmen verschiedener Tests durchgeführt. Die Laserparameter für die Anlassbeschriftung wurden auf ihre Randbedingungen getestet. Diese sind vor allem bei rauen oder grob verschmutzten Beschriftungsfläche zu finden. Im Anschluss an die OQ, in der die Rahmenbedingungen festgelegt wurden, um ein gutes Beschriftungsergebnis erzielen zu können, wird eine PQ durchgeführt. Diese ist kein Bestandteil dieser Arbeit.
ALADIN – Generator für Aufgaben und Lösung(shilf)en aus der Informatik und angrenzenden Disziplinen
(2022)
Context
VR as an application to enhance well-being is sparsely researched in the elderly population. The aim of the pilot study was to analyze the effect of 360° videos of different categories on the state of mind of seniors in nursing facilities. Furthermore, for the implementation in everyday life, the usability of the system and the experience for seniors should be evaluated.
Methods
The VR experience was used as a supplement to existing care services in three facilities on eight subjects. Mood state was assessed using the Questionnaire for the Assessment of Happiness before and after the intervention. Demographic data and technology acceptance were collected beforehand. After the intervention, subjects were interviewed about confounding factors and side effects, and nursing home staff were interviewed about the usability of the system and the organizational concept of implementation.
Results
There was a positive effect on state of mind. Gender and spatial mobility turned out to be influencing factors. Categories containing people, animals and action achieved the highest increases in the state of mind. Interest in using technical devices correlated negatively with the change in mood state. None of the subjects found the VR goggles distracting or reported motion sickness. Very good usability was indicated by the employees.
Conclusion
A very high willingness to use this technology was found among nursing staff and residents. The tendencies of the positive effect of 360° videos on the state of mind, as well as differentiation based on the mentioned characteristics gender and spatial mobility, should be verified by a larger sample to empirically validate the use of this technology to increase the quality of life.
Electrical and thermal measurements were conducted during the plasma electrolytic polishing (PEP) of cemented tungsten carbide (WC-Co) materials to characterize energetic aspects of the process in relation to the temporal development of the gaseous layer near the workpiece. The power transferred to the workpiece is determined using a calorimetric probe and employing the time derivative of the temperature curve. It shows distinct heating phases due to the generation of the gaseous layer. At the beginning of the process, a typical power of 367 ± 17 W is transferred to the workpiece of a surface area of 14 cm2. At longer process times, a stabilized gaseous layer limits the power transferred to the workpiece to 183 ± 3 W. In an attempt to describe the heat transferred to the electrolyte, the electrolyte temperature was measured using a thermocouple situated 15 mm away from the workpiece. The local electrolyte temperature increases from 70 to 81 °C for an immersion depth of 20 mm. Moreover, the spatiotemporal development of the electrolyte temperature was obtained by 2D-hydrodynamic modeling using COMSOL Multiphysics®. The modeling results for the local temporal temperature development are in excellent agreement with the experimental values when the turbulent model is applied up to t = 65 s. Afterward, the laminar model leads to a better agreement. Furthermore, line scan x-ray photoelectron spectroscopy revealed that aliphatic carbon was preferentially removed. Only a slight compositional gradient in the vertical direction after the PEP process was observed.
Routing games over time are widely studied due to various applications, e.g., transportation, road and air traffic control, logistic in production systems, communication networks like the internet, and financial flows. In this article, we present a new competitive packet routing game with edge priorities motivated by traffic and transportation. In this model a set of selfishly acting players travels through the network over time. If the number of players who want to enter an edge at the same time exceeds the inflow capacity of this edge, then edge priorities with respect to the preceding edge are used to resolve these conflicts, which is similar to right-of-way rules in traffic. We analyze the efficiency of pure Nash equilibria, present an efficient algorithm for computing equilibria in symmetric games, and show that it is NP-hard to decide whether a Nash equilibrium exists in an asymmetric game. Furthermore, we address the problem of constructing optimal priorities.
Certifying Fully Dynamic Algorithms for Recognition and Hamiltonicity of Threshold and Chain Graphs
(2023)
Solving problems on graphs dynamically calls for algorithms to function under repeated modifications to the graph and to be more efficient than solving the problem for the whole graph from scratch after each modification. Dynamic algorithms have been considered for several graph properties, for example connectivity, shortest paths and graph recognition. In this paper we present fully dynamic algorithms for the recognition of threshold graphs and chain graphs, which are optimal in the sense that the costs per modification are linear in the number of modified edges. Furthermore, our algorithms also consider the addition and deletion of sets of vertices as well as edges. In the negative case, i.e., where the graph is not a threshold graph or chain graph anymore, our algorithms return a certificate of constant size. Additionally, we present optimal fully dynamic algorithms for the Hamiltonian cycle problem and the Hamiltonian path problem on threshold and chain graphs which return a vertex cutset as certificate for the non-existence of such a path or cycle in the negative case.
Abstract
This article presents a cost-effective ultraviolet-ozone cleaner (UV/O3 Cleaner) for surface pre-treatment of substrates in the field of semiconductor technology. The cleaner consists of two chambers, the upper one contains the electronics, including the time counter. The lower chamber contains the two UV sterilisation lamps and a UV reflector of anodized aluminium, which confines the area of high Ozone concentration in the area of interest. The device is successfully used for surface cleaning and modification of different materials. To this end, the two important wavelengths 253.7 nm (excitation of organic residues) and 184.9 nm (production of ozone from the atmospheric environment as a strong oxidant) were first detected. The effectiveness of UV/O3 cleaning is demonstrated by improving the properties of indium tin oxide (ITO) for OLED fabrication. The contact angle of water to ITO could be reduced from 90° to 3° and for diiodomethane, it was reduced from 55° to 31° within the 10 min of irradiation. This greatly improved wettability for polar and non-polar liquids can increase the flexibility in further process control. In addition, an improvement in wettability is characterized by measuring the contact angles for titanium dioxide (TiO2) and polydimethylsiloxane (PDMS). The contact angle of water to TiO2 decreased from 70° to 10°, and that of diiodomethane to TiO2 from 54° to 31°. The wettability of PDMS was also greatly increased. Here, the contact angle of water was reduced from 109° to 24° and the contact angle to diiodomethane from 89° to 49°.
Article Highlights
We report a cost-effective dry-cleaning device for surface cleaning and modification based on ultraviolet-ozone irradiation.
Contact angle measurements show an increase of wettability for different materials due to surface modification.
The UVO3 pre-treatment improves layer formation and optoelectrical properties of OLEDs.
Sodium iron hexacyanoferrate (NaFeHCF) films were electrodeposited on Au/Cr/Si for the study of growth behavior and physical properties. The NaFeHCF films were studied by different analytical methods to prove the chemical composition, morphology and crystal structure. The grains of the film grow with a cubic structure with an average lattice parameter of 10.10 Å and the preferential growth direction along the [111] direction of the cubic cell. The films show a repeatable bipolar resistive switching behavior accompanied by high current changes (up to a factor of ~105). The different resistive states in the materials are dominated by ohmic conduction.
The electrical conduction mechanism of resistive switching Prussian white (PW) thin films obtained by the electrodeposition method was examined by AC impedance spectroscopy and DC current–voltage measurements. Using an electrode tip to contact PW grown over Au, robust unipolar resistive switching was observed with a current change of up to three orders of magnitude, high repeatability, and reproducibility. Moreover, electrical impedance spectroscopy showed that the resistive switching comes from small conductive filaments formed by potassium ions before the establishment of larger conductive channels. Both voltammetry and EIS measurements suggest that the electrical properties and conductive filament formation are influenced by defects and ions present in the grain boundaries. Thus, PW is a potential material for the next generation of ReRAM devices.
Prussian blue (PB) layers were electrodeposited for the fabrication of Au/PB/Ag stacks to study the resistive switching effect. The PB layers were characterized by different techniques to prove the homogeneity, composition, and structure. Electrical measurements confirmed the bipolar switching behavior with at least 3 orders of magnitude in current and the effect persisting for the 200 cycles tested. The low resistance state follows the ohmic conduction with an activation energy of 0.2 eV.
Die fortschreitende Vernetzung von Geräten im Internet der Dinge in Kombination mit der Digitalisierung verändert Märkte und Branchen nachhaltig. Im Rahmen des DiWo-Chain Projektes wird an der Entwicklung und lokalen Integration der Blockchain-Technologie in digitale Dienstleistungen der Wohnungswirtschaft geforscht. Durch die verwendete Blockchain-Technologie soll die Gestaltung von effizienten, betriebs-, manipulations- und datenschutzsicheren Dienstleistungen der Wohnungswirtschaft ermöglicht werden. In diesem Beitrag wird eine Lösung beschrieben, welche die Integration und Realisierung vereinfacht. Zur Umsetzung wurde eine Java OSGi-Anwendung in Kombination mit einer Angular-Anwendung für die Interaktion mit der Hyperledger Fabric Blockchain entwickelt. Diese Blockchain-basierte Lösung kann dynamisch für diverse Anwendungsfälle angepasst werden. In diesem Beitrag werden ausgewählte Szenarien der Wohnungswirtschaft beschrieben, die für den Einsatz der entwickelten Lösung geeignet sind.
Diese Masterarbeit widmet sich der Thematik der Digital Twins (DT), einer Technologie, die in den letzten Jahren zunehmend an Bedeutung gewonnen hat, sowie der Verwendung von DTs im Retail. Im Fokus steht dabei der virtuelle Shelf als DT von Regalen in Einzelhandelsgeschäften. Ziel ist es, mithilfe des virtuellen Shelfs Services der GK in einem realitätsnahen Umfeld zu testen und präsentieren.
Der virtuelle Shelf bietet eine Visualisierung der Regale für einen großformatigen 72-Zoll Bildschirm und ermöglicht es den Nutzern, Interaktionen mit einem Regal zu simulieren. Zusätzlich zu den Auswirkungen der Interaktionen auf das Regal können mithilfe der Visualisierung zusätzliche Hintergrundinformationen dargestellt werden, wie beispielsweise die Bestandsinformationen eines Artikels.
Die Forschungsfrage, die dieser Arbeit zugrunde liegt, lautet: „Ist ein virtueller Shelf als Digital Twin geeignet, um den Prozess des Instore Fulfillments zu simulieren und zu visualisieren?“ Zur Beantwortung dieser Frage werden verschiedene Aspekte behandelt, darunter die Definition eines Digital Twins, die Schritte zur Erstellung eines solchen, die Definition des Instore Fulfillment-Prozesses, die Konzeptionierung und die prototypische Realisierung des virtuellen Shelfs sowie eine Studie zur Validierung
dieses DTs.
Durch die systematische Untersuchung dieser Punkte wird nicht nur die Eignung des virtuellen Shelfs als Digital Twin für den Instore Fulfillment-Prozess beleuchtet, sondern auch wertvolle Erkenntnisse für die zukünftige Anwendung und Weiterentwicklung dieser innovativen Technologie gewonnen.
Die vorliegende Diplomarbeit beschreibt die Vorgehensweise und Durchführung einer Systemanalyse bezüglich der bei der Stadtentwässerung Dresden GmbH vorhandenen Prozesse zur Probendaten-Bereitstellung sowie der Verwendung dieser Daten durch das Personal der Fachbereiche. Bei den Probendaten handelt es sich um Messergebnisse des unternehmenseigenen Betriebslabors aus analytischen Messverfahren und von digitalen Messgeräten. Ziel der Arbeit ist es, den Ist-Stand der Prozesse zu erfassen und Schwachstellen zu ermitteln. Auf Basis der gewonnenen Erkenntnisse soll ein neues System zur Verarbeitung dieser Daten gefunden und ein damit einhergehend verbesserter Prozess entworfen werden. Hierbei sind zum einen die Anforderungen der Datenbereitstellenden und derjenigen, welche die Daten im Unternehmen nutzen, zu berücksichtigen und zu erfassen.
Einleitend wird auf die theoretischen Grundlagen einer Systemanalyse und den aktuellen Stand der Technik im Bereich der Informationsversorgung eingegangen. Es werden weiterhin relevante Techniken und Systeme vorgestellt, welche sich für einen neuen Soll-Prozess eignen könnten. Zudem werden Möglichkeiten der Prozessmodellierung diskutiert.
Im praktischen Teil der Arbeit werden die Erkenntnisse genutzt, um den Ist-Stand für die Probendaten-Bereitstellung zu erfassen. Daraufhin folgend wird mittels einer Nutzwertanalyse und unter Auswertung von Experteninterviews eine für die Stadtentwässerung Dresden GmbH geeignete Lösung entworfen und in einem Soll-Prozess modelliert.
Abschließend werden die Ergebnisse in einem Prototyp als Testimplementierung umgesetzt. Es folgt eine Auswertung, inwiefern die Aufgabenstellung und definierte Probleme gelöst sowie Zielstellungen erreicht worden sind.
The book is the second of four volumes on data science and artificial intelligence. This second volume covers data visualization tool and techniques as well as fundamentals of supervised machine learning: linear regression, artificial neural networks, support-vector machines, decision trees, ensemble methods and more.
The book 'Reinforcment Learning: An Introduction' by Sutton and Barto is the standard text book for introductory courses to reinforcement learning. Next to concrete algorithms and extensive examples the book contains several fundamental results related to Markov decision processes (MDPs) and Bellman equations in Chapters 3 and 4. Unfortunately some proofs are missing, some theorems lack precise formulation, and for some results the line of arguments is quite garbled.
In this note we provide all missing proofs, give precise formulations of theorems and untangle the line of arguments. Further, we avoid using random variables and their expected values. Since we (like Sutton/Barto) restrict our attention to finite MDPs all expected values can be made explicit avoiding overloaded notation and murky conclusions.
This article bridges the gap between introductory literature like Sutton/Barto and research literature containing exact formulations and proofs of relevant results, but being less accessible to beginners due to higher generality and complexity.
Konzeption eines Versuchsstandes zur Charakterisierung der elektrischen Kenngrößen von Solarmodulen
(2023)
Um Photovoltaik-Module auf ihre Leistungsfähigkeit zu testen und diese weiterzuentwickeln, ist es notwendig ihre elektrischen Kenngrößen replizierbar testen zu können.
Das Ziel der vorliegenden Arbeit ist es, zu diesem Zweck einen Versuchstand zu errichten und ein Programm zu schreiben, welches das automatische Abfahren einer Strom-Spannungs-Kennlinie ermöglicht.
Dazu wurden verschiedene Strahlungsquellen mit je spezifischen Eigenschaften verwendet. Bei den Strahlungsquellen handelte es sich um LED-, Halogen- sowie Xenon-Strahler. Mit diesen wurden beispielsweise bei unterschiedlichen Bestrahlungsstärken Kennlinien aufge-nommen, welche es zu vergleichen galt. Außerdem wurden die manuelle und die automatisierte Aufnahme der Kennlinie verglichen.
Die Kennlinien zeigen, dass Xenonstrahler am besten für die Messung elektrischer Kenngrößen von Photovoltaik-Modulen geeignet sind. Nicht nur ist das Spektrum des Strahlers am ähnlichsten dem des AM1,5-Spektrums, sondern dieser hat dazu am wenigsten Wärmeeinfluss auf das zu messende Modul. Zudem ist die automatisierte Aufnahme der Kennlinie wesentlich schneller als die manuelle.
Mit den gewonnenen Erkenntnissen lassen sich die elektrischen Kenngrößen der Photovoltaik-Module künftig qualitativ hochwertiger und schneller testen.
Die folgende Ausarbeitung mit dem Titel „Projektplanung für die Umstrukturierung betrieblicher Prozessabläufe einer deutschen Halbleiterfertigung mit der Zielsetzung einer Emissionsreduzierung“ bildet die abschließende Diplomarbeit, welche im Rahmen des berufsbegleitenden
Studienganges „Umwelttechnik und Recycling“ an der Westsächsischen Hochschule Zwickau (WHZ) erstellt wird.
Zunächst beschreibt der folgend Gliederungspunkt den Anlass dieses Planungskonzeptes und konkretisiert die zugrundeliegende Aufgabenstellung dieser Ausarbeitung. Im Anschluss wird kurz das Unternehmen vorgestellt, auf welches sich die Betrachtung bezieht. Theoretische Grundlagen wichtiger Regelwerke sind aufgeführt, um das nötige Verständnis für die Relevanz sowie die Zielsetzung zu vermitteln.
Folgend werden organisatorische Projektstrukturen geplant und aufgezeigt. Eine konkret definierte Zielstellung gibt das Mindestmaß der erwarteten Emissionsreduzierung vor. Weiterhin ist eine Phasenplanung der Durchführungsschrittfolge aufgezeigt sowie die Aufstellung des Projektteams inkl. des Kommunikationsverhaltes. Ergebnisse aus Beziehungsanalysen beteiligter Interessengruppen sind enthalten sowie Diskussionen über das Eintreten von Risiken.
Der Hauptteil beschäftigt sich mit der Planung und Darstellung potenzieller Umstrukturierung bestehender Prozessabläufe des zugrundeliegenden Betriebsstandortes. Hierbei wird zunächst die aktuelle CO2-Bilanzierung aufgezeigt, da diese die Grundlage der Maßnahmenplanung bildet. Der Schwerpunkt liegt dabei auf den Ausstoß von Treibhausgasen. Andere Emissionen wie beispielsweise Lärm, Licht, Vibrationen oder auch Funkwellen werden in dieser Projektplanung nicht mit betrachtet. Zu jedem der aufgezeigten Einzelvorhaben sind Angaben bezüglich Kostenumfang sowie der Umsetzungsdauer vermerkt. Nach der erfolgten Vorstellung werden konkrete Umsetzungsmodelle beschrieben, wie die gesetzte Zielstellung, unter Beachtung verschiedener Rahmenbedingungen, realisiert werden könnte. Der abschließenden Zusammenfassung nachgelagert wird ein Ausblick gegeben, wie mit den gewonnenen Erkenntnissen dieser Ausarbeitung umgegangen wird.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Diese Bachelorarbeit untersucht die Hintergründe und Motivation für die automatische Ausführung und Protokollierung von Tests auf Basis von Gherkin und Godog mit Hilfe von Xray Test Management für Jira.
Das Hauptziel ist die Steigerung der Effizienz bei der Testprotokollierung und -reporting. Durch die Automatisierung können manuelle Aufgaben reduziert werden, was zu einer verbesserten Effizienz und Zeitersparnis führt. Die Ergebnisse dieser Arbeit dienen als Grundlage für Unternehmen, um die Effizienz und Qualität ihrer Testprozesse zu steigern und einen Mehrwert zu schaffen.
Die verwendeten Technologien, Gherkin, Godog, Cucumber für Golang und Xray Test Management für Jira, werden vorgestellt und ihre Funktionen erläutert. Zusammenfassend ermöglichen diese Technologien eine effizientere Zusammenarbeit von Entwicklungs- und Testteams und verbessern die Softwarequalität.
Die Erstellung und Bearbeitung dieser Bachelorarbeit dient dazu Daten in Bezug auf Laserapplizierte Hautschädigungen zu erstellen. Im Rahmen dessen werden an einem Tierhautmodell mit einem Kohlenstoffdioxidlaser Hautschäden erzeugt und untersucht. Der notwendige Versuchsaufbau wird geplant und Auswerteroutinen evaluiert. Es erfolgt die Charakterisierung der Schädigungsbereiche und eine Berechnung der geschädigten Fläche sowie der dazugehörigen Flächenenergie. Mit den gewonnen Erkenntnissen konnten Aussagen über mögliche Grenzwerte der Flächenenergie getroffen werden.
Das Ziel dieses Projekts bestand darin, die Schaltzeit schaltbarer PDLC-Folien zu messen und die Abhängigkeit der Schaltzeit von der Temperatur zu untersuchen. Um dies zu erreichen, wurde zunächst ein Laboraufbau erstellt, der hauptsächlich aus einer LED-Lichtquelle, einem Sensor, einem Oszilloskop und einem Trenntransformator bestand. Wenn die Probe mit einer elektrischen Feld angelegt wurde, die von einem Trenntransformator bereitgestellt wurde, richteten sich die Flüssigkristalle im Polymerfilm aus und ließen Licht durch (was zu einem transparenten Aussehen führte). Dieses Licht wurde vom Sensor erfasst und in ein elektrisches Signal umgewandelt, das anschließend an das Oszilloskop gesendet wurde. Die Anstiegszeit dieses Signals wurde im Bereich von 10% bis 90% der aufsteigenden Flanke gemessen. Die Schaltzeit wurde bei Raumtemperatur (24,2 °C) ermittelt. Anschließend wurden die Proben einmal auf eine niedrige Temperatur von 1 °C und einmal auf eine hohe Temperatur von 39,6 °C temperiert und erneut gemessen, um den Einfluss der Temperatur auf die Schaltzeit zu untersuchen.
Die Ergebnisse zeigten eindeutig, dass die meisten Proben eine schnellere Reaktionsrate bei höheren Temperaturen im Vergleich zu niedrigeren Temperaturen aufwiesen. Alle Messwerte waren bei Temperaturen von 39,6 °C und 24,2 °C homogener und wiesen eine höhere Messgenauigkeit auf, während bei 1 °C die Messwerte eine geringe Homogenität und niedrigere Messgenauigkeit aufwiesen. Es wurde auch festgestellt, dass die Schaltzeit bei einigen Proben deutlich schneller war als bei anderen. Die manuelle Schaltung und die unpassenden Parameter des Signalverlaufs könnten bei einigen Proben zu höheren Schaltzeitwerten geführt haben, da sie vermehrt Nulldurchgänge in der aufsteigenden Flanke des Wechselsignals verursachten. Dies ließe sich möglicherweise durch die Implementierung einer automatischen Schaltung und die Verwendung eines Funktionsgenerators beheben. Mit diesem Generators könnte die Messfrequenz des Sinussignals gesenkt werden, sodass die Schaltzeit deutlich kürzer ist als die ansteigende Flanke. Alternativ könnten auch andere Signalformen wie Rechtecksignale erzeugt werden, bei denen die Probleme, die durch den Sinus verursacht werden, nicht auftreten. Dies könnte in weiteren Experimenten vermieden werden. Des Weiteren könnten die Temperierungsbedingungen während der Versuchsdurchführung Ungenauigkeiten bei den aufgenommenen Messwerten verursacht haben. Dies ließe sich eventuell durch die Verbesserung der Bedingungen für die Temperierung der Proben verhindern. Dadurch könnte der Temperaturverlust während des Messvorgangs reduziert werden, was zu einer höheren Genauigkeit führt. Darüber hinaus sollte der Einfluss der Lebensdauer auf die Schaltzeit in zukünftigen Experimenten berücksichtigt werden, indem nicht nur die Anstiegszeit, sondern auch die Abstiegszeit beim Ausschalten untersucht wird. Dies wäre insbesondere bei Langzeitexperimenten relevant.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
Gewinnung von Informationen aus technischen Zeichnungen mittels KI-Methoden zur Bilderkennung
(2023)
Diese Masterarbeit untersucht maschinelles Lernen für die Objekterkennung in technischen Zeichnungen, mit Schwerpunkt auf der Identifizierung von Tabellen, Bildern, Geräten und regulären Boxen. Verschiedene Algorithmen wurden betrachtet, darunter TensorFlow, Keras- OCR, OpenCV und YOLO. Die Studie ergab, dass die Kombination von FCN, Spatial Transformer Network, Canny Edge Detection, FCN, Faster R-CNN, Template Matching und YOLO mit STN signifikante Verbesserungen bei der Objekterkennung im Vergleich zur alleinigen Verwendung von FCN erzielte.
Darüber hinaus führte das Training von YOLOv5 als erstes Modell und seine Verfeinerung mit einem gelabelten Datensatz zu noch besseren Leistungen. Die Erkenntnisse aus dieser Forschung können Branchen zugutekommen, die stark auf technische Zeichnungen für ihre Geschäftsabläufe angewiesen sind.
Die vorliegende Bachelorarbeit untersucht die Machbarkeit der Anwendung resistiver Sensoren auf textilen Materialien zur Messung des Auflagedrucks auf kompressiblen Untergründen. Die Recherche hat gezeigt, dass es bereits Anwendungen im medizinischen und
weiteren Sektoren, wie zum Beispiel im Sport, gibt. Die Arbeit konzentriert sich auf die Möglichkeit der direkten Herstellung von Sensoren auf Textilien.
Zwei Herstellungsverfahren für leitfähige Strukturen auf textilen Substraten werden untersucht. Die verwendeten Verfahren zur Herstellung leitf¨ahiger Strukturen auf Textilien umfassen das Pulverdruckverfahren und die Stickerei. Die Stickerei ermöglicht die Platzierung von leitfähigen Fäden bzw. Kabeln auf Textilien, während der Pulverdruck mit funktionalen Pulvern leitfähige Strukturen auf Textilien erzeugt.
Obwohl es bereits eine Vielzahl von Messsystemen für die Erfassung des Auflagedrucks gibt, zielt diese Arbeit darauf ab, Sensoren auf einem textilen Substrat speziell für den Einsatz in einer Auflagedruck-Messmatte im Reitsport zu entwickeln.
Die experimentelle Untersuchung umfasst Zugversuche und Druckbelastungstests. Zunächst werden Zugversuche durchgeführt, um die Dehnungseigenschaften der Textilien zu bestimmen, sowie die Änderung des elektrischen Widerstandes von aufgebrachten Pulverstrukturen bei Dehnung. Darüber hinaus werden zyklische Zugversuche durchgeführt, um die Stabilität der aufgetragenen leitfähigen Strukturen zu überprüfen. Mithilfe dieser Informationen wurde ein Trägermaterial aus mehreren textilen Substraten für weitere Versuche gewählt.
Des Weiteren wird die Änderung des elektrischen Widerstands von aufgebrachten Stick- und Pulverstrukturen während zyklischen Druckbelastungstests auf kompressiblen Untergrund untersucht und verglichen.
Die Ergebnisse der Druckbelastungstests deuten darauf hin, dass die Stick- und Pulverstrukturen eine Veränderung des elektrischen Widerstands während zyklischer Druckbelastung aufweisen. Es wurde beobachtet, dass der elektrische Widerstand während der Belastung
der Pulverstrukturen abnimmt und nach der Entlastung ansteigt. Die gestickten Strukturen weisen gegenteiliges Verhalten auf. Dies eröffnet interessante Möglichkeiten für die Entwicklung von textilen Sensorlösungen zur Erfassung von Auflagedruck auf kompressiblen Untergründen.
Die Bachelorarbeit zeigt die Komplexität und Herausforderungen bei der Entwicklung von resistiven Sensoren auf textilen Materialien für medizinische und sportliche Anwendungen.
Der Medizin stehen zur Versorgung der Bevölkerung immer bessere Methoden zur Verfügung, die auf nichtinvasivem Weg den Blick ins Körperinnere erlauben. Bei der Tomographie nahm dabei eine besonders rasante Entwicklung. Fortschreitende Technik brachte jedoch auch spezielle Fehlerquellen mit sich. Artefakte in der Bildgebung können die Folge sein. Da sie zu Fehlinterpretationen und unpassenden Diagnosen führen können, ist der geeignete Umgang mit ihnen von großer Wichtigkeit.
Die OvGU hat sich zur Aufgabe gestellt, Studierende der Studiengänge Medizintechnik sowie Medical Systems Engineering auf diese Praxisanforderung mit Hilfe des CT-Train vorzubereiten. Er nutzt Modelllokomotiven, um durch ein spielerisches Element das Lernen zu unterstützen.
Im hier beschriebenen Projekt wurde diese speziell konzipierte Lehr-Versuchsanordnung für den Gebrauch in einem Praktikum zur Praktischen Bildgebung umgesetzt und eine entsprechende Anleitung für die Studierenden erstellt.
Zu diesem Zweck wurde der vorhandene Laser-Scanner zu einem Röntgen-Computertomographen mit speziellen Scanobjekten umgebaut. Anschaulichkeit und eine Vielzahl von Interventionsmöglichkeiten für die Studierenden standen dabei im Vordergrund. Röhrenspannung und Anodenstromstärke lassen sich an der Quelle ebenso einstellen, wie am Detektor die Dauer der Detektionen und die Anzahl ihrer Wiederholungen. Weitere Interventionen ermöglicht der Code. Die Versuchsanordnung erfordert zudem bei den Voreinstellungen die gründliche Beschäftigung mit der Geometrie des Aufbaus.
Zu systematischen Untersuchungen mit den genannten Parametern und an unterschiedlichen Scanobjekten werden die Studierenden in der Anleitung angehalten. Sie regt die Studierenden ebenfalls an, nach Möglichkeiten zu suchen, wie Mensch-induzierte Artefakte sich am CT-Train simulieren lassen. Die Ergebnisse ihrer Versuche können durch Auswertung der gewonnenen Datensätze mit geeignetem MatLab-Code veranschaulicht werden.
Prinzipiell sind am funktionsfähigen CT-Train Simulationen von Artefakten denkbar. Die Nutzung der Anordnung hat gezeigt, dass dazu Datensätze mit hoher Datendichte vorteilhaft sind. Um diese kontrolliert zu generieren, ist es notwendig, zunächst gute Kenntnisse über einen Zusammenhang zwischen den Detektorparametern zu erlangen, der nicht vorhergesehen wurde. Das Auftreten von Artefakten anhand einer raschen Abfolge von Schnittbildern zu erkennen, fällt naturgemäß schwer. Deshalb wird zu deren Auffinden eine volume rendering Methode empfohlen.
Die Arbeit wendet eine umfassende Methodik an, die eine Literaturrecherche, die Analyse bestehender Anwendungen, die Implementierung und die Evaluierung eines zielgruppenspezifischen Prototyps einer mobilen App für die Stellensuche umfasst.
Ziel der Bachelorarbeit ist es, Funktionen einer mobilen App zur Stellensuche zu identifizieren, die sich positiv auf die Effektivität der mobilen App bei der Stellenvermittlung auswirken. Basierend auf vorangegangenen Forschungsarbeiten und einer Analyse bestehender Apps sollen die identifizierten Funktionen, die zum bestehenden System passen, in die mobile App implementiert werden. Um die Effektivität der App zu evaluieren, wird eine Befragung von internen Testnutzern durchgeführt.
Abschließend werden Empfehlungen für die Entwicklung und Verbesserung mobiler Apps zur Berufsstellensuche gegeben, um eine effiziente Stellenvermittlung zu gewährleisten.
Zielsetzung der vorliegenden Arbeit war eine Transformation von BPMN-Elementen in logische Aussagen. Hierfür wurden zunächst die Anforderungen definiert und eine Analyse der BPMN-Diagramme durchgeführt, wobei häufig verwendete BPMN-Elemente ausgewählt wurden. Darüber hinaus wurde ein Konzept mit der Übersicht über die wichtigsten Schritte erstellt. Des Weiteren wurde ein Transformationsprogramm für die ausgewählte BPMN-Elemente und deren Eigenschaften entwickelt.
Die Funktionsweise dieses Programms basiert auf der Java-Programmiersprache und nutzt die XSLT-Implementierung Saxon. Das
Transformationsprogramm durchsucht die gegebene Datei nach BPMN-Diagrammen, analysiert die gefundenen BPMN-XML-Dateien und erzeugt die Prolog-Datei mit den Fakten. Anschließend wurden in dieser Arbeit Prolog-Regeln definiert, um zu zeigen, wie die generierten logischen Aussagen zur Validierung von BPMN-Diagrammen eingesetzt werden können.
Krankenhausbetten erfüllen mehrere wichtige Funktionen. Sie dienen als Schlafplatz und Transportmittel. Manche Patienten sind den ganzen Tag auf das Klinikbett angewiesen. Umso wichtiger ist es, dass die Betten in technisch einwandfreien Zustand sind. Das wird durch die Prüfung nach der DGUV Vorschrift 3 gewährleistet, da dadurch Fehler frühzeitig erkannt werden und behoben werden können.
Das Ziel in der vorliegenden Bachelorarbeit ist es, durch Auswertung der Prüfungsergebnisse die Fehlerquote zu bestimmen, zu analysieren und zu bewerten und herauszufinden inwiefern sich Alter und Betttyp auf die Fehlerquote auswirken.
Um die Forschungsfrage zu beantworten, werden die Betten nach der DGUVV3 Vorschrift mithilfe der DIN EN 62353 geprüft und die Ergebnisse ausgewertet.
Es wurde festgestellt, dass die Gesamtfehlerquote zu hoch ist und das die meisten sicherheitsrelevanten Fehler bei Betten aufgetreten sind, die 15 Jahre oder älter waren.
Im Rahmen dieser Diplomarbeit werden die Möglichkeiten zur Reduzierung der Eiseneinträge und der damit verbundenen Verockerung des Elligastbaches betrachtet.
Ziel ist es, durch bauliche Maßnahmen die einströmenden Einträge so weit zu verringern, dass ein guter ökologischer und chemischer Zustand des Berichtsgewässers Elligastbach erreicht werden kann. Um die Rückkehr von Lebewesen und Pflanzen in ein Gewässer zu ermöglichen, ist ein guter Gewässerzustand von elementarer Wichtigkeit.
Alle erforderlichen Schritte, die zur Vorbereitung der Wiederherstellung des guten Zustandes notwendig sind, zu denen die baulichen Maßnahmen und Eingriffe in das Gewässer im Wesentlichen zählen, werden in der vorliegenden Arbeit erläutert. Neben der Historie des Standortes und den rechtlichen Grundlagen, werden die Schwerpunkte wie die Probenahme zur Erfassung der anfallenden Menge an Eiseneinträgen, sowie die möglichen Auswirkungen auf das Gewässer beschrieben und daraus resultierend eine Vorstellung verschiedener Varianten bzw. Ausführungen von Maßnahmen zur Ockerreduzierung dargestellt. Die nützliche Verwertung des anfallenden Ockerschlamms ist ein weiterer Punkt in der vorliegenden Arbeit.
Kontaktlinsen gehören zum Alltag des Menschen dazu. Über ausgewählte Versuche wurden
dabei Alltagssituationen simuliert.
Die Ergebnisse und Veränderungen an den Kontaktlinsen wurden über Lichtmikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie untersucht. Kernpunkte bei den Untersuchungen waren die Oberfläche und die Transmission. Durch einen eigens konzipierten Versuchsaufbau wurde der Transmissionsgrad nach jedem Versuch ermittelt. Nach allen Alltagssituationen konnten Veränderungen nachgewiesen werden.
Die vorliegende Arbeit schlüsselt die Komplexität einer Infrastrukturmaßnahme der Deutschen Bahn (DB) auf. Es werden die Entwicklungsschritte von der Idee bis zur Verwirklichung dargestellt. Konkret wird die Realisierung der Ausbaustrecke Gäubahn, Abschnitt Nord durch die DB Projekt Stuttgart-Ulm GmbH im Großraum Stuttgart – Böblingen behandelt. Fragen zur Notwendigkeit des Streckenneubaus innerhalb des Schienennetzes der DB, der Entwicklung und Festlegung des Streckenverlaufs, der DB-Regularien und Genehmigungsverfahren werden erörtert. Die einzelnen Planungsphasen werden zusammen mit möglichen Problemen beschrieben und Maßnahmen zur Problembewältigung bzw. Lösungsansätze erörtert.
Die Auswirkungen einer Infrastrukturmaßnahme auf das gesamte Umfeld werden beleuchtet. Programme zum Schutz der Ökologie, zur Minderung der Auswirkungen auf Mensch und Natur sowie Monitoringkonzepte zum Schutz von Boden, Wasser, Luft, Flora, Fauna und Bevölkerung werden aufgezählt.
Die Wahrnehmung des Projekts in der Öffentlichkeit, durch die Verortung im Raum Stuttgart und der direkten Nähe zum Projekt "Stuttgart 21" wird untersucht und Wege zur Verbesserung und Optimierung der Öffentlichkeitsarbeit werden dargestellt.
The aim of this work is to characterize the furnace gas sludge generated during wet mechanical blast furnace gas cleaning and to assess its potential for possible further use, taking into account the problem of heavy metal contamination. For this purpose, the process of wash water treatment and the resulting furnace gas sludge were analyzed analytically in cooperation with Vulkan Energiewirtschaft Oderbrücke GmbH. The analysis methods used here are enclosed to the measurement of pH value, electrical conductivity, dry matter content, ash content and calorific value. In addition, a comprehensive elemental analysis was carried out using atomic absorption spectroscopy and a microscopic examination of the furnace gas sludge was performed. The results obtained show that the furnace gas sludge is suitable for further use in any case, both within and outside the steelworks process. However, this requires a high level of technical effort, which is associated with high costs and requires further research and process optimization.
In dieser Arbeit wird dargestellt, wie durch eine Beeinflussung der Separation von Druckdaten durch ICC-Profile der Verbrauch an Farbmittel (Tinte) im industriellen Inkjetdruck reduziert werden kann.
Mittels geeigneter Software wurden ICC-Profile mit unterschiedlichen Separationseigenschaften erstellt, deren Potenzial zur Farbmittelreduzierung durch dafür erstellte Testformen ermittelt und in Zusammenhang zur farbmetrischen Qualität gesetzt. Dabei konnte in der betrachteten Produktionsumgebung eine Reduzierung der benötigten Farbmenge im zweistelligen Prozentbereich gegenüber der Herstellereinstellung erreicht werden ohne dabei die definierten Qualitätskriterien zu verletzen.
Die Ergebnisse wurden durch Druckversuche mit realen Kundenaufträgen verifiziert und auf einem baugleichen Drucksystem erfolgreich reproduziert.
Auswirkungen auf die Umwelt wurden aufgezeigt, konnten im Rahmen dieser Arbeit aber nicht quantifiziert werden. Hierzu sind nach Ansicht des Autors weitere Untersuchungen notwendig.
Eine pathologische Raumforderung durch eine Verletzung hat eine Druckerhöhung innerhalb des Schädels zur Folge. Parameter wie der intrakranielle Druck (ICP), die intrakranielle Temperatur (ICT) und der Sauerstoffpartialdruck (ptiO2) können mit Hilfe von Messkathetern ermitteltet werden. Durch Veränderungen der Parameter lassen sich Rückschlüsse auf Hirnverletzungen ziehen. Ein Hersteller für Messkatheter, die im Neuromonitoring eingesetzt werden, ist die Firma RAUMEDIC AG. Neurochirurgische Präzisionsdruckkatheter, welche die zuvor beschriebene ICP-Erhöhung erfassen können, werden vor dem Inverkehrbringen auf Qualitätsanforderungen geprüft, um einen zuverlässigen Nutzen bei der Anwendung für Patienten, Anwender und Dritte gewährleisten zu können. Die Prüfung erfolgt bei der Herstellung der Katheter im Rahmen der Fertigung. Dazu wird das Driftverhalten bei konstanten Umgebungsbedingungen, der Offset, sowie die Druckänderung unter vorgeschriebenen Akzeptanzkriterien überprüft. Ein weiteres Testverfahren mit den gleichen Prüfmerkmalen befindet sich im Reklamationsbereich. In diesem Bereich werden Messkatheter, die bereits auf dem Markt sind aufgrund angeblicher Unzulänglichkeiten hinsichtlich Identität, Qualität, Haltbarkeit, Zuverlässigkeit, Gebrauchstauglichkeit, Sicherheit oder Leistung erneut überprüft. In der vorliegenden Arbeit soll eine Optimierung des Prüfverfahrens im Reklamationsbereich entwickelt werden, in dem ein automatisierter Mehrfachprüfplatz aufgebaut wird. Dies beinhaltet, dass sowohl mehrere Katheter gleichzeitig vermessen werden können, sowie die Überprüfung unterschiedlicher Parameter im gleichen Zeitraum. Der Ausgangspunkt für die Optimierung der Prüfmethode ist die Adaptierung wesentlicher Leistungsmerkmale gemäß DIN EN 60601-2-34 für invasive Blutdrucküberwachungsgeräte. Dabei ist der vorgegebene Parameterraum nicht auf das Neuromonitoring übertragbar. Eine Anpassung muss vorgenommen werden, wobei nicht nur die Temperatur, sondern auch die Druckverhältnisse angeglichen werden müssen. Bei der Versuchsdurchführung mit drei unterschiedlichen Druckerzeugern wurde festgestellt, dass ein dynamisches Prüfverfahren mit klinisch relevanten Umgebungsdrücken in den zuvor genannten Prüfkriterien realisierbar ist. Ziel dieser Arbeit ist eine Entwicklung einer erweiterten Prüfmethode, welche den Parameterraum Temperatur und Druck abdeckt. Vorteile, die diese Prüfmethode mit sich bringt, sind Zeiteinsparung, Automatisierung und Komprimierung des bestehenden Verfahrens bei gleichbleibender Aussagekraft.
Im Jahr 2022 hat die Warema Renkhoff SE entschieden den Energieträger Wasserstoff (H2) als eine Erdgasalternative für die Beheizung der Pulverlacköfen im Rahmen von zwei Abschluss- arbeiten untersuchen zu lassen. Eine andere Arbeit befasste sich mit den unterschiedlichen Möglichkeiten der Versorgung mit H2. In der hier vorliegenden Arbeit wurden die unterschied- lichen Aspekte für den Einsatz des neuen Energieträgers in der Fertigung betrachtet.
Recherchen zu einem möglichen H2-System zeigten, dass alle Komponenten bereits heute verfügbar sind. Manche, wie z.B. ein 100%-H2 Brenner, befinden sich aber noch im Proto- typenstadium. Zurzeit existieren noch keine Regelwerke für die Installation und Betrieb von H2-Sytemen, die den Stand der Technik abbilden. Die Erarbeitung solcher Regelwerke wurde in 2023 begonnen und wird einige Zeit in Anspruch nehmen.
Um unterschiedliche Konfigurationen von H2-Systemen untereinander und mit dem existie- renden Erdgassystem vergleichen zu können, wurde in dieser Arbeit ein Tool entwickelt. Dieses Bewertungs- und Entscheidungstool erlaubt es das System zu konfigurieren und nach Kosten, Risiken und CO2-Emissionen zu bewerten. Die Bewertung erfolgt nach dem Prinzip einer um- gekehrten Nutzwertanalyse. Im Tool wurde beispielhaft die Pulverbeschichtungsanlage 1 am Standort Marktheidenfeld abgebildet.
Wasserstoff gilt aufgrund seiner physikalischen Eigenschaften als besonders schwierig in der Handhabung und gefährlicher als z.B. Erdgas. Die Risikobewertung bildet auch deshalb den Hauptteil des Tools. Die Risikobewertung wurde so gestaltet, dass sie wissenschaftlich fundiert und dennoch einfach anzuwenden ist.
Im fertigen Tool wurden einige Konfigurationen miteinader verglichen. Es zeigt sich, dass das derzeitige Erdgassystem sowohl bei den Kosten als auch bei den Risiken von keinem H2- System erreicht werden kann. Ohne zusätzliche Sicherheitsvorrichtungen bzw. -maßnahmen beim H2-System ist das Risiko bei manchen Risikoszenarien zu hoch. Ein großes Risiko beim H2-System geht aber auch von der fehlenden Erfahrung und Komponenten, welche sich noch in Entwicklung befinden, aus.
Zum Abschluss wurde die Rentabilität eines H2-Systems betrachtet. Dazu wurden die im Tool ermittelten Investitionskosten für ein H2-System verwendet. Für unterschiedliche Erdgas- preise und Amortisationszeiträume wurde der H2 Preis berechnet, ab dem sich die Investition amortisiert. Zum Beispiel müsste der H2 Preis unter 5 €/kg liegen (heute ca. 10 €/kg), damit sich das System beim heutigen Erdgaspreis von 0,15 €/kWh nach 5 Jahren amortisieren kann.
Aus dieser Arbeit können direkte Handlungsempfehlungen für Warema abgeleitet werden. So scheint es aus mehreren Gründen sinnvoll mit der Installation eines H2-Systems noch 2–3 Jahre zu warten. In dieser Zeit werden z.B. die Normen für H2-Installationen fertiggestellt. Wenn ein H2-System installiert wird, sollte man zuerst nur einen Brenner auf H2 umstellen. So fallen die Anfangsinvestitionen deutlich niedriger aus und die Reduktion der CO2-Emissionen ist dennoch beträchtlich (bis zu 50%!). Gleichzeitig kann Erfahrung mit H2 im Unternehmen gesammelt werden.
Stetig steigende Energiepreise sowie die zunehmende Bedeutung erneuerbarer Energien fördern den Fokus der Unternehmen einen Beitrag zur Energiewende zu leisten. Inhalt der vorliegenden Arbeit stellt dementsprechend die Entwicklung eines Konzeptes zur Nutzung von Photovoltaik zugunsten der elektrolytischen Metallabscheidungsprozesse innerhalb der Leiterplattenfertigung der Fa. KSG GmbH dar.
Zielkriterien sind dabei die Aufstellung der bisherigen Jahresverbrauchswerte für den betrachteten Maschinenpark sowie die Bewertung des potentiellen Einsparpotentials. Aufgrund unzureichender Statik der Produktionsgebäude sowie Platzmangel auch in näherer Umgebung sind die baulichen Voraussetzungen nicht optimal ausgelegt. Eine der größten Herausforderungen stellte demnach die Photovoltaik-Dimensionierung dar, um einen größtmöglichen Eigenverbrauch und somit maximale Wirtschaftlichkeit zu erzielen.
Der von der Photovoltaik-Anlage generierte Gleichstrom wird in gleicher Form innerhalb der Anlage benötigt. Entsprechend muss berücksichtigt werden, dass die direkte Einspeisung von Photovoltaik-Strom in den Prozess der galvanischen Metallabscheidung auch den Wegfall von Gleich- und Wechselrichtern und somit eine zusätzliche Stromeinsparung bedeutet.
Das Konzept wurde an Hand monetärer Aspekte, Wirtschaftlichkeit und Machbarkeit bewertet.
Um in der Strahlentherapie einen qualitativ hochwertigen Behandlungsablauf zu gewährleisten, ist eine außerordentlich genaue Qualitätssicherung notwendig. Aufgrund der steigenden Komplexität der modernen Medizintechnik entschied sich das Deutsche Institut für Normung e.V. im Dezember 2021, die DIN 6864-1:2021-12 "Konstanzprüfung der strahlentherapeutischen Kette - Teil 1: Teletherapie" zu veröffentlichen.
Ziel der vorliegenden Arbeit ist die Durchführung und Auswertung dieses End-to-End-Tests sowie die Erstellung eines Arbeitsablaufes und eines Messprotokolls auf Grundlage der DIN 6864-1. Die Prüfung wird mit einem neu angeschafften Messphantom der Firma PTW Freiburg durchgeführt. Abschließend soll die Eignung dieses Phantoms diskutiert werden.
Die Ergebnisse zeigen, dass alle Linearbeschleuniger die Konstanzprüfung bestanden haben. Dennoch weisen die beiden alten Geräte des Typs Siemens ARTISTE trotz der stabilen Planung größere Abweichungen der gemessenen Dosis zur geplanten Dosis als die neueren Geräte des Typs Varian TrueBeam auf. Die hauptsächliche Ursache liegt dabei in der ungenaueren Tischkorrektur nach der Bildgebung. Weitere Ursachen liegen im Alter der Geräte und dem damit verbundenen Verschleiß der Komponenten. Die Prüfung der Hounsfield-Einheiten und der Phantomgeometrie zeigt auf, dass es nur sehr geringe Unterschiede in der Konstanz der Hounsfield-Einheiten und keine Abweichung in der Phantomgeometrie gibt. Das verwendete Messphantom eignet sich nur bedingt für den normalen End-to-End-Test. Die Stärken des Phantoms liegen eher in der stereotaktischen Bestrahlung. Eine Ursache ist die zu zeit- und arbeitsaufwändige Konturierung im Messphantom. Zukünftige Prüfungen werden mit einem anderen Messphantom des gleichen Herstellers fortgeführt.
In Bezug auf den bevorstehenden Beschleunigerwechsel ist eine erneute Prüfung aller Geräte, eine Neuevaluierung der Testergebnisse sowie eine Neuverfassung der Arbeitsanweisung zu empfehlen.
In dieser Bachelorarbeit werden Anforderungen an ein Workflow-Management-System zur Unterstützung des IT-Produktentstehungsprozesses (IT-PEP) in der Volkswagen Sachsen GmbH erarbeitet. Hintergrund ist die schlechte Nachvollziehbarkeit des IT-PEP und eine daraus resultierende Suche nach Optimierungsmöglichkeiten.
Zunächst werden theoretische Grundlagen dargelegt und der IT-PEP vollständig modelliert, um einen Überblick über die Akteure, Dokumente und Systeme im Prozess zu erhalten. Aus dieser Prozessdokumentation und aus der Diskussion mit Projektleitern der Volkswagen Sachsen GmbH werden dann Prozessschwachstellen identifiziert und kategorisiert.
Mithilfe der Informationen aus der Prozessanalyse und internen Dokumenten werden dann Anforderungen an ein Workflow-Management-System zur Unterstützung des IT-PEP formuliert. Dabei werden sowohl Pflicht- als auch Leistungsanforderungen erfasst.
Mit den erstellten Anforderungen werden dann drei Workflow-Management-Systeme auf ihre Eignung für den IT-PEP untersucht und anschließend bewertet.
Einleitung
Die Digitalisierung des Gesundheitssektors in Europa wie auch in Afrika ist nicht mehr nur ein Trend, sondern ein Bedürfnis, ein Bedürfnis, das im Bereich der ambulanten Pflege in Togo besonders akzentuiert ist. Die chirurgische Klinik im Kreis Lomé, der Hauptstadt Togos, ist eine Einrichtung, die sich mit diesem Thema beschäftigt und die versucht, die Verwaltung ihrer Patienten auf digitalem Wege zu optimieren. Die Digitalisierung von Terminen stellt hierbei eine gewisse Herausforderung dar. Das Ziel dieser Arbeit ist es, eine digitale Lösung zu entwickeln und zu implementieren, die für die Verwaltung von Patienten, vor allem von Terminen, in der Klinik geeignet ist.
Methodik:
Zunächst wurden die Anforderungen an die digitale Lösung in Zusammenarbeit mit dem medizinischen Personal des CCL auf der Grundlage der Ist-Zustandsanalyse und der Muss-Soll-Nicht-Methode ermittelt. Dann wurden die Anforderungsszenarien entsprechend dem Feedback der Experten modelliert, mit denen die Benutzeroberfläche gestaltet wurde. Das Ergebnis war ein Prototyp, der auf bestimmten vordefinierten Farben und Formaten in Microsoft Excel beruht. Für die Datenmodellierung wurden sowohl Klassendiagramme und ER-Modelle verwendet, die Attribute und Funktionen sowie Beziehungen der verschiedenen Entitäten bzw. Klassen darstellen. Darauf aufbauend wurde die Datenbankimplementierung
durch Excel mit Access-Anbindung erstellt und der Codierungsteil mit Visual Basic durchgeführt.
Ergebnisse:
Die Entwicklung und Implementierung einer digitalen Lösung zur Unterstützung des Patientenmanagementsystems in der chirurgischen Klinik wurde durch die Erstellung einer VBA-Excel-Offline-Software erfolgreich abgeschlossen. Die Lösung wurde schrittweise implementiert, wobei die Bedürfnisse der Benutzer berücksichtigt wurden. Die implementierte Software wird für die Verwaltung von Patienten- und Termindaten verwendet. Diese kann den Prozess der Patientenverwaltung durch die Automatisierung von Aufgaben wie Patientenregistrierung, Terminplanung und Dateneingabe rationalisieren. Die Software wurde bereits getestet und wird vor der offiziellen Inbetriebnahme weiter geprüft und gegebenenfalls angepasst.
Schlussfolgerung:
Das Projekt umfasste eine ausführliche Anforderungsanalyse, GUI-Design, Datenbank-Modellierung und VBA-Makros. Das Ergebnis ist eine Offline-Software für die Sekretariatsmitarbeiter der Klinik, die sie einstimmig zufriedenstellt. Die Implementierung erfolgte mit Microsoft-Produkten, was für die Erweiterbarkeit von Vorteil ist, aber es sollte über andere Lösungen nachgedacht werden, einschließlich einer angemessenen online Lösung für mehr Sicherheit und Zuverlässigkeit.
In der vorliegenden Arbeit wurde für die konkrete Umsetzung einer Photovoltaik Freiflächenanlage ein Quarzsandtagebau anhand der Oberösterreichischen Photovoltaik Strategie 2022 analysiert. Die Oberösterreichische Landesregierung hat in diesem Strategiepapier die Kriterien für eine erfolgreiche Umwidmung von landwirtschaftlichen Nutzflächen in die Nutzung für Freiflächenanlagen festgehalten. Rechtlich befindet sich diese Fläche noch in einem Bergbaugebiet, was die positive Umwidmung vereinfachen sollte.
Nach Abschluss des Bergbaus mittels eines Abschlussbetriebsplanes wird das Abbaugebiet nach der Rekultivierung wieder zu einer landwirtschaftlichen Fläche. Dabei spielt die Bodenfruchtbarkeit die entscheidende Rolle. Im Zuge dieser Diplomarbeit wurde aber festgestellt, dass es sich bei der betroffenen Fläche um ein geringwertiges Ackerland handelt, das somit für den Ackerbau nicht geeignet ist. Das härteste Kriterium für die Umwidmung wurde somit entkräftet. Diese Fläche steht somit nicht in Konkurrenz mit der Lebensmittelproduktion. Die Lage durch die Angrenzung an ein Wirtschaftsgebiet mit einem größeren Industriebetrieb, welcher im Drei-Schicht-Betrieb produziert, macht diesen Standortauch energiewirtschaftlich sehr interessant. Zudem ist ebenso die gesamte Infrastruktur am
Standort vorhanden. Wenn es die oberösterreichische Politik mit der Energiewende bis zum Jahr 2030 ernst meint, dann gibt es keine Zweifel daran, dass dieser Standort für die Errichtung einer Photovoltaikanlage beinahe perfekt geeignet ist. Erste Gespräche mit dem Bürgermeister und der Gemeinde hat es bereits gegeben. Die Gemeinde als erste Baubehörde steht diesem Projekt äußerst positiv gegenüber.
Ökologisch gesehen kann diese Fläche ebenfalls einen Nutzen für die Natur bringen, aktuell wirkt die Landschaft sehr ausgeräumt und ohne Struktur. Dem kann mit ökologischen Begleitmaßnahmen entgegengewirkt werden.
Nach Abschluss der Ausarbeitung dieser Machbarkeitsstudie wird dem Betreiber des Bergbaugebietes von der Grundeigentümerin der Auftrag erteilt, dieses Bergbaugebiet in einem Abschlussbetriebsplan zu schließen. Als Nachnutzung soll diese Fläche direkt in die Sonderwidmung „Photovoltaik-Freilandfläche“ überführt werden. Dieser gesamte Umwidmungsprozess wird etwa ein Jahr in Anspruch nehmen. Wird die behördliche Widmung erteilt, muss beim Netzbetreiber für die Netzkapazität angesucht werden, und die weitere Detailplanung kann begonnen werden. Die Inbetriebnahme der Anlage könnte somit Anfang 2025 gelingen.
Smart City Builder
(2023)
Das europäische Stromnetz muss sich immer größeren Herausforderungen stellen. Um diese meistern zu können bedarf es an Forschung und Innovation. Damit interessierte Bürger die Grenzen des konventionellen Stromnetzes verstehen und Möglichkeiten eines Smart Grid aufgezeigt bekommen, wird eine Demonstratoranwendung benötigt.
Mithilfe von Unity wurde die erste Version des Smart City Builder erstellt und somit der Grundstein gelegt. Der Demonstrator ist jetzt schon in der Lage virtuelle Stromnetze zu bilden und an diesen Berechnungen durchzuführen. Die Anwendung gestattet beliebige Stromnetze zu konfigurieren.
Diese Bachelorarbeit präsentiert hergeleitete Optimierungsmaßnahmen zur Verbesserung der Derotationsbandage, speziell für die beidseitige Anwendung bei Kindern. Hintergrund dessen sind die bei Kindern mehrfach aufgetretenen Probleme beim Handling der Bandage. Die Optimierung basiert dabei auf den Ergebnissen einer Umfrage, welche mit mehreren Orthopädietechnikern der Firma Kajamed durchgeführt wurde sowie dem Vergleich vorliegender Bandagen von verschiedenen Herstellern.
Anhand dieser Erkenntnisse ist es anschließend möglich, eine Reihe von Prototypen zu entwickeln. Die Ergebnisse zeigen, dass die vorgeschlagenen Optimierungsmaßnahmen den Alltag der betroffenen Kinder erheblich erleichtern können und die Selbstständigkeit gewährleistet bleibt, jedoch ebenso das Therapieziel nicht verfehlt wird. Folglich müssen die Bandagen besser auf das soziale Umfeld der Patienten abgestimmt werden um die Einschränkungen so gering wie möglich zu gestalten.
Die Erkenntnisse dieser Bachelorarbeit dienen somit als gute Grundlage für zukünftige Optimierungen solch einer Derotationsbandage für Kinder.
Beim Social Engineering wird versucht, Menschen zu manipulieren, um Zugang zu vertraulichen Informationen oder geschützten Systemen zu erlangen. Die Motivation für diese Bachelorarbeit liegt in der Tatsache, dass Social-Engineering-Angriffe sowohl für Organisationen als auch für Einzelpersonen schwerwiegende Konsequenzen haben können. Die Auswirkungen reichen von finanziellen Verlusten über Datenlecks bis hin zur Beschädigung des Ansehens und der Reputation einer Organisation oder einer Privatperson. Daher ist es von großer Bedeutung, dass Organisationen und Privatpersonen sich der Bedrohung durch Social Engineering bewusst sind. Die Bachelorarbeit soll einen Beitrag dazu leisten, indem sie verschiedene Methoden und Techniken, die bei Social-Engineering-Angriffen eingesetzt werden, beschreibt und Gegenmaßnahmen vorstellt, die Organisationen und Privatpersonen ergreifen können, um sich besser schützen zu können.
Aufgrund der steigenden Komplexität bei der therapeutischen Anwendung von ionisierender Strahlung erhöht sich zunehmend die Auftretenswahrscheinlichkeit von personen- oder gerätebedingten Fehlern sowie von Unfällen. Daher ist es notwendig, potenzielle Risikokonstellationen zu erkennen und anschließend proaktiv zu reduzieren. Dazu wird das Verfahren der Risikoanalyse angewandt.
Das Ziel in der vorliegenden Arbeit ist die Durchführung einer Risikoanalyse am Beispiel der interstitiellen, radiochirurgischen Brachytherapie einer Leberläsion im Heinrich-Braun-Klinikum am Standort Zwickau. Dabei wurde sich an den „Empfehlungen von BfS, DEGRO, DGMP und DGN zur Risikoanalyse“ orientiert und die Analysemethode FMEA angewandt. Die Risiken wurden mithilfe des Klinikpersonals identifiziert und bewertet. Im Betriebsablauf konnten mehrere Risiken entdeckt werden, welche aufgrund ihrer Bewertung zu minimieren sind.
Das bestätigt, dass die Behandlungsmethode der interstitiellen, radiochirurgischen Brachytherapie risikobehaftet ist, weshalb zur Verbesserung der Patientensicherheit risikominimierende Maßnahmen vorgeschlagen wurden.
Diese Studie befasst sich mit der Konzeption und Implementierung einer neuen Anwendung zum Schutz vor Angriffen bei der Anmeldung von Neukunden in einem Online-Brokerage-Plattformsystem in Europa. Die Integration sollte einfach sein, so dass das System wie bisher funktioniert, aber zusammen mit der neuen Struktur. Ziel ist es, die Kosten des Unternehmens und zu senken. Um dieses Problem zu lösen, hat der Autor ein Betrugserkennungssystem entwickelt und Tests durchgeführt. Das Erkennungsmuster hat sich als wirksam erwiesen, um betrügerisches Verhalten aufzudecken. Das Papier enthält eine schrittweise Beschreibung der Umsetzung.
Durch die stetig gestiegen Energiepreise wird heutzutage, bei der Abwasserreinigung, die Verwendung von Reinsauerstoff für die Belüftung in der zweiten Reinigungsstufe, wieder vermehrt betrachtet. Denn es lassen sich bis zu 40 % Energie im Gegensatz zur konventionellen Belüftung mit Druckluft einsparen. Wenn Reinsauerstoff heutzutage bereitgestellt wird, kommt diese entweder aus der zentralen Luftzerlegungsanlage oder wird dezentral mittels Druckwechseladsorption bereitgestellt. Eine weitere Methode der dezentralen Versorgung, in die viel Hoffnung gelegt wird, ist die Reinsauerstofferzeugung aus der Wasserstoffelektrolyse.
Alle drei Verfahren haben aus energetischer und ökonomischer Sicht, ihre Vor- und Nachteile, welche ausführlich beschrieben werden.
Es wird allerdings nicht ausreichend, bei der Energieeinsparung nur auf die Reinsauerstoffversorgung zu setzen. Nur mit einer ganzheitlichen Optimierung aller Bereiche, die Einflüsse auf Sauerstoffversorgung haben, wird sich die Umstellung auszahlen.
Um dies darzustellen, wurde für die Arbeit ein Entscheidungstool entwickelt, welche diese energetischen und ökonomischen Einflüsse darstellt.
Das Afterloading ist eine spezielle Art der Strahlentherapie und wird hauptsächlich bei der Behandlung von Prostata-, Leber- und gynäkologischen Krebs angewendet. Die
Behandlung wird in einem, an das Afterloading angepassten, Raum durchgeführt.
Die Firma mtp wird mit der medizintechnischen Planung eines Behandlungsraumes für das
Afterloading beauftragt.
Die medizintechnische Planung des Raumes erfordert ein umfangreiches Vorwissen über
das Afterloading. Das beinhaltet unter anderen die Arbeitsabläufe rund um die Behandlung und das Einhalten der für die Strahlentherapie geforderten Richtlinien.
In der Planung ist eine enge Zusammenarbeit mit den Nutzern, Architekten, Haustechnikern und Elektrotechnikern erforderlich.
In dieser Arbeit ist die frühe medizintechnische Planung des Behandlungsraumes
beschrieben. Ein angefügter Fragenkatalog mit Hinweisen dient als Unterstützung und
Vorlage für zukünftige Planungen im Bereich Afterloading.
Ziel der Arbeit war es, das Ätzverhalten des reaktiven Ionenstrahlätzens anhand von Siliziumdioxid, Silizium und dem Photoresist AZ1505 zu untersuchen. Für die Ätzraten der drei Materialien sowie für die Selektivitäten Siliziumdioxid/AZ1505 und Silizium/AZ1505 sollten Modelle erstellt und mit dem bekannten Prozesswissen validiert werden. Um dies zu erreichen, wurde die Methode des Design of Experiment genutzt, welche versucht, mit einer optimalen Anzahl an Versuchen auszukommen. Zu Beginn wurden Waferschnipsel der drei Materialien erzeugt. Die Siliziumdioxid- und Silizium-Proben besaßen ein binäres Resistgitter mit einer Periode von 3 μm, während die Photoresist-Proben unstrukturiert blieben. Die Proben wurden auf Facettenhalter geklebt und geätzt. Nach den Ätzungen wurden die Ätzabträge mit dem AFM (strukturierte Proben) und der Dünnschichtreflektometrie (flächiger Photoresist) ermittelt. Aus Vorversuchen wurde der grundlegende Versuchsaufbau bestimmt.
Im Screening wurden die drei Faktoren Beamspannung, Ätzgasmischung (bestehend aus CHF3 und O2) und Ioneneinfallswinkel untersucht. Die Faktoren wurden bei ihren zwei extremen Einstellungen getestet, wobei die wichtigsten Faktoren herausgefiltert wurden. In dem anschließenden Response Surface Methodology-Design wurden die wichtigsten Faktoren auf mehreren Stufen untersucht und anhand der Daten die Modelle erstellt. Für jede Zielgröße wurde ein Modell fünfter und vierter Ordnung sowie ein kubisches Modell erzeugt. Es folgten Kontrollversuche zur Überprüfung der Vorhersagequalitäten. Danach wurden die einzelnen Modelle untereinander verglichen und mit dem bekannten Prozesswissen überprüft.
Schlussendlich wurde für jede Zielgröße das Modell gewählt, welches die besten statistischen Eigenschaften, die höchsten Vorhersagequalitäten und den sinnvollsten Verlauf besaß. Im Endeffekt konnte für jede Zielgröße ein Modell erstellt werden.
In den letzten Jahren ist die Rechenleistung von Computern und zugleich die Auflösung der zum anzeigen von Hologrammen benötigten Spatial Light Modulaturen stark angestiegen. Dadurch erfährt das Themengebiet der synthetisch erzeugten Hologramme einen enormen Aufschwung. Es soll daher eine Plattform aufgebaut werden, mit welcher synthetische Hologramme erzeugt und evaluiert werden können. Zudem sollen die Inhalte als Grundlage für einen Versuch zum Einstieg in dieses Themengebiet dienen.
Es wurde mittels eines Transmissions Spatial Light Modulatrs ein inline Versuchsaufbau zum anzeigen von Phasenhologrammen realisiert. Als Methoden zum generieren der Phasenhologramme wurden die Fourier Optik und der Gerchberg-Saxton Algorithmus gewählt. Aus didaktischen Gründen wurde der Versuchsteil in mehrere Teilgebiete unterteilt um ein Gefühl für die verschiedenen Aspekte der digitalen Holografie zu vermitteln. Die so erzeugten rekonstruierten Bilder wurden hinsichtlich ihrer Qualität mittels SSIM bewertet und Effekte welche auftreten erläutert. Zudem wurde der gesamte Pythoncode so angelegt, dass dieser parallel zu dieser Arbeit als eine Versuchsanleitung dienen kann.
Die vorliegende Arbeit beschäftigt sich mit dem Aufbau und der Charakterisierung einer fasergekoppelten Laser-Weißlichtquelle für die Endoskopie. Ziel war es, eine effektive Beleuchtung des Gewebes zu ermöglichen, um eine genaue Diagnose und eine effektive Therapie durchführen zu können. Um das Ziel zu erreichen, wurde die LaserLight SMD als Lichtquelle gewählt, da sie eine hohe Lichtleitung sowie eine hohe Leuchtdichte aufweist.
Im Rahmen der Arbeit wurde zunächst versucht, die Lichtstrahlen zu kollimieren, um das Strahlparameterprodukt (SSP) und die Beugungsmaßzahl M2 zu bestimmen, die für eine optimale Faserkopplung notwendig sind. Allerdings erwies sich dieses Vorgehen als nicht ausreichend. Daher wurde ein zusätzlicher Versuch durchgeführt, bei dem die Laserstrahlen fokussiert wurden. Durch Fokussierung konnte die Beugungsmaßzahl für die geplante Anwendung verbessert werden, was zu einer höheren Bildqualität oder Tiefenschärfe führen kann. Die Messungen zeigen, dass der Laserstrahl optimal fokussiert wurde und eine konsistente Qualität aufweist. Die berechnete Beugungsmaßzahl des Laserlichts ist hoch, was in Endoskopie-Anwendungen jedoch von Vorteil sein kann, da eine gleichmäßige flächige Ausleuchtung gewährleistet werden kann.
Anschließend wurden die Lichtstrahlen in eine Faser eingekoppelt, was zu einer effektiven und optimalen eingekoppelten Lichtstrahlung führte. Die Ergebnisse zeigen jedoch, dass die Transmission der Faser bei einigen Wellenlängen niedriger war als theoretisch erwartet. Es ist daher empfohlen, weitere Untersuchungen durchzuführen, um die Verluste in der Faser genauer zu bestimmen und zu optimieren.
Des weiteren wurde die spektrale Verteilung der Lichtquelle vor und nach der Faserkopplung untersucht, wobei festgestellt wurde, dass die spektrale Leistungsdichte nach der Faserkopplung im Vergleich zur Messung vor der Kopplung deutlich reduziert ist. Dies kann auf Verluste im Fasersystem zurückzuführen sein, die mehrere Peaks in der spektralen Verteilung nach der Faserkopplung verursacht haben.
Insgesamt hat diese Arbeit gezeigt, dass eine fasergekoppelte Laser-Weißlichtquelle für die Endoskopie mit der LaserLight SMD als Lichtquelle eine vielversprechende Option darstellt. Durch die optimale Faserkopplung und Fokussierung des Laserstrahls konnten eine höhere Bildqualität oder Tiefenschärfe und eine effektive Beleuchtung des Gewebes erreicht werden. Es ist jedoch notwendig, weitere Untersuchungen durchzuführen, um die Verluste in der Faser zu minimieren und die spektrale Verteilung zu optimieren.
Portierung und Aktualisierung einer Smartphone-App zum Verschlüsseln von Dateien in Online-Speichern
(2023)
Digitronic Computersysteme GmbH ist Hersteller von HiCrypt(TM), einer Verschlüsselungslösung für Daten auf Netzlaufwerken in Windows-Umgebungen. Seit dem Marktstart im Jahr 2005 wurde HiCrypt(TM) technologisch weiterentwickelt und bot den Anwendern immer mehr Möglichkeiten, Daten auch außerhalb eines lokalen Netzwerks zu verschlüsseln. Im Jahr 2012 wurde die neueste Generation von HiCrypt(TM) veröffentlicht. Wenig später entstand eine Mobile-App mit gleichem Namen, mit der mittels Smartphones auf mit HiCrypt(TM) verschlüsselte Dateien zugegriffen werden konnte.
Die Entwicklung der HiCrypt(TM)-App erfolgte mittels einer frühen Version von Xamarin, einer Open-Source-Plattform von Microsoft für das Erstellen von Anwendungen für iOS, Android und Windows. Eine kontinuierliche Weiterentwicklung der App fand jedoch nicht statt. Derzeit ist eine Kompatibilität der App zur aktuellen HiCrypt(TM)-Version nicht gegeben. Zudem ist die App inkompatibel mit aktuellen iOS- und Android-Versionen.
Im Rahmen dieser Bachelor-Arbeit wurde ein Prototyp einer neuen HiCrypt(TM)-App für Android und iOS entwickelt, der die gleiche Funktionalität wie die bisherige App aufweist. Die Anforderungen an die neue App wurden dazu zunächst als Lastenheft und Use-Case-Diagramm festgehalten. Anhand dieser Kriterien wurde im weiteren Verlauf die vorhandene App-Lösung analysiert. Aus der Anforderungsanalyse ging zuletzt ein Design hervor, an das sich bei der späteren Umsetzung orientiert wurde.
Danach wurde, im Rahmen der Implementierung der Anforderungen, ein Pflichtenheft aus dem Lastenheft erstellt. Bei der darauffolgenden Umsetzung wurde auf die verwendeten Technologien und die Gründe für die jeweilige Verwendung eingegangen. Das entstandene Ergebnis wurde bewertend eingeordnet.
Das Ziel der vorliegenden Bachelorarbeit ist die prototypische Entwicklung eines Dashboards, unter Betrachtung definierter UX-Faktoren [Win17] für ein bestehendes Planungstool.
Dafür wird ein Prototyp angefertigt, um den Vorstellungen des Kunden möglichst gerecht zu werden. Es werden bestmögliche Gestaltungsoptionen zur Datendarstellung recherchiert und verwendet. Um die Datendarstellung zu optimieren, erfolgt ein erster Prototyp als Skizze. Anschließend begutachtet das Team den Prototyp. Sie geben Anpassungen und Veränderungen ab.
Diese werden im Prototyp implementiert. Mit Hilfe Adobe XD wird ein zweiter digitaler Prototyp angefertigt. Der angefertigte Prototyp wird in die bestehende Anwendung eingebunden. Danach wird das Dashboard mit der bestehenden Anwendung verglichen. Hierzu werden 13 UX-Faktoren benutzt.
Die Werte aus der Befragung werden ausgewertet und miteinander verglichen. Aus diesem Vergleich werden die notwendigen Schlüsse gezogen.
In this project we develop an intelligent water meter based on software solutions offered by the IOTA Foundation. The water meter allows the customer to map water usage in real-time and pay water on demand, as well as the water provider to map water usage on a greater scale, regulate water supply during low- demand phases and offers regulatory functions to prepare for drought or humid climate, and to incentivise sustainable water usage in high-demand fields like agriculture. This functionality is phrased into a research issue:
Invention of a working prototype to demonstrate the IOTA Streams and Wallet protocols for a meter with additional focus on economic efficiency and the technical preparation of scalability.
Utilizing the IOTA streams protocol, a next generation secure data connection is established between the water meter and a server-sided software application. On this connection, water consumption is mapped into a data bench, and informative data and commands are issued to the graphical interface of the meter.
The IOTA wallet library is leveraged to provide customer accounts corresponding to their meter. IOTA tokens can be send to the account, which grants access to water in a matter of seconds. Depending on the regulatory scenario, water flow can be stopped as soon as the account is exhausted (i.e. public well), or an overdraw can be established in order to guarantee fulfilment of basic human rights (i.e. private households).
Since pricing data can be calculated server-sided and water consumption is mapped in very narrow intervals of as low as 4 seconds, the price can be used as tool to regulate consumption.
The physical components include an electrical ball valve to shut down water flow automatically, a command line interface to provide informative data,, a Raspberry Pi running the client-sided software application, and a water meter with MBus-Interface, as well as a Controlling Board to connect the Raspberry Pi with both peripheral devices.
The finished prototype shows, that water consumption can be mapped on a highly secure level, in near real-time, from afar, flexible for most applications.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung einer geeigneten Schnittstelle, welche die Kommunikationsmöglichkeiten zwischen der firmeneigenen Software OnyxCeph3TM und verschiedenen, von anderen Firmen entwickelten dentalen Webportalen erweitert. Dazu wird eine prototypische Software konzipiert und umgesetzt, welche den Frontends der verschiedenen Webportale ein Interface zur Nutzung von verschiedenen Funktionen bereitstellt. Zum Testen der Schnittstelle wird eine einfache Dummywebsite aufgesetzt.
Die in dieser Arbeit beschriebene Anwendung ist ein interaktives System, das verschiedene Formen der Zusammenarbeit ermöglicht. Es wird ein allgemeiner Überblick über das System gegeben, in dem die verschiedenen Module, die in Hauptkomponenten gruppiert sind, und die Art und Weise, wie diese Systemkomponenten miteinander interagieren, dargestellt werden.
Dieses Dokument zielt darauf ab, einen klaren Überblick und eine detaillierte Beschreibung der verschiedenen Technologien zu geben, die eine E-Commerce-Anwendung bilden. Dieses Projekt wird mit verschiedenen Technologien entwickelt, die in der Anwendung zusammenarbeiten. Zu den Technologien gehören Keycloak, Microservices, Spring Cloud, Apache Kafka, Docker und reaktive Programmierparadigmen zum Schreiben des Codes in der Entwicklungsphase.
Die Integration dieser Technologien ist hilfreich, da jede Technologie unabhängig voneinander verwendet werden kann. Außerdem können sie zusammengeführt werden, um ein sichereres und effizienteres System zu entwickeln. In diesem Projekt sind diese Technologien jedoch für unterschiedliche Zwecke gruppiert, wie Keycloak für die Sicherheit, Kafka für die Kommunikation zwischen Microservices, Docker für die Bereitstellung und Mongo DB für die Erstellung von Datenbanken. Jede Technologie hat ihre eigene Verantwortung, aber es ist bemerkenswert, dass alle diese Technologien innerhalb einer Anwendung funktionieren. Es ist bemerkenswert, dass während der Entwicklungsphase alle Versionen dieser Technologien auf dem neuesten Stand waren. Dennoch ist es möglich, dass es nach der Entwicklung und Fertigstellung neue Versionen geben wird.
Der Ergebnisteil dieser Arbeit vergleicht verschiedene Versionen von Technologien. Es gibt auch einen Vorschlag für ein alternatives Tool zu Kafka, das einige Probleme von Kafka lösen kann. Insgesamt enthält diese Arbeit alle Informationen über die einzelnen Tools und Technologien, die zur Entwicklung einer E-Commerce-Anwendung verwendet werden.
Objective: Sagittal balance (SB) plays important role in the successful treatment of spinal disorders. Segmental lordosis is an important SB parameter in spinal surgery and diagnosis, which can help to ensure proper surgical planning and better postoperative outcomes. The manual measurement of segmental lordosis is associated with problems such as time-consuming procedures, high error rates, and poor reproducibility.
The bachelor thesis proposes a solution by exploring and evaluating a more efficient and reliable AI-based method for determining segmental lordosis in preoperative patients, which is compared to measurements made by experienced physicians.
Methods: hidden due to a non-disclosure agreement.
Results: hidden due to a non-disclosure agreement.
Conclusions: hidden due to a non-disclosure agreement.
Ziel dieser Bachelorarbeit ist es, die Machbarkeit des Nanotransferdrucks von Gold und ITO auf thermoplastische Folien zu demonstrieren. Der Schwerpunkt liegt dabei auf der Beobachtung der Variation von 3 Versuchsparametern: Imprint-Druck, Imprint-Zeit und Imprint-Temperatur.
Nach Abschluss des Projekts werden aus den vielfältigen Versuchsdaten die Versuchsparametern mit den besten Nanotransferdruckergebnissen ausgewählt und das optimale Prozessfenster für die jeweilige Strukturgröße und das jeweilige Transfermaterial bestimmt.
Die Verwendung der medizinischen Trainingssysteme sind in den medizinischen Bereichen bekannt und werden in der Regel verwendet, um Medizinstudenten und Ärzten bestimmte medizinische Anwendungen, Verfahren und Behandlungsmethoden beizubringen, ohne das Leben der Patienten zu gefährden.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung eines medizinischen Trainingssystems für die Behandlung eines Priapismus im Bereich der urologischen Notfallmedizin. Während der Entwicklungsprozesse der Bestandteile des Trainingssystems wurden Experimente durchgeführt, um die entwickelten Bestandteile zu testen und die Nachteile zu verbessern. Anschließend wurde das Trainingssystem im Urology Bootcamp in England getestet und es wurde ein mündliches Feedback gegeben. Die Bewertungen waren positiv. Es wurde als effektiv bewertet und im Anschluss wurden für zwei Kriterien Lösungen gefunden.
Haltungsanalysen spielen in vielen Bereichen eine Rolle. Die vielfache Nutzung von digitalen Medien in allen Altersgruppen, als auch die Zunahme von Tätigkeiten am Schreibtisch in schlechter Sitzhaltung führen zu einer Zunahme von Rückenbeschwerden. Weitere Einflussfaktoren sind der damit häufig verbundene Bewegungsmangel und die steigende Anzahl von adipösen Menschen. Um langfristige Schäden am Achsenskelett zu vermeiden ist es notwendig Fehlstellungen frühzeitig zu erkennen und zu behandeln. Durch die hohe Anzahl an Patienten ist es notwendig einfache, schnelle und kostengünstige Diagnoseverfahren und Behandlungsmethoden zu verwenden.
Ein bildgebendes Verfahren ist die Rasterstereografie. Kombiniert man diese mit einer Fußdruckmessplatte, lassen sich neben Aussagen über die Stellung des Achsenskeletts auch die Druckbelastungen unter der Fußsohle bestimmen.
Derzeit beschränkt sich dieses Verfahren auf die Aufnahme aus dorsaler Sicht. Diese Arbeit beschäftigt sich mit den Grundlagen der Erstellung von Haltungsanalysen mit einem 360 Grad Scan. Es werden Parameter und Fehlstellungen betrachtet, welche sich durch die 360 Grad Analyse erfassen lassen.
Gegenstand dieser Arbeit ist eine Methode, mit der sich relativ einfach und Substrat-schonend eine photokatalytisch reinigende Oberfläche herstellen läßt. Prinzip: Aufbringen entsprechender Eigenschaftsträger (hoch aktive TiO2 P25 -Partikel) zusammen mit einem Bindemittel (SiO2-Sol-Gel). In der resultierenden Komposit-Schicht müssen die P25-Partikel partiell freiliegen aber auch ausreichend in der Matrix stecken. Es wurden Beschichtungs-Sole mit unterschiedlichen Feststoffgehalten (w(SiO2), w(TiO2)) auf Glas- und Acrylglasscheiben angewandt (Tauchbeschichtung). Durchgeführte Untersuchungen: Methylenblau-Abbautest (photokatalytische Aktivität), Naß-Scheuertest (Abriebbeständigkeit), Profilometrie (Schichtdicke), UV/Vis-Spektroskopie (Transmissionsgrad), REM-EDX-Untersuchung (Partikelmenge und -verteilung; Ti-Gehalt). Ergebnis: geeignete Schichten auf Glas erhalten; Verbesserungspotential bei PMMA; Schichten ganz leicht milchig (auf Grund der Größe der P25-Partikel).
Gegenstand/Zielstellung:
Gegenstand der Masterthesis bilden Kommunikationsbarrieren hörgeschädigter Patienten in der stationären Krankenhausversorgung. Die potenziell davon betroffenen 220.000 Menschen in Deutschland sind zur barrierefreien Kommunikation auf einen Gebärdensprachdolmetscher angewiesen, welcher nicht immer unmittelbar verfügbar ist. Das Konzeptionieren einer App, welche Kommunikation unterstützt und dadurch hilft, Vermeidungsstrategien von Arztbesuchen abzubauen, ist das Ziel der Arbeit. Weiterhin soll diese App einem Dolmetschermangel temporär befristet entgegenwirken können. Digitalisierung bietet hier enormes Potential, sofern eine zielgruppenspezifische und anwenderfreundliche Umsetzung erfolgt.
Methodik:
Zunächst erfolgt eine Zusammenfassung der Datengrundlage (Bachelorthesis). Anschließend soll durch eine kombinierte SWOT-Analyse vorhandene technische und informationstechnischer Unterstützungsmöglichkeiten Hörgeschädigter in der stationären Patientenversorgung eruiert werden. Durch eine 9-Felder-Matrix werden Probleme und Herausforderungen dieser Patientengruppe priorisiert. Zur nutzerbezogenen Modellierung der App wird die Methodik der Persona angewandt. Nicht-funktionale Anforderungen werden durch die Muss-Soll-Kann-Methode kategorisiert. Die Modellierung von Use-Case- und Anwendungsdiagrammen erfolgt mit Microsoft VISIO, ebenso die prototypische Oberflächengestaltung. Letztere begrenzt sich auf das Erstellen von Lo-Fi-Oberflächen (Wireframes).
Ergebnisse:
Es wurden fünf Personas erstellt. Die Kombination von SWOT-Analyse und 9-Felder-Matrix führte zur Definition von Anwendungsfällen (Use-Cases) und nicht-funktionalen Anforderungen. Die Anwendungsfälle wurden durch Use-Case-Diagramme visualisiert und erweitert. Um das Verhalten des Systems zu beschreiben, wurden acht Aktivitätsdiagramme modelliert. Dieses Verhalten wurde in 156 Wireframes dargestellt und an einem Beispielszenario veranschaulicht.
Diskussion/ Schlussfolgerung:
Es konnten alle Ziele der Arbeit erreicht werden. Die genutzten Methoden erwiesen sich als zweckmäßig. Da die Modellierung allein keine Kommunikationsbarrieren in der Patientenversorgung Hörgeschädigter überwinden kann, muss die Anwendung zukünftig zum funktionierenden System entwickelt und auf den Markt eingeführt werden.
In dieser Arbeit wird das Hämodynamische Monitoring bei Patienten der Gefäßchirurgie des Heinrich-Braun-Klinikums Zwickau, mit einer pAVK der Stadien II bis IV nach Fontaine, untersucht.
Hierbei soll die verwendete Hyperspektralkamera TIVITA® Tissue, der Firma Diaspective Vision GmbH, als ergänzendes Mittel der Diagnostik weiter etabliert werden. Im Zuge dessen werden die zur Verfügung stehenden Generationen an Kameras miteinander verglichen, um eine bessere Integration in den klinischen Alltag zu ermöglichen.
Des Weiteren wird dieses Verfahren herangezogen zur weiteren Untersuchung der Wirkungsweise der Medical CAT® CO2-Trockenbadtherapie der Firma Unitronic GmbH, sowie in Kombination mit der Prostavasin-Therapie, in der Gefäßchirurgie.
Nutzererwartungen an IT-Systeme haben sich in den letzten Jahren verändert. Online-Dienste müssen ständig verfügbar sein und im Millisekunden-Bereich Anfragen bearbeiten. Traditionelle IT-Systeme haben Probleme, die Erwartungen nachhaltig zu erfüllen. Reaktive und asynchrone Systeme erfüllen mit modernen Konzepten die Erwartungen besser.
In dieser Arbeit werden die Grundlagen von Asynchronität und reaktiven Systemen dargestellt. Dazu zählen Konzepte, wie Streaming oder Actor Model. Verteilung und Skalierung von reaktiven Systemen werden betrachtet.
Im Hauptteil der Arbeit wird ein Vergleich von Werkzeugen für die Implementierung reaktiver Systeme durchgeführt. Die Werkzeuge Project Reactor, vlingo XOOM und Akka werden verglichen. Die Vergleichskriterien betrachten u. A. den Funktionsumfang, die Einstiegshürde für Entwickler und die Leistungsfähigkeit der Werkzeuge. Die Bewertung der Kriterien wird durch die Implementierung eines Prototypen mit den drei Werkzeugen unterstützt.
Aus den Bewertungen der Kriterien entstehen Rangfolgen, die durch die Ermittlung der Durchschnittsplatzierungen zu einer Gesamtbewertung der Werkzeuge führen. Aus der Gesamtbewertung und den in dieser Arbeit gewonnenen Eindrücken werden unterschiedliche Einsatzgebiete für die Werkzeuge definiert.
The book is the first of four volumes on data science and artificial intelligence. This first volume covers fundamentals of data science: an introduction to Python programming, software libraries for data management, techniques for working with big data. It contains many exercises and projects with real-world data.
In this study more than 150 kg real waste from electrical and electronic equipment (WEEE) shredder residues from different European dismantling plant were treated by laserspectroscopic flouroescence and solvent-based recycling process. Currently, the samples used are excluded from material recycling and remain as side streams in state-of-the-art plastic recycling plants. The main reason why the waste streams are not currently recycled is due to the fact that they contain flame retardants that are already banned by different EU regulations (e.g. REACH, POP) and must be removed before the recyclates produced can be used again in products on the market. Conventional recycling technologies cannot separate these hazardous flame retardants from the polymers, therefore the solvent-based recycling process was used for this study. The focus within this work was the upscaling of the CreaSolv® Process from the laboratory scale to the small technical scale to provide larger quantities of recyclates. Sensor-based sorting process and CreaSolv® Process were combined to achieve easier handling and better yields of recyclates. By means of safe solvents a significant decrease of halogen content of (up to 98%) was achieved within the applied methods. Mass balances were determined, and gas chromatography-electron capture detector (GC-ECD) as well as energy dispersive X-ray fluorescence (EDXRF) measurements provided data on the different flame retardants and halogen content of each recyclate. As a result, the recyclates produced comply with the limit values of the EU directives (e.g. POPs, REACH). Melt flow analysis and differential scanning calorimetry (DSC) were carried out on the recyclates for a quality evaluation and revealed that the recyclates have similar properties to virgin materials. Based on this work, the upscaling of the CreaSolv® Process is able to recycle WEEE containing pollutants and at the same time produce recyclates with good mechanical properties.
Die Darstellung von Volumendaten in der Medizin reicht vom einfachen Anzeigen einzelner zweidimensionaler Schnittbilder bis hin zur komplexen Analyse dreidimensionaler Datenwolken. Dabei stellen das Direct Volume Rendering und Indirect Volume Rendering zwei wesentliche Methoden der Visualisierung von dreidimensionalen Daten dar.
In der Kieferorthopädie und -chirurgie spielen Darstellungen von DVT-Daten (Digital Volume Tomography) in der Diagnostik oder bei der digitalen Behandlungs-und Operationsplanung eine zentrale Rolle. Da die Volumenvisualisierung immer mehr an Bedeutung gewinnt, entwickeln sich die Rendering-Methoden stetig weiter. Insbesondere für Implementierungsaufgaben in eigene Systeme müssen aktuelle Entwicklungs- und Forschungsarbeiten stets verfolgt und analysiert werden. Ziel dieser Arbeit ist die Darstellung und Auswertung aktueller Methoden des Direct Volume Rendering, sowie der Extraktion von Objektoberflächen mittels des Indirect Volume
Rendering. Ein weiteres Ziel ist die Erstellung eines umfangreichen Überblickes über bereits praktisch, implementierte Rendering-Methoden. Auf Grundlage der Ergebnisse können Software-Funktionen in OnyxCeph realisiert werden. Sowohl für das direkte, als auch indirekte Volumen-Rendering wurde eine theoretische Literaturrecherche und eine Übersicht der praktischen Anwendung der untersuchten Verfahren erarbeitet. Anhand der Recherche und Analyse wissenschaftlicher Arbeiten konnten Kenntnisse über theoretische Ansätze sowie aktuelle Forschungsergebnisse im Bereich der Visualisierung von Volumendaten gewonnen werden. Weiterhin wurden ausgewählte Software-Produkte genutzt, um bereits eingesetzte Rendering-Verfahren auf Funktionalität und Leistungsfähigkeit zu analysieren.
Im Bereich des Direct Volume Rendering konnten erweiterte Interpolations-, Klassifikations-, Schattierungs- und Visualisierungsmethoden des Ray Casting-Algorithmus untersucht werden. Die 1D Gauß-Transferfunktion stellte sich als
eine einfache und nützliche Alternative zu konventionellen stückweise-linearen Übertragungsfunktion heraus. Für eine detaillierte Darstellung kann der Verarbeitungsprozess durch Shading-Methoden erweitert werden. So sind in der Praxis überwiegend gradientenbasierte Shading-Modelle eingesetzt. Deep Shadow Maps stellen dabei eine nützliche Ergänzung dar. Weiterhin konnten erweiterte Rendering-Methoden untersucht werden.
Neben der Maximum Intensity Projection kann die Minimum Intensity Projection für die Darstellung von Wurzelkanälen eingesetzt werden. Die Depth-enhanced Maximum Intensity Projection und Maximum Intensity Difference Accumulation bieten zwei vereinfachte Alternativen zum Ray Casting an, um eine nahezu korrekte dreidimensionale Darstellung erstellen zu können. Die Maximum Intensity Difference Accumulation erwies sich im Rahmen dieser Arbeit als eine besonders effektive Erweiterung zu bereits vorhandenen
Rendering-Verfahren. Auf Grundlage der gewonnenen Erkenntnisse während Recherchearbeit konnte Maximum Intensity Difference Accumulation in das Software-Produkt OnyxCeph implementiert werden. Die generierten Visualisierungen ermöglichten eine verbesserte Tiefenwahrnehmung, die dem klassischen Direct Volume Rendering ähnelt. In Kombination mit Beleuchtungsmethoden können zudem Oberflächenstrukturen analysiert werden.
Im Indirect Volume Rendering spielte die Segmentierung einzelner Volumenstrukturen durch das Iso-Surface Rendering eine besondere Rolle. Zur Generierung einer Oberfläche können verschiedene Methoden, wie der klassische Marching Cube-Algorithmus, die Level-Set-Methode und Surface-Nets eingesetzt werden. Die Literaturrecherche zeigte, dass Bestrebungen unternommen wurden, um alternative Algorithmen zum konventionellen Marching Cube-Verfahren zu entwickeln. So besteht die Möglichkeit den Rechenaufwand durch einen Simplified Pattern Marching Cube- oder Marching Tetrahedra-Algorithmus zu reduzieren. Weiterhin wurden Erweiterungen zur verbesserten Darstellung betrachtet.
So kann durch den Laplace-Filter oder Mittelwertfilter eine Weichzeichnung der Oberflächennetze erzeugt werden. Für eine erhöhte Auflösung besteht die Möglichkeit, die konventionelle Catmull-Clark -Methode oder die 4-8 Subdivision anzuwenden. In diesem Projekt konnte ein umfangreicher Überblick über aktuelle Methoden der Visualisierung von Volumendaten in der Zahnmedizin erstellt werden. Dabei repräsentieren sowohl die theoretischen, wissenschaftlichen Ansätze, als auch die praktische Lösungsansätze den aktuellen Stand der Technik und Forschung. Die Erkenntnisse können die Grundlage für Implementierungen darstellen.
Das Streben nach der optimalen Patientenversorgung sowie der hohen Wirtschaftlichkeit als Krankenhaus der Maximalversorgung haben am Klinikum Chemnitz gGmbH für die Notwendigkeit eines Steuerungstools für die ressourcenbasierte Kapazitätsplanung gesorgt. In Abhängigkeit und Korrelation bestimmter und aktuell fokussierter Planungsparameter soll in diesem Zusammenhang ein erster Schritt für die Standardisierung und Automatisierung in der Bemessung der Ressourcen geplant werden.
Im Rahmen dieser Masterarbeit konnte ein Steuerungstool aufgestellt werden, welches ein hohes Potenzial zur Weiterentwicklung aufweist.
Die analytische Elektronenmikroskopie ist eine häufig genutzte Charakterisierungsmethode für Festkörperoberflächen. Sie findet im Rahmen der Entwicklung, Modifizierung und Prüfung von Werkstoffen weitreichenden Einsatz. Daher bildet dieses Verfahren einen wesentlichen Baustein der Fachhochschulausbildung in vielen physikalisch orientierten Studiengängen.
Die vorliegende Arbeit befasst sich mit der Erstellung eines Praktikumskonzeptes für die Ausbildung von Bachelor- und Masterstudierenden an der Fakultät PTI der Westsächsischen Hochschule Zwickau. Insgesamt vier sowohl mikroskopisch als auch spektroskopisch orientierte Versuche wurden so gestaltet, dass sie didaktisch aufeinander aufbauend absolviert werden können. Dafür wurden zahlreiche Proben, unterschiedliche Detektoren sowie Kontrastvarianten auf ihre methodische und laborpraktische Eignung hin untersucht. Außerdem erfolgte eine vergleichende Betrachtung des Einflusses diverser Anregungs- und Auswerteparameter bei der energiedispersiven Röntgenspektroskopie.
Anhand von Experteninterviews, Peer-Befragungen und studentischem Feedback konnten sowohl die Gestaltung der Aufgabenstellung als auch der zeitliche Ablauf der Praktika optimiert werden. Zusätzlich fließen Berechnungen sowie komplexe Übungen als neue Komponenten in die Experimente ein. Durch eine adressatenspezifische Anpassung hinsichtlich Inhalt und Probenmaterial können die Praktika für Teilnehmer der Biomedizin- und Umwelttechnik oder perspektivisch auch anderer Studiengänge noch interessanter gestaltet werden.
Die strahlentherapeutische Behandlung mit Protonen von bestimmten Tumorentitäten, welche sich zum Beispiel in der Lunge, dem zentralen Nervensystem oder der Prostata befinden, stellt eine vielversprechende Alternative zu der konventionellen Photonentherapie dar. Zur Bestrahlungsplanung für die Bestrahlung mit Protonen werden Computertomographien (CT) verwendet.
Da es keinen direkten mathematischen Zusammenhang zwischen den Wechselwirkungen von Photonen bei der CT-Bildgebung und Protonen bei der Bestrahlung gibt, müssen heuristische Kalibrierkurven (HLUT) für jedes CT-Gerät individuell angefertigt werden. Die Motivation der Arbeit war es, das Kleintierbestrahlungsgerät Small Animal Radiation Treatment integrated beamline (SmART+ IB) für die Strahlenforschung mit Protonen vorzubereiten, das heißt die Voraussetzungsen für die Bestrahlungsplanung im Protonenstrahl zu schaffen.
Diese Masterarbeit beschäftigt sich mit der Erstellung von HLUT’s für das SmART+ IB zur zukünftigen Bestrahlungsplanung für Protonen-Kleintierbestrahlung. Im Rahmen dieser Arbeit wurden die Bildqualität und die Strahlendosen von vier Aufnahmeprotokollen des SmART+ IB’s ermittelt, bewertet und mit dem Präzisionbestrahlungsgerät für Kleintiere (SAIGRT) verglichen. Das SAIGRT wird aktuell zur Bestrahlungsplanung mit Protonen am „OncoRay - Nationales Zentrum für Strahlenforschung in der Onkologie“ verwendet. Die Ergebnisse zeigen eine gleichwertige Bildqualität und Strahlendosis der CT-Aufnahmen der beiden Geräte. Jedoch entstehen durch Strahlaufhärtungsartefakte Abweichungen von bis zu 50 HU von der tatsächlichen CT-Zahl eines zylinderförmigen Phantoms mit einem Durchmesser von 30 mm.
Zusätzlich wurden im Rahmen der Arbeit HLUT’s nach der empirischen Methode und nach der stöchiometischen Methode erstellt. Mithilfe von unbekannten Materialien konnte die Genauigkeit der erstellten HLUT’s validiert werden. Der wichtigste Teil der Bestrahlungsplanung ist die Reichweitenvorhersage und mittels dem Bildgebungsprotokoll Mouse Bone Low Dose (60 kV; 0,5 mA) und der empirischen HLUT kann bei einer Strahlendosis von 22 mGy die Reichweite auf 0,5 mm genau bestimmt werden.
Das Ziel der vorliegenden Arbeit ist es, die Langzeitstabilität der Oberflächeneigenschaften von Titandioxid-Nanoröhren-Scaffolds, vor allem bezüglich deren Wiederverwendung zur Zellkultivierung, zu analysieren und zu bewerten.
Die Oberflächeneigenschaften werden durch ein Rasterelektronenmikroskop, welches die Oberfläche der Nanoröhren abbildet, die Untersuchung der Benetzbarkeit mittels Kontaktwinkelmessungen und Berechnungen der freien Oberflächenenergie, die Ermittlung des Oberflächenpotentials durch die Zeta-Potential-Messung sowie durch die Untersuchung der chemischen Zusammensetzung mittels Fourier-Transformations-Infrarot-Spektroskopie und Röntgenphotoelektronenspektroskopie umfassend analysiert. Die daraus gewonnenen Erkenntnisse untermauern die Ergebnisse der Zelltests. Auf anodisierten Titandioxid-Nanoröhrenstrukturen mit einem durchschnittlichen Nanoröhren-Durchmesser von 77 nm zeigen gesunde, menschliche Brustepithelzellen im Vergleich zu karzinogenen, menschlichen Brustepithelzellen nach vier Tagen eine auffällig höhere Proliferation. Die karzinogenen Brustepithelzellen weisen dabei eine durchgehend hohe Zellviabilität auf. Im Gegensatz dazu variiert diese bei den gesunden Brustepithelzellen sehr stark. Die karzinogenen Zellen erweisen sich daher als sehr anpassungsfähig in Bezug auf die sich veränderten Oberflächeneigenschaften der Nanoröhren, während die gesunden Zellen deutlich von diesen beeinflusst werden.
Berliner Blau wurde mittels potentiostatischer elektrochemischer Abscheidung auf Gold und ITO synthetisiert.
Eine Untersuchung der Morphologie und der Zusammensetzung wurde in Abhängigkeit von ausgewählten thermodynamischen Eigenschaften durchgeführt. Diese wurden zusammen mit hergestellten Schichten von Natriumhexacyanoferrat und Cobalthexacyanoferrat mithilfe ausgewählter spektroskoskopischen Untersuchungsmethoden (REM, XPS, EDX, XRD, Raman) analysiert. Kubische Kristalle unterschiedlicher Gitterparameter und Zusammensetzung konnten ermittelt werden. Elektrische Messungen konnten ein resistives Schaltverhalten in den untersuchten Schichten zeigen.
Das Ziel der vorliegenden Masterarbeit ist es, ein Konzept darzustellen, welches die stationäre und ambulante Terminierung als Teilaufgabe eines Patientenportals abbildet. Dafür wird die Nutzung eines eigens angefertigten halbstandardisierten Interviewleitfadens am Klinikum Chemnitz beschrieben. Die Zielgruppe setzt sich aus Personen zusammen, die die Terminierung sowohl ambulant als auch stationär koordinieren. Die Feldbeobachtung der Radiologie stellt eine Erweiterung der Informationssammlung dar. Aufbauend auf den sechs durchgeführten Interviews und einer Feldbeobachtung wird der Prozess zur Entwicklung eines Prozessbaukastens, der sich durch flexibel zusammensetzbare Module auszeichnet, beschrieben. Durch eine beispielhafte Anwendung des Prozessbaukastens wird ein Unterschied in den Prozessen der Terminierung aufgezeigt. Die mögliche Unterstützung durch ein Patientenportal wird in Bezug auf die Prozessmodule dargestellt.