• Deutsch
Login

Open Access

  • Home
  • Search
  • Browse
  • Publish
  • FAQ
  • Faculty
  • Westsächsische Hochschule Zwickau

Physikalische Technik, Informatik

Refine

Has Fulltext

  • no (1737)
  • yes (272)

Year of publication

  • 2025 (44)
  • 2024 (97)
  • 2023 (90)
  • 2022 (85)
  • 2021 (72)
  • 2020 (22)
  • 2019 (72)
  • 2018 (83)
  • 2017 (83)
  • 2016 (77)
+ more

Document Type

  • Diploma Thesis (836)
  • Bachelor Thesis (684)
  • Master's Thesis (386)
  • Article (59)
  • Part of a Book (28)
  • Book (7)
  • Report (4)
  • Preprint (2)
  • Working Paper (2)
  • Other (1)
+ more

Institute

  • Physikalische Technik, Informatik (2009)
  • Gesundheits- und Pflegewissenschaften (3)
  • Wirtschaftswissenschaften (3)
  • Elektrotechnik (2)
  • Automobil- und Maschinenbau (1)

Language

  • German (1876)
  • English (133)

Author

  • Hartmann, Peter (23)
  • Kabardiadi-Virkovski, Alexander (15)
  • Laue, Ralf (15)
  • Wickramasinghe, Indira (12)
  • Baselt, Tobias (11)
  • Flemming, Jens (9)
  • Kläber, Leander (8)
  • Taudt, Christopher (8)
  • Schmiedel, Karsten (7)
  • Strehler, Martin (7)
+ more

Is part of the Bibliography

  • no (1906)
  • yes (103)

2009 search hits

  • 1 to 20
  • 10
  • 20
  • 50
  • 100

Sort by

  • Year
  • Year
  • Title
  • Title
  • Author
  • Author
Implementierung einer haptischen Rendering-Methode zum Einsatz von Pedikelschrauben in Wirbelkörper mit MATLAB (2025)
Shaher, Raneem
In den letzten Jahren wurden viele Simulatoren entwickelt, um die Implantation einer Pedikelschraube zu simulieren, eine sehr anspruchsvolle und riskante Operation. Computer-Simulationen für trainierende Chirurgen und Studenten benötigen Haptik-Algorithmen, welche eine genügend schnelle Aktualisierungsrate liefern können, um eine Operation mit einem realistischen Gefühl simulieren zu können. Das Ziel ist die Verkürzung der Rechenzeit des haptischen Renderings während der Simulation einer Pedikelschraubenimplantation. In dieser Bachelorarbeit wurde daher ein neuartiges, numerisches, parametrisiertes Modell des menschlichen Wirbels mithilfe von MATLAB 2023b erstellt. Das Verwenden mathematischer Formeln für die Modellierung des Wirbels mit patientenspezifischen Parametern statt Datensätzen des Patienten soll die Berechnung der Haptik wesentlich beschleunigen. Das virtuelle Werkzeug wurde als einer Punktemenge so modelliert, um auch das Bohren, Gewindeschneiden und Einschrauben zu umfassen. All diese Prozesse tauchen bei der Pedikelschraubenimplantation auf, und erzeugen jeweils eine eigene haptische Empfindung. Experimentell ermittelte Daten für die Drehmomente dienen als die Basis des Modells. Die Auswirkung der Parameterwahl des Modells auf die resultierenden Drehmomente wurde untersucht. Das geometrische, vereinfachte Modell ermöglicht hohe Aktualisierungsrate, jedoch verbleibt das Aussehen des Modells vereinfacht.
Analyse des Platform Security Models als Rahmen für IoT Anwendungen - Ein praktisches Konzept für sichere Systeme (2025)
Kühn, Marcel
Das Ziel der vorliegenden Masterarbeit war es, ein „Proof of Concept“ für eine sichere IoT-Gerätebasis zu entwickeln. Des Weiteren sollten Aussagen über die Sicherheitsanforderungen der Zertifizierung von PSA Certified getroffen werden, da diese Zertifizierung als Grundlage für die Gerätebasis definiert wurde. Dafür wurden die „PlatformSecurityArchitecture“ und das „PlatformSecurityModel“ untersucht. Mithilfe dieser Dokumente wurde eine Anforderungsanalyse erstellt, um die Spezifikation der Gerätebasis zu definieren. Anschließend wurde eine Risikoanalyse erstellt, welche die Gefahren für das Zielsystem analysiert. Aus den Gefahren wurden durchführbare Attacken abgeleitet und an einem virtuellem Testsystem durchgeführt. Dabei wurden die Sicherheitslücken des Testsystems aufgezeigt und für diese entsprechende Gegenmaßnahmen definiert. Das Ergebnis der Untersuchung zeigt, dass die definierten Sicherheitsanforderungen aus der PSA-Zertifizierung ein grundlegendes Sicherheitskonzept für Systeme bieten.
Optimierung der Rendering- und Interaktionsperformance von skalierbaren Vektorgrafiken (SVG) zur interaktiven Darstellung im Web-Browser (2025)
Kutmanov, Adilet
Diese Bachelorarbeit befasst sich mit der Optimierung der Rendering- und Interaktionsperformance bei der Visualisierung von Heizsystemen in der Webanwendung WTX-web der watttron GmbH. Die bisherige SVG-basierte Implementierung führt bei großen Systemen zu erhöhten Renderzeiten, hoher CPU-Auslastung und einer ungenauen Auswahl von Heizpixeln. Zur Lösung dieser Probleme wurde eine alternative Visualisierung auf Basis von HTML5 Canvas in Kombination mit Web Workern entwickelt. Durch den Einsatz eines Quadtrees zur effizienten Hit Detection und des Bresenham-Algorithmus zur präzisen Mausverfolgung konnte die Genauigkeit der Interaktion verbessert werden. Die Evaluation zeigt, dass die neue Lösung insbesondere bei großen Heizsystemen eine bessere Skalierbarkeit und Genauigkeit erreicht, während die CPU-Belastung bei der Interaktion auf leistungsschwächeren Geräten weiterhin Optimierungspotenzial bietet. Insgesamt verbessert die neue Implementierung die Performance und Benutzerfreundlichkeit von WTX-web deutlich.
Dynamische Anpassung der Komplexität von Übungsaufgaben zur Data Query Language an das Kompetenzniveau der Lernenden mit Hilfe von Knowledge Tracing (2025)
Schulz, Tim
Diese Arbeit untersuchte, inwieweit Deep-Learning-basierte Knowledge-Tracing-Modelle (KT-Modelle) dazu geeignet sind, das Kompetenzniveau von Lernenden im Umgang mit der Data Query Language zu erfassen und auf dieser Grundlage die Komplexität von DQL-Aufgaben dynamisch anzupassen. Ziel war es, herauszufinden, ob Interaktionsdaten, die bei der Bearbeitung von DQL-Aufgaben entstehen, als Trainingsbasis für KT-Modelle dienen können und ob diese Modelle geeignet sind, individualisierte Aufgaben mit optimalem Lerneffekt zu erzeugen. Zunächst wurde die Struktur der DQL als Teil von SQL dargestellt und ein Modell entwickelt, das die Komplexität von DQL-Aufgaben über die Häufigkeit und Art der verwendeten Syntaxelemente beschreibt. Das Kompetenzniveau eines Lernenden und die Komplexität einer DQL-Aufgabe wurden für jedes einzelne Syntaxelement separat als Teilkompetenz betrachtet. Die Zone of Proximal Development (ZPD) bildet den theoretischen Rahmen zur Bestimmung des Aufgabenbereichs, in dem ein Lerneffekt durch angemessene Herausforderung erzielt wird. Zur Evaluation wurde eine Simulation entworfen, in der Lernende einer synthetischen Lernerpopulation Aufgaben bearbeiten. Die Aufgabenkomplexität wurde zufällig innerhalb einer „geschätzten“ ZPD gewählt. Die in der Simulation entstehenden Daten wurden in einem Datensatz in einem Format des ASSISTments-Datensatzes gespeichert, um sie für existierende KT-Modelle nutzbar zu machen. Im Anschluss wurden drei Deep-Learning-KT-Modelle – Deep Knowledge Tracing (DKT), Dynamic Key-Value Memory Network (DKVMN) und Attentive Knowledge Tracing (AKT) – sowohl mit dem simulierten als auch mit dem ASSISTments-Datensatz trainiert. Die Vorhersagegenauigkeit wurde anhand der AUC (Area Under the Curve) gemessen. AKT erzielte in beiden Szenarien die höchsten AUC-Werte, während DKT und DKVMN konsistent niedrigere Werte lieferten. Alle getesteten Modelle übertrafen jedoch das Niveau zufällig ausgewählter Aufgabenkomplexitäten. Die Anwendung des trainierten DKT-Modells in der Simulation zeigt, dass die Vorhersagen von KT-Modellen über das Kompetenzniveau eines Lernenden genutzt werden können, um Aufgaben mit geeigneter Komplexität zu generieren. Diese erzeugen im Durchschnitt einen höheren Lerneffekt als zufällig gewählte Aufgaben. Die Differenz ist jedoch moderat, was auf die eingeschränkte Prognosekraft des DKT-Modells hinweist. Zudem wird deutlich, dass die Qualität der erzeugten Aufgaben wesentlich davon abhängt, wie präzise sich kontinuierlich vorhergesagte Werte für das Kompetenzniveau in konkrete Syntaxelementhäufigkeiten übertragen lassen. Insgesamt zeigt die Arbeit, dass Deep-Learning-KT-Modelle grundsätzlich geeignet sind, das Kompetenzniveau von Lernenden im Umgang mit DQL zu erfassen und Aufgaben adaptiv anzupassen. Voraussetzung für den praktischen Einsatz ist jedoch eine sorgfältige Parametrisierung der Modelle sowie eine systematische Transformation der prognostizierten Werte für das Kompetenzniveau in realisierbare Aufgabenformate.
Localization of Wi-Fi Access Points Using Channel State Information from a Mobile Embedded Device (2025)
Arabi, Mahmoud
Implementing location services in numerous applications prompted researchers to prioritize advancing their technologies and exploiting existing ones. Wi-Fi emerged as a central focus due to its ability to address the limitations of GPS, particularly in indoor settings where obstacles and walls can distort the accuracy of the results. Existing Wi-Fi network infrastructure reuse can be exploited to achieve high accuracy and low-cost positioning in indoor environments. WIFI leverages crucial technologies such as MIMO and OFDM, which quantify the state of the signal transmitted between transmitting and receiving antennas. The state is expressed as Channel State Information (CSI). This thesis addresses the design of a device to dynamically locate WIFI access points (APs) in an indoor environment based on CSI, focusing on three main topics: CSI extraction, CSI Data preprocessing, and localization algorithms. To extract CSI Data, a Wi-Fi scanner device has been developed, with an embedded Device equipped with an Intel AX210 NIC, capable of extracting CSI data in monitor mode to achieve more robust performance in the designed device. The Preprocessing phase emphasizes noise reduction, phase calibration, and feature improvement techniques to enhance the accuracy of CSI-based Localization. Several localization approaches, including MUSIC, SpotFi, and MMP, were evaluated to estimate the signal Angle of Arrival (AOA). Experimental results show that the tested algorithms are unable to deliver accurate AoA estimates, particularly in embedded devices scenarios with limitations in hardware capabilities. The research not only provides a CSI-based Wi-Fi localization framework but also adds novel insights into enhancing the reliability and applicability of localization Systems in real-world environments.
Strategische Planung der Neuausstattung von Defibrillatoren und AEDs unter Beachtung der typischen Laufwege in einem sächsischen Krankenhaus der Regelversorgung (2025)
Schiller, Sarah
Defibrillatoren und AEDs spielen besonders in der Notfallmedizin bei der Behandlung von Herzrhythmusstörungen eine wichtige Rolle. Während die manuellen Defibrillatoren von Fachpersonal genutzt wird, dienen AEDs dazu, ebenfalls von Laien angewendet zu werden. In dieser Arbeit wird die Konzeptplanung für die Neuanschaffung manueller Defibrillatoren und AEDs unter Beachtung von gerätetechnischen und wirtschaftlichen Faktoren durchgeführt. Für zukünftige Planung in verschiedenen Krankenhauskomplexen sind Hinweise und Fragestellungen zur Unterstützung angefügt. Die Analyse und die abschließenden Ergebnisse zeigen, dass eine Neuausstattung eines Krankenhauses mit Defibrillatoren einer strategischen und komplexen Planung zu Grunde liegt. Mit optimierten Prozessen können die Überlebenschancen der Patienten und die Effektivität der Notfallversorgung erhöht werden.
Machbarkeitsstudie zur firmeninternen Einführung von Ökobilanzen in einer Prüfanstalt für das Bauwesen (2025)
Lober, Simon
Diese Arbeit untersucht die Machbarkeit der Einführung von Ökobilanzen in einer Prüfanstalt für das Bauwesen mit dem Ziel, die Umweltwirkungen ausgewählter Prüfverfahren systematisch zu bewerten. Grundlage bilden anerkannte Standards wie DIN EN ISO 14040/44, ISO 14067 und das Greenhouse Gas Protocol. Im Fokus steht der CO₂-Fußabdruck (CFP) als Kennzahl für das Treibhauspotenzial. Drei exemplarische Prüfverfahren – Quellfugenbänder, RC-Gesteinskörnungen und Versickerungssysteme – wurden hinsichtlich ihrer Umweltwirkungen analysiert. Die Prozesse wurden in vier Kategorien unterteilt: Planung, Probenherstellung, Prüfung und Entsorgung. Die Datenerhebung erfolgte modellgestützt, wobei Emissionsfaktoren mit berechneten Verbrauchswerten multipliziert wurden. Die Ergebnisse zeigen, dass vor allem der Energieeinsatz sowie die Mitarbeitermobilität relevante Emissionsquellen darstellen. Als praktikable Lösung für die Bewertung kam eine Tabellenkalkulationssoftware zum Einsatz, da spezialisierte LCA-Software wie openLCA für die gegebenen Anforderungen als zu aufwendig gilt. Die Studie zeigt praxisnahe Wege zur Reduktion des CO₂-Ausstoßes auf und liefert erste Ansätze für ein systematisches Umweltmanagement in einer Prüfanstalt. Sie verdeutlicht, dass auch kleinere Unternehmen von standardisierten Ökobilanzierungen profitieren können.
Einfluss des Neutralteilchen/Ionen‐Dichteverhältnisses auf Ätzraten und Selektivitäten beim reaktiven Ionenstrahlätzen mit einer HF‐angeregten Breitstrahlionenquelle (2025)
Neubert, Lukas
Der Einfluss der Neutralgasteilchen beim reaktiven Ionenstrahlätzen wurde mit einer Prozessgasmischung bestehend aus CHF3 und O2 anhand optisch relevanter Materialien wie Silizium, Siliziumdioxid und einem Photoresist untersucht. Basierend auf den Arbeiten von Mayer, Barker et al. [1, 2, 3] wurde das Verhältnis zwischen Ionen und Neutralteilchen zu Gunsten der Neutralteilchen durch eine Erhöhung des Kammerdruckes verschoben. Die Druckvariation wurde auf zwei verschiedenen Wegen durchgeführt. Einerseits durch die Erhöhung des pV‐Gesamtdurchflusses in die Quelle (Variante 1) und andererseits durch die Reduzierung der Saugleistung der Turbomolekularpumpen durch die Schieberstellungen (Variante 2). Für beide Varianten wurden signifikante Einflüsse auf die Abtragsprofile und deren Kenngrößen, wie die Peakätzraten, Peakselektivitäten, Halbwertsbreiten und Volumenätzraten sowie die elektrischen Strahlprofile (z. B. Peakstromdichten, Halbwertsbreiten, Umladung) festgestellt. Der Neutralteilchenanteil während des Prozesses wurde durch die Druckänderungen in beiden Varianten variiert, wobei Variante 1 einen stärkeren Einfluss auf die Abtragsprofile zeigte. In einer weiteren Versuchsreihe wurde die statistische Versuchsplanung genutzt, um den Einfluss der drei Faktoren pV‐Gesamtdurchfluss, Reaktivgaszusammensetzung und Ionenstrom auf den Neutralteilchenanteil und den Ätzprozess zu untersuchen. Änderungen der Peakätzraten konnten gut durch teilweise bekannte Adsorptions‐Desorptions‐Mechanismen beschrieben werden. Gleichzeitig konnten die Literaturergebnisse um optisch relevante Materialien, eine andere Ionenstrahlquellenart, andere Prozessgase, eine Vielzahl an Kenngrößen und das Aufspannen eines ganzen Parameterraums erweitert werden. Insgesamt wurden für die wichtigsten Kenngrößen wie die Peakätzraten, Peakselektivitäten und Volumenätzraten „Response Surface Methodology“‐Modelle erstellt. Aus diesen geht hervor, dass die Substrat‐Ätzraten insbesondere durch einen hohen Neutralteilchenanteil (Kammerdruck), einen hohen Ionenstromsowie einematerialspezifische Reaktivgasmischung gesteigert werden können. Die Selektivitäten weisen dagegen bei einem mittleren Neutralteilchenanteil, niedrigen Ionenströmen sowie bei hohen CHF3‐Anteilen im Prozessgasgemisch hohe Werte auf.
Entwicklung eines Konzeptes zur Unterstützung der Kalkulationsprozesse von Dosieranlagen im wasserwirtschaftlichen Anlagenbau (2025)
Pissowotzki, Mandy
Die wirtschaftliche Kalkulation von Dosieranlagen im wasserwirtschaftlichen Anlagenbau ist mit zahlreichen Unsicherheiten behaftet. Dies gilt insbesondere für Projekte im kommunalen Umfeld, wie etwa Kläranlagen oder Wasserwerke, bei denen die Einhaltung technischer und gesetzlicher Anforderungen (z.B. zur Phosphorelimination infolge strengerer Abwasser-richtlinien) einen hohen Einfluss auf den Planungs- und Angebotsprozess haben. Ziel dieser Diplomarbeit ist es, ein methodisches Konzept zur Kalkulation von Dosieranlagen zu entwickeln, das wirtschaftliche Risiken frühzeitig erkennt und in die Preisgestaltung integriert. Zur Entwicklung des Konzeptes werden zunächst die typischen Einflussfaktoren im Kalkulationsprozess erfasst und mit Hilfe einer Risikomatrix hinsichtlich ihrer Wahrscheinlichkeit und Auswirkung auf die Angebotskalkulation bewertet. Darauf aufbauend erfolgt eine wirtschaftliche Betrachtung in Form einer ABC-Analyse zur Priorisierung kostenrelevanter Komponenten dient. Zusätzlich wird eine Sensitivitätsanalyse angewendet, um die Auswirkungen voraussichtlicher Preisänderungen in der Ausführungsphase zu quantifizieren. Die Untersuchung zeigt, dass der Hauptteil der kalkulatorischen Unsicherheit durch wenige kostenintensive Komponenten verursacht wird. Durch die Kombination der genannten Methoden, kann die Angebotskalkulation risikobezogen durchgeführt werden. Ergänzend wird dazu ein Konzept vorgestellt, welches auch projektbezogene Faktoren berücksichtigt, um sowohl die Wirtschaftlichkeit als auch die Wettbewerbsfähigkeit eines Angebotes sicherzustellen. Damit wird eine fundierte Grundlage für eine praxisnahe und risikoorientierte Kalkulationsstrategie im Anlagenbau geschaffen.
Erstellung eines automatisierten Analyseverfahrens zur Untersuchung laserspezifischer Hautgewebeschädigungen (2025)
Treiber, Florian
Die Arbeit befasst sich mit der Entwicklung eines automatisierten Analyseverfahrens zur Untersuchung laserinduzierter Hautgewebeschädigungen. Hierfür wurde ein Bildsegmentierungsmodell auf Basis der U-Net-Architektur implementiert und zur Detektion sowie Quantifizierung von Gewebeschädigungen eingesetzt. Die Datengrundlage bilden experimentell erzeugte Hautgewebeschädigungen, bei denen Leistung, Frequenz und Strahldurchmesser variiert wurden, um unterschiedliche Schädigungsgrade zu erzeugen. Neben der Analyse energierelevanter Schwellwerte lag der Schwerpunkt auf der Optimierung der Segmentierungsgenauigkeit durch den Vergleich von Mehrklassen- und Binärsegmentierungsansätzen unter Einbindung verschiedener Verlustfunktionen und Backbones. Die Ergebnisse zeigen, dass durch den Einsatz eines vortrainierten ResNeXt50-Backbones in Kombination mit der CCE\_Dice-Verlustfunktion die besten Segmentierungsgenauigkeiten erzielt werden konnten. Die Mehrklassensegmentierung erwies sich aufgrund des kombinierten Lernansatzes beider Schädigungsgrade als besonders vorteilhaft für die Erkennung der komplexeren, leichteren Schädigungen. Darüber hinaus wurde die Generalisierbarkeit des Modells anhand modifizierter Bilddaten validiert, wobei sich das Verfahren insbesondere bei stärkeren Schädigungen als robust und zuverlässig erwies. Die entwickelte Methode leistet somit einen Beitrag zur objektiven und automatisierten Analyse von Gewebeschädigungen und bietet Potenzial für den Einsatz in der medizinischen Diagnostik zur Entlastung von Fachpersonal.
A Non-Invasive Diagnostic System for VOC Analysis: Integrating IoT, Machine Learning, and eNose Technology (2025)
Kassabi, Tasnim
Volatile organic compound (VOC) analysis of exhaled breath is highly promising for non invasive medical diagnosis. In this paper, we present the design of a software system for the classification of gases through the combination of Internet of Things (IoT) technologies, machine learning (ML), spectrometry, and metal oxide (MOX) sensors. Although the hardware elements were pre-existing, we present the software implementation that allows for the efficient and reliable detection of respiratory gases, which can be extended to the detection of disease-specific biomarkers. Although the physical sensing platform is currently on a single device, Internet Of Things (IoT) principles were embedded in the software architecture to deliver future scalability, remote monitoring, and integration with larger healthcare systems—enabling distributed data collection and centralized analysis required for widespread clinical adoption. The implemented software solution consists of two components: a web application with a redesigned interface and Python-based backend software enabling secure real-time processing. Despite the fact that there are no real VOC measurements yet, the system shows the potential for measuring gas concentration effectively. Additional development will cover measurement of mixture gases to establish more realistic conditions and enhance the precision of ML models. Future development will focus on the combination of the most beneficial features of both software components, expanding real-time data processing, and refining measurement accuracy with advanced software algorithms. This research work provides the software framework necessary for innovative, non-invasive respiratory diagnostic techniques that can be utilized for early disease detection in the future.
Prototypische Treiberentwicklung zur Ansteuerung von Peripherie mittels One-Wire-zu-I²C-Brücke für ein eingebettetes Linux-System (2025)
Goldhardt, Rico
Ziel der vorliegenden Arbeit ist die Entwicklung eines Linux-Treibers für einen Chip, welcher einen I²C-Bus über den One-Wire-Bus bereitstellt und Befehle in einem Sequenzer speichern kann. Dazu werden Anforderungen gestellt, welche sich aus der Projektspezifikation ableiten. Mögliche Implementierungen werden zunächst theoretisch verglichen und anschließend als Bibliothek und Kernel-Treiber implementiert. Bei der Implementierung des Treibers werden dabei zwei Varianten - mit und ohne optimierte Allokationslogik des Sequenzer-Speichers - unterschieden. Die Bibliothek und die beiden Konfigurationen des Treibers werden hinsichtlich ihrer Laufzeit empirisch betrachtet und verglichen. Außerdem wird der Erfüllungsgrad der Anforderungen durch die Treiber-Implementierung bewertet. Im Ergebnis zeigt sich, dass die Implementierung als Kernel-Treiber mit optimierter Speicher-Allokationslogik einen deutlichen Vorteil in der Laufzeit aufweist.
Untersuchung des Einflusses einer gerichteten Elektrolytströmung auf das Plasmaelektrolytische Polieren von Werkstoffen mit Blick auf medizintechnische Anwendungen (2025)
Weinhold, Laura-Marie
Diese Arbeit untersucht den Einfluss einer gerichteten Elektrolytströmung auf das plasmaelektrolytische Polieren (PeP). Ziel ist es, die Auswirkungen auf Materialabtrag, Oberflächenrauheit, Glanz sowie die Ablagerungen von Reaktionsprodukten zu analysieren. Dazu wurden Edelstahl‐ und Aluminium‐Proben unter Variation von Strömungsgeschwindigkeit, Düsenabstand und Polierzeit behandelt. Zusätzlich wurde eine komplexe Probengeometrie mit unterschiedlichen Spaltbreiten betrachtet, um den Einfluss der Strömung auf schwer zugängliche Bereiche zu beurteilen. Die Ergebnisse zeigen, dass eine gerichtete Elektrolytströmung den Materialabtrag signifikant steigert und die Oberflächenrauheit deutlich schneller reduziert. Zudem wird der Glanz der behandelten Oberfläche gesteigert. Besonders vorteilhaft erweist sich bei der komplexen Geometrie eine senkrechte Spaltausrichtung in Kombination mit einer hohen Strömungsgeschwindigkeit. Darüber hinaus beeinflusst die Strömung die sichtbaren Ablagerungsrückstände, die insbesondere bei Aluminium‐Proben auftreten. Eine gleichmäßige Beströmung der kompletten Probe reduziert diese Ablagerungen sichtbar. Die Untersuchung bestätigt, dass eine gezielte Elektrolytströmung die Effizienz des PeP‐Prozesses steigert und zur Optimierung von Metalloberflächen in technischen und medizinischen Anwendungen beitragen kann.
Konzeptionelle Analyse zur Auswahl und Umsetzbarkeit einer Softwarelösung zur Überwachung vernetzter Medizintechnik (2025)
Schmidtke, Zoe
In Anbetracht der fortschreitenden Digitalisierung im Gesundheitswesen gewinnt die IT-Sicherheit in Krankenhäusern zunehmend an Bedeutung. Der Schutz sensibler Gesundheitsdaten und die Gewährleistung eines reibungslosen Klinikbetriebs stehen dabei im Vordergrund. Zugleich nimmt der Bedarf an einer verbesserten Zusammenarbeit zwischen verschiedenen IT-Systemen, sowohl innerhalb der Einrichtung als auch mit externen Partnern, zu. In diesem Zusammenhang kommen Softwarelösungen eine entscheidende Bedeutung zu, da sie nicht nur zur Sicherung der IT-Infrastruktur beitragen, sondern auch die Interoperabilität fördern und somit eine moderne, vernetzte Patientenversorgung ermöglichen. Ziel dieser Bachelorarbeit ist es, einen Leitfaden für Betreiber kritischer Infrastrukturen zu entwickeln, um die Vielzahl gesetzlicher Vorgaben im Hinblick auf IT-Sicherheit und Vernetzung innerhalb eines Krankenhauses zu bündeln. Der Leitfaden wurde mithilfe eines Anforderungskatalogs erstellt, der auf dem B3S, der DIN IEC EN 80001 sowie der TR-03161 basiert und die Gewährleistung der Schutzziele der IT-Sicherheit, Vertraulichkeit, Integrität, Verfügbarkeit und Authentizität, umfasst. Die aus der Vorauswahl eines Standards, einer Norm und einer Richtlinie abgeleiteten Maßnahmen wurden nach den Kategorien Muss-, Soll- und Kann-Maßnahmen priorisiert und sind in einer Tabelle zusammengefasst, die den Anforderungskatalog bildet. Darüber hinaus wird eine bereits vorausgewählte Softwarelösung hinsichtlich ihrer Überwachungs- und Analysefunktionen sowie ihrer grundlegenden IT-Sicherheit überprüft. Diese Software wurde über einen festgelegten Testzeitraum evaluiert, wobei der erstellte Anforderungskatalog als Grundlage diente. Die Ergebnisse zeigen, dass die ausgewählte Software zwar nicht in ihrer aktuellen Form in Betracht gezogen werden kann, jedoch eine derartige Softwarelösung im Allgemeinen für das Krankenhaus von Relevanz wäre. Es zeigte sich, dass die Verwendung einer Softwarelösung, die die vernetzte Medizintechnik überwacht und analysiert, die Interoperabilität verbessert und der erstellte Anforderungskatalog als Leitfaden für die Auswahl und Prüfung der Umsetzbarkeit einer potenziellen Softwarelösung herangezogen werden kann.
Zeitliche Charakterisierung des PENELOPE-Frontends für Energien im 100mJ-Bereich (2025)
Grosser, Erik
Ultrakurze Laserpulse mit Pulsspitzenintensitäten bis zu 10^(22) W/cm^2 bekommen immer mehr Aufmerksamtkeit zur Anwendung in der Beschleunigertechnik, der Fusionsforschung und der Strahlentherapie. Am Helmholtz-Zentrum Dresden-Rossendorf (HZDR) wird hierfür das PENELOPE-Lasersystem (Petawatt, ENergy-Efficient Laser for Optical Plasma Experiments) gebaut. Dieses System beruht auf dem CPA-Verfahren (Chirped Pulse Amplification) und setzt sich aus drei Hauptkomponenten zusammen: dem Frontend, den Hauptverstärkern und dem Pulskompressor. Die vorliegende Arbeit konzentriert sich auf die zeitliche Charakterisierung des Frontends. Im Frontend des Systems wird der Laserpuls erzeugt, wobei Eigenschaften wie Pulsdauer und Pulsenergie verändert werden. Zur Charakterisierung wurden die zeitliche Pulsbreite sowie die spektrale Phase analysiert. Die Ergebnisse bestätigen die korrekte Konzeption der optischen Komponenten im Frontend. Ein weiterer entscheidender Einflussfaktor auf die Qualität des Laserpulses ist der zeitabhängige Intensitätskontrast. Dieser wurde zunächst analysiert und anschließend optimiert. Zudem konnten Intensitätsstrukturen, wie Vor- und Nachpulse, identifiziert und eliminiert werden. Die daraus gewonnenen Erkenntnisse ermöglichen eine optimierte Einkopplung des Laserpulses in den Hauptverstärker.
Study to find cost effective solution for converting Sewage Treatment Plant (STP) treated water into potable water quality for an apartment complex. (2025)
Tenkasi Venkatramana, Ramanathan
The Thesis covers the current water problems in the city of Bengaluru with respect to large apartment complex and aims to explore solutions to convert the treated water from the Sewage treatment plant installed the apartment complexes to potable quality. Futher more the study reviews the legal requirements and water tests to be performed and their results are analysed. Final a comparison of various water treatment technology, best practices from neighbouring apartments are taken into consideration for a final suggestion.
Evaluierung und Weiterentwicklung einer Software zur E-Mail-Bedrohungsanalyse: Anforderungsdefinition und Erweiterungsmöglichkeiten (2025)
Häber, Simon
Diese Bachelor-Arbeit entstand im Kontext von und in Zusammenarbeit mit der GK Software SE. Sie behandelt die Anforderungsanalyse für eine Software-Neuentwicklung im IT-Sicherheitsmanagement. Die Möglichkeit einer Bedrohungslage entsteht mit dem Eingang von E-Mails. In ihnen lassen sich leicht verschiedene Schädlinge für die IT-Sicherheit transportieren. Bedrohungen, die über E-Mail verursacht werden, können sein: die Verbreitung von Malware, Spam (als Teil von Denial of Service-Attacken, Werbung oder zur Datensammlung) oder Social Engineering (Phishing, Gezieltes Phishing).[European Commission: Joint Research Centre et al., 2015, S. 29–32] Die Erkennung von Schädlingen wird durch softwarebasierte Analysetools erreicht. Jede E-Mail, die als mit Schädlingen belastet identifiziert wurde, wird nach Vorgaben des Incident Management behandelt. Ziel dieser Arbeit war die Ermittlung der Schwachstellen der bisherigen Software sowie die Zusammenstellung der Anforderungen an die neue Software. Nach der Zusammenfassung der für die Arbeit notwendigen Grundlagen aus den Bereichen ISO 27001-Zertifizierung und Requirements Engineering wird der Zustand der bisherigen Software dokumentiert. Die Anforderungsanalyse erfasst die Anforderungen nach der Anforderungsquelle und beschreibt die Verbindlichkeit jeder Anforderung. Unter Verwendung der MASTeR-Schablonen von Rupp und den SOPHISTen werden die insgesamt 36 identifizierten Anforderungen als funktionale und nicht-funktionale Anforderungen systematisch dokumentiert. Anschließend wird für jede Anforderung aus diesem Anforderungskatalog mindestens eine mögliche Umsetzung beschrieben, so dass eine umfangreiche Liste an Umsetzungsempfehlungen für die Programmierer entstanden ist. Einzelne prototypische Umsetzungen für Teile der neuen Software werden dargestellt.
Variability analysis in memristors based on electrodeposited prussian blue (2025)
Avila, Lindiomar B. ; Cantudo, Antonio Manuel ; Villena, Marco A. ; Maldonado Correa, David ; Araujo, F. Abreu ; Müller, Christian K. ; Roldán, Juan B.
This work presents a comprehensive analysis of the variability and reliability of the resistive switching (RS) behavior in Prussian Blue (a mixed-valence iron(III/II) hexacyanoferrate compound) thin films, used as the active layer. These films are fabricated through a simple and scalable electrochemical process, and exhibit robust bipolar resistive switching, making them suitable both for neuromorphic computing applications and hardware cryptography. A detailed statistical evaluation was conducted over 100 consecutive switching cycles using multiple parameter extraction techniques to assess cycle-to-cycle (C2C) variability in key RS parameters, including set/reset voltages and corresponding currents. One and two-dimensional coefficients of variation (1DCV and 2DCV) were calculated to quantify variability and identify application potential. Results demonstrate moderate variability compatible with neuromorphic computing and cryptographic functionalities, including physical unclonable functions and true random number generation. These findings position Prussian Blue-based memristors as promising candidates for low-cost, stable, and multifunctional memory.
On the Price of Anarchy in Packet Routing Games with FIFO (2025)
Schmand, Daniel ; Schürenberg, Torben ; Strehler, Martin
Multi-view imaging and optical path reconstruction for dental optical coherence tomography (2025)
Grundmann, Julia ; Becker, Stephan ; Porstmann, Vincenz ; Seidel, Gloria ; Hannig, Christian ; Golde, Jonas
  • 1 to 20

OPUS4 Logo

  • Contact
  • Imprint
  • Sitelinks