Refine
Has Fulltext
- yes (186) (remove)
Year of publication
Document Type
- Bachelor Thesis (88)
- Master's Thesis (56)
- Diploma Thesis (34)
- Book (4)
- Report (4)
Institute
- Physikalische Technik, Informatik (186) (remove)
In dieser Bachelorarbeit wird die Entwicklung einer Service-Struktur zur Suche, Filterung und Abfrage von ETF- und Fondsdaten vorgestellt. Der Fokus liegt auf der Modernisierung einer bestehenden Anwendung, ursprünglich in Go entwickelt, durch die Überführung in das moderne Quarkus-Framework. Ziel ist es, die Datenverarbeitung und -bereitstellung zu optimieren und manuelle Prozesse, durch die Verwendung von Schnittstellen, zu automatisieren.
Es werden die Herausforderungen und Einschränkungen des bestehenden Services analysiert und eine Lösung zur Verbesserung der Effizienz und Performance durch die Anwendung von Quarkus, Hibernate und anderen Technologien vorgeschlagen. Die Arbeit beleuchtet die Implementierung und Bewertung der neuen Service-Struktur, die eine effektivere Handhabung und Analyse von ETF- und Fondsdaten ermöglicht.
Die Aufbereitung von Medizinprodukten ist ein sehr wichtiger und komplexer Bestandteil im Krankenhaus. Aus diesem Grund beschäftigt sich die vorliegende Masterarbeit mit dem Thema der Prozessoptimierung in der Aufbereitungseinheit für Medizinprodukte und konzentriert sich auf die Einflussfaktoren sowie deren Auswirkungen auf den Aufbereitungsprozess.
Um eine umfangreiche Analyse durchzuführen, wurden verschiedene Methoden angewandt. Es fand ein Vergleich zwischen den Sterilisationsverfahren statt, um die jeweiligen Vor- und Nachteile herauszustellen. Darüber hinaus wurden Beobachtungen durchgeführt, um den Prozessablauf und die einzelnen Arbeitsschritte zu analysieren und mögliche Schwachstellen zu identifizieren und zu beurteilen. Für die Bewertung der Zeiteffizienz wurden detaillierte Zeitaufnahmen durchgeführt, die Rückschlüsse über die Dauer des Prozesses und ihre einzelnen Phasen geben sollte.
Basierend auf den Daten und Analyseergebnissen wurden schließlich konkrete Handlungsempfehlungen abgeleitet. Diese Empfehlungen zielen darauf ab, den Aufbereitungsprozess effizienter zu gestalten. Sie umfassen dabei Schulungen für die Mitarbeitenden, eine Überarbeitung mancher Operationssets und eine Überprüfung des Personalbedarfs.
Insgesamt zeigt die Masterarbeit einen detaillierten Einblick in den Aufbereitungsprozess des Heinrich-Braun-Klinikums Zwickau und formuliert Optimierungsmöglichkeiten, die als Grundlage für zukünftige Verbesserungen dienen können.
OpenStreetMap (OSM) is a large open database for geographic data created and maintained by volunteers. OSM's main data use is rendering an extremely detailed map of the world. Data quality is an important issue for applications like routing of pedestrians to public transport facilities. In this report we describe different schemes for mapping bus stops in OSM and we provide statistics on usage of those schemes, the good ones and the not so good ones.
Im Mittelpunkt des Artikels steht die Frage, welche Eingabemethoden sich für die Eingabe längerer Texte auf Mobiltelefonen eignen. Der Grund dafür ist, dass Artikel über Eilmeldungen in der Regel lang sind und die Verwendung einer Handytastatur zur Eingabe langer Texte sowohl ineffizient als auch mühsam ist.
Daher änderte ich meine Zielsetzung in
1. eine geeignete Eingabemethode für das Schreiben langer Texte auf Mobiltelefonen auf der Grundlage der Literatur zu finden.
2. eine geeignete Eingabemethode für die Erfassung von kritischen Ereignissen zu finden.
3. schließlich die Bewertung dieser Eingabemethoden in Bezug auf Komfort und Effizienz.
In der vorliegenden Diplomarbeit wird ein Konzept zur hochverfügbaren Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erarbeitet und getestet. Dafür wurde im Vorfeld eine Anforderungsanalyse zur Ermittlung der Anforderungen an diese hochverfügbaren Anbindungen durchgeführt. Im Folgenden wurden Technologien zur Erfüllung der Anforderungen ermittelt, kombiniert und auf Nutzwerte verglichen. Die Kombination der Technologien mit dem höchsten Nutzwert wurde in einem Prototyp umgesetzt und in einer Testumgebung auf die Erfüllung der Anforderungen getestet. Ziel dieser Arbeit war es dabei ein herstellerneutrales, infrastrukturunabhängiges und in verschiedenen Anwendungsfällen nutzbares Konzept zu entwickeln. Diese Unabhängigkeit und Offenheit soll es ermöglichen, dieses Konzept in verschiedenen Szenarien, welche eine Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erfordern, einsetzen zu können. Dadurch soll die Zeit zur Konzeption einer Lösung in der Praxis erheblich gesenkt werden.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
The book is the second of four volumes on data science and artificial intelligence. This second volume covers data visualization tool and techniques as well as fundamentals of supervised machine learning: linear regression, artificial neural networks, support-vector machines, decision trees, ensemble methods and more.
The book 'Reinforcement Learning: An Introduction' by Sutton and Barto is the standard text book for introductory courses to reinforcement learning. Next to concrete algorithms and extensive examples the book contains several fundamental results related to Markov decision processes (MDPs) and Bellman equations in Chapters 3 and 4. Unfortunately some proofs are missing, some theorems lack precise formulation, and for some results the line of arguments is quite garbled.
In this note we provide all missing proofs, give precise formulations of theorems and untangle the line of arguments. Further, we avoid using random variables and their expected values. Since we (like Sutton/Barto) restrict our attention to finite MDPs all expected values can be made explicit avoiding overloaded notation and murky conclusions.
This article bridges the gap between introductory literature like Sutton/Barto and research literature containing exact formulations and proofs of relevant results, but being less accessible to beginners due to higher generality and complexity.
Konzeption eines Versuchsstandes zur Charakterisierung der elektrischen Kenngrößen von Solarmodulen
(2023)
Um Photovoltaik-Module auf ihre Leistungsfähigkeit zu testen und diese weiterzuentwickeln, ist es notwendig ihre elektrischen Kenngrößen replizierbar testen zu können.
Das Ziel der vorliegenden Arbeit ist es, zu diesem Zweck einen Versuchstand zu errichten und ein Programm zu schreiben, welches das automatische Abfahren einer Strom-Spannungs-Kennlinie ermöglicht.
Dazu wurden verschiedene Strahlungsquellen mit je spezifischen Eigenschaften verwendet. Bei den Strahlungsquellen handelte es sich um LED-, Halogen- sowie Xenon-Strahler. Mit diesen wurden beispielsweise bei unterschiedlichen Bestrahlungsstärken Kennlinien aufge-nommen, welche es zu vergleichen galt. Außerdem wurden die manuelle und die automatisierte Aufnahme der Kennlinie verglichen.
Die Kennlinien zeigen, dass Xenonstrahler am besten für die Messung elektrischer Kenngrößen von Photovoltaik-Modulen geeignet sind. Nicht nur ist das Spektrum des Strahlers am ähnlichsten dem des AM1,5-Spektrums, sondern dieser hat dazu am wenigsten Wärmeeinfluss auf das zu messende Modul. Zudem ist die automatisierte Aufnahme der Kennlinie wesentlich schneller als die manuelle.
Mit den gewonnenen Erkenntnissen lassen sich die elektrischen Kenngrößen der Photovoltaik-Module künftig qualitativ hochwertiger und schneller testen.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Diese Bachelorarbeit untersucht die Hintergründe und Motivation für die automatische Ausführung und Protokollierung von Tests auf Basis von Gherkin und Godog mit Hilfe von Xray Test Management für Jira.
Das Hauptziel ist die Steigerung der Effizienz bei der Testprotokollierung und -reporting. Durch die Automatisierung können manuelle Aufgaben reduziert werden, was zu einer verbesserten Effizienz und Zeitersparnis führt. Die Ergebnisse dieser Arbeit dienen als Grundlage für Unternehmen, um die Effizienz und Qualität ihrer Testprozesse zu steigern und einen Mehrwert zu schaffen.
Die verwendeten Technologien, Gherkin, Godog, Cucumber für Golang und Xray Test Management für Jira, werden vorgestellt und ihre Funktionen erläutert. Zusammenfassend ermöglichen diese Technologien eine effizientere Zusammenarbeit von Entwicklungs- und Testteams und verbessern die Softwarequalität.
Die Erstellung und Bearbeitung dieser Bachelorarbeit dient dazu Daten in Bezug auf Laserapplizierte Hautschädigungen zu erstellen. Im Rahmen dessen werden an einem Tierhautmodell mit einem Kohlenstoffdioxidlaser Hautschäden erzeugt und untersucht. Der notwendige Versuchsaufbau wird geplant und Auswerteroutinen evaluiert. Es erfolgt die Charakterisierung der Schädigungsbereiche und eine Berechnung der geschädigten Fläche sowie der dazugehörigen Flächenenergie. Mit den gewonnen Erkenntnissen konnten Aussagen über mögliche Grenzwerte der Flächenenergie getroffen werden.
Das Ziel dieses Projekts bestand darin, die Schaltzeit schaltbarer PDLC-Folien zu messen und die Abhängigkeit der Schaltzeit von der Temperatur zu untersuchen. Um dies zu erreichen, wurde zunächst ein Laboraufbau erstellt, der hauptsächlich aus einer LED-Lichtquelle, einem Sensor, einem Oszilloskop und einem Trenntransformator bestand. Wenn die Probe mit einer elektrischen Feld angelegt wurde, die von einem Trenntransformator bereitgestellt wurde, richteten sich die Flüssigkristalle im Polymerfilm aus und ließen Licht durch (was zu einem transparenten Aussehen führte). Dieses Licht wurde vom Sensor erfasst und in ein elektrisches Signal umgewandelt, das anschließend an das Oszilloskop gesendet wurde. Die Anstiegszeit dieses Signals wurde im Bereich von 10% bis 90% der aufsteigenden Flanke gemessen. Die Schaltzeit wurde bei Raumtemperatur (24,2 °C) ermittelt. Anschließend wurden die Proben einmal auf eine niedrige Temperatur von 1 °C und einmal auf eine hohe Temperatur von 39,6 °C temperiert und erneut gemessen, um den Einfluss der Temperatur auf die Schaltzeit zu untersuchen.
Die Ergebnisse zeigten eindeutig, dass die meisten Proben eine schnellere Reaktionsrate bei höheren Temperaturen im Vergleich zu niedrigeren Temperaturen aufwiesen. Alle Messwerte waren bei Temperaturen von 39,6 °C und 24,2 °C homogener und wiesen eine höhere Messgenauigkeit auf, während bei 1 °C die Messwerte eine geringe Homogenität und niedrigere Messgenauigkeit aufwiesen. Es wurde auch festgestellt, dass die Schaltzeit bei einigen Proben deutlich schneller war als bei anderen. Die manuelle Schaltung und die unpassenden Parameter des Signalverlaufs könnten bei einigen Proben zu höheren Schaltzeitwerten geführt haben, da sie vermehrt Nulldurchgänge in der aufsteigenden Flanke des Wechselsignals verursachten. Dies ließe sich möglicherweise durch die Implementierung einer automatischen Schaltung und die Verwendung eines Funktionsgenerators beheben. Mit diesem Generators könnte die Messfrequenz des Sinussignals gesenkt werden, sodass die Schaltzeit deutlich kürzer ist als die ansteigende Flanke. Alternativ könnten auch andere Signalformen wie Rechtecksignale erzeugt werden, bei denen die Probleme, die durch den Sinus verursacht werden, nicht auftreten. Dies könnte in weiteren Experimenten vermieden werden. Des Weiteren könnten die Temperierungsbedingungen während der Versuchsdurchführung Ungenauigkeiten bei den aufgenommenen Messwerten verursacht haben. Dies ließe sich eventuell durch die Verbesserung der Bedingungen für die Temperierung der Proben verhindern. Dadurch könnte der Temperaturverlust während des Messvorgangs reduziert werden, was zu einer höheren Genauigkeit führt. Darüber hinaus sollte der Einfluss der Lebensdauer auf die Schaltzeit in zukünftigen Experimenten berücksichtigt werden, indem nicht nur die Anstiegszeit, sondern auch die Abstiegszeit beim Ausschalten untersucht wird. Dies wäre insbesondere bei Langzeitexperimenten relevant.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
Die vorliegende Bachelorarbeit untersucht die Machbarkeit der Anwendung resistiver Sensoren auf textilen Materialien zur Messung des Auflagedrucks auf kompressiblen Untergründen. Die Recherche hat gezeigt, dass es bereits Anwendungen im medizinischen und
weiteren Sektoren, wie zum Beispiel im Sport, gibt. Die Arbeit konzentriert sich auf die Möglichkeit der direkten Herstellung von Sensoren auf Textilien.
Zwei Herstellungsverfahren für leitfähige Strukturen auf textilen Substraten werden untersucht. Die verwendeten Verfahren zur Herstellung leitf¨ahiger Strukturen auf Textilien umfassen das Pulverdruckverfahren und die Stickerei. Die Stickerei ermöglicht die Platzierung von leitfähigen Fäden bzw. Kabeln auf Textilien, während der Pulverdruck mit funktionalen Pulvern leitfähige Strukturen auf Textilien erzeugt.
Obwohl es bereits eine Vielzahl von Messsystemen für die Erfassung des Auflagedrucks gibt, zielt diese Arbeit darauf ab, Sensoren auf einem textilen Substrat speziell für den Einsatz in einer Auflagedruck-Messmatte im Reitsport zu entwickeln.
Die experimentelle Untersuchung umfasst Zugversuche und Druckbelastungstests. Zunächst werden Zugversuche durchgeführt, um die Dehnungseigenschaften der Textilien zu bestimmen, sowie die Änderung des elektrischen Widerstandes von aufgebrachten Pulverstrukturen bei Dehnung. Darüber hinaus werden zyklische Zugversuche durchgeführt, um die Stabilität der aufgetragenen leitfähigen Strukturen zu überprüfen. Mithilfe dieser Informationen wurde ein Trägermaterial aus mehreren textilen Substraten für weitere Versuche gewählt.
Des Weiteren wird die Änderung des elektrischen Widerstands von aufgebrachten Stick- und Pulverstrukturen während zyklischen Druckbelastungstests auf kompressiblen Untergrund untersucht und verglichen.
Die Ergebnisse der Druckbelastungstests deuten darauf hin, dass die Stick- und Pulverstrukturen eine Veränderung des elektrischen Widerstands während zyklischer Druckbelastung aufweisen. Es wurde beobachtet, dass der elektrische Widerstand während der Belastung
der Pulverstrukturen abnimmt und nach der Entlastung ansteigt. Die gestickten Strukturen weisen gegenteiliges Verhalten auf. Dies eröffnet interessante Möglichkeiten für die Entwicklung von textilen Sensorlösungen zur Erfassung von Auflagedruck auf kompressiblen Untergründen.
Die Bachelorarbeit zeigt die Komplexität und Herausforderungen bei der Entwicklung von resistiven Sensoren auf textilen Materialien für medizinische und sportliche Anwendungen.
Die Arbeit wendet eine umfassende Methodik an, die eine Literaturrecherche, die Analyse bestehender Anwendungen, die Implementierung und die Evaluierung eines zielgruppenspezifischen Prototyps einer mobilen App für die Stellensuche umfasst.
Ziel der Bachelorarbeit ist es, Funktionen einer mobilen App zur Stellensuche zu identifizieren, die sich positiv auf die Effektivität der mobilen App bei der Stellenvermittlung auswirken. Basierend auf vorangegangenen Forschungsarbeiten und einer Analyse bestehender Apps sollen die identifizierten Funktionen, die zum bestehenden System passen, in die mobile App implementiert werden. Um die Effektivität der App zu evaluieren, wird eine Befragung von internen Testnutzern durchgeführt.
Abschließend werden Empfehlungen für die Entwicklung und Verbesserung mobiler Apps zur Berufsstellensuche gegeben, um eine effiziente Stellenvermittlung zu gewährleisten.
Zielsetzung der vorliegenden Arbeit war eine Transformation von BPMN-Elementen in logische Aussagen. Hierfür wurden zunächst die Anforderungen definiert und eine Analyse der BPMN-Diagramme durchgeführt, wobei häufig verwendete BPMN-Elemente ausgewählt wurden. Darüber hinaus wurde ein Konzept mit der Übersicht über die wichtigsten Schritte erstellt. Des Weiteren wurde ein Transformationsprogramm für die ausgewählte BPMN-Elemente und deren Eigenschaften entwickelt.
Die Funktionsweise dieses Programms basiert auf der Java-Programmiersprache und nutzt die XSLT-Implementierung Saxon. Das
Transformationsprogramm durchsucht die gegebene Datei nach BPMN-Diagrammen, analysiert die gefundenen BPMN-XML-Dateien und erzeugt die Prolog-Datei mit den Fakten. Anschließend wurden in dieser Arbeit Prolog-Regeln definiert, um zu zeigen, wie die generierten logischen Aussagen zur Validierung von BPMN-Diagrammen eingesetzt werden können.
Im Rahmen dieser Diplomarbeit werden die Möglichkeiten zur Reduzierung der Eiseneinträge und der damit verbundenen Verockerung des Elligastbaches betrachtet.
Ziel ist es, durch bauliche Maßnahmen die einströmenden Einträge so weit zu verringern, dass ein guter ökologischer und chemischer Zustand des Berichtsgewässers Elligastbach erreicht werden kann. Um die Rückkehr von Lebewesen und Pflanzen in ein Gewässer zu ermöglichen, ist ein guter Gewässerzustand von elementarer Wichtigkeit.
Alle erforderlichen Schritte, die zur Vorbereitung der Wiederherstellung des guten Zustandes notwendig sind, zu denen die baulichen Maßnahmen und Eingriffe in das Gewässer im Wesentlichen zählen, werden in der vorliegenden Arbeit erläutert. Neben der Historie des Standortes und den rechtlichen Grundlagen, werden die Schwerpunkte wie die Probenahme zur Erfassung der anfallenden Menge an Eiseneinträgen, sowie die möglichen Auswirkungen auf das Gewässer beschrieben und daraus resultierend eine Vorstellung verschiedener Varianten bzw. Ausführungen von Maßnahmen zur Ockerreduzierung dargestellt. Die nützliche Verwertung des anfallenden Ockerschlamms ist ein weiterer Punkt in der vorliegenden Arbeit.
Kontaktlinsen gehören zum Alltag des Menschen dazu. Über ausgewählte Versuche wurden
dabei Alltagssituationen simuliert.
Die Ergebnisse und Veränderungen an den Kontaktlinsen wurden über Lichtmikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie untersucht. Kernpunkte bei den Untersuchungen waren die Oberfläche und die Transmission. Durch einen eigens konzipierten Versuchsaufbau wurde der Transmissionsgrad nach jedem Versuch ermittelt. Nach allen Alltagssituationen konnten Veränderungen nachgewiesen werden.
In dieser Arbeit wird dargestellt, wie durch eine Beeinflussung der Separation von Druckdaten durch ICC-Profile der Verbrauch an Farbmittel (Tinte) im industriellen Inkjetdruck reduziert werden kann.
Mittels geeigneter Software wurden ICC-Profile mit unterschiedlichen Separationseigenschaften erstellt, deren Potenzial zur Farbmittelreduzierung durch dafür erstellte Testformen ermittelt und in Zusammenhang zur farbmetrischen Qualität gesetzt. Dabei konnte in der betrachteten Produktionsumgebung eine Reduzierung der benötigten Farbmenge im zweistelligen Prozentbereich gegenüber der Herstellereinstellung erreicht werden ohne dabei die definierten Qualitätskriterien zu verletzen.
Die Ergebnisse wurden durch Druckversuche mit realen Kundenaufträgen verifiziert und auf einem baugleichen Drucksystem erfolgreich reproduziert.
Auswirkungen auf die Umwelt wurden aufgezeigt, konnten im Rahmen dieser Arbeit aber nicht quantifiziert werden. Hierzu sind nach Ansicht des Autors weitere Untersuchungen notwendig.
Im Jahr 2022 hat die Warema Renkhoff SE entschieden den Energieträger Wasserstoff (H2) als eine Erdgasalternative für die Beheizung der Pulverlacköfen im Rahmen von zwei Abschluss- arbeiten untersuchen zu lassen. Eine andere Arbeit befasste sich mit den unterschiedlichen Möglichkeiten der Versorgung mit H2. In der hier vorliegenden Arbeit wurden die unterschied- lichen Aspekte für den Einsatz des neuen Energieträgers in der Fertigung betrachtet.
Recherchen zu einem möglichen H2-System zeigten, dass alle Komponenten bereits heute verfügbar sind. Manche, wie z.B. ein 100%-H2 Brenner, befinden sich aber noch im Proto- typenstadium. Zurzeit existieren noch keine Regelwerke für die Installation und Betrieb von H2-Sytemen, die den Stand der Technik abbilden. Die Erarbeitung solcher Regelwerke wurde in 2023 begonnen und wird einige Zeit in Anspruch nehmen.
Um unterschiedliche Konfigurationen von H2-Systemen untereinander und mit dem existie- renden Erdgassystem vergleichen zu können, wurde in dieser Arbeit ein Tool entwickelt. Dieses Bewertungs- und Entscheidungstool erlaubt es das System zu konfigurieren und nach Kosten, Risiken und CO2-Emissionen zu bewerten. Die Bewertung erfolgt nach dem Prinzip einer um- gekehrten Nutzwertanalyse. Im Tool wurde beispielhaft die Pulverbeschichtungsanlage 1 am Standort Marktheidenfeld abgebildet.
Wasserstoff gilt aufgrund seiner physikalischen Eigenschaften als besonders schwierig in der Handhabung und gefährlicher als z.B. Erdgas. Die Risikobewertung bildet auch deshalb den Hauptteil des Tools. Die Risikobewertung wurde so gestaltet, dass sie wissenschaftlich fundiert und dennoch einfach anzuwenden ist.
Im fertigen Tool wurden einige Konfigurationen miteinader verglichen. Es zeigt sich, dass das derzeitige Erdgassystem sowohl bei den Kosten als auch bei den Risiken von keinem H2- System erreicht werden kann. Ohne zusätzliche Sicherheitsvorrichtungen bzw. -maßnahmen beim H2-System ist das Risiko bei manchen Risikoszenarien zu hoch. Ein großes Risiko beim H2-System geht aber auch von der fehlenden Erfahrung und Komponenten, welche sich noch in Entwicklung befinden, aus.
Zum Abschluss wurde die Rentabilität eines H2-Systems betrachtet. Dazu wurden die im Tool ermittelten Investitionskosten für ein H2-System verwendet. Für unterschiedliche Erdgas- preise und Amortisationszeiträume wurde der H2 Preis berechnet, ab dem sich die Investition amortisiert. Zum Beispiel müsste der H2 Preis unter 5 €/kg liegen (heute ca. 10 €/kg), damit sich das System beim heutigen Erdgaspreis von 0,15 €/kWh nach 5 Jahren amortisieren kann.
Aus dieser Arbeit können direkte Handlungsempfehlungen für Warema abgeleitet werden. So scheint es aus mehreren Gründen sinnvoll mit der Installation eines H2-Systems noch 2–3 Jahre zu warten. In dieser Zeit werden z.B. die Normen für H2-Installationen fertiggestellt. Wenn ein H2-System installiert wird, sollte man zuerst nur einen Brenner auf H2 umstellen. So fallen die Anfangsinvestitionen deutlich niedriger aus und die Reduktion der CO2-Emissionen ist dennoch beträchtlich (bis zu 50%!). Gleichzeitig kann Erfahrung mit H2 im Unternehmen gesammelt werden.
Um in der Strahlentherapie einen qualitativ hochwertigen Behandlungsablauf zu gewährleisten, ist eine außerordentlich genaue Qualitätssicherung notwendig. Aufgrund der steigenden Komplexität der modernen Medizintechnik entschied sich das Deutsche Institut für Normung e.V. im Dezember 2021, die DIN 6864-1:2021-12 "Konstanzprüfung der strahlentherapeutischen Kette - Teil 1: Teletherapie" zu veröffentlichen.
Ziel der vorliegenden Arbeit ist die Durchführung und Auswertung dieses End-to-End-Tests sowie die Erstellung eines Arbeitsablaufes und eines Messprotokolls auf Grundlage der DIN 6864-1. Die Prüfung wird mit einem neu angeschafften Messphantom der Firma PTW Freiburg durchgeführt. Abschließend soll die Eignung dieses Phantoms diskutiert werden.
Die Ergebnisse zeigen, dass alle Linearbeschleuniger die Konstanzprüfung bestanden haben. Dennoch weisen die beiden alten Geräte des Typs Siemens ARTISTE trotz der stabilen Planung größere Abweichungen der gemessenen Dosis zur geplanten Dosis als die neueren Geräte des Typs Varian TrueBeam auf. Die hauptsächliche Ursache liegt dabei in der ungenaueren Tischkorrektur nach der Bildgebung. Weitere Ursachen liegen im Alter der Geräte und dem damit verbundenen Verschleiß der Komponenten. Die Prüfung der Hounsfield-Einheiten und der Phantomgeometrie zeigt auf, dass es nur sehr geringe Unterschiede in der Konstanz der Hounsfield-Einheiten und keine Abweichung in der Phantomgeometrie gibt. Das verwendete Messphantom eignet sich nur bedingt für den normalen End-to-End-Test. Die Stärken des Phantoms liegen eher in der stereotaktischen Bestrahlung. Eine Ursache ist die zu zeit- und arbeitsaufwändige Konturierung im Messphantom. Zukünftige Prüfungen werden mit einem anderen Messphantom des gleichen Herstellers fortgeführt.
In Bezug auf den bevorstehenden Beschleunigerwechsel ist eine erneute Prüfung aller Geräte, eine Neuevaluierung der Testergebnisse sowie eine Neuverfassung der Arbeitsanweisung zu empfehlen.
Smart City Builder
(2023)
Das europäische Stromnetz muss sich immer größeren Herausforderungen stellen. Um diese meistern zu können bedarf es an Forschung und Innovation. Damit interessierte Bürger die Grenzen des konventionellen Stromnetzes verstehen und Möglichkeiten eines Smart Grid aufgezeigt bekommen, wird eine Demonstratoranwendung benötigt.
Mithilfe von Unity wurde die erste Version des Smart City Builder erstellt und somit der Grundstein gelegt. Der Demonstrator ist jetzt schon in der Lage virtuelle Stromnetze zu bilden und an diesen Berechnungen durchzuführen. Die Anwendung gestattet beliebige Stromnetze zu konfigurieren.
Diese Bachelorarbeit präsentiert hergeleitete Optimierungsmaßnahmen zur Verbesserung der Derotationsbandage, speziell für die beidseitige Anwendung bei Kindern. Hintergrund dessen sind die bei Kindern mehrfach aufgetretenen Probleme beim Handling der Bandage. Die Optimierung basiert dabei auf den Ergebnissen einer Umfrage, welche mit mehreren Orthopädietechnikern der Firma Kajamed durchgeführt wurde sowie dem Vergleich vorliegender Bandagen von verschiedenen Herstellern.
Anhand dieser Erkenntnisse ist es anschließend möglich, eine Reihe von Prototypen zu entwickeln. Die Ergebnisse zeigen, dass die vorgeschlagenen Optimierungsmaßnahmen den Alltag der betroffenen Kinder erheblich erleichtern können und die Selbstständigkeit gewährleistet bleibt, jedoch ebenso das Therapieziel nicht verfehlt wird. Folglich müssen die Bandagen besser auf das soziale Umfeld der Patienten abgestimmt werden um die Einschränkungen so gering wie möglich zu gestalten.
Die Erkenntnisse dieser Bachelorarbeit dienen somit als gute Grundlage für zukünftige Optimierungen solch einer Derotationsbandage für Kinder.
Diese Studie befasst sich mit der Konzeption und Implementierung einer neuen Anwendung zum Schutz vor Angriffen bei der Anmeldung von Neukunden in einem Online-Brokerage-Plattformsystem in Europa. Die Integration sollte einfach sein, so dass das System wie bisher funktioniert, aber zusammen mit der neuen Struktur. Ziel ist es, die Kosten des Unternehmens und zu senken. Um dieses Problem zu lösen, hat der Autor ein Betrugserkennungssystem entwickelt und Tests durchgeführt. Das Erkennungsmuster hat sich als wirksam erwiesen, um betrügerisches Verhalten aufzudecken. Das Papier enthält eine schrittweise Beschreibung der Umsetzung.
Durch die stetig gestiegen Energiepreise wird heutzutage, bei der Abwasserreinigung, die Verwendung von Reinsauerstoff für die Belüftung in der zweiten Reinigungsstufe, wieder vermehrt betrachtet. Denn es lassen sich bis zu 40 % Energie im Gegensatz zur konventionellen Belüftung mit Druckluft einsparen. Wenn Reinsauerstoff heutzutage bereitgestellt wird, kommt diese entweder aus der zentralen Luftzerlegungsanlage oder wird dezentral mittels Druckwechseladsorption bereitgestellt. Eine weitere Methode der dezentralen Versorgung, in die viel Hoffnung gelegt wird, ist die Reinsauerstofferzeugung aus der Wasserstoffelektrolyse.
Alle drei Verfahren haben aus energetischer und ökonomischer Sicht, ihre Vor- und Nachteile, welche ausführlich beschrieben werden.
Es wird allerdings nicht ausreichend, bei der Energieeinsparung nur auf die Reinsauerstoffversorgung zu setzen. Nur mit einer ganzheitlichen Optimierung aller Bereiche, die Einflüsse auf Sauerstoffversorgung haben, wird sich die Umstellung auszahlen.
Um dies darzustellen, wurde für die Arbeit ein Entscheidungstool entwickelt, welche diese energetischen und ökonomischen Einflüsse darstellt.
Das Afterloading ist eine spezielle Art der Strahlentherapie und wird hauptsächlich bei der Behandlung von Prostata-, Leber- und gynäkologischen Krebs angewendet. Die
Behandlung wird in einem, an das Afterloading angepassten, Raum durchgeführt.
Die Firma mtp wird mit der medizintechnischen Planung eines Behandlungsraumes für das
Afterloading beauftragt.
Die medizintechnische Planung des Raumes erfordert ein umfangreiches Vorwissen über
das Afterloading. Das beinhaltet unter anderen die Arbeitsabläufe rund um die Behandlung und das Einhalten der für die Strahlentherapie geforderten Richtlinien.
In der Planung ist eine enge Zusammenarbeit mit den Nutzern, Architekten, Haustechnikern und Elektrotechnikern erforderlich.
In dieser Arbeit ist die frühe medizintechnische Planung des Behandlungsraumes
beschrieben. Ein angefügter Fragenkatalog mit Hinweisen dient als Unterstützung und
Vorlage für zukünftige Planungen im Bereich Afterloading.
Ziel der Arbeit war es, das Ätzverhalten des reaktiven Ionenstrahlätzens anhand von Siliziumdioxid, Silizium und dem Photoresist AZ1505 zu untersuchen. Für die Ätzraten der drei Materialien sowie für die Selektivitäten Siliziumdioxid/AZ1505 und Silizium/AZ1505 sollten Modelle erstellt und mit dem bekannten Prozesswissen validiert werden. Um dies zu erreichen, wurde die Methode des Design of Experiment genutzt, welche versucht, mit einer optimalen Anzahl an Versuchen auszukommen. Zu Beginn wurden Waferschnipsel der drei Materialien erzeugt. Die Siliziumdioxid- und Silizium-Proben besaßen ein binäres Resistgitter mit einer Periode von 3 μm, während die Photoresist-Proben unstrukturiert blieben. Die Proben wurden auf Facettenhalter geklebt und geätzt. Nach den Ätzungen wurden die Ätzabträge mit dem AFM (strukturierte Proben) und der Dünnschichtreflektometrie (flächiger Photoresist) ermittelt. Aus Vorversuchen wurde der grundlegende Versuchsaufbau bestimmt.
Im Screening wurden die drei Faktoren Beamspannung, Ätzgasmischung (bestehend aus CHF3 und O2) und Ioneneinfallswinkel untersucht. Die Faktoren wurden bei ihren zwei extremen Einstellungen getestet, wobei die wichtigsten Faktoren herausgefiltert wurden. In dem anschließenden Response Surface Methodology-Design wurden die wichtigsten Faktoren auf mehreren Stufen untersucht und anhand der Daten die Modelle erstellt. Für jede Zielgröße wurde ein Modell fünfter und vierter Ordnung sowie ein kubisches Modell erzeugt. Es folgten Kontrollversuche zur Überprüfung der Vorhersagequalitäten. Danach wurden die einzelnen Modelle untereinander verglichen und mit dem bekannten Prozesswissen überprüft.
Schlussendlich wurde für jede Zielgröße das Modell gewählt, welches die besten statistischen Eigenschaften, die höchsten Vorhersagequalitäten und den sinnvollsten Verlauf besaß. Im Endeffekt konnte für jede Zielgröße ein Modell erstellt werden.
In den letzten Jahren ist die Rechenleistung von Computern und zugleich die Auflösung der zum anzeigen von Hologrammen benötigten Spatial Light Modulaturen stark angestiegen. Dadurch erfährt das Themengebiet der synthetisch erzeugten Hologramme einen enormen Aufschwung. Es soll daher eine Plattform aufgebaut werden, mit welcher synthetische Hologramme erzeugt und evaluiert werden können. Zudem sollen die Inhalte als Grundlage für einen Versuch zum Einstieg in dieses Themengebiet dienen.
Es wurde mittels eines Transmissions Spatial Light Modulatrs ein inline Versuchsaufbau zum anzeigen von Phasenhologrammen realisiert. Als Methoden zum generieren der Phasenhologramme wurden die Fourier Optik und der Gerchberg-Saxton Algorithmus gewählt. Aus didaktischen Gründen wurde der Versuchsteil in mehrere Teilgebiete unterteilt um ein Gefühl für die verschiedenen Aspekte der digitalen Holografie zu vermitteln. Die so erzeugten rekonstruierten Bilder wurden hinsichtlich ihrer Qualität mittels SSIM bewertet und Effekte welche auftreten erläutert. Zudem wurde der gesamte Pythoncode so angelegt, dass dieser parallel zu dieser Arbeit als eine Versuchsanleitung dienen kann.
Die vorliegende Arbeit beschäftigt sich mit dem Aufbau und der Charakterisierung einer fasergekoppelten Laser-Weißlichtquelle für die Endoskopie. Ziel war es, eine effektive Beleuchtung des Gewebes zu ermöglichen, um eine genaue Diagnose und eine effektive Therapie durchführen zu können. Um das Ziel zu erreichen, wurde die LaserLight SMD als Lichtquelle gewählt, da sie eine hohe Lichtleitung sowie eine hohe Leuchtdichte aufweist.
Im Rahmen der Arbeit wurde zunächst versucht, die Lichtstrahlen zu kollimieren, um das Strahlparameterprodukt (SSP) und die Beugungsmaßzahl M2 zu bestimmen, die für eine optimale Faserkopplung notwendig sind. Allerdings erwies sich dieses Vorgehen als nicht ausreichend. Daher wurde ein zusätzlicher Versuch durchgeführt, bei dem die Laserstrahlen fokussiert wurden. Durch Fokussierung konnte die Beugungsmaßzahl für die geplante Anwendung verbessert werden, was zu einer höheren Bildqualität oder Tiefenschärfe führen kann. Die Messungen zeigen, dass der Laserstrahl optimal fokussiert wurde und eine konsistente Qualität aufweist. Die berechnete Beugungsmaßzahl des Laserlichts ist hoch, was in Endoskopie-Anwendungen jedoch von Vorteil sein kann, da eine gleichmäßige flächige Ausleuchtung gewährleistet werden kann.
Anschließend wurden die Lichtstrahlen in eine Faser eingekoppelt, was zu einer effektiven und optimalen eingekoppelten Lichtstrahlung führte. Die Ergebnisse zeigen jedoch, dass die Transmission der Faser bei einigen Wellenlängen niedriger war als theoretisch erwartet. Es ist daher empfohlen, weitere Untersuchungen durchzuführen, um die Verluste in der Faser genauer zu bestimmen und zu optimieren.
Des weiteren wurde die spektrale Verteilung der Lichtquelle vor und nach der Faserkopplung untersucht, wobei festgestellt wurde, dass die spektrale Leistungsdichte nach der Faserkopplung im Vergleich zur Messung vor der Kopplung deutlich reduziert ist. Dies kann auf Verluste im Fasersystem zurückzuführen sein, die mehrere Peaks in der spektralen Verteilung nach der Faserkopplung verursacht haben.
Insgesamt hat diese Arbeit gezeigt, dass eine fasergekoppelte Laser-Weißlichtquelle für die Endoskopie mit der LaserLight SMD als Lichtquelle eine vielversprechende Option darstellt. Durch die optimale Faserkopplung und Fokussierung des Laserstrahls konnten eine höhere Bildqualität oder Tiefenschärfe und eine effektive Beleuchtung des Gewebes erreicht werden. Es ist jedoch notwendig, weitere Untersuchungen durchzuführen, um die Verluste in der Faser zu minimieren und die spektrale Verteilung zu optimieren.
Das Ziel der vorliegenden Bachelorarbeit ist die prototypische Entwicklung eines Dashboards, unter Betrachtung definierter UX-Faktoren [Win17] für ein bestehendes Planungstool.
Dafür wird ein Prototyp angefertigt, um den Vorstellungen des Kunden möglichst gerecht zu werden. Es werden bestmögliche Gestaltungsoptionen zur Datendarstellung recherchiert und verwendet. Um die Datendarstellung zu optimieren, erfolgt ein erster Prototyp als Skizze. Anschließend begutachtet das Team den Prototyp. Sie geben Anpassungen und Veränderungen ab.
Diese werden im Prototyp implementiert. Mit Hilfe Adobe XD wird ein zweiter digitaler Prototyp angefertigt. Der angefertigte Prototyp wird in die bestehende Anwendung eingebunden. Danach wird das Dashboard mit der bestehenden Anwendung verglichen. Hierzu werden 13 UX-Faktoren benutzt.
Die Werte aus der Befragung werden ausgewertet und miteinander verglichen. Aus diesem Vergleich werden die notwendigen Schlüsse gezogen.
In this project we develop an intelligent water meter based on software solutions offered by the IOTA Foundation. The water meter allows the customer to map water usage in real-time and pay water on demand, as well as the water provider to map water usage on a greater scale, regulate water supply during low- demand phases and offers regulatory functions to prepare for drought or humid climate, and to incentivise sustainable water usage in high-demand fields like agriculture. This functionality is phrased into a research issue:
Invention of a working prototype to demonstrate the IOTA Streams and Wallet protocols for a meter with additional focus on economic efficiency and the technical preparation of scalability.
Utilizing the IOTA streams protocol, a next generation secure data connection is established between the water meter and a server-sided software application. On this connection, water consumption is mapped into a data bench, and informative data and commands are issued to the graphical interface of the meter.
The IOTA wallet library is leveraged to provide customer accounts corresponding to their meter. IOTA tokens can be send to the account, which grants access to water in a matter of seconds. Depending on the regulatory scenario, water flow can be stopped as soon as the account is exhausted (i.e. public well), or an overdraw can be established in order to guarantee fulfilment of basic human rights (i.e. private households).
Since pricing data can be calculated server-sided and water consumption is mapped in very narrow intervals of as low as 4 seconds, the price can be used as tool to regulate consumption.
The physical components include an electrical ball valve to shut down water flow automatically, a command line interface to provide informative data,, a Raspberry Pi running the client-sided software application, and a water meter with MBus-Interface, as well as a Controlling Board to connect the Raspberry Pi with both peripheral devices.
The finished prototype shows, that water consumption can be mapped on a highly secure level, in near real-time, from afar, flexible for most applications.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung einer geeigneten Schnittstelle, welche die Kommunikationsmöglichkeiten zwischen der firmeneigenen Software OnyxCeph3TM und verschiedenen, von anderen Firmen entwickelten dentalen Webportalen erweitert. Dazu wird eine prototypische Software konzipiert und umgesetzt, welche den Frontends der verschiedenen Webportale ein Interface zur Nutzung von verschiedenen Funktionen bereitstellt. Zum Testen der Schnittstelle wird eine einfache Dummywebsite aufgesetzt.
Haltungsanalysen spielen in vielen Bereichen eine Rolle. Die vielfache Nutzung von digitalen Medien in allen Altersgruppen, als auch die Zunahme von Tätigkeiten am Schreibtisch in schlechter Sitzhaltung führen zu einer Zunahme von Rückenbeschwerden. Weitere Einflussfaktoren sind der damit häufig verbundene Bewegungsmangel und die steigende Anzahl von adipösen Menschen. Um langfristige Schäden am Achsenskelett zu vermeiden ist es notwendig Fehlstellungen frühzeitig zu erkennen und zu behandeln. Durch die hohe Anzahl an Patienten ist es notwendig einfache, schnelle und kostengünstige Diagnoseverfahren und Behandlungsmethoden zu verwenden.
Ein bildgebendes Verfahren ist die Rasterstereografie. Kombiniert man diese mit einer Fußdruckmessplatte, lassen sich neben Aussagen über die Stellung des Achsenskeletts auch die Druckbelastungen unter der Fußsohle bestimmen.
Derzeit beschränkt sich dieses Verfahren auf die Aufnahme aus dorsaler Sicht. Diese Arbeit beschäftigt sich mit den Grundlagen der Erstellung von Haltungsanalysen mit einem 360 Grad Scan. Es werden Parameter und Fehlstellungen betrachtet, welche sich durch die 360 Grad Analyse erfassen lassen.
Gegenstand dieser Arbeit ist eine Methode, mit der sich relativ einfach und Substrat-schonend eine photokatalytisch reinigende Oberfläche herstellen läßt. Prinzip: Aufbringen entsprechender Eigenschaftsträger (hoch aktive TiO2 P25 -Partikel) zusammen mit einem Bindemittel (SiO2-Sol-Gel). In der resultierenden Komposit-Schicht müssen die P25-Partikel partiell freiliegen aber auch ausreichend in der Matrix stecken. Es wurden Beschichtungs-Sole mit unterschiedlichen Feststoffgehalten (w(SiO2), w(TiO2)) auf Glas- und Acrylglasscheiben angewandt (Tauchbeschichtung). Durchgeführte Untersuchungen: Methylenblau-Abbautest (photokatalytische Aktivität), Naß-Scheuertest (Abriebbeständigkeit), Profilometrie (Schichtdicke), UV/Vis-Spektroskopie (Transmissionsgrad), REM-EDX-Untersuchung (Partikelmenge und -verteilung; Ti-Gehalt). Ergebnis: geeignete Schichten auf Glas erhalten; Verbesserungspotential bei PMMA; Schichten ganz leicht milchig (auf Grund der Größe der P25-Partikel).
Gegenstand/Zielstellung:
Gegenstand der Masterthesis bilden Kommunikationsbarrieren hörgeschädigter Patienten in der stationären Krankenhausversorgung. Die potenziell davon betroffenen 220.000 Menschen in Deutschland sind zur barrierefreien Kommunikation auf einen Gebärdensprachdolmetscher angewiesen, welcher nicht immer unmittelbar verfügbar ist. Das Konzeptionieren einer App, welche Kommunikation unterstützt und dadurch hilft, Vermeidungsstrategien von Arztbesuchen abzubauen, ist das Ziel der Arbeit. Weiterhin soll diese App einem Dolmetschermangel temporär befristet entgegenwirken können. Digitalisierung bietet hier enormes Potential, sofern eine zielgruppenspezifische und anwenderfreundliche Umsetzung erfolgt.
Methodik:
Zunächst erfolgt eine Zusammenfassung der Datengrundlage (Bachelorthesis). Anschließend soll durch eine kombinierte SWOT-Analyse vorhandene technische und informationstechnischer Unterstützungsmöglichkeiten Hörgeschädigter in der stationären Patientenversorgung eruiert werden. Durch eine 9-Felder-Matrix werden Probleme und Herausforderungen dieser Patientengruppe priorisiert. Zur nutzerbezogenen Modellierung der App wird die Methodik der Persona angewandt. Nicht-funktionale Anforderungen werden durch die Muss-Soll-Kann-Methode kategorisiert. Die Modellierung von Use-Case- und Anwendungsdiagrammen erfolgt mit Microsoft VISIO, ebenso die prototypische Oberflächengestaltung. Letztere begrenzt sich auf das Erstellen von Lo-Fi-Oberflächen (Wireframes).
Ergebnisse:
Es wurden fünf Personas erstellt. Die Kombination von SWOT-Analyse und 9-Felder-Matrix führte zur Definition von Anwendungsfällen (Use-Cases) und nicht-funktionalen Anforderungen. Die Anwendungsfälle wurden durch Use-Case-Diagramme visualisiert und erweitert. Um das Verhalten des Systems zu beschreiben, wurden acht Aktivitätsdiagramme modelliert. Dieses Verhalten wurde in 156 Wireframes dargestellt und an einem Beispielszenario veranschaulicht.
Diskussion/ Schlussfolgerung:
Es konnten alle Ziele der Arbeit erreicht werden. Die genutzten Methoden erwiesen sich als zweckmäßig. Da die Modellierung allein keine Kommunikationsbarrieren in der Patientenversorgung Hörgeschädigter überwinden kann, muss die Anwendung zukünftig zum funktionierenden System entwickelt und auf den Markt eingeführt werden.
Nutzererwartungen an IT-Systeme haben sich in den letzten Jahren verändert. Online-Dienste müssen ständig verfügbar sein und im Millisekunden-Bereich Anfragen bearbeiten. Traditionelle IT-Systeme haben Probleme, die Erwartungen nachhaltig zu erfüllen. Reaktive und asynchrone Systeme erfüllen mit modernen Konzepten die Erwartungen besser.
In dieser Arbeit werden die Grundlagen von Asynchronität und reaktiven Systemen dargestellt. Dazu zählen Konzepte, wie Streaming oder Actor Model. Verteilung und Skalierung von reaktiven Systemen werden betrachtet.
Im Hauptteil der Arbeit wird ein Vergleich von Werkzeugen für die Implementierung reaktiver Systeme durchgeführt. Die Werkzeuge Project Reactor, vlingo XOOM und Akka werden verglichen. Die Vergleichskriterien betrachten u. A. den Funktionsumfang, die Einstiegshürde für Entwickler und die Leistungsfähigkeit der Werkzeuge. Die Bewertung der Kriterien wird durch die Implementierung eines Prototypen mit den drei Werkzeugen unterstützt.
Aus den Bewertungen der Kriterien entstehen Rangfolgen, die durch die Ermittlung der Durchschnittsplatzierungen zu einer Gesamtbewertung der Werkzeuge führen. Aus der Gesamtbewertung und den in dieser Arbeit gewonnenen Eindrücken werden unterschiedliche Einsatzgebiete für die Werkzeuge definiert.
The book is the first of four volumes on data science and artificial intelligence. This first volume covers fundamentals of data science: an introduction to Python programming, software libraries for data management, techniques for working with big data. It contains many exercises and projects with real-world data.
Die Darstellung von Volumendaten in der Medizin reicht vom einfachen Anzeigen einzelner zweidimensionaler Schnittbilder bis hin zur komplexen Analyse dreidimensionaler Datenwolken. Dabei stellen das Direct Volume Rendering und Indirect Volume Rendering zwei wesentliche Methoden der Visualisierung von dreidimensionalen Daten dar.
In der Kieferorthopädie und -chirurgie spielen Darstellungen von DVT-Daten (Digital Volume Tomography) in der Diagnostik oder bei der digitalen Behandlungs-und Operationsplanung eine zentrale Rolle. Da die Volumenvisualisierung immer mehr an Bedeutung gewinnt, entwickeln sich die Rendering-Methoden stetig weiter. Insbesondere für Implementierungsaufgaben in eigene Systeme müssen aktuelle Entwicklungs- und Forschungsarbeiten stets verfolgt und analysiert werden. Ziel dieser Arbeit ist die Darstellung und Auswertung aktueller Methoden des Direct Volume Rendering, sowie der Extraktion von Objektoberflächen mittels des Indirect Volume
Rendering. Ein weiteres Ziel ist die Erstellung eines umfangreichen Überblickes über bereits praktisch, implementierte Rendering-Methoden. Auf Grundlage der Ergebnisse können Software-Funktionen in OnyxCeph realisiert werden. Sowohl für das direkte, als auch indirekte Volumen-Rendering wurde eine theoretische Literaturrecherche und eine Übersicht der praktischen Anwendung der untersuchten Verfahren erarbeitet. Anhand der Recherche und Analyse wissenschaftlicher Arbeiten konnten Kenntnisse über theoretische Ansätze sowie aktuelle Forschungsergebnisse im Bereich der Visualisierung von Volumendaten gewonnen werden. Weiterhin wurden ausgewählte Software-Produkte genutzt, um bereits eingesetzte Rendering-Verfahren auf Funktionalität und Leistungsfähigkeit zu analysieren.
Im Bereich des Direct Volume Rendering konnten erweiterte Interpolations-, Klassifikations-, Schattierungs- und Visualisierungsmethoden des Ray Casting-Algorithmus untersucht werden. Die 1D Gauß-Transferfunktion stellte sich als
eine einfache und nützliche Alternative zu konventionellen stückweise-linearen Übertragungsfunktion heraus. Für eine detaillierte Darstellung kann der Verarbeitungsprozess durch Shading-Methoden erweitert werden. So sind in der Praxis überwiegend gradientenbasierte Shading-Modelle eingesetzt. Deep Shadow Maps stellen dabei eine nützliche Ergänzung dar. Weiterhin konnten erweiterte Rendering-Methoden untersucht werden.
Neben der Maximum Intensity Projection kann die Minimum Intensity Projection für die Darstellung von Wurzelkanälen eingesetzt werden. Die Depth-enhanced Maximum Intensity Projection und Maximum Intensity Difference Accumulation bieten zwei vereinfachte Alternativen zum Ray Casting an, um eine nahezu korrekte dreidimensionale Darstellung erstellen zu können. Die Maximum Intensity Difference Accumulation erwies sich im Rahmen dieser Arbeit als eine besonders effektive Erweiterung zu bereits vorhandenen
Rendering-Verfahren. Auf Grundlage der gewonnenen Erkenntnisse während Recherchearbeit konnte Maximum Intensity Difference Accumulation in das Software-Produkt OnyxCeph implementiert werden. Die generierten Visualisierungen ermöglichten eine verbesserte Tiefenwahrnehmung, die dem klassischen Direct Volume Rendering ähnelt. In Kombination mit Beleuchtungsmethoden können zudem Oberflächenstrukturen analysiert werden.
Im Indirect Volume Rendering spielte die Segmentierung einzelner Volumenstrukturen durch das Iso-Surface Rendering eine besondere Rolle. Zur Generierung einer Oberfläche können verschiedene Methoden, wie der klassische Marching Cube-Algorithmus, die Level-Set-Methode und Surface-Nets eingesetzt werden. Die Literaturrecherche zeigte, dass Bestrebungen unternommen wurden, um alternative Algorithmen zum konventionellen Marching Cube-Verfahren zu entwickeln. So besteht die Möglichkeit den Rechenaufwand durch einen Simplified Pattern Marching Cube- oder Marching Tetrahedra-Algorithmus zu reduzieren. Weiterhin wurden Erweiterungen zur verbesserten Darstellung betrachtet.
So kann durch den Laplace-Filter oder Mittelwertfilter eine Weichzeichnung der Oberflächennetze erzeugt werden. Für eine erhöhte Auflösung besteht die Möglichkeit, die konventionelle Catmull-Clark -Methode oder die 4-8 Subdivision anzuwenden. In diesem Projekt konnte ein umfangreicher Überblick über aktuelle Methoden der Visualisierung von Volumendaten in der Zahnmedizin erstellt werden. Dabei repräsentieren sowohl die theoretischen, wissenschaftlichen Ansätze, als auch die praktische Lösungsansätze den aktuellen Stand der Technik und Forschung. Die Erkenntnisse können die Grundlage für Implementierungen darstellen.
Die analytische Elektronenmikroskopie ist eine häufig genutzte Charakterisierungsmethode für Festkörperoberflächen. Sie findet im Rahmen der Entwicklung, Modifizierung und Prüfung von Werkstoffen weitreichenden Einsatz. Daher bildet dieses Verfahren einen wesentlichen Baustein der Fachhochschulausbildung in vielen physikalisch orientierten Studiengängen.
Die vorliegende Arbeit befasst sich mit der Erstellung eines Praktikumskonzeptes für die Ausbildung von Bachelor- und Masterstudierenden an der Fakultät PTI der Westsächsischen Hochschule Zwickau. Insgesamt vier sowohl mikroskopisch als auch spektroskopisch orientierte Versuche wurden so gestaltet, dass sie didaktisch aufeinander aufbauend absolviert werden können. Dafür wurden zahlreiche Proben, unterschiedliche Detektoren sowie Kontrastvarianten auf ihre methodische und laborpraktische Eignung hin untersucht. Außerdem erfolgte eine vergleichende Betrachtung des Einflusses diverser Anregungs- und Auswerteparameter bei der energiedispersiven Röntgenspektroskopie.
Anhand von Experteninterviews, Peer-Befragungen und studentischem Feedback konnten sowohl die Gestaltung der Aufgabenstellung als auch der zeitliche Ablauf der Praktika optimiert werden. Zusätzlich fließen Berechnungen sowie komplexe Übungen als neue Komponenten in die Experimente ein. Durch eine adressatenspezifische Anpassung hinsichtlich Inhalt und Probenmaterial können die Praktika für Teilnehmer der Biomedizin- und Umwelttechnik oder perspektivisch auch anderer Studiengänge noch interessanter gestaltet werden.
Die strahlentherapeutische Behandlung mit Protonen von bestimmten Tumorentitäten, welche sich zum Beispiel in der Lunge, dem zentralen Nervensystem oder der Prostata befinden, stellt eine vielversprechende Alternative zu der konventionellen Photonentherapie dar. Zur Bestrahlungsplanung für die Bestrahlung mit Protonen werden Computertomographien (CT) verwendet.
Da es keinen direkten mathematischen Zusammenhang zwischen den Wechselwirkungen von Photonen bei der CT-Bildgebung und Protonen bei der Bestrahlung gibt, müssen heuristische Kalibrierkurven (HLUT) für jedes CT-Gerät individuell angefertigt werden. Die Motivation der Arbeit war es, das Kleintierbestrahlungsgerät Small Animal Radiation Treatment integrated beamline (SmART+ IB) für die Strahlenforschung mit Protonen vorzubereiten, das heißt die Voraussetzungsen für die Bestrahlungsplanung im Protonenstrahl zu schaffen.
Diese Masterarbeit beschäftigt sich mit der Erstellung von HLUT’s für das SmART+ IB zur zukünftigen Bestrahlungsplanung für Protonen-Kleintierbestrahlung. Im Rahmen dieser Arbeit wurden die Bildqualität und die Strahlendosen von vier Aufnahmeprotokollen des SmART+ IB’s ermittelt, bewertet und mit dem Präzisionbestrahlungsgerät für Kleintiere (SAIGRT) verglichen. Das SAIGRT wird aktuell zur Bestrahlungsplanung mit Protonen am „OncoRay - Nationales Zentrum für Strahlenforschung in der Onkologie“ verwendet. Die Ergebnisse zeigen eine gleichwertige Bildqualität und Strahlendosis der CT-Aufnahmen der beiden Geräte. Jedoch entstehen durch Strahlaufhärtungsartefakte Abweichungen von bis zu 50 HU von der tatsächlichen CT-Zahl eines zylinderförmigen Phantoms mit einem Durchmesser von 30 mm.
Zusätzlich wurden im Rahmen der Arbeit HLUT’s nach der empirischen Methode und nach der stöchiometischen Methode erstellt. Mithilfe von unbekannten Materialien konnte die Genauigkeit der erstellten HLUT’s validiert werden. Der wichtigste Teil der Bestrahlungsplanung ist die Reichweitenvorhersage und mittels dem Bildgebungsprotokoll Mouse Bone Low Dose (60 kV; 0,5 mA) und der empirischen HLUT kann bei einer Strahlendosis von 22 mGy die Reichweite auf 0,5 mm genau bestimmt werden.
Berliner Blau wurde mittels potentiostatischer elektrochemischer Abscheidung auf Gold und ITO synthetisiert.
Eine Untersuchung der Morphologie und der Zusammensetzung wurde in Abhängigkeit von ausgewählten thermodynamischen Eigenschaften durchgeführt. Diese wurden zusammen mit hergestellten Schichten von Natriumhexacyanoferrat und Cobalthexacyanoferrat mithilfe ausgewählter spektroskoskopischen Untersuchungsmethoden (REM, XPS, EDX, XRD, Raman) analysiert. Kubische Kristalle unterschiedlicher Gitterparameter und Zusammensetzung konnten ermittelt werden. Elektrische Messungen konnten ein resistives Schaltverhalten in den untersuchten Schichten zeigen.
Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von TiN/AlN-Multischichten. Ein besonderer Fokus liegt dabei auf der Untersuchung der thermischen Stabilität der Schichten.
Die Erzeugung der Schichtsysteme erfolgt mittels reaktivem RF-Magnetronsputtern in der Beschichtungsanlage LA 250 S (Fa. Von Ardenne). Es werden zwei Typen von Multischichten hergestellt: Typ 1 mit Periodendicken d = 14,1 nm…15.9 nm und Typ 2 mit Periodendicken dP = 4,44 nm…5,35 nm.
Um die thermische Stabilität zu untersuchen werden die Proben bei unterschiedlichen Temperaturen im Bereich von 170 °C…800 °C unter Stickstoffatmosphäre getempert.
Zur Charakterisierung der Schichtsysteme wird neben der Röntgenreflektometrie (XRR) die Röntgenphotoelektronenspektroskopie (XPS) verwendet. Dabei dient die XRR zur Bestimmung der Dichte und Schichtdicke, respektive Periodendicke der Schichten. Die XPS liefert währenddessen Aussagen zur Schichtzusammensetzung.
Die Untersuchungen zeigen eine thermische Stabilität der Multischichten für Temperaturen bis 700 °C hinsichtlich ihrer Multischicht-Struktur. Bei einer Temperatur von 800 °C bleiben die Multischicht-Strukturen jedoch nicht erhalten.
In dieser Arbeit wird ein statistisch anlernbares Modell vorgestellt, das in der Lage ist die komplexwertige Übertragungsfunktion einer optischen Multimodefaser auf Basis ebenfalls komplexwertiger Datensätze zu approximieren.
Zu diesem Zweck werden komplexwertige Schichten eines neuronalen Netzes implementiert und ein deterministisch inspiriertes Modell des zugrundeliegenden Systems aufgebaut. Die Konvergenz des Modells beim Training
für verschiedene, durch Simulation erhaltene, Datensätze wird gezeigt. Die Interpretierbarkeit des Modells in dem Sinne, dass aus dem antrainierten Modell die Eigenlösungen der zugrundeliegenden Differentialgleichungen, also die Moden der Faser gewonnen werden können, wird ebenfalls überprüft.
Zudem wird gezeigt, dass ein effizientes Umlernen des Modells auf sich kontinuierlich verändernde Faserzustände möglich ist, solange die eingeführten Perturbationen nicht zu stark vom jeweils vorherigen Zustand abweichen.
Die Diagnosefindung für Hautkrebserkrankungen kann mit neuronalen Netzen erleichtert werden. Diese benötigen jedoch eine große Anzahl an Trainingsdaten, die im medizinischen Kontext häufig nicht vorhanden sind.
In dieser Arbeit wird ein Cycle-GAN genutzt, um Bilddaten zur Erweiterung begrenzter, medizinischer Datensätze zu erzeugen. Ein öffentlich zugänglicher, dermatologischer Bilddatensatz dient als Grundlage des Trainings. Die gewählte Architektur erlaubt es, Daten der Klasse Naevi in Daten der Klasse Melanome umzuwandeln. Der Einfluss verschiedener Parameter wurde untersucht.
Ein Großteil der durchgeführten Versuche konzentriert sich auf die Gewichtung der vier Lossfunktionen, anhand derer das Netz seinen Trainingsprozess optimiert. Wobei der adversariale Loss die Klassenzugehörigkeit bewertet, der Identitätsloss zur Qualitätserhaltung dient und die beiden Cycle-Loss den mathematischen Identitätsfunktionen der Datenverteilungen entsprechen.
Weiterhin wurde die Wirkung der Datenstandardisierung und -vorbereitung geprüft. Auch die Folgen einer Mehrfachnutzung ausgewählter Daten wurden betrachtet. Die Diskriminatoren des Cycle-GAN wurden hinsichtlich ihres Nutzens als Klassifikatoren für reale Daten getestet. Um die Nutzbarkeit der generierten Daten in Trainingsprozessen zu prüfen, wurde ein Klassifikator auf realen und anschließend auf generierten Daten trainiert.
Die erzielte Genauigkeit für Melanome stimmte in beiden Trainingsprozessen überein.
Das Ziel dieser Arbeit ist es eine Migration des Java – Programms in die Produktivumgebung bzw. des MES Systems zu vollziehen.
Dabei wird der Aufbau des Programms grundlegend verändert bzw refactort. Zusätzlich dazu erfolgt eine Betrachtung und ggf. Vereinfachung der Datenbeschaffung– und Haltung. Des Weiteren ist die Schnittstellenfunktionalität zu erweitern. Hierunter fällt u.a. die Anforderungsanalyse, Ausweitung der Datenbeschaffung bzw. Speicherung (z.B. redundante Speicherung der Daten abzulösen).
Gegenstand der vorliegenden Arbeit ist es, die mechanischen Eigenschaften additiver Fertigungsverfahren unter Berücksichtigung der Bauraumausrichtung während der Herstellung zu untersuchen. Daraus soll eine optimale Ausrichtung für 3D gedruckte Schädelimplantate bezogen auf deren Festigkeit resultieren. Für die Durchführung dieser Versuche werden standardisierte Prüfverfahren in Form von Zugversuch und Kerbschlagbiegeversuch gewählt. Die Defizitanalyse konzentriert sich dabei auf die werkstofftechnischen Aspekte. Hierbei sollen verschiedene Prozessparameter für die additive Fertigung eingestellt werden, wodurch eine Einflussbeurteilung am gedruckten Bauteil erfolgen kann. Des Weiteren sollen bestehende Fertigungsverfahren patientenspezifischer Schädelimplantate auf deren Materialeigenschaften sowie Biokompatibilität aufgelistet und untersucht werden. Daraus ergibt sich ein selbst zu konstruierender Versuchsstand, welcher das Verhalten von Schädelimplantaten in einem Schädelmodell bei externer Krafteinwirkung untersucht.
Die Bundesregierung um Olaf Scholz plant, den Marktanteil der erneuerbaren Energien bis 2030 auf bis zu 80 % zu erhöhen, um den Klimawandel zu bekämpfen. Dies erfordert nicht nur den Bau von mehr Anlagen, sondern es ist auch wichtig, deren Effizienz zu verbessern. Daher ist es entscheidend, die Bedeutung von "Effizienz" zu verstärken. Eine Anlage muss nicht nur mit möglichst wenig elektrischen Verlusten arbeiten, sondern auch kostengünstig sein. So hat ein Entwickler von Photovoltaikanlagen wie die Leipziger Energie die Aufgabe, Komponenten einzusetzen, die einen hohen Energieerzeugung und geringe Verluste aufweisen und zu einem vernünftigen Preis erworben werden können. Eine dieser Komponenten sind die Kabel, die die Wechselrichter mit dem Transformator verbinden, die unterschiedliche Mengen an Spannungen leiten können. In dieser Arbeit will ich verschiedene Formationen von PV-Anlagen mit variablen Spannungsebenen untersuchen, die sich auf die technische Realisierung, die wirtschaftliche Machbarkeit und die Nachhaltigkeit beziehen. Dazu habe ich drei verschiedene Formationen der gleichen Größe, aber mit unterschiedlichen Abmessungen geplant. Die besten Ergebnisse wurden durch die quadratische Formation mit der höchsten Spannung von 690 V erzielt. Die geringstmöglichen Kosten für den Entwickler sind mit einem Kernquerschnitt von 95 mm² gegeben, wobei die höchste Reduzierung der Kohlendioxidemissionen bei einer Spannungsebenen von 800 V mit einem Kernquerschnitt von 300 mm² erzielt wurde. Obwohl die Preise mit einem höheren Querschnitt und einer höheren Spannungsebene steigen, würde ich sie persönlich empfehlen, da sie zu einem immer noch vernünftigen Preis nachhaltiger sind.
Innerhalb des Basisstationsherstellers entwickelt das Softwareteam automatisierte Testfälle und zugehörige Softwarebibliotheken für Testingenieure Mit der Popularität von 5G hat die Komplexität der Funktionen und Szenarien von Basisstationen zugenommen, was zu einer hohen Nachfrage nach Testautomatisierung für Basisstationen geführt hat. In dieser Arbeit wurde die Möglichkeit untersucht, ein System zu entwickeln, das die Erstellung und Ausführung von Testfällen erheblich vereinfacht, um die Arbeitsbelastung von Testingenieuren und Entwicklern zu verringern. Bei der Konzeption dieser Arbeit wurden Anforderungsanalyse und Datenmodellierung eingesetzt. Die System-implementierung ist eine Webanwendung, die auf Python und dem Django-Framework basiert und mit der sich Robot Framework-Testfälle generieren und ausführen lassen. Die implementierte Anwendung demonstriert die Machbarkeit des in dieser Arbeit beschriebenen Systems.
In dieser Arbeit wird sich der Weiterentwicklung eines Verfahrens zur Übertragung von Strukturen auf metallischen Schichten, welche sich auf einer gekrümmten Oberfläche befinden, gewidmet.
Hierfür wurden zuerst PDMS-Stempelmaterialien untersucht und für das weiteren Vorgehen basierend auf den Ergebnissen ausgewählt. Anschließend wurden Resistmaterialien für die Etablierung des NIMB-Verfahrens charakterisiert. Für das weitere Vorgehen wurde sich hier für zwei Resistmaterialen entschieden. Erste Versuche haben gezeigt, dass für die in dieser Arbeit zu strukturierende Metallschicht nur Gold verwendet werden kann. Weitere Versuche während der Erprobung des NIMB-Verfahrens haben gezeigt, dass hierbei Randdefekte auftreten. Aufgrund dieser Erkenntnis wurden die Prozessparameter an diese Problemstellung angepasst. Zusätzlich konnte festgestellt werden, dass sich dieses Verfahren nicht für die Übertragung von Strukturen im Mikrometerbereich in Bezug auf die Strukturhöhe eignet. Da die Beschichtung von gekrümmten Oberflächen nicht mit einer Lackschleuder zu realisieren ist, wurde sich im Anschluss mit dem Prägen von Substraten beschäftigt, welche mit der floating-film-transfer-methode beschichtet und im Anschluss mit einer Goldschicht bestückt wurden.
Hierbei konnte eine ungleichmäßige Schichtdickenverteilung festgestellt werden, jedoch ist es möglich, diese Substrate zu strukturieren. Nun wurde dieses Verfahren auf Glassubstrate übertragen. Hier konnte festgestellt werden, dass das Temperaturverhalten in der verwendeten Anlage nicht genau definiert werden konnte, welches eine Voraussetzung für die Strukturierung mit den verwendeten Resistmaterialien ist. Es sind weitere Versuche und
Messungen erforderlich, um eine erfolgreiche Strukturierung der zylindrisch gekrümmten Linsen durchführen zu können.
Validierung einer Messmethode zur Vermessung von Extraktionsgittersystemen für Ionenstrahlquellen
(2022)
Die Vermessung von Ionenstrahlextraktionsgittersystemen ist eine komplexe messtechnische Aufgabe. Im Rahmen dieser Arbeit werden die prozessbestimmenden geometrischen Elemente betrachtet. Das zweite Kapitel der Arbeit erläutert die Grundlagen des angewandten Messverfahrens. Zu Beginn erfolgt eine Einordnung des Messverfahrens in die Bereiche der optischen Messtechnik. In der Folge werden die Prinzipien des Lichtschnittverfahrens und Streifenprojektion beschrieben sowie die Vor- und Nachteile des jeweiligen Messprinzips diskutiert. Im letzten Teil des zweiten Kapitels werden die einzelnen Bestandteile des 3D-Profilomters und die technischen Details näher betrachtet. Entscheidende Komponenten des Messystems werden in ihrem Aufbau und ihrer Funktion erläutert.
Im dritten Kapitel erfolgt die Erläuterung der Messstrategie und der Auswertung der erhaltenen Messwerte. Für eine bessere Übersicht werden die einzelnen Gitterelemente separat betrachtet aufeinander aufbauende Messungen werden im Zusammenhang erörtert. Beginnend werden die Durchmesser der Bohrungen des Lochfeldes vermessen und ausgewertet. Die Abstandsmessung der Bohrungen baut auf den gemessenen Durchmessern auf und wird im Anschluss betrachtet. Die Orientierung des Lochfeldes verknüpft die Messungen der Bohrungsdurchmesser mit den Messungen der Bohrungen des Positionierkreises, die im Folgenden betrachtet werden. Der letzte Teil des dritten Kapitels beschäftigt sich mit der Vermessung der Krümmungsradien des Lochfeldes der Gitter.
LEGO robotics sets are a well established tool for teaching programming in undergraduate courses. Starting with the now outdated EV3 set LEGO provided a Python programming interface and (inofficial) Linux support. The current LEGO Spike Prime set still provides Python programming, but no direct support for Linux.
In this report we collect and extend information on controlling Spike Prime robots from Linux hosts. We cover access to a robot's Python interpreter and code transfer as well as bidirectional robot-to-host communication via USB and Bluetooth. Results may be extended to robot-to-robot communication via Bluetooth.
Ziel dieser Arbeit ist es Konzepte des Compressed Sensing im Bereich des Ghost Imaging zu implementieren, um den messtechnischen Aufwand für die Abtastung und Rekonstruktion einer Szene zu minimieren. Dazu werden Ansätze im klassischen sowie im Computational Ghost Imaging verfolgt, sowie verschiedene für die Abtastung genutzte Modulationspattern und limitierende Faktoren der Messsysteme diskutiert. Es kann eine strukturelle Auflösung von 140,25 μm realisiert werden.
Diese Masterthesis untersucht die Möglichkeit, Context Mapping mit Hilfe von JetBrains MPS modellieren zu können und dabei auch Fachlogik in Form von Code in die Modelle einfließen zu lassen.
Das Ziel besteht darin, eine DSL zu entwickeln, welche von Anwendern genutzt werden kann, um Bounded Context, die Beziehungen zwischen den Bounded Contexts und Fachlogik zu modellieren.
Natural Language Processing (NLP) is a wide area in computer science and software engineering that finds its application not only in such fields as machine learning or artificial intelligence, but also has very quickly become a very popular solution to various questions and issues raised in the academic field. Those issues include information classification, text analysis, performing a so-called “smart search”, information grouping, providing feedback to academic papers, and many more. The application designed and implemented for this thesis targets solving a similar problem, which is described in details below.
The faculty of Physical Engineering and Informatics at the Westsächsische Hochschule Zwickau uses a software tool called “Quest”. The “Quest” serves as an online platform that enables students to ask questions regarding the module material introduced by the teaching professors. The professors can use these questions in order to keep track of the topics rising the most amount of uncertainty, as well as to clarify those questions during the lectures. Since the modules repeat over time, similar or identical questions are frequently asked by students.
The current functionality of the “Quest” tool, however, does not provide grouping or clustering questions with a similar content into one category. The reason why this is important is because in the future phases of the improvement of the functionality of the “Quest”, professors want to be able to link similar questions with a learning material or online resources that the students can benefit from. This, however, is only possible when each incoming question is labeled with a certain category, and all previously inputted questions associated with this category become visible through the UI of the tool. That would allow students to review the questions referring to the same category that were previously asked by others, as well as to get access to the study materials or resources associated with that category.
The functionality described above would significantly improve the study process and therefore a solution to this problem is needed. One way to solve this issue would be to perform a manual classification of existing questions into associated categories, which given the large size of the question database would be quite time- and effort-consuming. Another option would be to build an application that would be able to analyze the existing dataset of questions and, with the help of the NLP techniques, classify new questions asked by students and identify the similar ones from an existing database.
The tool implemented for the above-mentioned purposes aims to serve as text analytics and classification application that would be able to find and categorize similar text and questions provided by students and/or professors at the Westsächsische Hochschule Zwickau.
This bachelor thesis demonstrates the process of building a software tool using certain NLP techniques, such as tokenization, model training, categorization, NER (Named Entity Recognition), and POS (Parts of Speech tagging), which are defined and described in Chapter 2: “Literature Overview”. The relevance of these techniques in terms of the classification tool built in the context of this thesis is discussed in the section “Selection of NLP tools and techniques” of the “Methodology” chapter.
The aim of this thesis is to describe the methods and software tools used to develop a restful API for text classification, as well as to compare and analyze the effectiveness of two common NLP classifiers – the Naïve Bayes and Logistic Regression (Entropy Model) algorithms.
This work aimed to apply the Floating Film Transfer Method (FTM), developed by Kaneto et.al., as a new way of coating planar and nonplanar substrates with photoresist. Focus laid on the creation of a workflow to coat the substrate and process it by UV-Lithography and Nanoimprint lithography. Conventional coating methods like spin-, spray- or dip coating are well established in today’s industry but are limited in their capabilities to coat curved and structured surfaces. FTM offers the possibility to overcome these limitations. Therefore, two negative resists AR N 4400 and AR N 4600 10 as well as two positive resists AR P 3110 and AZ MIR 701 were drop cast on deionized water. The resist spreads into a thin film that can be transferred to a planar or curved substrate. Profilometric and ellipsometric measurements were conducted to evaluate the topography of the resist. A non-uniform thickness distribution was found depending on the resist and parameters like solid content, water temperature, and the amount of surfactant. UV-Lithography and Nanoimprintl ithography were successfully performed with these films. Resolutions as low as 2,3±0,4 µm were achieved by UV-Lithography of AR P 3110. A periodic pattern with a pitch of 1,51 µm was transferred by thermal nanoimprint lithography to AR N 4400 10. As proof of concept Laser Direct Writing was performed to structure AZ MIR 701coated on a glass vial.
In der Abfallwirtschaft entstehen durch die Aufarbeitung vielfältige Stoffströme, die ihrerseits verwertet oder beseitigt werden müssen.
In der vorliegenden Arbeit muss ein feuchter Feststoff aus der Abwasseraufbereitung so konditioniert werden, dass vorhandenes metallisches Aluminium entfernt werden kann. Diese Konditionierung ermöglicht die energetische Verwertung in einem Ersatzbrennstoffkraftwerk vor Ort.
Hierzu stehen die Wege der Aufbereitung des anfallenden Feststoffes, sowie eine Feststoff-Feststoff-Separation im Abwasserstrom offen. Die nachträgliche Konditionierung des Feststoffes ist auch mit hohem Aufwand nicht möglich, so dass Lösungen für die Separation im Abwasserstrom gesucht wurden.
Hier zeigte sich, dass die vorhandenen Fasern einer mechanischen Belastung durch Luftbeaufschlagung nicht aushielten und weiter zerfielen. Das so teilhomogenisierte Abwasser erlaubte die Trennung von Aluminium vom Wasser, ohne das Faserreste im großen Maßstab mit abgetrennt wurden.
Diese Laboruntersuchungen müssen für eine praktikable Anwendung in einem zweiten Schritt auf ein Technikumsmaßstab hochskaliert werden.
Die Arbeit nutzt das Requirements Engineering zum Erheben funktionaler und nicht-funktionaler Anforderungen an eine Bedienoberfläche. Zielgruppe sind ältere multimorbide Menschen. Die zu entwickelnde App soll die Möglichkeit einer Videosprechstunde und das Übertragen von Vitaldaten, die von medizinischen Kleingeräten gewonnen wurden, an die elektronische Patientenakte ermöglichen.
Ziel dieser Arbeit ist es die Wirkungsweise der CO2¬-Trockenbadtherapie zu untersuchen. Dies wurde unter Verwendung von zwei Messgeräten durchgeführt. Zum einen das VNS Analyse Gerät der Firma COMMIT GmbH, mit dessen Hilfe die Herzratenvariabilitäts Analyse durchgeführt wurde und zum anderen das Gerät der Firma „Diaspective Vision GmbH“, welches die Hyperspektral Analyse ermöglichte. Die Untersuchungen wurden an Patienten der Unfallchirurgie des Heinrich-Braun-Klinikums durchgeführt. Diese sollten bisherige Kenntnisse festigen und konnten Effekte der Therapie auf das vegetative Nervensystem nachweisen.
Eine Vielzahl bekannter neuroorthopädischen Erkrankungen wirkt sich beträchtlich auf die kognitiven und motorischen Fähigkeiten des Betroffenen aus und verursacht teils massive pathologische Gangmuster. Für die erforderliche Symptombehandlung gewinnen Laufbandtherapien in der medizinischen Rehabilitation immer mehr an Bedeutung.
Während der Erarbeitung der vorliegenden Bachelorarbeit konnten zahlreiche Informationen vom interdisziplinären Team (Arzt, Orthopädietechniker, Therapeuten, Patientin) eingeholt werden, woraus der tatsächliche Umfang und die Wirkungsweise eines auf eine Beispielpatientin mit Hereditärer Spastischer Spinalparalyse angewandten Therapiekonzepts erweitert werden konnte. Auf der Grundlage einer Laufbandtherapie, der Zuhilfenahme einer Knöchel-Fuß-Orthese und des Behandlungskonzeptes (Dehnung des Musculus iliopsoas, kognitive Schulung des Gehens) wurde zusätzlich der interdisziplinäre Erfolg mit den gewonnenen Erkenntnissen betrachtet und auf eine Eignung des Konzeptes zur weiterführenden Validierung verwiesen. Daraus folgend ergab sich die Anfertigung eines möglichen Therapieleitfadens.
Es ließ sich zudem eine potentielle Wirksamkeit der Therapie anhand der Beispielpatientin weitestgehend feststellen, jedoch erwies sich der zeitliche und der inhaltliche Umfang des vom Arzt eingangs angenommen Behandlungskonzeptes als unzureichend.
Die Masterarbeit gibt einen Einblick in die Entwicklung einer selbstheilenden und fehlertoleranten Software.
Ziel der Masterarbeit war es, ein Konzept zu erstellen und einen Prototyp eines selbstheilenden und fehlertoleranten Systems zu implementieren. Um dieses Ziel zu erreichen, werden wichtige Konzepte wie reaktive Systeme, Actor Model und Fehlertoleranz-Patterns berührt. Auf der Grundlage der Analyse und praktischen Anwendung der oben genannten Begriffe wurden ein Konzept und ein Prototyp eines sich selbstheilenden und fehlertoleranten Systems entwickelt. Daraus kann geschlossen werden, dass das Ziel der gesamten Arbeit erreicht worden ist.
Experimentelle Anbindung von React, TypeScript und Webpack an eine bestehende J2EE-Web-Anwendung
(2022)
Diese Studie befasst sich mit der Integration des React UI-Frameworks in das bestehende System einer der größten Broker-Plattformen in Europa.
Die Integration muss sicher und sanft verlaufen, so dass das System wie zuvor funktioniert, aber zusammen mit dem neuen Framework.
Das Ziel ist es, die Leistung und Effizienz des Systems zu optimieren. Um dieses Problem zu lösen, führte der Autor eine Reihe von Experimenten durch, um das neue Framework sicher in das bestehende System zu integrieren.
Als Ergebnis entwickelte er ein Proof of Concept und beschrieb dessen schrittweise Umsetzung.
Automatische Codegenerierung für Domain-Driven Design-Implementierungen auf Basis von Event Modeling
(2022)
In dieser Arbeit wird das „ONoteReader“-Projekt vorgestellt.
Hierbei handelt es sich um eine frei verfügbare und nicht kommerzielle Software, die auf Basis eines „Event Models“ [Dym19] wiederverwendbaren Programmcode generiert. Event Modeling ist eine Methode, Systeme ausführlich zu modellieren und deren Verhalten zu beschreiben, bevor diese implementiert werden. Dabei wird der Fokus auf eine ereignisgesteuerte Systemarchitektur gelegt. Die für den Vorgang benötigten Event Models werden von „oNote“ (onote.com) bereitgestellt. oNote ist ein Online-Tool, mit dessen Hilfe man ereignisgesteuerte Informationssysteme designen kann [oNo21]. ONoteReader ist eine Desktop-Anwendung, die ein in oNote entworfenes Event Model in Form einer JSON-Datei entgegennimmt.
Dieses Modell wird in Java-Quellcode umwandelt und anschließend im gewählten Dateiverzeichnis des Nutzers abspeichert.
Ziel der Software ist es, die fachlichen und technischen Bestandteile des Event Models so wiederzuverwenden, wie sie zuvor definiert wurden. Dadurch kann aus dem vorliegenden Modell direkt und ohne Aufwand Code generiert werden, ohne diesen selbst implementieren zu müssen. Der hierbei generierte Java-Code spiegelt das Event Model detailgetreu wider und orientiert sich dabei an der Vorgabe von „Domain-Driven Design“ (DDD). Einem Ansatz, bei dem das Software-Entwurfsmodell der Fachlichkeit des zugrundeliegenden Systems entsprechen soll [Ver13]. ONoteReader richtet sich an jene, die vorhaben, ein oNote Event Model in Java umzusetzen und dabei Zeit und Aufwand sparen möchten.
Die N+P Informationssysteme GmbH möchte ihren Kunden mobiles Arbeiten mit dem digitalen Zwilling ermöglichen. Da sollte über eine Cross-Platform-Framework und mit der Hilfe eines 3-D-Viewer geschehen.
Das Ziel dieser Arbeit ist es, einen Überblick über die verschieden Cross-Platform-Frameworks und 3-D-Viewer und aus diesen einen Prototypen zu entwickeln. Dafür wurde eine durch eine Literaturrecherche die fünf meist genutzten Frameworks verglichen. Es wurde geschaut, welche Funktionen diese besitzen, welche
Programmiersprache genutzt wird und welche Betriebssysteme unterstützt werden. Außerdem wurde sich die Dokumentation angeschaut. Diese wurden jeweils kurz vorgestellt und dann durch eine Tabelle verglichen. Die 3-D-Viewer wurden ebenfalls mit einer Literaturrecherche verglichen. Die Funktionen sowie die unterstützten Dateiformate wurde bei den 3-D-Viewern betrachtet. Es wurde auch gezeigt, ob diese quelloffen oder proprietär sind und ob eine Lizenz zur Nutzung benötigt wird. Wie bei den Frameworks wurden diese vorgestellt und mit einer Tabelle verglichen.
Das Ergebnis der Recherche ergab, das sich Flutter als Framework und der Autodesk-Forge-Viewer den Anforderungen entsprechen. Flutter entsprach den Anforderungen, das es modernes Framework ist, welche stetig weiter entwickelt und verbessert wird. Als 3-D-Viewer wurde der Forge-Viewer ausgewählt. Da dieser alle benötigten Dateiformate unterstützt. Die N+P Informationssysteme GmbH besitzt eine Lizenz für den Forge-Viewer. Der Prototyp ist eine App, welche beim Starten ein 3-D-Modell anzeigt. Der Prototyp entspricht den Anforderungen, er lädt ein 3-D-Modell online aus der N+P Plattform und zeigt diese an.
Weiterführend könnte der Prototyp zu einer vollständigen App entwickelt werden.
The Jupyter ecosystem with JupyterHub and JupyterLab as its most prominent members is the de-facto standard for teaching Python programming and also for research in machine learning and data science. Although the Jupyter project is well documented, there are lots of settings and situations requiring deep knowledge of the internal workings of Jupyter, Linux and related software tools. This report describes three problems and possible solutions arising when installing and configuring a Jupyter-based teaching environment. These three problems are the installation and setup of the autograding tool nbgrader, the interplay between JupyterHub and Linux PAM, and providing access to WebDAV resources for users of JupyterHub.
In dieser Arbeit wurde der Materialabtrag in Form eines Massenabtrages beim plasmaelektrolytischen Polieren untersucht. Dabei wurden Proben aus rostfreiem Stahl poliert und per Wägung auf den Masseverlust durch den Prozess untersucht. Während des Prozesses wurden die Elektrolyttemperatur und die Stromstärke gemessen und anschließend analysiert.
Dabei konnte festgestellt werden, dass an den Proben zunächst die Kanten vermehrt abgetragen werden. Dies wurde aus dem zeitlichen Verlauf der Stromstärke und des Massenabtrages geschlussfolgert. Dabei konnte gezeigt werden, dass die angelegte Polierspannung keinen Einfluss darauf hat, wie stark die Kanten abgetragen werden. Trotzdem beeinflusst die Polierspannung den Materialabtrag. Dieser Einfluss konnte jedoch noch nicht quantifiziert werden.
Es besteht der Bedarf, die Themen NoSQL- und Cloud-Datenbanken in Praktika zu initigrieren. Das Ziel dieser Arbeit soll die Fragestellung beantworten, wie die Technologien NoSQL- und Cloud- Datenbanken in einem zeitlich begrenzten Praktikum gelehrt werden können. Hierfür muss festgestellt werden, welche spezifischen Technologien am besten geeignet sind und wie diese effizient in ein Praktikum integriert werden können.
Es konnten für verschiedene NoSQL-Datenbankmodelle Empfehlungen für Datenbanken erstellt werden. Die größten Cloud-Datenbanken wurden miteinander verglichen hinsichtlich der Nutzung in einem Praktikum. Des Weiteren wurden Virtualisierung, Container und Multi-Modell-Datenbanken auf die Anwendung in ein Praktikum geprüft.
Reduzierung von Kunststofffolien, die im Vergärungsprozess der Anlage Kempten-Schlatt anfallen, zur Einhaltung gesetzlicher Grenzen. Analyse und Versuch einer Festlegung optimaler Siebgeschwindigkeiten zur maximalen Auslastung des Nahinfrarot Detektors und somit Reduzierung des Kunststoffanteils im zu vergärenden Produkt.
Das Ziel dieser Masterarbeit ist es, eine Methode zu entwickeln, um Bench-markaussagen für medizinische Geräteparks bewerten zu können. Dazu werden Bewertungskriterien definiert, die dazu dienen einen Benchmark zu bewerten. Die-se Bewertungskriterien beinhalten krankenhauspezifische Kriterien und ein geräte-spezifisches Kriterium.
Mithilfe der Bewertungskriterien wird ein Score-System ent-wickelt, um die Anwendbarkeit eines Benchmarks auf das betrachtete Krankenhaus zu beurteilen. Das Score-System soll aussagen, ob ein Benchmark anwendbar, teilweise anwendbar oder nicht auf das betrachtete Krankenhaus anwendbar ist. Dabei erhalten die Bewertungskriterien einen Score, der mit einer individuellen Wichtung verrechnet wird.
Die Bewertungskriterien und die Wichtung dieser wird dabei mithilfe von Literaturrecherchen bestimmt. Die ermittelten Bewertungskrite-rien mit dem Score-System sollen am Beispiel des Geräteparks des Universitätskli-nikums Regensburg angewandt werden. Unter Verwendung von zwei unterschiedli-chen Benchmarks, von einem externen Dienstleister und von anderen Universitäts-kliniken, wird getestet, ob diese auf das Universitätsklinikum Regensburg anwend-bar sind.
Das Score-System bestimmt zum Schluss, ob diese beiden Benchmarks auf das Universitätsklinikum Regensburg anwendbar sind.
In 1948 wurde der erste Transistor gebaut. Nur 14 Jahre später im Jahr 1962 entwickelte man die erste integrierte Schaltung. [1] Dies war der Beginn der Halbleitertechnik. Seitdem nahm die Komplexität von integrierten Schaltungen und Halbleiterbauelementen immer mehr zu. Gleichzeitig besteht jedoch die Anforderung, mit immer kleineren Bauelementen und Schaltkreisen die gleiche Leistung zu erzielen. Das Halbleiterelement Silizium hat dabei für die Halbleiter- und Mikrostrukturtechnik zunehmend an Bedeutung gewonnen, sodass heute die Mehrheit aller Halbleiterbauelemente und integrierten Schaltungen hauptsächlich aus Silizium oder mit Silizium als Ausgangsmaterial hergestellt werden. Auch in der Photovoltaiktechnik wird vorwiegend dotiertes Silizium für die Herstellung von Solarzellen verwendet.
In der Halbleiterfertigung werden während verschiedener Prozessschritte Siliziumwafer auf Temperaturen bis zu 1500 °C erhitzt und mehrere Fertigungsprozesse instrumentalisieren die optischen Eigenschaften von Silizium. Demnach ist es von Interesse, wie sich die spektralen Eigenschaften von Silizium bei Erhitzung verändern. In der Vergangenheit haben Wissenschaftler einige Relationen aufgestellt, um den Zusammenhang zwischen dem komplexen Brechungsindexes von Silizium und der Wellenlänge darzustellen. Einige haben sich auch mit der Temperaturabhängigkeit des Brechungsindexes befasst.
Um das Reflexions-, Transmissions- und Absorptionsverhalten des Halbleitermaterials theoretisch ermitteln zu können, werden jedoch der Brechungsindex und der Extinktionskoeffizient benötigt.
In dieser Arbeit wurden zwei Methoden nach Sun et al. und Forouhi und Bloomer für die Modellierung einer allgemeingültigen Relation für die Temperatur- und Wellenlängenabhängigkeit des komplexen Brechungsindexes von Silizium mit Literaturwerten verglichen und ausgewertet. Es wurde gezeigt, dass das Modell nach Forouhi und Bloomer [2], in dessen modifizierter Form, für die Kalkulation des Brechungsindexes und Extinktionskoeffizienten von Silizium bei Temperaturen zwischen Raumtemperatur und 450 °C für einen Wellenlängenbereich von 250 bis 1400 nm gut geeignet ist. Das Modell nach Sun et al. [3] hingegen, erzielt bei höheren Temperaturen zwar eine höhere Übereinstimmung mit Literaturangaben, ist jedoch nur in einem Spektralbereich von 400 bis 1200 nm anwendbar.
Development and Characterization of a Dispersion-Encoded Method for Low-Coherence Interferometry
(2022)
This Open Access book discusses an extension to low-coherence interferometry by dispersion-encoding. The approach is theoretically designed and implemented for applications such as surface profilometry, polymeric cross-linking estimation and the determination of thin-film layer thicknesses. During a characterization, it was shown that an axial measurement range of 79.91 µm with an axial resolution of 0.1 nm is achievable. Simultaneously, profiles of up to 1.5 mm in length were obtained in a scan-free manner. This marked a significant improvement in relation to the state-of-the-art in terms of dynamic range. Also, the axial and lateral measurement range were decoupled partially while functional parameters such as surface roughness were estimated. The characterization of the degree of polymeric cross-linking was performed as a function of the refractive index. It was acquired in a spatially-resolved manner with a resolution of 3.36 x 10-5. This was achieved by the development of a novel mathematical analysis approach.
Durch die bodenbezogene Verwertung von Klärschlamm werden synthetische Polymere in die Umwelt ausgebracht. Die Umweltverträglichkeit synthetischer
Polymere ist noch nicht abschließend geklärt ist. Zum Schutz von Mensch und Umwelt wurde das Ausbringen von synthetischen Polymeren durch die
Novellierung des Düngerechts beschränkt. Allerdings gehört ihr Einsatz als Flockungs- und Konditionierungsmittel in der Abwasserbehandlung zum Stand
der Technik. Diese Arbeit beschäftigt sich mit der Auswirkung der Novellierung des Düngerechtes mit dem Ziel Erkenntnisse darüber zu erlangen, ob alternative
Flockungsmittel auf Basis nachwachender Rohstoffe eine Alternative in der Abwasserbehandlung in Deutschland darstellen. Um dies herauszufinden wurden die Ergebnisse verschiedener Untersuchungsprojekte herangezogen sowie die Möglichkeit der Modifizierung alternativer Flockungsmittel zur Effizienzsteigerung bei der Schlammentwässerung betrachtet.
In den Untersuchungsprojekten konnte nachgewiesen werden, dass alternative Polymere grundsätzlich synthetische Polymere ersetzen können. Der erhöhte
Flockungsmittelbedarf stellte sich allerdings als problematisch heraus und stellte die Anlagenbetreiber vor neue Herausforderungen. Dies zeigt, dass die Steigerung der Effizienz alternativer Flockungsmittel für den praktischen Einsatz von Bedeutung ist. Um eine Aussage treffen zu können, ob sich in Deutschland eine Investition in die Weiterentwicklung alternativer Flockungsmittel und in die Durchführung großtechnischer Untersuchungen lohnt, sollte geprüft werden, wie viele Kläranlagen in Zukunft ihren Klärschlamm noch bodenbezogen verwerten dürfen.
Die Arbeit beschäftigt sich mit der domänenübergreifenden Sentiment Analysis.
Es soll überprüft werden, ob ein trainiertes Modell auf Review-Daten für die Klassifikation von Twitter-Nachrichten verwendet werden kann. Dazu werden die Verfahren Transformer und Ensemble-Methoden genutzt.
Das Ergebnis der Arbeit zeigt, dass die Transformer die besten Ergebnisse liefern, jedoch für den praktischen Einsatz die Werte verbessert werden müssen.
Striktere Regularien sowie die verbindliche Pflicht zur Phosphorrückgewinnung werden eine signifikante Veränderung in der Klärschlammentsorgung hervorrufen. Diese Entwicklung wird aufgrund der begrenzten Entsorgungsmöglichkeiten jedoch zu einem Engpass führen. Entgegengewirkt werden soll diesem durch die Erforschung alternativer Verwertungswege.
Eine Möglichkeit, und der zentrale Gegenstand dieser Arbeit, stellt die Herstellung aktivierter Kohlen aus Klärschlamm und deren Anwendung als Adsorbens dar.
Eine von zwei klärschlammbasierten Hydrokohlen, welche als Ausgangsmaterial dienten, wurde vor der Karbonisierung zum Zweck des Phosphorrecyclings mit Schwefelsäure versetzt. Sie wies eine homogenere Zusammensetzung sowie einen geringeren Asche- und höheren Kohlenstoffgehalt auf. Beide Kohlen wurden einer Wasserdampfaktivierung unterzogen, wodurch maximale spezifische Oberflächen von 116 m2/g für die Kohle ohne und 217 m2/g für die Kohle mit Schwefelsäureeinsatz erreicht wurden. Im Praxistest sollten die aktivierten Kohlen Methylenblau aus dem Wasser adsorbieren. Hierfür wurde ein Teil der aktivierten Kohlen mit deionisiertem Wasser bzw. Salzsäure gewaschen. Die höchste Adsorptionskapazität erzielte mit 35 mg/g die Kohle, welche nicht mit Schwefelsäure behandelt, jedoch mit Salzsäure gewaschen wurde.
In der AG Biomateriallabor wurde ein Projekt gestartet, das sich mit der Schwingungsanalyse zur Beurteilung der Osseointegration von Implantaten beschäftigt. Dazu wurde zunächst eine Bachelorarbeit [19] in Kooperation mit dem Frauenhofer Institut ENAS Chemnitz gemacht. Darauf aufbauend wurde im Labor der AG im Rahmen einer eigenen Arbeit [20] eine Messtrecke konzipiert und realisiert.
Zudem wurde ein stabiles und schweres Implantatgehäuse entwickelt, das mit Hilfe eines Piezoaktors zum Schwingen gebracht wurde. Die Resonanzfrequenzen wurden dann mit einem Beschleunigungssensor gemessen und mit einem USB-Oszilloskop aufgezeichnet.
Mit der selbst entwickelten Messtrecke konnte zusätzlich an Gehäuse Materialblöcke (Stahl, Kunstholz, Kunstknochen) angekoppelt werden, die Knochengewebe simulieren sollten. Doch durch die schwere und kompakte Bauweise des Gehäuses konnte nur eine Veränderung des Schwingungsverhalten mit angekoppelten Stahlblöcken beobachtet werden. Zusätzlich konnte das Gehäuse mit angekoppelten Materialien mit reproduzierbaren Einspannkräften in der Messstrecke verspannt werden.
Diese Messtrecke wurde als Grundlage der vorliegenden Arbeit genommen und sollte im Rahmen dieser verbessert werden.
Dazu sollte zu einem ein neues Gehäusemodell konzipiert und realisiert werden. Das neuentwickelte Gehäuse sollte im Gegensatz zu seinem Vorgänger vor allem im Gewicht reduziert werden, damit leichter angekoppelte Materialien eine Auswirkung auf das Schwingverhalten des Gehäuses hätten. Außerdem sollte ein neues Aktorsystem zur Schwingungsanregung getestet und mit dem Piezoaktor verglichen werden. Des Weiteren sollte ein Auswertungsprogramm in Matlab realisiert werden, das das Aktor- und Beschleunigungssensorsignal mit Hilfe einer FFT auf ihre Frequenzspektrum untersucht.
Im Rahmen der Arbeit wurde ein neues Implantatgehäuse entwickelt, das um 36,4 g leichter war als sein Vorgängermodell. Durch die starke Gewichtsreduzierung konnte auch ein verändertes Schwingverhalten bei leichter angekoppelten Materialblöcken beobachtet werden. Zudem wurde ein Unwuchtmotor als neues Aktorsystem für Schwingungsanregung des neuentwickelten Gehäusemodells getestet.
Doch im Vergleich zum Piezoaktor ist das Größe-Leistungs-Verhältnis wesentlich schlechter. So gab der Piezoaktor Spannungen im Volt-Bereich und der Unwuchtmotor nur in mV-Bereich aus. Jedoch konnten auch mit dem Unwuchtmotor Veränderungen der Spannung, je nach angekoppeltem Material gemessen werden. Als letztes wurde eine Software in Matlab implementiert, dass die aufgenommenen Daten einliest und die Signale mit Hilfe einer FFT auf ihre Frequenzspektrum analysiert. Jedoch lief das Programm nicht optimal für die aufgenommenen Messdaten, was aber aufgrund der Zeit im Rahmen dieser Arbeit nicht behoben werden konnte.
Diese Arbeit soll mit als Grundlage für weitere Messungen und Verbesserungen für die Evaluierung der Schwingungsanalyse zur Beurteilung der Osseointegration von Implantaten dienen und vorantreiben.
Ziel dieser Arbeit war es, verschiedene Membranarten auf Ihre Trenneigenschaften bezüglich der Abtrennung von Ethylacetat aus einen Strippgasvolumenstrom von Stickstoff zu testen.
Zur Durchführung wurde ein Stripping-Prozess mit nachgeschaltetem Membranprozess verwendet, wobei die praktischen Versuche an einer Anlage im Labormaßstab durchgeführt wurden. Als Membranen fanden drei verschiedene Arten Anwendung. Dies waren absorptionsselektive Silikonmembranen sowie Kompositmembranen aus einer Silikonmatrix, in der entweder ZIF-8-Partikel oder MFI-Zeolith-Partikel eingebracht wurden.
Im ersten Schritt wurde mit den drei Membranarten ein Screening durchgeführt, um herauszufinden, welcher Membrantyp sich am besten für weitere Untersuchungen eignet. Dabei fanden alle Messungen bei selben Bedingungen statt, nur beim Permeatdruck gab es eine Variation. Es wurde aufgrund der limitierende Saugleistung der Membranpumpe immer der niedrigste mögliche Druck eingestellt.
Im Ergebnis zeigte sich, dass die MFI-Kompositmembranen von der Trennleistung und dem Fluss den ZIF-8-Kompositmembranen leicht überlegen waren. Die Silikonmembranen zeigten, bis auf zwei, auch einen Permeatfluss auf, allerdings war dieser geringer und die Trennleistung bis auf eine Ausnahme ebenso schlechter. Aus diesem Grund wurde eine durchschnittliche MFI-Kompositmembranen für die weiteren Messungen ausgewählt.
In den folgenden Schritten wurden mit der Membran MFI-4 eine Vielzahl von Prozessvariationen durchgeführt. Es erfolgte im ersten Schritt eine Variation des Strippgasvolumenstromes, um festzustellen, inwieweit dieser einen Einfluss auf die Trennleistung und den Permeatfluss der Membran hat. Es stellte sich heraus, dass dieser nur Einfluss auf den Permeatfluss und nicht auf die Trennleistung der Membran hat. Als nächstes erfolgte die Variation des Permeatdruckes, wobei hier auch Augenmerk auf die Massebilanzen gelegt wurde. Der eingestellte Permeatdruck betrug bei den Versuchen immer 100 mbar, 200 mbar und 300 mbar. Allerdings wurde zum einen mit zwei und zum anderen mit drei Permeatkühlfallen gemessen. Es wurde festgestellt, dass bei den Messungen mit drei Permeatkühlfallen eine geringere Differenz an Ethylacetat zwischen der Einwaage und der Summe aller entnommenen Proben, sowie dem Feedende festgestellt werden konnte. Zwei Kühlfallen waren somit nicht genug für eine hinreichende Kondensation des Ethylacetats. Im letzten Schritt erfolgte noch ein Vergleich zwischen N2 und CO2 als Strippgas. Es zeigte sich, dass der Permeatfluss unter Verwendung von Stickstoff leicht erhöht scheint, im Vergleich zum Kohlenstoffdioxid.
Weiterhin sollten wiederholte Versuche unternommen werden, wie sich die Membranen beim Einsatz von CO2 als Strippgas verhalten. In Zukunft sollte der Einsatz der Membranen an dem Reaktor mit der Fermentationsbrühe erfolgen. Es treten dort andere verfahrensspezifische Bedingungen als an der Laboranlage auf. So werden sich unter diesen realen Bedingungen noch andere Stoffe wie Aceton oder Ethanol im Strippgas lösen. Es sollte dementsprechend untersucht werden, wie sich die Trennleistung der Membranen sowie der Permeatfluss verhalten. Auch sollten die ZIF-8-Kompositmembranen hier nochmals charakterisiert werden, da noch unbekannt ist, wie sich diese bei Kontakt mit Ethanol oder Aceton verhalten. Ebenso ist ein weiteres Augenmerk bei den zukünftigen Versuchen an dem Bioreaktor auf die mechanische und chemische Stabilität der Membranen zu legen, um den geeignetsten Typ bei Langzeitversuchen festzustellen.
Durch Überdüngung infolge der intensiven Landwirtschaft wird in einigen Regionen Deutschlands der Nitratgrenzwert im Grundwasser überschritten.
Aus diesem Grund wurde zum Umweltschutz die Ausbringung von stickstoffhaltigem Wirtschaftsdünger, wie beispielsweise Gärrest, verschärft. Um dennoch eine flexible Ausbringung zu ermöglichen, bedarf es einer gezielten Gärrestaufbereitung. Dies ist durch eine systematische Ammoniakverschiebung mit Hilfe der Kreislaufstrippung möglich.
In der vorliegenden Bachelorarbeit wurde dafür der Einfluss des pH-Werts auf den Ammoniakübertrag bei der Kreislaufstrippung experimentell untersucht.
Bestimmt wurde der Übertrag durch Messungen der Ammoniumionenkonzentration im Gärrest mit Hilfe der Ionenchromatographie. Zusätzlich wurde die Auswirkung einer externen Ansäuerung sowie der Einfluss des Puffervermögens auf den Chemikalienverbrauch untersucht. Die Messergebnisse zum Ammoniakaustrag zeigen eine deutliche Abhängigkeit vom pH-Wert. Der Ammoniakeintrag ist im Gegensatz dazu im Bereich von pH 5 bis pH 7 bei einer Temperatur von 20 °C relativ pH-Wert-unabhängig. Die Ergebnisse der externen Ansäuerung ergaben ein deutliches Einsparungspotenzial an Base während der Kreislaufstrippung durch das Ausschleusen der ausgetriebenen Gase. Die Titrationen der drei verschiedenen Gärrestchargen zeigen, dass das Puffervermögen selbst bei Gärrest aus der gleichen Biogasanlage großen Schwankungen unterliegt.
Das menschliche Genom kann trotz seiner Vielfalt und seiner über 20.000 Gene die Komplexität des Lebens und des Verhaltens nicht ausreichend abbilden. Die Epigene-tik als Teilgebiet der Genetik erlaubt eine fein regulierte Variabilität zwischen Genex-pression einerseits und der Umweltfaktoren andererseits. Die Evolution hat sich diese Option erschlossen, durch den modulierbaren epigenetischen Code die Genexpres-sion an das jeweilige Habitat anzupassen.
Dabei haben sich 2 Mechanismen herauskristallisiert. Zum einen werden die Basen der DNA mit funktionellen Gruppen (z. B. Methylierung, Azetylierung) versehen, zum anderen wird die Transkription über Histonproteine gesteuert, die ebenfalls durch funktionelle Gruppen (Methylierung, Azetylierung, Phosphorylierung etc.) in ihrer Aktivität reguliert werden können. Damit ergibt sich eine schier unendliche Vielfalt der individuellen flexiblen genetischen Expression und Phänotypen.
Durch die Epigenetik lassen sich zahlreiche biologische Phänomene erklären, wie z. B. die Entwicklung einer Bienenkönigin oder die Phänotypen des Wolfsbarschs oder des Leimkrauts. Aber auch zahlreiche Erkrankungen wie das Angelman/Prader-Willi-Syn-drom können über epigenetische Codierung erklärt werden. Ihre biologische Bedeu-tung belegt die Epigenetik vor allem durch die Anpassungsfähigkeit der Genexpres-sion an Umweltbedingungen. Psychischer Stress, Temperatur, Lärm, Hungerzustände und Xenobiotica können die epigenetischen Muster der Histone und DNA modifizie-ren und an nachfolgende Generationen weitergegeben werden.
Neben biochemischen Grundlagen der Epigenetik werden in der Arbeit physikoche-mische Einflussfaktoren wie Temperatur, Radikale oder Xenobiotika diskutiert. In einem Modell wird ausgehend vom Dipolcharakter der DNA ein Kondensatormodell entwickelt, um die Dynamik epigenetischer Variation molekularbiologisch zu be-schreiben.
Schadstoffe in der Umwelt werden zunächst in Bezug auf ihre Verfügbarkeit mittels einfacher toxokokinetischer Modelle besprochen. Eine Literaturübersicht fasst die bisherigen wichtigsten Ergebnisse der epigenetischen Umwelttoxikologie zusammen und diskutiert daraus resultierende Risiken und Fragestellungen.
Aus den Mechanismen lassen sich diverse Potenziale der Epigenetik für die Biologie, Umweltwissenschaften und Medizin ableiten. Die Übertragung funktioneller Gruppen kann gezielt durch Inhibitoren und Induktoren moduliert werden. So können Wachs-tum und Phänotypen oder biologische Eigenschaften von Pflanzen und Tieren gezielt verändert werden. Die Empfindlichkeit gegenüber toxischen Xenobiotica könnte vermindert werden, ebenso trägt die Epigenetik zum Verständnis der toxodynamischen Wirkung bei. Schließlich profitiert die Medizin davon, Erkrankungen zu verstehen und gewinnt die Perspektive, durch epigenetische Pharmaka Erkrankungen - auch Krebserkrankungen - zu behandeln. Nicht außer Acht gelassen werden darf, dass aus den Techniken auch ein Missbrauchspotenzial erwachsen kann, was gerade im Hinblick auf die Dopingprobleme aufmerksam zu verfolgen ist. Den ethischen Fragen dürfen wir nicht aus dem Weg gehen. Was machbar ist, ist nicht immer gut, aber wo wir Gutes machen können, sollten wir es tun.
Die vorliegende Arbeit befasst sich mit der Frage nach der sozio-ökologischen Bedeutung, Verantwortung und Zukunft von Städten und untersucht darüber hinaus mögliche theoretische und praktische Lösungsansätze zu dringenden umweltpolitischen Problemen im Zuge der Urbanisierung.
Die Erörterung beginnt in Kapitel 1 mit einer Bestandsaufnahme aktueller Umbruchprozesse der natürlichen Umwelt, die sich global als Symptome des Klimawandels ausdrücken, wobei in einem zweiten Schritt der Mensch als Initiator identifiziert wird und die ihm zuzuschreibenden, massiv zunehmenden, störenden Eingriffe als Hauptauslöser der Negativtrends hergeleitet werden. Weiterhin wird unter Zugrundelegung des Analysekriteriums Ressourcenmanagement die Leitthese formuliert, dass die globale Urbanisierung einer der wichtigsten und ernstzunehmendsten Treiber des weltweiten Ressourcenverbrauchs ist und unter Beibehaltung derzeitig angewandter Modelle für Stadtentwicklung die globalen Bereitstellungskapazitäten für neue Materialien sprengen wird.
Basierend auf den Feststellungen und Prognosen des ersten Teils, widmet sich Kapitel 2 anschließend möglichen Lösungsansätzen für nachhaltige Stadtentwicklung, die im Einzelnen jeweils auf unterschiedlich gelagerten Ebenen des Gesamtkonstruktes ‚Stadt‘ ansetzen. Auch hier werden zunächst wiederum erst das Ausmaß und die drohenden Konsequenzen der bevorstehenden Aufgaben beziffert, wie z.B. Zeiträume und Flächenbedarf zu erwartender Urbanisierungswellen oder auch Verlustmengen fruchtbarer Böden, Wälder und Naturhabitate. Die in der Folge vorgestellten Konzepte sind nach ihrer wissenschaftlichen Bedeutung ausgewählt und werden jeweils kritisch vor dem Hintergrund ihrer Umsetzbarkeit reflektiert, wodurch z.B. auf die Diskussion von strategischer Dichte einerseits ein Exkurs zum geschichtlichen Abriss städtebaulicher Ideale in der Vergangenheit und andererseits ein Abschnitt zu sozialer Integration und Rehabilitierung von Slums folgt. Denn beides liefert relevante Einsichten in die Realität städtischer Gebilde, die für ein holistisches Verständnis von Urbanisierungsfragen elementar sind. Schließlich werden Beitragspotenziale auf der Ebene individueller Akteure und Baueinheiten präsentiert, die z.B. durch grüne Technologien, architektonische Formgebung und Zukunftsvision oder auch Verhaltensänderungen der Bevölkerung erreicht werden können. Ein Zwischenfazit zum multiplikativen Effekt der Maßnahmenmodelle sowie ein Ausblick auf vielversprechende Umsetzungsinstrumente in politischer Hinsicht runden die in Kapitel 2 diskutierte Thematik theoretischer Lösungsansätze nachhaltiger Stadtentwicklung ab.
Kapitel 3 stellt eine Reihe ausgewählter Fallstudien vor, die als praktische Adaptionen der in Kapitel 2 präsentierten Ansätze bereits international Anwendung finden und lokal den materiellen Fußabdruck der betrachteten Städte verbessern. Die Selektion der Fallstudien ist nach ökologischen Sektoren gegliedert – betrachtet werden Beispiele aus den Bereichen Energie, Abfallmanagement, Wasser- und Luftreinhaltung.
Ziel dieser Arbeit ist es, die Bedeutungsschwere von Städten für die zukünftige Entwicklung globalen Ressourcenmanagements festzustellen, auszuformulieren und nach aktuellen Quellen zu beziffern. Darauf basierend sollen die wichtigsten Ansatzpunkte zur Implementierung nachhaltiger Systeme und urbaner Umweltneutralität vorgestellt, kritisch reflektiert und hinsichtlich ihres Potenzials bewertet werden. Das Ziel der Fallstudienpräsentation im dritten Teil ist die Veranschaulichung der zuvor diskutierten Theorie an konkreten Beispielen, die als Pionierprojekte eventuell auch von anderen Städten in ähnlicher Weise umgesetzt werden könnten. Zukünftige Stadtplanung muss aus den Entwicklungen von Vergangenheit und Gegenwart alle Lehren ziehen, um die bevorstehende Urbanisierung im 21. Jahrhundert als Chance nutzen zu können. Welche Problemstellungen sich pro Betrachtungsebene ergeben, welche theoretischen Lösungsmodelle existieren und durch welche Störfaktoren diese Ansätze in der Realität beeinträchtigt werden, wird im Rahmen eines schichtweise erarbeiteten Fazits nocheinmal zusammenfassend dargelegt, wobei zusätzlich pragmatische Gegensteuerungselemente benannt werden und pro Bezugsdimension einige abschließende Sätze zum Status Quo ausformuliert werden.
In der vorliegenden Arbeit geht es um eine Machbarkeitsstudie für die Wasserstoffstrategie im Vogtlandkreis.
Nach der Erarbeitung der Grundlagen zum Thema Wasserstoff und ihre technischen Möglichkeiten wurde eine Umfrage gestartet, indem die Unternehmen ihre Vorstellungen und Voraussetzungen zum Aufbau eines Wasserstoffnetzwerkes einbringen konnten. Diese Umfrage wird in der Arbeit ausführlich bewertet.
Ziel der Arbeit ist es, eine Liste von Standard-Testfällen zur Unterstützung von App-Entwicklern zu erstellen. Die Liste soll komponentenbasiert (z.B. Login, Transaktionen, Penetration, etc.) kategorisiert werden. Des Weiteren soll ein Prototyp erstellt werden, der manche Testfälle enthält und gegen den man beliebige Apps testen kann.
Es werden fünf moderne Techniken, die Büroangestellte zur Bewegungsaktivität motivieren sollen, analysiert, verglichen und auf Eignung im Arbeitsleben bewertet. Die Technologie Philips Hue ist bei der Einrichtung für Windows-Geräte an die Hue-App gebunden. Um dies zu optimieren, wird eine Applikation entworfen und umgesetzt.
Die Therapiemöglichkeiten zum Zeitpunkt eines auftretenden Glioblastoma multiforme sind oft begrenzt. Der hyperthermische Effekt stellte sich als wirksame Form der Behandlung heraus. In der Arbeit wird ein Ansatz beschrieben, welcher magnetische Nanopartikel als Energiewandler verwendet. Bei dem Verfahren verbleiben die Partikel während der derzeitigen Behandlung als Implantat im menschlichen Organismus und bedingen den Verzicht auf postoperative MRT-Diagnostik. Die vorliegende Arbeit beschäftigt sich mit der Überprüfung eines Konzepts der rückstandsfreien Behandlung durch die Verwendung eines Ballonkatheters. Grundlegend wird das thermische und physikalische Verhalten von Ballonkathetern im Kontext der NanoTherm®-Therapie untersucht. Ebenfalls wird der Entwicklungs- und Konstruktionsprozess von zwei Messaufbauten zur Überprüfung des Konzepts beschrieben. Die Bestimmung des Wärmeverhaltens von magnetischen Nanopartikeln in einem Ballonkatheter wird an einem Aufbau grundlegend untersucht.
Die vorliegende Bachelorarbeit beschreibt die Entwicklung eines Gesamtsystems für die Aufnahme von Vitalparametern. Die Daten von den Vitalparametern werden verwendet, um das Stresslevel eines Patienten, während einer sinnesphysiologischen Untersuchung zu bewerten und zu überwachen. Für diesen Zweck werden über drei Messsysteme die Herzfrequenz, die elektrodermale Aktivität und die Griffkraft aufgenommen, da sich in diesen Parametern der Stress eines Patienten gut widerspiegelt. Die einzelnen Messsysteme wurden in einem Gesamtsystem zusammengeführt und unter Laborbedingungen getestet.
Aufbau einer generischen Schnittstelle zur Anbindung und Verwaltung von High-Performance-Clustern
(2020)
Mit der wachsenden Nachfrage nach rechenintensiven Simulationen und der gleichzeitig stagnierenden Entwicklungen im CPU-Markt werden größere Ressourcen für High Performance Computing benötigt. Neben den groß angelegten Serversysteme werden werden auch immer mehr Cloud Ressourcen für HPC angeboten. Bedingt durch die große Anzahl verschiedener Plattformen und Arten der Interaktionkann es zu Schwierigkeiten in der Anwendung von HPC für Nutzer kommen.
In dieser Arbeit wird eine Architektur für eine Anwendung entwickelt, die den Zugriff auf HPC Ressourcen für Anwender erleichtert. Anhand dieser Architektur wird ein Produkt entwickelt mit dem die Jobeinreichung und Jobübersicht über eine Weboberfläche und eine REST-Schnittstelle ermöglicht werden.
Das Ziel der vorliegenden Bachelorarbeit war es, die Wirkung und Effizienz von EMS- Training an Adipositas-Patienten zu untersuchen. Dafür wurde eine eigens angefertigte Studie im Klinikum Chemnitz am Standort Flemmingstraße durchgeführt. Als Zielgruppe waren übergewichtige bzw. adipöse Menschen festgelegt. Die Teilnahme eines Schmerzpatienten erweiterte die Studie auf die Untersuchung des Wirkungsgrades der Trainingsmethode an Patienten mit chronischen Rückenbeschwerden. Insgesamt umfasste die Studie 5 auswertbare Adipositas-Patienten, 2 freiwillige Probanden aus dem Klinikum sowie einen Schmerzpatienten. Die Studie deckte durchaus positive Tendenzen auf, die auch für Interessenten ohne Übergewicht ansprechend sind.
Mit zunehmender Automatisierung von Industrieanlagen und der daraus entstehenden leistungsfähigen Infrastrukturen, wird der Bedarf einer permanenten Netzwerküberwachung unumgänglich. Das Vorhersagen oder Analysieren des Netzwerkzustandes spielt dabei eine entscheidende Rolle. Diese Masterarbeit beschäftigt sich mit der Untersuchung von Methoden des maschinellen Lernens zur Zustandsanalyse industrieller Netzwerke. Hierfür wurde zunächst mit einem Versuchsaufbau die dafürbenötigte Datenbasis geschaffen. Auf dieser Datenbasis wurden daraufhin verschiedene Klassifikations-Algorithmen trainiert und evaluiert. Dabei konnte festgestelltwerden, dass sich bestimmte typische Fehler schwerer als andere bestimmen lassen.
Entwicklung eines Messmoduls zur Beurteilung von Haltung, Bewegung und Aktivität im Arbeitsumfeld
(2020)
Ziel der Arbeit ist die Konzeption eines Messystems zur Erfassung von Haltung und Bewegung im Arbeitsumfeld als Teilmodul des Forschungsprojektes midasKMU. Dazu werden die Möglichkeiten der messtechnischen Erfassung von Bewegung und Position am Körper dargestellt sowie die anatomischen Besonderheiten der bewegten Gelenke. Zusammen mit den bisherigen Ergebnissen aus dem Forschungsprojekt und der Betrachtung der arbeitswissenschaftlichen Methoden sowie aktuell verfügbaren Systemen wird ein Anforderungskatalog nach MoSCoW - Kriterien aufgestellt. Auf Grundlage des Kataloges wird ein theoretisches Konzept für die messtechnische Erfassung relevanter Größen mithilfe am Körper getragener Sensoren vorgestellt. Im praktischen Teil der Arbeit wird das Konzept für die unteren Extremitäten prototypisch umgesetzt. Das entstandene Modul wird mithilfe eines Testaufbaus geprüft und mit dem theoretischen Anforderungskatalog verglichen. Die Auswertung der Messergebnisse wird zur Verbesserung und Erweiterung des theoretischen Konzeptes verwendet. Im Ausblick der Arbeit werden nächste Schritte vorgestellt um den Prototypen genauer, stabiler und benutzerfreundlicher zu gestalten mit dem Ziel eine Anwendung im Arbeitsumfeld zu ermöglichen.
Autorenreferat
Diese Arbeit befasst sich mit der Untersuchung und Bestimmung von Raumwinkeln, insbesondere von ophthalmologischen Geräten wie der Spaltlampe. Dazu wird eine Messvorrichtung entwickelt und charakterisiert, die aus einer Blende, einem Schirm und einer Kamera besteht.
Mit der Kamera wird ein Bild von der Lichtverteilung einer entsprechenden Strahlungsquelle aufgenommen. Dazu wird hier eine Spaltlampe verwendet. Deren Fläche wird mit einer Bildverarbeitungssoftware bestimmt und liefert damit den zur Bestimmung des Raumwinkels relevanten Wert.
Dabei ist der Blendendurchmesser und der Abstand der Blende zum Schirm variabel. Durch Variation dieser zwei Parameter ergeben sich zwei Messmethoden, die Blendenvariation und die Abstandsvariation. Davon eignet sich erstere für einen größeren Einstellbereich der variablen Parameter und ist demzufolge die empfohlene Herangehensweise.
In dieser Bachelorarbeit geht es um die Entwicklung einer Webbasierten Anwendung zum Zugriff auf hyperspektrale Daten. Die Daten entstehen im Zusammenhang mit bildgebenden medizinischen Verfahren (Hyperspektral Bildgebung). Sie werden in einer relationalen Datenbank gehalten und können mit der Anwendung visualisiert werden.
In dieser Diplomarbeit wird das Recyclingpotential kritischer Rohstoffe am Beispiel von Energiesparlampen wie Kompaktleuchtstofflampen und LED-Lampen analysiert. Dazu werden neben Aufbau und Funktion der Beleuchtungskörper, die Zusammensetzung der stofflichen Komponenten sowie deren primäre Gewinnung erläutert. Die Darstellung der Recyclingprozesse von Energiesparlampen wird anhand des bestehenden Kreislaufwirtschaftssystems dargestellt und die zugehörigen Verfahren und Patente für die Rückgewinnung der relevanten Metalle beschrieben. In der Zusammenfassung werden die Vor- und Nachteile der sekundären Rohstoffgewinnung diskutiert.
Langzeitmonitoring von Krankenhausabwasser hinsichtlich des Verhaltens ausgewählter Antibiotika
(2014)
In Vorbereitung auf die Umsetzung der WRRL wurde im Rahmen des PILLS-Projektes eine Pilotkläranlage am MHG errichtet. Neben anderen Spurenstoffen werden seit September 2011 dort unter anderem Antibiotika im Rahmen eines Monitorings untersucht. Im Abwasser des MHG sind hohe Konzentrationen von dem Fluorchinolon Ciprofloxacin, sowie den Metaboliten dh-Erythromycin und N4-Acetyl-Sulfamethoxazol nachweisbar. Nach Analytik des Jahresganges der Antibiotika konnte eine Periodizität für die kumulierte Antibiotikafraktion nachgewiesen werden; die Werte liegen im Sommer etwa 2 µg/L niedriger als im Winter. Für die Makrolide, die vermehrt für die Therapie von Atemwegsinfektionen sowie im HNO-Bereich eingesetzt werden, kann eine Periodizität im Jahresgang vermutet werden, ebenso für die Fluorchinolone Ciprofloxacin und Ofloxacin. Für die Plausibilisierung der gemessenen Werte wurde eine Prognose der Antibiotikakonzentration im Abwasser (PEC) aufgrund von Verbrauchsdaten, Ausscheidungsrate und Wasserabfluss errechnet. Problematisch hierbei ist, dass für die jeweilige Ausscheidungsrate der einzelnen Antibiotika unterschiedlichste Literaturangaben gibt; außerdem schwankt sie für unterschiedliche Applikationsformen. Weiterhin wird bei dieser Berechnung das chemische Verhalten der Antibiotika im Abwasser nicht berücksichtigt. Während für ß-Lactame aufgrund hoher Verbrauchszahlen eine hohe PEC errechnet wurde, sind sie am Abwasser kaum nachweisbar aufgrund des instabilen ß-Lactamringes. Sinnvoller kann hier die Anwendung der Wiederfindungsrate sein, bei der aus Abwasserkonzentration und Verbrauchsdaten der Anteil errechnet wird, der tatsächlich im Abwasser nachweisbar ist. Der im Rahmen des Intensivmonitorings untersuchte Wochenverlauf lässt auf einen Wochengang schließen, bei dem gegen Anfang und Mitte der Woche höhere Konzentrationen nachgewiesen werden als am Wochenende. Nach Literaturrecherche entspricht dies auch der Bettenbelegung, die in der Woche höher ist als am Wochenende. Leider liegen für das MHG keinerlei Belegungszahlen vor, so dass hier keine Korrelation zwischen Bettenbelegung und Antibiotikanachweis im Abwasser möglich ist. Die Pilotkläranlage des MHG verfügt über unterschiedliche Behandlungsmöglichkeiten für das Abwasser. Nach der obligaten Behandlung im MBR gibt es die optionalen Stufen Ozonung und Aktivkohleadsorption. Die Eliminationsraten des MBR liegen im Vergleich mit den Literaturwerten sehr hoch, teilweise über den Literaturwerten. Hervorzuheben ist hier das Ciprofloxacin, das zwar eine sehr gute Eliminationsrate hat, aber aufgrund seiner hohen Konzentration im Abwasser auch nach der MBR-Behandlung im Mittel noch über 1 µg/L gemessen wird. Außerdem ist die mangelhafte Elimination von Sulfamethoxazol im MBR zu betonen. Die Mittelwerte von MBR-Zulauf und MBR-Ablauf sind ähnlich hoch, hier findet fast keine Elimination statt. Die Effizienz der weiteren Behandlungsstufen wurde im Rahmen dieser Arbeit nicht untersucht. Die Errichtung und der Betrieb der Pilotanlage führen zu zusätzlichen Kosten, die für die Kalkulation einer Antibiotikatherapie berücksichtigt werden sollten. Während es Antibiotika gibt, deren Einsatz in Bezug auf deren Eliminierung nahezu "kostenneutral" sind (z. B. ß-Lactam-Antibiotika), gibt es andere Antibiotika, für die eine Eliminierung mit mehreren Behandlungsstufen nötig ist (z. B. Sulfamethoxazol). Wenn diese Eliminierungskosten zu den Tagestherapiekosten addiert werden, kann das, gerade für kostengünstige Antibiotika, zu großen Kostensteigerungen führen.
Die ex-situ Bodenwäsche ist ein sehr häufig angewendetes Verfahren zur Reinigung von mit Öl kontaminiertem Boden. Die Reinigung erfolgt dabei durch Aufkonzentrierung der Kontamination in der Feinfraktion mit anschließender Abtrennung und Einlagerung. Die Tensid unterstütze Bodenwäsche ist eine weit verbreitete Alternative, da hier die Kontamination mit dem Waschwasser abgetrennt und entsorgt werden kann. In dieser Arbeit wurden 17 verschiedene Tenside auf ihre Reinigungskraft von mit Motoröl kontaminiertem Quarzsand untersucht. Es wurde dafür eine Auswahl an synthetischen, natürlichen und Biotensiden verwendet. Getestet wurden Quarzsandtypen mit 3 verschiedenen Partikelgrößen. Die Tenside mit der stärksten Reinigungsleistung wurden anschließend miteinander kombiniert, um die Mischungen auf mögliche Synergieeffekte hin zu untersuchen. Neben der Reinigungsleistung wurde auch das Schaumbildungsvermögen SBV und die Emulsionsstabilität der Tenside bestimmt. Mikroskopische Untersuchungen der Waschlösungen wurden ebenfalls herangezogen, um die Reinigungskraft der Tenside näher zu beschreiben.
Die motorische Steuerung von Sprache und Kommunikation basiert in weiten Teilen auf einem auditiven Feedback. Bei gehörgeschädigten Menschen ist diese Möglichkeit eingeschränkt. Alternativ dazu kann ein Feedback durch Vibrationen an den Schleimhäuten im inneren des Vokaltraktes staatfinden. Zur Entwicklung einer darauf basierenden Trainingsmöglichkeit, ist es interessant, die Vibrationseigenschaften des Vokaltraktes zu untersuchen. In dieser Arbeit wird ein 3D Modell des Vokaltraktes erstellt und akustisch sowie vibrometrisch in Bezug auf die sich ergebenden Resonanzfrequenzen, untersucht.