Refine
Has Fulltext
- yes (183) (remove)
Year of publication
Document Type
- Bachelor Thesis (87)
- Master's Thesis (55)
- Diploma Thesis (34)
- Book (4)
- Report (3)
Institute
- Physikalische Technik, Informatik (183) (remove)
Im Mittelpunkt des Artikels steht die Frage, welche Eingabemethoden sich für die Eingabe längerer Texte auf Mobiltelefonen eignen. Der Grund dafür ist, dass Artikel über Eilmeldungen in der Regel lang sind und die Verwendung einer Handytastatur zur Eingabe langer Texte sowohl ineffizient als auch mühsam ist.
Daher änderte ich meine Zielsetzung in
1. eine geeignete Eingabemethode für das Schreiben langer Texte auf Mobiltelefonen auf der Grundlage der Literatur zu finden.
2. eine geeignete Eingabemethode für die Erfassung von kritischen Ereignissen zu finden.
3. schließlich die Bewertung dieser Eingabemethoden in Bezug auf Komfort und Effizienz.
In der vorliegenden Diplomarbeit wird ein Konzept zur hochverfügbaren Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erarbeitet und getestet. Dafür wurde im Vorfeld eine Anforderungsanalyse zur Ermittlung der Anforderungen an diese hochverfügbaren Anbindungen durchgeführt. Im Folgenden wurden Technologien zur Erfüllung der Anforderungen ermittelt, kombiniert und auf Nutzwerte verglichen. Die Kombination der Technologien mit dem höchsten Nutzwert wurde in einem Prototyp umgesetzt und in einer Testumgebung auf die Erfüllung der Anforderungen getestet. Ziel dieser Arbeit war es dabei ein herstellerneutrales, infrastrukturunabhängiges und in verschiedenen Anwendungsfällen nutzbares Konzept zu entwickeln. Diese Unabhängigkeit und Offenheit soll es ermöglichen, dieses Konzept in verschiedenen Szenarien, welche eine Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erfordern, einsetzen zu können. Dadurch soll die Zeit zur Konzeption einer Lösung in der Praxis erheblich gesenkt werden.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
The book is the second of four volumes on data science and artificial intelligence. This second volume covers data visualization tool and techniques as well as fundamentals of supervised machine learning: linear regression, artificial neural networks, support-vector machines, decision trees, ensemble methods and more.
The book 'Reinforcment Learning: An Introduction' by Sutton and Barto is the standard text book for introductory courses to reinforcement learning. Next to concrete algorithms and extensive examples the book contains several fundamental results related to Markov decision processes (MDPs) and Bellman equations in Chapters 3 and 4. Unfortunately some proofs are missing, some theorems lack precise formulation, and for some results the line of arguments is quite garbled.
In this note we provide all missing proofs, give precise formulations of theorems and untangle the line of arguments. Further, we avoid using random variables and their expected values. Since we (like Sutton/Barto) restrict our attention to finite MDPs all expected values can be made explicit avoiding overloaded notation and murky conclusions.
This article bridges the gap between introductory literature like Sutton/Barto and research literature containing exact formulations and proofs of relevant results, but being less accessible to beginners due to higher generality and complexity.
Konzeption eines Versuchsstandes zur Charakterisierung der elektrischen Kenngrößen von Solarmodulen
(2023)
Um Photovoltaik-Module auf ihre Leistungsfähigkeit zu testen und diese weiterzuentwickeln, ist es notwendig ihre elektrischen Kenngrößen replizierbar testen zu können.
Das Ziel der vorliegenden Arbeit ist es, zu diesem Zweck einen Versuchstand zu errichten und ein Programm zu schreiben, welches das automatische Abfahren einer Strom-Spannungs-Kennlinie ermöglicht.
Dazu wurden verschiedene Strahlungsquellen mit je spezifischen Eigenschaften verwendet. Bei den Strahlungsquellen handelte es sich um LED-, Halogen- sowie Xenon-Strahler. Mit diesen wurden beispielsweise bei unterschiedlichen Bestrahlungsstärken Kennlinien aufge-nommen, welche es zu vergleichen galt. Außerdem wurden die manuelle und die automatisierte Aufnahme der Kennlinie verglichen.
Die Kennlinien zeigen, dass Xenonstrahler am besten für die Messung elektrischer Kenngrößen von Photovoltaik-Modulen geeignet sind. Nicht nur ist das Spektrum des Strahlers am ähnlichsten dem des AM1,5-Spektrums, sondern dieser hat dazu am wenigsten Wärmeeinfluss auf das zu messende Modul. Zudem ist die automatisierte Aufnahme der Kennlinie wesentlich schneller als die manuelle.
Mit den gewonnenen Erkenntnissen lassen sich die elektrischen Kenngrößen der Photovoltaik-Module künftig qualitativ hochwertiger und schneller testen.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Diese Bachelorarbeit untersucht die Hintergründe und Motivation für die automatische Ausführung und Protokollierung von Tests auf Basis von Gherkin und Godog mit Hilfe von Xray Test Management für Jira.
Das Hauptziel ist die Steigerung der Effizienz bei der Testprotokollierung und -reporting. Durch die Automatisierung können manuelle Aufgaben reduziert werden, was zu einer verbesserten Effizienz und Zeitersparnis führt. Die Ergebnisse dieser Arbeit dienen als Grundlage für Unternehmen, um die Effizienz und Qualität ihrer Testprozesse zu steigern und einen Mehrwert zu schaffen.
Die verwendeten Technologien, Gherkin, Godog, Cucumber für Golang und Xray Test Management für Jira, werden vorgestellt und ihre Funktionen erläutert. Zusammenfassend ermöglichen diese Technologien eine effizientere Zusammenarbeit von Entwicklungs- und Testteams und verbessern die Softwarequalität.
Die Erstellung und Bearbeitung dieser Bachelorarbeit dient dazu Daten in Bezug auf Laserapplizierte Hautschädigungen zu erstellen. Im Rahmen dessen werden an einem Tierhautmodell mit einem Kohlenstoffdioxidlaser Hautschäden erzeugt und untersucht. Der notwendige Versuchsaufbau wird geplant und Auswerteroutinen evaluiert. Es erfolgt die Charakterisierung der Schädigungsbereiche und eine Berechnung der geschädigten Fläche sowie der dazugehörigen Flächenenergie. Mit den gewonnen Erkenntnissen konnten Aussagen über mögliche Grenzwerte der Flächenenergie getroffen werden.
Das Ziel dieses Projekts bestand darin, die Schaltzeit schaltbarer PDLC-Folien zu messen und die Abhängigkeit der Schaltzeit von der Temperatur zu untersuchen. Um dies zu erreichen, wurde zunächst ein Laboraufbau erstellt, der hauptsächlich aus einer LED-Lichtquelle, einem Sensor, einem Oszilloskop und einem Trenntransformator bestand. Wenn die Probe mit einer elektrischen Feld angelegt wurde, die von einem Trenntransformator bereitgestellt wurde, richteten sich die Flüssigkristalle im Polymerfilm aus und ließen Licht durch (was zu einem transparenten Aussehen führte). Dieses Licht wurde vom Sensor erfasst und in ein elektrisches Signal umgewandelt, das anschließend an das Oszilloskop gesendet wurde. Die Anstiegszeit dieses Signals wurde im Bereich von 10% bis 90% der aufsteigenden Flanke gemessen. Die Schaltzeit wurde bei Raumtemperatur (24,2 °C) ermittelt. Anschließend wurden die Proben einmal auf eine niedrige Temperatur von 1 °C und einmal auf eine hohe Temperatur von 39,6 °C temperiert und erneut gemessen, um den Einfluss der Temperatur auf die Schaltzeit zu untersuchen.
Die Ergebnisse zeigten eindeutig, dass die meisten Proben eine schnellere Reaktionsrate bei höheren Temperaturen im Vergleich zu niedrigeren Temperaturen aufwiesen. Alle Messwerte waren bei Temperaturen von 39,6 °C und 24,2 °C homogener und wiesen eine höhere Messgenauigkeit auf, während bei 1 °C die Messwerte eine geringe Homogenität und niedrigere Messgenauigkeit aufwiesen. Es wurde auch festgestellt, dass die Schaltzeit bei einigen Proben deutlich schneller war als bei anderen. Die manuelle Schaltung und die unpassenden Parameter des Signalverlaufs könnten bei einigen Proben zu höheren Schaltzeitwerten geführt haben, da sie vermehrt Nulldurchgänge in der aufsteigenden Flanke des Wechselsignals verursachten. Dies ließe sich möglicherweise durch die Implementierung einer automatischen Schaltung und die Verwendung eines Funktionsgenerators beheben. Mit diesem Generators könnte die Messfrequenz des Sinussignals gesenkt werden, sodass die Schaltzeit deutlich kürzer ist als die ansteigende Flanke. Alternativ könnten auch andere Signalformen wie Rechtecksignale erzeugt werden, bei denen die Probleme, die durch den Sinus verursacht werden, nicht auftreten. Dies könnte in weiteren Experimenten vermieden werden. Des Weiteren könnten die Temperierungsbedingungen während der Versuchsdurchführung Ungenauigkeiten bei den aufgenommenen Messwerten verursacht haben. Dies ließe sich eventuell durch die Verbesserung der Bedingungen für die Temperierung der Proben verhindern. Dadurch könnte der Temperaturverlust während des Messvorgangs reduziert werden, was zu einer höheren Genauigkeit führt. Darüber hinaus sollte der Einfluss der Lebensdauer auf die Schaltzeit in zukünftigen Experimenten berücksichtigt werden, indem nicht nur die Anstiegszeit, sondern auch die Abstiegszeit beim Ausschalten untersucht wird. Dies wäre insbesondere bei Langzeitexperimenten relevant.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
Die vorliegende Bachelorarbeit untersucht die Machbarkeit der Anwendung resistiver Sensoren auf textilen Materialien zur Messung des Auflagedrucks auf kompressiblen Untergründen. Die Recherche hat gezeigt, dass es bereits Anwendungen im medizinischen und
weiteren Sektoren, wie zum Beispiel im Sport, gibt. Die Arbeit konzentriert sich auf die Möglichkeit der direkten Herstellung von Sensoren auf Textilien.
Zwei Herstellungsverfahren für leitfähige Strukturen auf textilen Substraten werden untersucht. Die verwendeten Verfahren zur Herstellung leitf¨ahiger Strukturen auf Textilien umfassen das Pulverdruckverfahren und die Stickerei. Die Stickerei ermöglicht die Platzierung von leitfähigen Fäden bzw. Kabeln auf Textilien, während der Pulverdruck mit funktionalen Pulvern leitfähige Strukturen auf Textilien erzeugt.
Obwohl es bereits eine Vielzahl von Messsystemen für die Erfassung des Auflagedrucks gibt, zielt diese Arbeit darauf ab, Sensoren auf einem textilen Substrat speziell für den Einsatz in einer Auflagedruck-Messmatte im Reitsport zu entwickeln.
Die experimentelle Untersuchung umfasst Zugversuche und Druckbelastungstests. Zunächst werden Zugversuche durchgeführt, um die Dehnungseigenschaften der Textilien zu bestimmen, sowie die Änderung des elektrischen Widerstandes von aufgebrachten Pulverstrukturen bei Dehnung. Darüber hinaus werden zyklische Zugversuche durchgeführt, um die Stabilität der aufgetragenen leitfähigen Strukturen zu überprüfen. Mithilfe dieser Informationen wurde ein Trägermaterial aus mehreren textilen Substraten für weitere Versuche gewählt.
Des Weiteren wird die Änderung des elektrischen Widerstands von aufgebrachten Stick- und Pulverstrukturen während zyklischen Druckbelastungstests auf kompressiblen Untergrund untersucht und verglichen.
Die Ergebnisse der Druckbelastungstests deuten darauf hin, dass die Stick- und Pulverstrukturen eine Veränderung des elektrischen Widerstands während zyklischer Druckbelastung aufweisen. Es wurde beobachtet, dass der elektrische Widerstand während der Belastung
der Pulverstrukturen abnimmt und nach der Entlastung ansteigt. Die gestickten Strukturen weisen gegenteiliges Verhalten auf. Dies eröffnet interessante Möglichkeiten für die Entwicklung von textilen Sensorlösungen zur Erfassung von Auflagedruck auf kompressiblen Untergründen.
Die Bachelorarbeit zeigt die Komplexität und Herausforderungen bei der Entwicklung von resistiven Sensoren auf textilen Materialien für medizinische und sportliche Anwendungen.
Die Arbeit wendet eine umfassende Methodik an, die eine Literaturrecherche, die Analyse bestehender Anwendungen, die Implementierung und die Evaluierung eines zielgruppenspezifischen Prototyps einer mobilen App für die Stellensuche umfasst.
Ziel der Bachelorarbeit ist es, Funktionen einer mobilen App zur Stellensuche zu identifizieren, die sich positiv auf die Effektivität der mobilen App bei der Stellenvermittlung auswirken. Basierend auf vorangegangenen Forschungsarbeiten und einer Analyse bestehender Apps sollen die identifizierten Funktionen, die zum bestehenden System passen, in die mobile App implementiert werden. Um die Effektivität der App zu evaluieren, wird eine Befragung von internen Testnutzern durchgeführt.
Abschließend werden Empfehlungen für die Entwicklung und Verbesserung mobiler Apps zur Berufsstellensuche gegeben, um eine effiziente Stellenvermittlung zu gewährleisten.
Zielsetzung der vorliegenden Arbeit war eine Transformation von BPMN-Elementen in logische Aussagen. Hierfür wurden zunächst die Anforderungen definiert und eine Analyse der BPMN-Diagramme durchgeführt, wobei häufig verwendete BPMN-Elemente ausgewählt wurden. Darüber hinaus wurde ein Konzept mit der Übersicht über die wichtigsten Schritte erstellt. Des Weiteren wurde ein Transformationsprogramm für die ausgewählte BPMN-Elemente und deren Eigenschaften entwickelt.
Die Funktionsweise dieses Programms basiert auf der Java-Programmiersprache und nutzt die XSLT-Implementierung Saxon. Das
Transformationsprogramm durchsucht die gegebene Datei nach BPMN-Diagrammen, analysiert die gefundenen BPMN-XML-Dateien und erzeugt die Prolog-Datei mit den Fakten. Anschließend wurden in dieser Arbeit Prolog-Regeln definiert, um zu zeigen, wie die generierten logischen Aussagen zur Validierung von BPMN-Diagrammen eingesetzt werden können.
Im Rahmen dieser Diplomarbeit werden die Möglichkeiten zur Reduzierung der Eiseneinträge und der damit verbundenen Verockerung des Elligastbaches betrachtet.
Ziel ist es, durch bauliche Maßnahmen die einströmenden Einträge so weit zu verringern, dass ein guter ökologischer und chemischer Zustand des Berichtsgewässers Elligastbach erreicht werden kann. Um die Rückkehr von Lebewesen und Pflanzen in ein Gewässer zu ermöglichen, ist ein guter Gewässerzustand von elementarer Wichtigkeit.
Alle erforderlichen Schritte, die zur Vorbereitung der Wiederherstellung des guten Zustandes notwendig sind, zu denen die baulichen Maßnahmen und Eingriffe in das Gewässer im Wesentlichen zählen, werden in der vorliegenden Arbeit erläutert. Neben der Historie des Standortes und den rechtlichen Grundlagen, werden die Schwerpunkte wie die Probenahme zur Erfassung der anfallenden Menge an Eiseneinträgen, sowie die möglichen Auswirkungen auf das Gewässer beschrieben und daraus resultierend eine Vorstellung verschiedener Varianten bzw. Ausführungen von Maßnahmen zur Ockerreduzierung dargestellt. Die nützliche Verwertung des anfallenden Ockerschlamms ist ein weiterer Punkt in der vorliegenden Arbeit.
Kontaktlinsen gehören zum Alltag des Menschen dazu. Über ausgewählte Versuche wurden
dabei Alltagssituationen simuliert.
Die Ergebnisse und Veränderungen an den Kontaktlinsen wurden über Lichtmikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie untersucht. Kernpunkte bei den Untersuchungen waren die Oberfläche und die Transmission. Durch einen eigens konzipierten Versuchsaufbau wurde der Transmissionsgrad nach jedem Versuch ermittelt. Nach allen Alltagssituationen konnten Veränderungen nachgewiesen werden.
In dieser Arbeit wird dargestellt, wie durch eine Beeinflussung der Separation von Druckdaten durch ICC-Profile der Verbrauch an Farbmittel (Tinte) im industriellen Inkjetdruck reduziert werden kann.
Mittels geeigneter Software wurden ICC-Profile mit unterschiedlichen Separationseigenschaften erstellt, deren Potenzial zur Farbmittelreduzierung durch dafür erstellte Testformen ermittelt und in Zusammenhang zur farbmetrischen Qualität gesetzt. Dabei konnte in der betrachteten Produktionsumgebung eine Reduzierung der benötigten Farbmenge im zweistelligen Prozentbereich gegenüber der Herstellereinstellung erreicht werden ohne dabei die definierten Qualitätskriterien zu verletzen.
Die Ergebnisse wurden durch Druckversuche mit realen Kundenaufträgen verifiziert und auf einem baugleichen Drucksystem erfolgreich reproduziert.
Auswirkungen auf die Umwelt wurden aufgezeigt, konnten im Rahmen dieser Arbeit aber nicht quantifiziert werden. Hierzu sind nach Ansicht des Autors weitere Untersuchungen notwendig.
Im Jahr 2022 hat die Warema Renkhoff SE entschieden den Energieträger Wasserstoff (H2) als eine Erdgasalternative für die Beheizung der Pulverlacköfen im Rahmen von zwei Abschluss- arbeiten untersuchen zu lassen. Eine andere Arbeit befasste sich mit den unterschiedlichen Möglichkeiten der Versorgung mit H2. In der hier vorliegenden Arbeit wurden die unterschied- lichen Aspekte für den Einsatz des neuen Energieträgers in der Fertigung betrachtet.
Recherchen zu einem möglichen H2-System zeigten, dass alle Komponenten bereits heute verfügbar sind. Manche, wie z.B. ein 100%-H2 Brenner, befinden sich aber noch im Proto- typenstadium. Zurzeit existieren noch keine Regelwerke für die Installation und Betrieb von H2-Sytemen, die den Stand der Technik abbilden. Die Erarbeitung solcher Regelwerke wurde in 2023 begonnen und wird einige Zeit in Anspruch nehmen.
Um unterschiedliche Konfigurationen von H2-Systemen untereinander und mit dem existie- renden Erdgassystem vergleichen zu können, wurde in dieser Arbeit ein Tool entwickelt. Dieses Bewertungs- und Entscheidungstool erlaubt es das System zu konfigurieren und nach Kosten, Risiken und CO2-Emissionen zu bewerten. Die Bewertung erfolgt nach dem Prinzip einer um- gekehrten Nutzwertanalyse. Im Tool wurde beispielhaft die Pulverbeschichtungsanlage 1 am Standort Marktheidenfeld abgebildet.
Wasserstoff gilt aufgrund seiner physikalischen Eigenschaften als besonders schwierig in der Handhabung und gefährlicher als z.B. Erdgas. Die Risikobewertung bildet auch deshalb den Hauptteil des Tools. Die Risikobewertung wurde so gestaltet, dass sie wissenschaftlich fundiert und dennoch einfach anzuwenden ist.
Im fertigen Tool wurden einige Konfigurationen miteinader verglichen. Es zeigt sich, dass das derzeitige Erdgassystem sowohl bei den Kosten als auch bei den Risiken von keinem H2- System erreicht werden kann. Ohne zusätzliche Sicherheitsvorrichtungen bzw. -maßnahmen beim H2-System ist das Risiko bei manchen Risikoszenarien zu hoch. Ein großes Risiko beim H2-System geht aber auch von der fehlenden Erfahrung und Komponenten, welche sich noch in Entwicklung befinden, aus.
Zum Abschluss wurde die Rentabilität eines H2-Systems betrachtet. Dazu wurden die im Tool ermittelten Investitionskosten für ein H2-System verwendet. Für unterschiedliche Erdgas- preise und Amortisationszeiträume wurde der H2 Preis berechnet, ab dem sich die Investition amortisiert. Zum Beispiel müsste der H2 Preis unter 5 €/kg liegen (heute ca. 10 €/kg), damit sich das System beim heutigen Erdgaspreis von 0,15 €/kWh nach 5 Jahren amortisieren kann.
Aus dieser Arbeit können direkte Handlungsempfehlungen für Warema abgeleitet werden. So scheint es aus mehreren Gründen sinnvoll mit der Installation eines H2-Systems noch 2–3 Jahre zu warten. In dieser Zeit werden z.B. die Normen für H2-Installationen fertiggestellt. Wenn ein H2-System installiert wird, sollte man zuerst nur einen Brenner auf H2 umstellen. So fallen die Anfangsinvestitionen deutlich niedriger aus und die Reduktion der CO2-Emissionen ist dennoch beträchtlich (bis zu 50%!). Gleichzeitig kann Erfahrung mit H2 im Unternehmen gesammelt werden.
Um in der Strahlentherapie einen qualitativ hochwertigen Behandlungsablauf zu gewährleisten, ist eine außerordentlich genaue Qualitätssicherung notwendig. Aufgrund der steigenden Komplexität der modernen Medizintechnik entschied sich das Deutsche Institut für Normung e.V. im Dezember 2021, die DIN 6864-1:2021-12 "Konstanzprüfung der strahlentherapeutischen Kette - Teil 1: Teletherapie" zu veröffentlichen.
Ziel der vorliegenden Arbeit ist die Durchführung und Auswertung dieses End-to-End-Tests sowie die Erstellung eines Arbeitsablaufes und eines Messprotokolls auf Grundlage der DIN 6864-1. Die Prüfung wird mit einem neu angeschafften Messphantom der Firma PTW Freiburg durchgeführt. Abschließend soll die Eignung dieses Phantoms diskutiert werden.
Die Ergebnisse zeigen, dass alle Linearbeschleuniger die Konstanzprüfung bestanden haben. Dennoch weisen die beiden alten Geräte des Typs Siemens ARTISTE trotz der stabilen Planung größere Abweichungen der gemessenen Dosis zur geplanten Dosis als die neueren Geräte des Typs Varian TrueBeam auf. Die hauptsächliche Ursache liegt dabei in der ungenaueren Tischkorrektur nach der Bildgebung. Weitere Ursachen liegen im Alter der Geräte und dem damit verbundenen Verschleiß der Komponenten. Die Prüfung der Hounsfield-Einheiten und der Phantomgeometrie zeigt auf, dass es nur sehr geringe Unterschiede in der Konstanz der Hounsfield-Einheiten und keine Abweichung in der Phantomgeometrie gibt. Das verwendete Messphantom eignet sich nur bedingt für den normalen End-to-End-Test. Die Stärken des Phantoms liegen eher in der stereotaktischen Bestrahlung. Eine Ursache ist die zu zeit- und arbeitsaufwändige Konturierung im Messphantom. Zukünftige Prüfungen werden mit einem anderen Messphantom des gleichen Herstellers fortgeführt.
In Bezug auf den bevorstehenden Beschleunigerwechsel ist eine erneute Prüfung aller Geräte, eine Neuevaluierung der Testergebnisse sowie eine Neuverfassung der Arbeitsanweisung zu empfehlen.
Smart City Builder
(2023)
Das europäische Stromnetz muss sich immer größeren Herausforderungen stellen. Um diese meistern zu können bedarf es an Forschung und Innovation. Damit interessierte Bürger die Grenzen des konventionellen Stromnetzes verstehen und Möglichkeiten eines Smart Grid aufgezeigt bekommen, wird eine Demonstratoranwendung benötigt.
Mithilfe von Unity wurde die erste Version des Smart City Builder erstellt und somit der Grundstein gelegt. Der Demonstrator ist jetzt schon in der Lage virtuelle Stromnetze zu bilden und an diesen Berechnungen durchzuführen. Die Anwendung gestattet beliebige Stromnetze zu konfigurieren.
Diese Bachelorarbeit präsentiert hergeleitete Optimierungsmaßnahmen zur Verbesserung der Derotationsbandage, speziell für die beidseitige Anwendung bei Kindern. Hintergrund dessen sind die bei Kindern mehrfach aufgetretenen Probleme beim Handling der Bandage. Die Optimierung basiert dabei auf den Ergebnissen einer Umfrage, welche mit mehreren Orthopädietechnikern der Firma Kajamed durchgeführt wurde sowie dem Vergleich vorliegender Bandagen von verschiedenen Herstellern.
Anhand dieser Erkenntnisse ist es anschließend möglich, eine Reihe von Prototypen zu entwickeln. Die Ergebnisse zeigen, dass die vorgeschlagenen Optimierungsmaßnahmen den Alltag der betroffenen Kinder erheblich erleichtern können und die Selbstständigkeit gewährleistet bleibt, jedoch ebenso das Therapieziel nicht verfehlt wird. Folglich müssen die Bandagen besser auf das soziale Umfeld der Patienten abgestimmt werden um die Einschränkungen so gering wie möglich zu gestalten.
Die Erkenntnisse dieser Bachelorarbeit dienen somit als gute Grundlage für zukünftige Optimierungen solch einer Derotationsbandage für Kinder.
Diese Studie befasst sich mit der Konzeption und Implementierung einer neuen Anwendung zum Schutz vor Angriffen bei der Anmeldung von Neukunden in einem Online-Brokerage-Plattformsystem in Europa. Die Integration sollte einfach sein, so dass das System wie bisher funktioniert, aber zusammen mit der neuen Struktur. Ziel ist es, die Kosten des Unternehmens und zu senken. Um dieses Problem zu lösen, hat der Autor ein Betrugserkennungssystem entwickelt und Tests durchgeführt. Das Erkennungsmuster hat sich als wirksam erwiesen, um betrügerisches Verhalten aufzudecken. Das Papier enthält eine schrittweise Beschreibung der Umsetzung.
Durch die stetig gestiegen Energiepreise wird heutzutage, bei der Abwasserreinigung, die Verwendung von Reinsauerstoff für die Belüftung in der zweiten Reinigungsstufe, wieder vermehrt betrachtet. Denn es lassen sich bis zu 40 % Energie im Gegensatz zur konventionellen Belüftung mit Druckluft einsparen. Wenn Reinsauerstoff heutzutage bereitgestellt wird, kommt diese entweder aus der zentralen Luftzerlegungsanlage oder wird dezentral mittels Druckwechseladsorption bereitgestellt. Eine weitere Methode der dezentralen Versorgung, in die viel Hoffnung gelegt wird, ist die Reinsauerstofferzeugung aus der Wasserstoffelektrolyse.
Alle drei Verfahren haben aus energetischer und ökonomischer Sicht, ihre Vor- und Nachteile, welche ausführlich beschrieben werden.
Es wird allerdings nicht ausreichend, bei der Energieeinsparung nur auf die Reinsauerstoffversorgung zu setzen. Nur mit einer ganzheitlichen Optimierung aller Bereiche, die Einflüsse auf Sauerstoffversorgung haben, wird sich die Umstellung auszahlen.
Um dies darzustellen, wurde für die Arbeit ein Entscheidungstool entwickelt, welche diese energetischen und ökonomischen Einflüsse darstellt.
Das Afterloading ist eine spezielle Art der Strahlentherapie und wird hauptsächlich bei der Behandlung von Prostata-, Leber- und gynäkologischen Krebs angewendet. Die
Behandlung wird in einem, an das Afterloading angepassten, Raum durchgeführt.
Die Firma mtp wird mit der medizintechnischen Planung eines Behandlungsraumes für das
Afterloading beauftragt.
Die medizintechnische Planung des Raumes erfordert ein umfangreiches Vorwissen über
das Afterloading. Das beinhaltet unter anderen die Arbeitsabläufe rund um die Behandlung und das Einhalten der für die Strahlentherapie geforderten Richtlinien.
In der Planung ist eine enge Zusammenarbeit mit den Nutzern, Architekten, Haustechnikern und Elektrotechnikern erforderlich.
In dieser Arbeit ist die frühe medizintechnische Planung des Behandlungsraumes
beschrieben. Ein angefügter Fragenkatalog mit Hinweisen dient als Unterstützung und
Vorlage für zukünftige Planungen im Bereich Afterloading.
Ziel der Arbeit war es, das Ätzverhalten des reaktiven Ionenstrahlätzens anhand von Siliziumdioxid, Silizium und dem Photoresist AZ1505 zu untersuchen. Für die Ätzraten der drei Materialien sowie für die Selektivitäten Siliziumdioxid/AZ1505 und Silizium/AZ1505 sollten Modelle erstellt und mit dem bekannten Prozesswissen validiert werden. Um dies zu erreichen, wurde die Methode des Design of Experiment genutzt, welche versucht, mit einer optimalen Anzahl an Versuchen auszukommen. Zu Beginn wurden Waferschnipsel der drei Materialien erzeugt. Die Siliziumdioxid- und Silizium-Proben besaßen ein binäres Resistgitter mit einer Periode von 3 μm, während die Photoresist-Proben unstrukturiert blieben. Die Proben wurden auf Facettenhalter geklebt und geätzt. Nach den Ätzungen wurden die Ätzabträge mit dem AFM (strukturierte Proben) und der Dünnschichtreflektometrie (flächiger Photoresist) ermittelt. Aus Vorversuchen wurde der grundlegende Versuchsaufbau bestimmt.
Im Screening wurden die drei Faktoren Beamspannung, Ätzgasmischung (bestehend aus CHF3 und O2) und Ioneneinfallswinkel untersucht. Die Faktoren wurden bei ihren zwei extremen Einstellungen getestet, wobei die wichtigsten Faktoren herausgefiltert wurden. In dem anschließenden Response Surface Methodology-Design wurden die wichtigsten Faktoren auf mehreren Stufen untersucht und anhand der Daten die Modelle erstellt. Für jede Zielgröße wurde ein Modell fünfter und vierter Ordnung sowie ein kubisches Modell erzeugt. Es folgten Kontrollversuche zur Überprüfung der Vorhersagequalitäten. Danach wurden die einzelnen Modelle untereinander verglichen und mit dem bekannten Prozesswissen überprüft.
Schlussendlich wurde für jede Zielgröße das Modell gewählt, welches die besten statistischen Eigenschaften, die höchsten Vorhersagequalitäten und den sinnvollsten Verlauf besaß. Im Endeffekt konnte für jede Zielgröße ein Modell erstellt werden.
In den letzten Jahren ist die Rechenleistung von Computern und zugleich die Auflösung der zum anzeigen von Hologrammen benötigten Spatial Light Modulaturen stark angestiegen. Dadurch erfährt das Themengebiet der synthetisch erzeugten Hologramme einen enormen Aufschwung. Es soll daher eine Plattform aufgebaut werden, mit welcher synthetische Hologramme erzeugt und evaluiert werden können. Zudem sollen die Inhalte als Grundlage für einen Versuch zum Einstieg in dieses Themengebiet dienen.
Es wurde mittels eines Transmissions Spatial Light Modulatrs ein inline Versuchsaufbau zum anzeigen von Phasenhologrammen realisiert. Als Methoden zum generieren der Phasenhologramme wurden die Fourier Optik und der Gerchberg-Saxton Algorithmus gewählt. Aus didaktischen Gründen wurde der Versuchsteil in mehrere Teilgebiete unterteilt um ein Gefühl für die verschiedenen Aspekte der digitalen Holografie zu vermitteln. Die so erzeugten rekonstruierten Bilder wurden hinsichtlich ihrer Qualität mittels SSIM bewertet und Effekte welche auftreten erläutert. Zudem wurde der gesamte Pythoncode so angelegt, dass dieser parallel zu dieser Arbeit als eine Versuchsanleitung dienen kann.
Die vorliegende Arbeit beschäftigt sich mit dem Aufbau und der Charakterisierung einer fasergekoppelten Laser-Weißlichtquelle für die Endoskopie. Ziel war es, eine effektive Beleuchtung des Gewebes zu ermöglichen, um eine genaue Diagnose und eine effektive Therapie durchführen zu können. Um das Ziel zu erreichen, wurde die LaserLight SMD als Lichtquelle gewählt, da sie eine hohe Lichtleitung sowie eine hohe Leuchtdichte aufweist.
Im Rahmen der Arbeit wurde zunächst versucht, die Lichtstrahlen zu kollimieren, um das Strahlparameterprodukt (SSP) und die Beugungsmaßzahl M2 zu bestimmen, die für eine optimale Faserkopplung notwendig sind. Allerdings erwies sich dieses Vorgehen als nicht ausreichend. Daher wurde ein zusätzlicher Versuch durchgeführt, bei dem die Laserstrahlen fokussiert wurden. Durch Fokussierung konnte die Beugungsmaßzahl für die geplante Anwendung verbessert werden, was zu einer höheren Bildqualität oder Tiefenschärfe führen kann. Die Messungen zeigen, dass der Laserstrahl optimal fokussiert wurde und eine konsistente Qualität aufweist. Die berechnete Beugungsmaßzahl des Laserlichts ist hoch, was in Endoskopie-Anwendungen jedoch von Vorteil sein kann, da eine gleichmäßige flächige Ausleuchtung gewährleistet werden kann.
Anschließend wurden die Lichtstrahlen in eine Faser eingekoppelt, was zu einer effektiven und optimalen eingekoppelten Lichtstrahlung führte. Die Ergebnisse zeigen jedoch, dass die Transmission der Faser bei einigen Wellenlängen niedriger war als theoretisch erwartet. Es ist daher empfohlen, weitere Untersuchungen durchzuführen, um die Verluste in der Faser genauer zu bestimmen und zu optimieren.
Des weiteren wurde die spektrale Verteilung der Lichtquelle vor und nach der Faserkopplung untersucht, wobei festgestellt wurde, dass die spektrale Leistungsdichte nach der Faserkopplung im Vergleich zur Messung vor der Kopplung deutlich reduziert ist. Dies kann auf Verluste im Fasersystem zurückzuführen sein, die mehrere Peaks in der spektralen Verteilung nach der Faserkopplung verursacht haben.
Insgesamt hat diese Arbeit gezeigt, dass eine fasergekoppelte Laser-Weißlichtquelle für die Endoskopie mit der LaserLight SMD als Lichtquelle eine vielversprechende Option darstellt. Durch die optimale Faserkopplung und Fokussierung des Laserstrahls konnten eine höhere Bildqualität oder Tiefenschärfe und eine effektive Beleuchtung des Gewebes erreicht werden. Es ist jedoch notwendig, weitere Untersuchungen durchzuführen, um die Verluste in der Faser zu minimieren und die spektrale Verteilung zu optimieren.
Das Ziel der vorliegenden Bachelorarbeit ist die prototypische Entwicklung eines Dashboards, unter Betrachtung definierter UX-Faktoren [Win17] für ein bestehendes Planungstool.
Dafür wird ein Prototyp angefertigt, um den Vorstellungen des Kunden möglichst gerecht zu werden. Es werden bestmögliche Gestaltungsoptionen zur Datendarstellung recherchiert und verwendet. Um die Datendarstellung zu optimieren, erfolgt ein erster Prototyp als Skizze. Anschließend begutachtet das Team den Prototyp. Sie geben Anpassungen und Veränderungen ab.
Diese werden im Prototyp implementiert. Mit Hilfe Adobe XD wird ein zweiter digitaler Prototyp angefertigt. Der angefertigte Prototyp wird in die bestehende Anwendung eingebunden. Danach wird das Dashboard mit der bestehenden Anwendung verglichen. Hierzu werden 13 UX-Faktoren benutzt.
Die Werte aus der Befragung werden ausgewertet und miteinander verglichen. Aus diesem Vergleich werden die notwendigen Schlüsse gezogen.
In this project we develop an intelligent water meter based on software solutions offered by the IOTA Foundation. The water meter allows the customer to map water usage in real-time and pay water on demand, as well as the water provider to map water usage on a greater scale, regulate water supply during low- demand phases and offers regulatory functions to prepare for drought or humid climate, and to incentivise sustainable water usage in high-demand fields like agriculture. This functionality is phrased into a research issue:
Invention of a working prototype to demonstrate the IOTA Streams and Wallet protocols for a meter with additional focus on economic efficiency and the technical preparation of scalability.
Utilizing the IOTA streams protocol, a next generation secure data connection is established between the water meter and a server-sided software application. On this connection, water consumption is mapped into a data bench, and informative data and commands are issued to the graphical interface of the meter.
The IOTA wallet library is leveraged to provide customer accounts corresponding to their meter. IOTA tokens can be send to the account, which grants access to water in a matter of seconds. Depending on the regulatory scenario, water flow can be stopped as soon as the account is exhausted (i.e. public well), or an overdraw can be established in order to guarantee fulfilment of basic human rights (i.e. private households).
Since pricing data can be calculated server-sided and water consumption is mapped in very narrow intervals of as low as 4 seconds, the price can be used as tool to regulate consumption.
The physical components include an electrical ball valve to shut down water flow automatically, a command line interface to provide informative data,, a Raspberry Pi running the client-sided software application, and a water meter with MBus-Interface, as well as a Controlling Board to connect the Raspberry Pi with both peripheral devices.
The finished prototype shows, that water consumption can be mapped on a highly secure level, in near real-time, from afar, flexible for most applications.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung einer geeigneten Schnittstelle, welche die Kommunikationsmöglichkeiten zwischen der firmeneigenen Software OnyxCeph3TM und verschiedenen, von anderen Firmen entwickelten dentalen Webportalen erweitert. Dazu wird eine prototypische Software konzipiert und umgesetzt, welche den Frontends der verschiedenen Webportale ein Interface zur Nutzung von verschiedenen Funktionen bereitstellt. Zum Testen der Schnittstelle wird eine einfache Dummywebsite aufgesetzt.
Haltungsanalysen spielen in vielen Bereichen eine Rolle. Die vielfache Nutzung von digitalen Medien in allen Altersgruppen, als auch die Zunahme von Tätigkeiten am Schreibtisch in schlechter Sitzhaltung führen zu einer Zunahme von Rückenbeschwerden. Weitere Einflussfaktoren sind der damit häufig verbundene Bewegungsmangel und die steigende Anzahl von adipösen Menschen. Um langfristige Schäden am Achsenskelett zu vermeiden ist es notwendig Fehlstellungen frühzeitig zu erkennen und zu behandeln. Durch die hohe Anzahl an Patienten ist es notwendig einfache, schnelle und kostengünstige Diagnoseverfahren und Behandlungsmethoden zu verwenden.
Ein bildgebendes Verfahren ist die Rasterstereografie. Kombiniert man diese mit einer Fußdruckmessplatte, lassen sich neben Aussagen über die Stellung des Achsenskeletts auch die Druckbelastungen unter der Fußsohle bestimmen.
Derzeit beschränkt sich dieses Verfahren auf die Aufnahme aus dorsaler Sicht. Diese Arbeit beschäftigt sich mit den Grundlagen der Erstellung von Haltungsanalysen mit einem 360 Grad Scan. Es werden Parameter und Fehlstellungen betrachtet, welche sich durch die 360 Grad Analyse erfassen lassen.
Gegenstand dieser Arbeit ist eine Methode, mit der sich relativ einfach und Substrat-schonend eine photokatalytisch reinigende Oberfläche herstellen läßt. Prinzip: Aufbringen entsprechender Eigenschaftsträger (hoch aktive TiO2 P25 -Partikel) zusammen mit einem Bindemittel (SiO2-Sol-Gel). In der resultierenden Komposit-Schicht müssen die P25-Partikel partiell freiliegen aber auch ausreichend in der Matrix stecken. Es wurden Beschichtungs-Sole mit unterschiedlichen Feststoffgehalten (w(SiO2), w(TiO2)) auf Glas- und Acrylglasscheiben angewandt (Tauchbeschichtung). Durchgeführte Untersuchungen: Methylenblau-Abbautest (photokatalytische Aktivität), Naß-Scheuertest (Abriebbeständigkeit), Profilometrie (Schichtdicke), UV/Vis-Spektroskopie (Transmissionsgrad), REM-EDX-Untersuchung (Partikelmenge und -verteilung; Ti-Gehalt). Ergebnis: geeignete Schichten auf Glas erhalten; Verbesserungspotential bei PMMA; Schichten ganz leicht milchig (auf Grund der Größe der P25-Partikel).
Gegenstand/Zielstellung:
Gegenstand der Masterthesis bilden Kommunikationsbarrieren hörgeschädigter Patienten in der stationären Krankenhausversorgung. Die potenziell davon betroffenen 220.000 Menschen in Deutschland sind zur barrierefreien Kommunikation auf einen Gebärdensprachdolmetscher angewiesen, welcher nicht immer unmittelbar verfügbar ist. Das Konzeptionieren einer App, welche Kommunikation unterstützt und dadurch hilft, Vermeidungsstrategien von Arztbesuchen abzubauen, ist das Ziel der Arbeit. Weiterhin soll diese App einem Dolmetschermangel temporär befristet entgegenwirken können. Digitalisierung bietet hier enormes Potential, sofern eine zielgruppenspezifische und anwenderfreundliche Umsetzung erfolgt.
Methodik:
Zunächst erfolgt eine Zusammenfassung der Datengrundlage (Bachelorthesis). Anschließend soll durch eine kombinierte SWOT-Analyse vorhandene technische und informationstechnischer Unterstützungsmöglichkeiten Hörgeschädigter in der stationären Patientenversorgung eruiert werden. Durch eine 9-Felder-Matrix werden Probleme und Herausforderungen dieser Patientengruppe priorisiert. Zur nutzerbezogenen Modellierung der App wird die Methodik der Persona angewandt. Nicht-funktionale Anforderungen werden durch die Muss-Soll-Kann-Methode kategorisiert. Die Modellierung von Use-Case- und Anwendungsdiagrammen erfolgt mit Microsoft VISIO, ebenso die prototypische Oberflächengestaltung. Letztere begrenzt sich auf das Erstellen von Lo-Fi-Oberflächen (Wireframes).
Ergebnisse:
Es wurden fünf Personas erstellt. Die Kombination von SWOT-Analyse und 9-Felder-Matrix führte zur Definition von Anwendungsfällen (Use-Cases) und nicht-funktionalen Anforderungen. Die Anwendungsfälle wurden durch Use-Case-Diagramme visualisiert und erweitert. Um das Verhalten des Systems zu beschreiben, wurden acht Aktivitätsdiagramme modelliert. Dieses Verhalten wurde in 156 Wireframes dargestellt und an einem Beispielszenario veranschaulicht.
Diskussion/ Schlussfolgerung:
Es konnten alle Ziele der Arbeit erreicht werden. Die genutzten Methoden erwiesen sich als zweckmäßig. Da die Modellierung allein keine Kommunikationsbarrieren in der Patientenversorgung Hörgeschädigter überwinden kann, muss die Anwendung zukünftig zum funktionierenden System entwickelt und auf den Markt eingeführt werden.
Nutzererwartungen an IT-Systeme haben sich in den letzten Jahren verändert. Online-Dienste müssen ständig verfügbar sein und im Millisekunden-Bereich Anfragen bearbeiten. Traditionelle IT-Systeme haben Probleme, die Erwartungen nachhaltig zu erfüllen. Reaktive und asynchrone Systeme erfüllen mit modernen Konzepten die Erwartungen besser.
In dieser Arbeit werden die Grundlagen von Asynchronität und reaktiven Systemen dargestellt. Dazu zählen Konzepte, wie Streaming oder Actor Model. Verteilung und Skalierung von reaktiven Systemen werden betrachtet.
Im Hauptteil der Arbeit wird ein Vergleich von Werkzeugen für die Implementierung reaktiver Systeme durchgeführt. Die Werkzeuge Project Reactor, vlingo XOOM und Akka werden verglichen. Die Vergleichskriterien betrachten u. A. den Funktionsumfang, die Einstiegshürde für Entwickler und die Leistungsfähigkeit der Werkzeuge. Die Bewertung der Kriterien wird durch die Implementierung eines Prototypen mit den drei Werkzeugen unterstützt.
Aus den Bewertungen der Kriterien entstehen Rangfolgen, die durch die Ermittlung der Durchschnittsplatzierungen zu einer Gesamtbewertung der Werkzeuge führen. Aus der Gesamtbewertung und den in dieser Arbeit gewonnenen Eindrücken werden unterschiedliche Einsatzgebiete für die Werkzeuge definiert.
The book is the first of four volumes on data science and artificial intelligence. This first volume covers fundamentals of data science: an introduction to Python programming, software libraries for data management, techniques for working with big data. It contains many exercises and projects with real-world data.
Die Darstellung von Volumendaten in der Medizin reicht vom einfachen Anzeigen einzelner zweidimensionaler Schnittbilder bis hin zur komplexen Analyse dreidimensionaler Datenwolken. Dabei stellen das Direct Volume Rendering und Indirect Volume Rendering zwei wesentliche Methoden der Visualisierung von dreidimensionalen Daten dar.
In der Kieferorthopädie und -chirurgie spielen Darstellungen von DVT-Daten (Digital Volume Tomography) in der Diagnostik oder bei der digitalen Behandlungs-und Operationsplanung eine zentrale Rolle. Da die Volumenvisualisierung immer mehr an Bedeutung gewinnt, entwickeln sich die Rendering-Methoden stetig weiter. Insbesondere für Implementierungsaufgaben in eigene Systeme müssen aktuelle Entwicklungs- und Forschungsarbeiten stets verfolgt und analysiert werden. Ziel dieser Arbeit ist die Darstellung und Auswertung aktueller Methoden des Direct Volume Rendering, sowie der Extraktion von Objektoberflächen mittels des Indirect Volume
Rendering. Ein weiteres Ziel ist die Erstellung eines umfangreichen Überblickes über bereits praktisch, implementierte Rendering-Methoden. Auf Grundlage der Ergebnisse können Software-Funktionen in OnyxCeph realisiert werden. Sowohl für das direkte, als auch indirekte Volumen-Rendering wurde eine theoretische Literaturrecherche und eine Übersicht der praktischen Anwendung der untersuchten Verfahren erarbeitet. Anhand der Recherche und Analyse wissenschaftlicher Arbeiten konnten Kenntnisse über theoretische Ansätze sowie aktuelle Forschungsergebnisse im Bereich der Visualisierung von Volumendaten gewonnen werden. Weiterhin wurden ausgewählte Software-Produkte genutzt, um bereits eingesetzte Rendering-Verfahren auf Funktionalität und Leistungsfähigkeit zu analysieren.
Im Bereich des Direct Volume Rendering konnten erweiterte Interpolations-, Klassifikations-, Schattierungs- und Visualisierungsmethoden des Ray Casting-Algorithmus untersucht werden. Die 1D Gauß-Transferfunktion stellte sich als
eine einfache und nützliche Alternative zu konventionellen stückweise-linearen Übertragungsfunktion heraus. Für eine detaillierte Darstellung kann der Verarbeitungsprozess durch Shading-Methoden erweitert werden. So sind in der Praxis überwiegend gradientenbasierte Shading-Modelle eingesetzt. Deep Shadow Maps stellen dabei eine nützliche Ergänzung dar. Weiterhin konnten erweiterte Rendering-Methoden untersucht werden.
Neben der Maximum Intensity Projection kann die Minimum Intensity Projection für die Darstellung von Wurzelkanälen eingesetzt werden. Die Depth-enhanced Maximum Intensity Projection und Maximum Intensity Difference Accumulation bieten zwei vereinfachte Alternativen zum Ray Casting an, um eine nahezu korrekte dreidimensionale Darstellung erstellen zu können. Die Maximum Intensity Difference Accumulation erwies sich im Rahmen dieser Arbeit als eine besonders effektive Erweiterung zu bereits vorhandenen
Rendering-Verfahren. Auf Grundlage der gewonnenen Erkenntnisse während Recherchearbeit konnte Maximum Intensity Difference Accumulation in das Software-Produkt OnyxCeph implementiert werden. Die generierten Visualisierungen ermöglichten eine verbesserte Tiefenwahrnehmung, die dem klassischen Direct Volume Rendering ähnelt. In Kombination mit Beleuchtungsmethoden können zudem Oberflächenstrukturen analysiert werden.
Im Indirect Volume Rendering spielte die Segmentierung einzelner Volumenstrukturen durch das Iso-Surface Rendering eine besondere Rolle. Zur Generierung einer Oberfläche können verschiedene Methoden, wie der klassische Marching Cube-Algorithmus, die Level-Set-Methode und Surface-Nets eingesetzt werden. Die Literaturrecherche zeigte, dass Bestrebungen unternommen wurden, um alternative Algorithmen zum konventionellen Marching Cube-Verfahren zu entwickeln. So besteht die Möglichkeit den Rechenaufwand durch einen Simplified Pattern Marching Cube- oder Marching Tetrahedra-Algorithmus zu reduzieren. Weiterhin wurden Erweiterungen zur verbesserten Darstellung betrachtet.
So kann durch den Laplace-Filter oder Mittelwertfilter eine Weichzeichnung der Oberflächennetze erzeugt werden. Für eine erhöhte Auflösung besteht die Möglichkeit, die konventionelle Catmull-Clark -Methode oder die 4-8 Subdivision anzuwenden. In diesem Projekt konnte ein umfangreicher Überblick über aktuelle Methoden der Visualisierung von Volumendaten in der Zahnmedizin erstellt werden. Dabei repräsentieren sowohl die theoretischen, wissenschaftlichen Ansätze, als auch die praktische Lösungsansätze den aktuellen Stand der Technik und Forschung. Die Erkenntnisse können die Grundlage für Implementierungen darstellen.
Die analytische Elektronenmikroskopie ist eine häufig genutzte Charakterisierungsmethode für Festkörperoberflächen. Sie findet im Rahmen der Entwicklung, Modifizierung und Prüfung von Werkstoffen weitreichenden Einsatz. Daher bildet dieses Verfahren einen wesentlichen Baustein der Fachhochschulausbildung in vielen physikalisch orientierten Studiengängen.
Die vorliegende Arbeit befasst sich mit der Erstellung eines Praktikumskonzeptes für die Ausbildung von Bachelor- und Masterstudierenden an der Fakultät PTI der Westsächsischen Hochschule Zwickau. Insgesamt vier sowohl mikroskopisch als auch spektroskopisch orientierte Versuche wurden so gestaltet, dass sie didaktisch aufeinander aufbauend absolviert werden können. Dafür wurden zahlreiche Proben, unterschiedliche Detektoren sowie Kontrastvarianten auf ihre methodische und laborpraktische Eignung hin untersucht. Außerdem erfolgte eine vergleichende Betrachtung des Einflusses diverser Anregungs- und Auswerteparameter bei der energiedispersiven Röntgenspektroskopie.
Anhand von Experteninterviews, Peer-Befragungen und studentischem Feedback konnten sowohl die Gestaltung der Aufgabenstellung als auch der zeitliche Ablauf der Praktika optimiert werden. Zusätzlich fließen Berechnungen sowie komplexe Übungen als neue Komponenten in die Experimente ein. Durch eine adressatenspezifische Anpassung hinsichtlich Inhalt und Probenmaterial können die Praktika für Teilnehmer der Biomedizin- und Umwelttechnik oder perspektivisch auch anderer Studiengänge noch interessanter gestaltet werden.
Die strahlentherapeutische Behandlung mit Protonen von bestimmten Tumorentitäten, welche sich zum Beispiel in der Lunge, dem zentralen Nervensystem oder der Prostata befinden, stellt eine vielversprechende Alternative zu der konventionellen Photonentherapie dar. Zur Bestrahlungsplanung für die Bestrahlung mit Protonen werden Computertomographien (CT) verwendet.
Da es keinen direkten mathematischen Zusammenhang zwischen den Wechselwirkungen von Photonen bei der CT-Bildgebung und Protonen bei der Bestrahlung gibt, müssen heuristische Kalibrierkurven (HLUT) für jedes CT-Gerät individuell angefertigt werden. Die Motivation der Arbeit war es, das Kleintierbestrahlungsgerät Small Animal Radiation Treatment integrated beamline (SmART+ IB) für die Strahlenforschung mit Protonen vorzubereiten, das heißt die Voraussetzungsen für die Bestrahlungsplanung im Protonenstrahl zu schaffen.
Diese Masterarbeit beschäftigt sich mit der Erstellung von HLUT’s für das SmART+ IB zur zukünftigen Bestrahlungsplanung für Protonen-Kleintierbestrahlung. Im Rahmen dieser Arbeit wurden die Bildqualität und die Strahlendosen von vier Aufnahmeprotokollen des SmART+ IB’s ermittelt, bewertet und mit dem Präzisionbestrahlungsgerät für Kleintiere (SAIGRT) verglichen. Das SAIGRT wird aktuell zur Bestrahlungsplanung mit Protonen am „OncoRay - Nationales Zentrum für Strahlenforschung in der Onkologie“ verwendet. Die Ergebnisse zeigen eine gleichwertige Bildqualität und Strahlendosis der CT-Aufnahmen der beiden Geräte. Jedoch entstehen durch Strahlaufhärtungsartefakte Abweichungen von bis zu 50 HU von der tatsächlichen CT-Zahl eines zylinderförmigen Phantoms mit einem Durchmesser von 30 mm.
Zusätzlich wurden im Rahmen der Arbeit HLUT’s nach der empirischen Methode und nach der stöchiometischen Methode erstellt. Mithilfe von unbekannten Materialien konnte die Genauigkeit der erstellten HLUT’s validiert werden. Der wichtigste Teil der Bestrahlungsplanung ist die Reichweitenvorhersage und mittels dem Bildgebungsprotokoll Mouse Bone Low Dose (60 kV; 0,5 mA) und der empirischen HLUT kann bei einer Strahlendosis von 22 mGy die Reichweite auf 0,5 mm genau bestimmt werden.
Berliner Blau wurde mittels potentiostatischer elektrochemischer Abscheidung auf Gold und ITO synthetisiert.
Eine Untersuchung der Morphologie und der Zusammensetzung wurde in Abhängigkeit von ausgewählten thermodynamischen Eigenschaften durchgeführt. Diese wurden zusammen mit hergestellten Schichten von Natriumhexacyanoferrat und Cobalthexacyanoferrat mithilfe ausgewählter spektroskoskopischen Untersuchungsmethoden (REM, XPS, EDX, XRD, Raman) analysiert. Kubische Kristalle unterschiedlicher Gitterparameter und Zusammensetzung konnten ermittelt werden. Elektrische Messungen konnten ein resistives Schaltverhalten in den untersuchten Schichten zeigen.
Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von TiN/AlN-Multischichten. Ein besonderer Fokus liegt dabei auf der Untersuchung der thermischen Stabilität der Schichten.
Die Erzeugung der Schichtsysteme erfolgt mittels reaktivem RF-Magnetronsputtern in der Beschichtungsanlage LA 250 S (Fa. Von Ardenne). Es werden zwei Typen von Multischichten hergestellt: Typ 1 mit Periodendicken d = 14,1 nm…15.9 nm und Typ 2 mit Periodendicken dP = 4,44 nm…5,35 nm.
Um die thermische Stabilität zu untersuchen werden die Proben bei unterschiedlichen Temperaturen im Bereich von 170 °C…800 °C unter Stickstoffatmosphäre getempert.
Zur Charakterisierung der Schichtsysteme wird neben der Röntgenreflektometrie (XRR) die Röntgenphotoelektronenspektroskopie (XPS) verwendet. Dabei dient die XRR zur Bestimmung der Dichte und Schichtdicke, respektive Periodendicke der Schichten. Die XPS liefert währenddessen Aussagen zur Schichtzusammensetzung.
Die Untersuchungen zeigen eine thermische Stabilität der Multischichten für Temperaturen bis 700 °C hinsichtlich ihrer Multischicht-Struktur. Bei einer Temperatur von 800 °C bleiben die Multischicht-Strukturen jedoch nicht erhalten.
In dieser Arbeit wird ein statistisch anlernbares Modell vorgestellt, das in der Lage ist die komplexwertige Übertragungsfunktion einer optischen Multimodefaser auf Basis ebenfalls komplexwertiger Datensätze zu approximieren.
Zu diesem Zweck werden komplexwertige Schichten eines neuronalen Netzes implementiert und ein deterministisch inspiriertes Modell des zugrundeliegenden Systems aufgebaut. Die Konvergenz des Modells beim Training
für verschiedene, durch Simulation erhaltene, Datensätze wird gezeigt. Die Interpretierbarkeit des Modells in dem Sinne, dass aus dem antrainierten Modell die Eigenlösungen der zugrundeliegenden Differentialgleichungen, also die Moden der Faser gewonnen werden können, wird ebenfalls überprüft.
Zudem wird gezeigt, dass ein effizientes Umlernen des Modells auf sich kontinuierlich verändernde Faserzustände möglich ist, solange die eingeführten Perturbationen nicht zu stark vom jeweils vorherigen Zustand abweichen.
Die Diagnosefindung für Hautkrebserkrankungen kann mit neuronalen Netzen erleichtert werden. Diese benötigen jedoch eine große Anzahl an Trainingsdaten, die im medizinischen Kontext häufig nicht vorhanden sind.
In dieser Arbeit wird ein Cycle-GAN genutzt, um Bilddaten zur Erweiterung begrenzter, medizinischer Datensätze zu erzeugen. Ein öffentlich zugänglicher, dermatologischer Bilddatensatz dient als Grundlage des Trainings. Die gewählte Architektur erlaubt es, Daten der Klasse Naevi in Daten der Klasse Melanome umzuwandeln. Der Einfluss verschiedener Parameter wurde untersucht.
Ein Großteil der durchgeführten Versuche konzentriert sich auf die Gewichtung der vier Lossfunktionen, anhand derer das Netz seinen Trainingsprozess optimiert. Wobei der adversariale Loss die Klassenzugehörigkeit bewertet, der Identitätsloss zur Qualitätserhaltung dient und die beiden Cycle-Loss den mathematischen Identitätsfunktionen der Datenverteilungen entsprechen.
Weiterhin wurde die Wirkung der Datenstandardisierung und -vorbereitung geprüft. Auch die Folgen einer Mehrfachnutzung ausgewählter Daten wurden betrachtet. Die Diskriminatoren des Cycle-GAN wurden hinsichtlich ihres Nutzens als Klassifikatoren für reale Daten getestet. Um die Nutzbarkeit der generierten Daten in Trainingsprozessen zu prüfen, wurde ein Klassifikator auf realen und anschließend auf generierten Daten trainiert.
Die erzielte Genauigkeit für Melanome stimmte in beiden Trainingsprozessen überein.
Das Ziel dieser Arbeit ist es eine Migration des Java – Programms in die Produktivumgebung bzw. des MES Systems zu vollziehen.
Dabei wird der Aufbau des Programms grundlegend verändert bzw refactort. Zusätzlich dazu erfolgt eine Betrachtung und ggf. Vereinfachung der Datenbeschaffung– und Haltung. Des Weiteren ist die Schnittstellenfunktionalität zu erweitern. Hierunter fällt u.a. die Anforderungsanalyse, Ausweitung der Datenbeschaffung bzw. Speicherung (z.B. redundante Speicherung der Daten abzulösen).
Gegenstand der vorliegenden Arbeit ist es, die mechanischen Eigenschaften additiver Fertigungsverfahren unter Berücksichtigung der Bauraumausrichtung während der Herstellung zu untersuchen. Daraus soll eine optimale Ausrichtung für 3D gedruckte Schädelimplantate bezogen auf deren Festigkeit resultieren. Für die Durchführung dieser Versuche werden standardisierte Prüfverfahren in Form von Zugversuch und Kerbschlagbiegeversuch gewählt. Die Defizitanalyse konzentriert sich dabei auf die werkstofftechnischen Aspekte. Hierbei sollen verschiedene Prozessparameter für die additive Fertigung eingestellt werden, wodurch eine Einflussbeurteilung am gedruckten Bauteil erfolgen kann. Des Weiteren sollen bestehende Fertigungsverfahren patientenspezifischer Schädelimplantate auf deren Materialeigenschaften sowie Biokompatibilität aufgelistet und untersucht werden. Daraus ergibt sich ein selbst zu konstruierender Versuchsstand, welcher das Verhalten von Schädelimplantaten in einem Schädelmodell bei externer Krafteinwirkung untersucht.
Die Bundesregierung um Olaf Scholz plant, den Marktanteil der erneuerbaren Energien bis 2030 auf bis zu 80 % zu erhöhen, um den Klimawandel zu bekämpfen. Dies erfordert nicht nur den Bau von mehr Anlagen, sondern es ist auch wichtig, deren Effizienz zu verbessern. Daher ist es entscheidend, die Bedeutung von "Effizienz" zu verstärken. Eine Anlage muss nicht nur mit möglichst wenig elektrischen Verlusten arbeiten, sondern auch kostengünstig sein. So hat ein Entwickler von Photovoltaikanlagen wie die Leipziger Energie die Aufgabe, Komponenten einzusetzen, die einen hohen Energieerzeugung und geringe Verluste aufweisen und zu einem vernünftigen Preis erworben werden können. Eine dieser Komponenten sind die Kabel, die die Wechselrichter mit dem Transformator verbinden, die unterschiedliche Mengen an Spannungen leiten können. In dieser Arbeit will ich verschiedene Formationen von PV-Anlagen mit variablen Spannungsebenen untersuchen, die sich auf die technische Realisierung, die wirtschaftliche Machbarkeit und die Nachhaltigkeit beziehen. Dazu habe ich drei verschiedene Formationen der gleichen Größe, aber mit unterschiedlichen Abmessungen geplant. Die besten Ergebnisse wurden durch die quadratische Formation mit der höchsten Spannung von 690 V erzielt. Die geringstmöglichen Kosten für den Entwickler sind mit einem Kernquerschnitt von 95 mm² gegeben, wobei die höchste Reduzierung der Kohlendioxidemissionen bei einer Spannungsebenen von 800 V mit einem Kernquerschnitt von 300 mm² erzielt wurde. Obwohl die Preise mit einem höheren Querschnitt und einer höheren Spannungsebene steigen, würde ich sie persönlich empfehlen, da sie zu einem immer noch vernünftigen Preis nachhaltiger sind.
Innerhalb des Basisstationsherstellers entwickelt das Softwareteam automatisierte Testfälle und zugehörige Softwarebibliotheken für Testingenieure Mit der Popularität von 5G hat die Komplexität der Funktionen und Szenarien von Basisstationen zugenommen, was zu einer hohen Nachfrage nach Testautomatisierung für Basisstationen geführt hat. In dieser Arbeit wurde die Möglichkeit untersucht, ein System zu entwickeln, das die Erstellung und Ausführung von Testfällen erheblich vereinfacht, um die Arbeitsbelastung von Testingenieuren und Entwicklern zu verringern. Bei der Konzeption dieser Arbeit wurden Anforderungsanalyse und Datenmodellierung eingesetzt. Die System-implementierung ist eine Webanwendung, die auf Python und dem Django-Framework basiert und mit der sich Robot Framework-Testfälle generieren und ausführen lassen. Die implementierte Anwendung demonstriert die Machbarkeit des in dieser Arbeit beschriebenen Systems.