Refine
Has Fulltext
- yes (184) (remove)
Year of publication
Document Type
- Bachelor Thesis (87)
- Master's Thesis (55)
- Diploma Thesis (34)
- Book (4)
- Report (4)
Institute
- Physikalische Technik, Informatik (184) (remove)
Experimentelle Anbindung von React, TypeScript und Webpack an eine bestehende J2EE-Web-Anwendung
(2022)
Diese Studie befasst sich mit der Integration des React UI-Frameworks in das bestehende System einer der größten Broker-Plattformen in Europa.
Die Integration muss sicher und sanft verlaufen, so dass das System wie zuvor funktioniert, aber zusammen mit dem neuen Framework.
Das Ziel ist es, die Leistung und Effizienz des Systems zu optimieren. Um dieses Problem zu lösen, führte der Autor eine Reihe von Experimenten durch, um das neue Framework sicher in das bestehende System zu integrieren.
Als Ergebnis entwickelte er ein Proof of Concept und beschrieb dessen schrittweise Umsetzung.
Die Masterarbeit gibt einen Einblick in die Entwicklung einer selbstheilenden und fehlertoleranten Software.
Ziel der Masterarbeit war es, ein Konzept zu erstellen und einen Prototyp eines selbstheilenden und fehlertoleranten Systems zu implementieren. Um dieses Ziel zu erreichen, werden wichtige Konzepte wie reaktive Systeme, Actor Model und Fehlertoleranz-Patterns berührt. Auf der Grundlage der Analyse und praktischen Anwendung der oben genannten Begriffe wurden ein Konzept und ein Prototyp eines sich selbstheilenden und fehlertoleranten Systems entwickelt. Daraus kann geschlossen werden, dass das Ziel der gesamten Arbeit erreicht worden ist.
Das Ziel dieses Projekts bestand darin, die Schaltzeit schaltbarer PDLC-Folien zu messen und die Abhängigkeit der Schaltzeit von der Temperatur zu untersuchen. Um dies zu erreichen, wurde zunächst ein Laboraufbau erstellt, der hauptsächlich aus einer LED-Lichtquelle, einem Sensor, einem Oszilloskop und einem Trenntransformator bestand. Wenn die Probe mit einer elektrischen Feld angelegt wurde, die von einem Trenntransformator bereitgestellt wurde, richteten sich die Flüssigkristalle im Polymerfilm aus und ließen Licht durch (was zu einem transparenten Aussehen führte). Dieses Licht wurde vom Sensor erfasst und in ein elektrisches Signal umgewandelt, das anschließend an das Oszilloskop gesendet wurde. Die Anstiegszeit dieses Signals wurde im Bereich von 10% bis 90% der aufsteigenden Flanke gemessen. Die Schaltzeit wurde bei Raumtemperatur (24,2 °C) ermittelt. Anschließend wurden die Proben einmal auf eine niedrige Temperatur von 1 °C und einmal auf eine hohe Temperatur von 39,6 °C temperiert und erneut gemessen, um den Einfluss der Temperatur auf die Schaltzeit zu untersuchen.
Die Ergebnisse zeigten eindeutig, dass die meisten Proben eine schnellere Reaktionsrate bei höheren Temperaturen im Vergleich zu niedrigeren Temperaturen aufwiesen. Alle Messwerte waren bei Temperaturen von 39,6 °C und 24,2 °C homogener und wiesen eine höhere Messgenauigkeit auf, während bei 1 °C die Messwerte eine geringe Homogenität und niedrigere Messgenauigkeit aufwiesen. Es wurde auch festgestellt, dass die Schaltzeit bei einigen Proben deutlich schneller war als bei anderen. Die manuelle Schaltung und die unpassenden Parameter des Signalverlaufs könnten bei einigen Proben zu höheren Schaltzeitwerten geführt haben, da sie vermehrt Nulldurchgänge in der aufsteigenden Flanke des Wechselsignals verursachten. Dies ließe sich möglicherweise durch die Implementierung einer automatischen Schaltung und die Verwendung eines Funktionsgenerators beheben. Mit diesem Generators könnte die Messfrequenz des Sinussignals gesenkt werden, sodass die Schaltzeit deutlich kürzer ist als die ansteigende Flanke. Alternativ könnten auch andere Signalformen wie Rechtecksignale erzeugt werden, bei denen die Probleme, die durch den Sinus verursacht werden, nicht auftreten. Dies könnte in weiteren Experimenten vermieden werden. Des Weiteren könnten die Temperierungsbedingungen während der Versuchsdurchführung Ungenauigkeiten bei den aufgenommenen Messwerten verursacht haben. Dies ließe sich eventuell durch die Verbesserung der Bedingungen für die Temperierung der Proben verhindern. Dadurch könnte der Temperaturverlust während des Messvorgangs reduziert werden, was zu einer höheren Genauigkeit führt. Darüber hinaus sollte der Einfluss der Lebensdauer auf die Schaltzeit in zukünftigen Experimenten berücksichtigt werden, indem nicht nur die Anstiegszeit, sondern auch die Abstiegszeit beim Ausschalten untersucht wird. Dies wäre insbesondere bei Langzeitexperimenten relevant.
Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von TiN/AlN-Multischichten. Ein besonderer Fokus liegt dabei auf der Untersuchung der thermischen Stabilität der Schichten.
Die Erzeugung der Schichtsysteme erfolgt mittels reaktivem RF-Magnetronsputtern in der Beschichtungsanlage LA 250 S (Fa. Von Ardenne). Es werden zwei Typen von Multischichten hergestellt: Typ 1 mit Periodendicken d = 14,1 nm…15.9 nm und Typ 2 mit Periodendicken dP = 4,44 nm…5,35 nm.
Um die thermische Stabilität zu untersuchen werden die Proben bei unterschiedlichen Temperaturen im Bereich von 170 °C…800 °C unter Stickstoffatmosphäre getempert.
Zur Charakterisierung der Schichtsysteme wird neben der Röntgenreflektometrie (XRR) die Röntgenphotoelektronenspektroskopie (XPS) verwendet. Dabei dient die XRR zur Bestimmung der Dichte und Schichtdicke, respektive Periodendicke der Schichten. Die XPS liefert währenddessen Aussagen zur Schichtzusammensetzung.
Die Untersuchungen zeigen eine thermische Stabilität der Multischichten für Temperaturen bis 700 °C hinsichtlich ihrer Multischicht-Struktur. Bei einer Temperatur von 800 °C bleiben die Multischicht-Strukturen jedoch nicht erhalten.
Das Erheben von Anforderungen ist der Ausgangspunkt eines jeden Softwareentwicklungsprojektes. Die richtigen Anforderungen zu erheben und in geeigneter Weise im gesamten Entwicklungsprojekt verfügbar zu machen, ist oftmals ein entscheidender Faktor dafür, ob ein Projekt erfolgreich wird oder nicht. Um die richtigen Anforderungen erheben zu können, wird ein systematischer Prozess benötigt. Die vorliegende Arbeit zeigt, wie ein solcher Prozess aussehen kann. Dabei wird auf wesentliche Schritte des Prozesses sowie auf die im Prozess erhobenen Artefakte und deren inhaltlicher Gestaltung eingegangen. Es wird weiterhin gezeigt, wie die gewonnenen Kenntnisse in einem konkreten Projekt angewandt wurden. Ferner wird der Prototyp eines Werkzeugs vorgestellt, das die erarbeiteten Kenntnisse nutzt und für die Verwaltung von Anforderungen in einem Projekt eingesetzt werden kann.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Aufbau einer generischen Schnittstelle zur Anbindung und Verwaltung von High-Performance-Clustern
(2020)
Mit der wachsenden Nachfrage nach rechenintensiven Simulationen und der gleichzeitig stagnierenden Entwicklungen im CPU-Markt werden größere Ressourcen für High Performance Computing benötigt. Neben den groß angelegten Serversysteme werden werden auch immer mehr Cloud Ressourcen für HPC angeboten. Bedingt durch die große Anzahl verschiedener Plattformen und Arten der Interaktionkann es zu Schwierigkeiten in der Anwendung von HPC für Nutzer kommen.
In dieser Arbeit wird eine Architektur für eine Anwendung entwickelt, die den Zugriff auf HPC Ressourcen für Anwender erleichtert. Anhand dieser Architektur wird ein Produkt entwickelt mit dem die Jobeinreichung und Jobübersicht über eine Weboberfläche und eine REST-Schnittstelle ermöglicht werden.
HTML5 und mobile Geräte wie Smartphones und Tablets sind zwei Bereiche, welche in den vergangenen Jahren eine deutliche Weiterentwicklung erfahren haben. Browserentwickler stellen ihre Software auch für mobile Betriebbsysteme zur Verfügung und dank der wachsenden Möglichkeiten aktueller Webtechnologie wird es zusehens attraktiver, Software nach dem Motto "Write once, run anywhere" auf Webbasis zu entwickeln und damit viele Hard- und Softwareplattformen zu erreichen. Die Andersartigkeit mobilen Geräte verglichen mit PCs, gekennzeichnet beispielsweise durch Hardwareausstattung und -leistung, Bildschirmgröße und Touchbedienung, erzeugt jedoch neue Problemfelder. Diese Arbeit beschäftig sich exemplarisch anhand des HTML5-Spiels "Letti ABC" mit dem Aspekt der vergleichweise geringen Hardwareleistung und damit verbundenen Performance-einschränkung. Es werden Analysemethoden für Webanwendungen vorgestellt und Lösungen unter anderem für die Bereiche Renderperformance, Audio und Speichernutzung aufgezeigt. Im Ergebnis dieser Arbeit ist das Spiel sowohl auf PCs als auch auf mobilen Geräten gleichermaßen spielbar.
Im Rahmen dieser Diplomarbeit wurden die Auswirkungen des demografischen Wandels- demografisch, wirtschaftlich, technisch und strukturell - auf die Wasserversorgung, am konkreten Beispiel der Stadt Meerane, dargestellt. Zur Analyse der Ausgangsdaten wurden Kennzahlen von Bevölkerungs- und Bebauungsstruktureigenschaften erhoben. Um zukünftigen Handlungsbedarf hinsichtlich der Wasserversorgung in den Stadtquartieren besser ableiten zu können wurden die Kennzahlen in einer Datenmatrix zusammengefasst. Kernstück der Diplomarbeit stellt die Analyse des Ist-Zustandes des Trinkwasserleitungsnetzes der Stadt Meerane dar, auf deren Basis das Fließgeschwindigkeitsverhalten und die Verweildauer des Wassers in den Prognosehorizonten für die Jahre 2015, 2020 und 2025 simuliert wurde.
Smart City Builder
(2023)
Das europäische Stromnetz muss sich immer größeren Herausforderungen stellen. Um diese meistern zu können bedarf es an Forschung und Innovation. Damit interessierte Bürger die Grenzen des konventionellen Stromnetzes verstehen und Möglichkeiten eines Smart Grid aufgezeigt bekommen, wird eine Demonstratoranwendung benötigt.
Mithilfe von Unity wurde die erste Version des Smart City Builder erstellt und somit der Grundstein gelegt. Der Demonstrator ist jetzt schon in der Lage virtuelle Stromnetze zu bilden und an diesen Berechnungen durchzuführen. Die Anwendung gestattet beliebige Stromnetze zu konfigurieren.
Die Arbeit befasst sich mit der Integration von zwei Software-Komponenten für das Anforderungsmanagement und die Validierung von Datenmodellen. Die Integration erfolgte dabei auf Basis der von ScopeSET entwickelten Architektur für einen Daten Model Editor. Für die Integration wurden Eclipse-Technologien wie zum Beispiel EMF und JFace verwendet. Betrachtet wird dabei auch der Prozess des Anforderungsmanagements und der Prozess zu Validierung des Datenmodells unter Verwendung der integrierten Software-Komponenten
Indiumzinnoxid ist ein transparentes und elektrisch leitfähiges Metalloxid. Es findet Anwendung in Architekturgläsern oder als transparente Elektrode in Flachbildschirmen und Solarzellen. Die dafür nötigen Dünnschichten können zum Beispiel durch Sputtern hergestellt werden. Aufgrund des hohen Gehaltes des seltenen Elementes Indium ist das Beschichtungsmaterial teuer und eine ökonomische Nutzung geboten. Im Vergleich zum DC Magnetronsputtern von der planaren Kathode, steigt durch den Einsatz einer Rohrkathode die Targetausnutzung. Im Rahmen der vorliegenden Arbeit werden klein- und großflächige Indiumzinnoxidschichten mittels Magnetronsputtern vom keramischen Rohrtarget hergestellt. Die elektrischen und optischen Schichteigenschaften werden mit denen vom keramischen planaren Target verglichen.