Refine
Has Fulltext
- yes (183) (remove)
Year of publication
Document Type
- Bachelor Thesis (87)
- Master's Thesis (55)
- Diploma Thesis (34)
- Book (4)
- Report (3)
Institute
- Physikalische Technik, Informatik (183) (remove)
Die vorliegende Bachelorthesis analysiert den Sachverhalt des Typemappings in der modellgetriebenen Softwareentwicklung näher. Das Typemapping befasst sich hierbei mit dem Abbilden von UML-Typen auf programmiersprachenspezifische Datentypen. In dem Transformationsprozess, welcher als Resultat den generierten Quelltext aufweist, wird bei der Modell-zu-Quelltext-Transformation das Typemapping aufgerufen. Dieser Mechanismus ist bereits im vorliegenden GeneSEZ Projekt implementiert, genügt aber den aktuellen Anforderungen nicht mehr. Das Typemapping basiert auf XML-Dateien, welche verarbeitet werden. Ziel ist es, weitestgehend die Struktur zu überarbeiten und unter Verwendung einer besseren XML-Verarbeitungs-API, die Mechanismen, wie das Einbinden beziehungsweise referenzieren weiterer Typemapping Dateien um einen Multi-Include Mechanismus zu erweitern und kleinere Änderungen am Verhalten der bis dato eingesetzten Lösung vorzunehmen. Des Weiteren ist es notwendig, eine Validierung der XML-Dateien zu implementieren, mit der Folge dass ebenfalls eine dagegen zu validierende Definitionsdatei entwickelt werden muss. Die Verwendung aktueller Technologien und Entwicklungsprozesse ist weitestgehend Bestandteil, um eine zukunftssichere, sowie verständliche und leicht erweiterbare Lösung zur Verfügung zu stellen. Mögliche Anforderungen, welche nach Abschluss der Thesis anfallen, können so zeitnah und mit geringem Aufwand umgesetzt werden.
Diese Arbeit beschäftigt sich mit XPS Untersuchungen eines Schichtsystems, bestehend aus einer La0,6Sr0,4CoO3 Schicht, die auf YSZ Substrate aufgebracht wurden. Ziel ist es, Vorgänge die sich an Festoxidbrennstoffzellen dieses Typs abspielen, zu untersuchen. Es wurde zunächst die Zusammensetzung der Oberfläche und der Konzentrationsverlauf im Inneren der Probe mit SIMS und AES bestimmt. Anschließend wurde die Oberflächenveränderung durch Temperatureinwirkungen, wie sie bei Arbeitstemperaturen von SOFC's vorherrschen, beobachtet. Weiterhin wurde das Schichtsystem mit einer neu entwickelten Messmethode im laufenden Betrieb mittels XPS untersucht. Hierbei wurde versucht, Informationen über eine Umordnung der LSC-Schicht zu erhalten, welche die Reaktionskinetik beeinflusst. Um mögliche irreversible Veränderungen der Probe, die durch den geringen Sauerstoffpartialdruck im Vakuumsystem verursacht wurden, zu erkennen, wurden vor und nach den Messungen Untersuchungen mit XRD, AES und SEM vorgenommen.
Eine Untersuchung zur Eingung von Wirelaid Cool für das Wärmemangement. Nach einem kurzen Überblick über gängige, zu Wirelaid Cool konkurrierende Entwärmungsmethoden wird die drahtgeschriebene Leiterplatte vorgestellt. Anschließend wird die Entwärmung mittels Wirelaid Cool vorgestellt. Danach wird Wirelaid Cool mit Dickkupfer, Kupfer-Inlay und Thermal Vias verglichen. Zum Schluss werden die Anwendungsgebiete von Wirelaid Cool aufgezeigt.
Es besteht der Bedarf, die Themen NoSQL- und Cloud-Datenbanken in Praktika zu initigrieren. Das Ziel dieser Arbeit soll die Fragestellung beantworten, wie die Technologien NoSQL- und Cloud- Datenbanken in einem zeitlich begrenzten Praktikum gelehrt werden können. Hierfür muss festgestellt werden, welche spezifischen Technologien am besten geeignet sind und wie diese effizient in ein Praktikum integriert werden können.
Es konnten für verschiedene NoSQL-Datenbankmodelle Empfehlungen für Datenbanken erstellt werden. Die größten Cloud-Datenbanken wurden miteinander verglichen hinsichtlich der Nutzung in einem Praktikum. Des Weiteren wurden Virtualisierung, Container und Multi-Modell-Datenbanken auf die Anwendung in ein Praktikum geprüft.
Striktere Regularien sowie die verbindliche Pflicht zur Phosphorrückgewinnung werden eine signifikante Veränderung in der Klärschlammentsorgung hervorrufen. Diese Entwicklung wird aufgrund der begrenzten Entsorgungsmöglichkeiten jedoch zu einem Engpass führen. Entgegengewirkt werden soll diesem durch die Erforschung alternativer Verwertungswege.
Eine Möglichkeit, und der zentrale Gegenstand dieser Arbeit, stellt die Herstellung aktivierter Kohlen aus Klärschlamm und deren Anwendung als Adsorbens dar.
Eine von zwei klärschlammbasierten Hydrokohlen, welche als Ausgangsmaterial dienten, wurde vor der Karbonisierung zum Zweck des Phosphorrecyclings mit Schwefelsäure versetzt. Sie wies eine homogenere Zusammensetzung sowie einen geringeren Asche- und höheren Kohlenstoffgehalt auf. Beide Kohlen wurden einer Wasserdampfaktivierung unterzogen, wodurch maximale spezifische Oberflächen von 116 m2/g für die Kohle ohne und 217 m2/g für die Kohle mit Schwefelsäureeinsatz erreicht wurden. Im Praxistest sollten die aktivierten Kohlen Methylenblau aus dem Wasser adsorbieren. Hierfür wurde ein Teil der aktivierten Kohlen mit deionisiertem Wasser bzw. Salzsäure gewaschen. Die höchste Adsorptionskapazität erzielte mit 35 mg/g die Kohle, welche nicht mit Schwefelsäure behandelt, jedoch mit Salzsäure gewaschen wurde.
In dieser Arbeit wird ein statistisch anlernbares Modell vorgestellt, das in der Lage ist die komplexwertige Übertragungsfunktion einer optischen Multimodefaser auf Basis ebenfalls komplexwertiger Datensätze zu approximieren.
Zu diesem Zweck werden komplexwertige Schichten eines neuronalen Netzes implementiert und ein deterministisch inspiriertes Modell des zugrundeliegenden Systems aufgebaut. Die Konvergenz des Modells beim Training
für verschiedene, durch Simulation erhaltene, Datensätze wird gezeigt. Die Interpretierbarkeit des Modells in dem Sinne, dass aus dem antrainierten Modell die Eigenlösungen der zugrundeliegenden Differentialgleichungen, also die Moden der Faser gewonnen werden können, wird ebenfalls überprüft.
Zudem wird gezeigt, dass ein effizientes Umlernen des Modells auf sich kontinuierlich verändernde Faserzustände möglich ist, solange die eingeführten Perturbationen nicht zu stark vom jeweils vorherigen Zustand abweichen.
Die Darstellung von Volumendaten in der Medizin reicht vom einfachen Anzeigen einzelner zweidimensionaler Schnittbilder bis hin zur komplexen Analyse dreidimensionaler Datenwolken. Dabei stellen das Direct Volume Rendering und Indirect Volume Rendering zwei wesentliche Methoden der Visualisierung von dreidimensionalen Daten dar.
In der Kieferorthopädie und -chirurgie spielen Darstellungen von DVT-Daten (Digital Volume Tomography) in der Diagnostik oder bei der digitalen Behandlungs-und Operationsplanung eine zentrale Rolle. Da die Volumenvisualisierung immer mehr an Bedeutung gewinnt, entwickeln sich die Rendering-Methoden stetig weiter. Insbesondere für Implementierungsaufgaben in eigene Systeme müssen aktuelle Entwicklungs- und Forschungsarbeiten stets verfolgt und analysiert werden. Ziel dieser Arbeit ist die Darstellung und Auswertung aktueller Methoden des Direct Volume Rendering, sowie der Extraktion von Objektoberflächen mittels des Indirect Volume
Rendering. Ein weiteres Ziel ist die Erstellung eines umfangreichen Überblickes über bereits praktisch, implementierte Rendering-Methoden. Auf Grundlage der Ergebnisse können Software-Funktionen in OnyxCeph realisiert werden. Sowohl für das direkte, als auch indirekte Volumen-Rendering wurde eine theoretische Literaturrecherche und eine Übersicht der praktischen Anwendung der untersuchten Verfahren erarbeitet. Anhand der Recherche und Analyse wissenschaftlicher Arbeiten konnten Kenntnisse über theoretische Ansätze sowie aktuelle Forschungsergebnisse im Bereich der Visualisierung von Volumendaten gewonnen werden. Weiterhin wurden ausgewählte Software-Produkte genutzt, um bereits eingesetzte Rendering-Verfahren auf Funktionalität und Leistungsfähigkeit zu analysieren.
Im Bereich des Direct Volume Rendering konnten erweiterte Interpolations-, Klassifikations-, Schattierungs- und Visualisierungsmethoden des Ray Casting-Algorithmus untersucht werden. Die 1D Gauß-Transferfunktion stellte sich als
eine einfache und nützliche Alternative zu konventionellen stückweise-linearen Übertragungsfunktion heraus. Für eine detaillierte Darstellung kann der Verarbeitungsprozess durch Shading-Methoden erweitert werden. So sind in der Praxis überwiegend gradientenbasierte Shading-Modelle eingesetzt. Deep Shadow Maps stellen dabei eine nützliche Ergänzung dar. Weiterhin konnten erweiterte Rendering-Methoden untersucht werden.
Neben der Maximum Intensity Projection kann die Minimum Intensity Projection für die Darstellung von Wurzelkanälen eingesetzt werden. Die Depth-enhanced Maximum Intensity Projection und Maximum Intensity Difference Accumulation bieten zwei vereinfachte Alternativen zum Ray Casting an, um eine nahezu korrekte dreidimensionale Darstellung erstellen zu können. Die Maximum Intensity Difference Accumulation erwies sich im Rahmen dieser Arbeit als eine besonders effektive Erweiterung zu bereits vorhandenen
Rendering-Verfahren. Auf Grundlage der gewonnenen Erkenntnisse während Recherchearbeit konnte Maximum Intensity Difference Accumulation in das Software-Produkt OnyxCeph implementiert werden. Die generierten Visualisierungen ermöglichten eine verbesserte Tiefenwahrnehmung, die dem klassischen Direct Volume Rendering ähnelt. In Kombination mit Beleuchtungsmethoden können zudem Oberflächenstrukturen analysiert werden.
Im Indirect Volume Rendering spielte die Segmentierung einzelner Volumenstrukturen durch das Iso-Surface Rendering eine besondere Rolle. Zur Generierung einer Oberfläche können verschiedene Methoden, wie der klassische Marching Cube-Algorithmus, die Level-Set-Methode und Surface-Nets eingesetzt werden. Die Literaturrecherche zeigte, dass Bestrebungen unternommen wurden, um alternative Algorithmen zum konventionellen Marching Cube-Verfahren zu entwickeln. So besteht die Möglichkeit den Rechenaufwand durch einen Simplified Pattern Marching Cube- oder Marching Tetrahedra-Algorithmus zu reduzieren. Weiterhin wurden Erweiterungen zur verbesserten Darstellung betrachtet.
So kann durch den Laplace-Filter oder Mittelwertfilter eine Weichzeichnung der Oberflächennetze erzeugt werden. Für eine erhöhte Auflösung besteht die Möglichkeit, die konventionelle Catmull-Clark -Methode oder die 4-8 Subdivision anzuwenden. In diesem Projekt konnte ein umfangreicher Überblick über aktuelle Methoden der Visualisierung von Volumendaten in der Zahnmedizin erstellt werden. Dabei repräsentieren sowohl die theoretischen, wissenschaftlichen Ansätze, als auch die praktische Lösungsansätze den aktuellen Stand der Technik und Forschung. Die Erkenntnisse können die Grundlage für Implementierungen darstellen.
Im Rahmen dieser Diplomarbeit werden die Möglichkeiten zur Reduzierung der Eiseneinträge und der damit verbundenen Verockerung des Elligastbaches betrachtet.
Ziel ist es, durch bauliche Maßnahmen die einströmenden Einträge so weit zu verringern, dass ein guter ökologischer und chemischer Zustand des Berichtsgewässers Elligastbach erreicht werden kann. Um die Rückkehr von Lebewesen und Pflanzen in ein Gewässer zu ermöglichen, ist ein guter Gewässerzustand von elementarer Wichtigkeit.
Alle erforderlichen Schritte, die zur Vorbereitung der Wiederherstellung des guten Zustandes notwendig sind, zu denen die baulichen Maßnahmen und Eingriffe in das Gewässer im Wesentlichen zählen, werden in der vorliegenden Arbeit erläutert. Neben der Historie des Standortes und den rechtlichen Grundlagen, werden die Schwerpunkte wie die Probenahme zur Erfassung der anfallenden Menge an Eiseneinträgen, sowie die möglichen Auswirkungen auf das Gewässer beschrieben und daraus resultierend eine Vorstellung verschiedener Varianten bzw. Ausführungen von Maßnahmen zur Ockerreduzierung dargestellt. Die nützliche Verwertung des anfallenden Ockerschlamms ist ein weiterer Punkt in der vorliegenden Arbeit.
Nutzererwartungen an IT-Systeme haben sich in den letzten Jahren verändert. Online-Dienste müssen ständig verfügbar sein und im Millisekunden-Bereich Anfragen bearbeiten. Traditionelle IT-Systeme haben Probleme, die Erwartungen nachhaltig zu erfüllen. Reaktive und asynchrone Systeme erfüllen mit modernen Konzepten die Erwartungen besser.
In dieser Arbeit werden die Grundlagen von Asynchronität und reaktiven Systemen dargestellt. Dazu zählen Konzepte, wie Streaming oder Actor Model. Verteilung und Skalierung von reaktiven Systemen werden betrachtet.
Im Hauptteil der Arbeit wird ein Vergleich von Werkzeugen für die Implementierung reaktiver Systeme durchgeführt. Die Werkzeuge Project Reactor, vlingo XOOM und Akka werden verglichen. Die Vergleichskriterien betrachten u. A. den Funktionsumfang, die Einstiegshürde für Entwickler und die Leistungsfähigkeit der Werkzeuge. Die Bewertung der Kriterien wird durch die Implementierung eines Prototypen mit den drei Werkzeugen unterstützt.
Aus den Bewertungen der Kriterien entstehen Rangfolgen, die durch die Ermittlung der Durchschnittsplatzierungen zu einer Gesamtbewertung der Werkzeuge führen. Aus der Gesamtbewertung und den in dieser Arbeit gewonnenen Eindrücken werden unterschiedliche Einsatzgebiete für die Werkzeuge definiert.