Refine
Year of publication
- 2018 (83) (remove)
Document Type
- Bachelor Thesis (43)
- Master's Thesis (28)
- Diploma Thesis (12)
Institute
- Physikalische Technik, Informatik (83) (remove)
Is part of the Bibliography
- no (83)
Untersuchung zum Einsatz der Maximalkraftmessung in Forschung, Trainingskontrolle und Rehabilitation
(2018)
Manuelle Muskelfunktionstests werden im Therapiealltag eingesetzt um die Kraft ein-zelner Muskeln oder Muskelgruppen zu bestimmen. Die inhärente Problematik dieser Techniken ist die subjektive Einschätzung durch den Therapeuten.
Die vorliegende Arbeit stellt eine alternative Methodik zu manuellen Muskelfunktions-tests vor. Durch den Einsatz von geeigneter Messtechnik wird der subjektive Einfluss durch den Therapeuten minimiert und die Diagnostik somit erheblich verbessert.
Die vorgestellte Methodik verwendet ein Maximalkraftmesssystem zur Muskelfunkti-onsdiagnostik. Ziel der Arbeit ist es, dieses Messsystem hinsichtlich seiner Eignung im Therapiealltag zu untersuchen. Weiterhin werden Anwendungsmöglichkeiten des Sys-tems zur gezielten Trainingssteuerung im Sport evaluiert.
Über einen Zeitraum von mehreren Wochen wurden Maximalkraft, Oberschenkelum-fang und gegebenenfalls das subjektive Schmerzempfinden der Probanden gemessen.
Zusätzlich wurden Fragebögen entwickelt, welche die subjektiven Eindrücke von Pati-enten und Therapeuten im Umgang mit dem Messsystem erfassten.
Im Rahmen der Versuchsreihen konnten gezeigt werden, dass die isometrische Maxi-malkraftmessung geeignet ist, um Therapie- und Trainingsverläufe präzise zu dokumen-tieren. Dabei ist das untersuchte Verfahren dem Testverfahren der manuellen Muskel-funktionsdiagnostik in der Präzision seiner Aussagen überlegen. Intra- und Interindivi-duelle Vergleiche konnten angestellt werden. Bei Messung der Muskelkraft unter Schmerzen ist die Aussagekraft des Verfahrens eingeschränkt.
Im Rahmen dieser Masterarbeit wird ein System zur Erfassung aller relevanten Daten, die während des Produktionsprozesses der Pendix-Antriebssätze und Ersatzteile entstehen, entwickelt. Dabei soll das Bestandssystem, bei dem eine Erfassung aller Informationen separat und dateibasiert von der jeweiligen Arbeitsstation erfolgt, durch eine Middleware ersetzt werden. Damit wird die Datenerfassung vereinheitlicht und die heterogenen Daten zusammengeführt. Der größte Vorteil ist dabei in der einfacheren Verwaltung und Auswertung zu erwarten. Um eine Verbesserung der Produktionsdatenerfassung zu ermöglichen, ist ein Verständnis der Prozessschritte notwendig. Während der Produktion durchlaufen die einzelnen Komponenten mehrere Stationen. Zuerst werden die Einzelteile (Stator, Rotor, Leistungselektronik) des elektrischen Motors zusammengebaut. Im nächsten Schritt durchläuft der Antrieb eine Reihe von Inbetriebnahmetests durch die sichergestellt wird, dass der Motor alle nötigen Anforderungen erfüllt. Dabei werden die Ergebnisse der Messungen erfasst, welche sich speziell für statistische Auswertungen im Rahmen von Qualitätssicherungsmaßnahmen eignen. Die Batterie wird vorgefertigt von einer Fremdfertigung geliefert. Auch hier wird vor dem Versand an den Endkunden eine Reihe von Messungen durchgeführt. Die gewonnenen Daten eignen sich ebenfalls als Indikator für die Qualitätssicherung. Zuletzt werden die einzelnen Komponenten (Motor, Batterie, weitere Einzelteile) in Sets nach Wunsch des Kunden zusammengestellt (Kommissionierung) und an diesen versendet. Die dabei erfassten Daten sind elementar für etwaige Garantieansprüche, Rückrufe oder ähnliches. Darüber hinaus eignen sich die Daten für Verkaufsstatistiken und zukünftige Produktionsplanungen. Um eine langfristige Wartbarkeit und Plattformunabhängigkeit zu gewährleisten ist eine Entwicklung dieser Funktionen, im Rahmen einer Middleware genannten, anwendungsneutralen Plattform, sinnvoll. Die Umsetzung als Webservice mit einer REST-Schnittstelle ist aus heutiger Sicht ein wichtiger Schritt, um zukünftigen Entwicklungen hin zu endkundenbasierter Software (Webshop, Kundenportal, Smartphone-Apps) zu begegnen. Eine Sammlung von Technologien und Schnittstellen (Framework) die eine solche Entwicklung stark vereinfachen und beschleunigen ist das Spring Framework, deshalb soll die Projektumsetzung mit diesem erfolgen. Im ersten Schritt ist die Umsetzung der Datenerfassung am Beispiel des idealen Produktionsprozesses geplant und die generische Anzeige der Daten anhand von einfachen Filtern. Sowie daraus ein erstes funktionierendes System entstanden ist, kann die
Diese Arbeit beschäftigt sich mit der Dehnbarkeit von gesputterten transparenten Dünnschicht-Elektroden wie Indium-Zinn-Oxid (ITO) und Wasserdampf-Permeationsbarrieren wie Zink-Zinn-Oxid (ZTO) auf Ethylentetrafluorethylen (ETFE) Kunststofffolie. Dabei wird der Einfluss der Rissbildung auf den Widerstand der Elektrodenschichten ermittelt. Diese sollen für die ausreichende Leitfähigkeit für Elektrochrome Zellen und organische Solarzellen sorgen. Aufgrund der Verwendung dieser Zellen im architektonischen Bereich treten hohe mechanische Belastungen auf. Umwelteinflüsse und Anwendung verursachen Dehnungen und Spannungen in den Systemen und können zum Reißen der Schichten führen. Daher wird das Verhalten von Einzelschichten und Schichtsystemen unter Dehnung in dieser Arbeit untersucht.
Allgemein wurde festgestellt, dass die kritischen Dehnungen von ZTO Einzelschichten mit 0,5
Thermoablative Technologien etablieren sich heutzutage vor allem in der Tumortherapie und haben sich in den letzten Jahren einen hohen Stellenwert in der onkologischen Alternativbehandlung mittels Hyperthermie angeeignet.Bevor in der Medizin technische Applikationen an einem ex-vivo Gewebeteilstück und später am lebenden Organismus erprobt werden, prüft und analysiert man diese zuvor eingehend an künstlich hergestellten Phantomen, die einen wichtigen Faktor der Reproduktion beinhalten. Besonders ausschlaggebend dabei ist, dass der Prüfkörper das zu behandelnde Gewebe des Organs, anhand seiner dielektrischen und thermodynamischen Eigenschaften nahezu perfekt imitieren muss. Auf dieser Basis liegt die Begründung von künstlich hergestellten Phantomen, welche das Lebergewebe während einer einwirkenden Ablation simulieren. Mittels eines indirekten Messverfahrens, der sogenannten Reflexionsmethode eines Netzwerkanalysators (Network-Analyser), detektiert man dessen Permittivitätswerte, worauf man die daraus resultierenden Ergebnisse mit Referenzwerten vergleicht.
Die elektrische Stimulation von Muskeln ist heute in der Medizin weit verbreitet. Ei-ne genauere und effektivere elektrische Stimulation der Muskeln kann dem Patien-ten gut helfen. Ziel dieser Masterarbeit ist es, Matrixelektroden für den Unterarm zu entwickeln. Ihre Funktion besteht darin, die Hand und die Finger so zu steuern, dass die erwartete Aktion durch Signalmanipulation abgeschlossen wird.
Der Verfasser entwickelt eine Methode zur Positionierung des Unterarmmuskels basierend auf der Anatomie und verifiziert diese durch Experimente. Es wurde ebenfalls ein Bewertungsmodell entwickelt. Die in dieser Arbeit entwickelte Metho-de hat sich als wirksam erwiesen. Durch Big-Data-Experimente kann sie wahr-scheinlich perfektioniert werden.
Als Grundlage für das Elektrodendesign wurden auch Experimente mit mehreren Elektroden durchgeführt. Die Ergebnisse zeigen, dass die Stimulation mit mehreren Elektroden so gestaltet werden kann, dass sie funktionale Aktionen auslöst. Die Er-gebnisse sind für die Anwendung der Stimulation von Bedeutung.
Erhöhung der Primärstabilität von Dentalimplantaten durch Integration von Formgedächtnislegierungen
(2018)
Dentalimplantate bieten eine effektive Möglichkeit, fehlende Zähne zu ersetzen. Für eine erfolgreiche Osseointegration des Implantats, ist eine ausreichend hohe Primärstabilität von großer Bedeutung. Gerade für Patienten mit geringer Knochenqualität ist das Risiko einer frühzeitigen Auslockerung erhöht. Anhand dieser Arbeit wurde untersucht, wie sich Formgedächtnislegierungen in einem Dentalimplantat integrieren lassen, sodass eine höhere Primärstabilität erreicht und die Erfolgsrate für Risikopatienten gesteigert werden kann. Die Fähigkeit, dass diese Materialien aufgrund der Phasenumwandlung Arbeit verrichten können, sollte dabei genutzt werden. Durch die Anwendung der methodischen Konstruktionstechnik konnten zwei verschiedene Konzepte vorgestellt werden. Unter Zuhilfenahme der Finite Elemente Methode wurden beide hinsichtlich ihrer Wirksamkeit untersucht. Unter Beachtung der Aspekte Wirtschaftlichkeit und Fertigung wurde eine Vorzugslösung gewählt.
Eine bestehende Messeinrichtung wird bezüglich ihrer Diffusionsrate optimiert. Hierfür wird das Messvolumen zusätzlich mit Silikon und Epoxydharz verdichtet. Des Weiteren ist das bereits vorhandene Programm zum Auslesen der Konzentrationen angepasst worden, um das Signal-Rausch-Verhältnis der Sensoren zu minimieren. Im Ergebnis lässt sich eine deutliche Verbesserung der Diffusionsrate und des Signal-Rausch-Verhältnisses feststellen.
Der nächste Schritt besteht in der Inbetriebnahme der nun optimierten Messeinrichtung. Dabei wird zuerst der Sensor für die Konzentrationsmessung von Kohlenstoffdioxid untersucht. Dafür wurde die CO2 Produktion einer Kerze gemessen und ausgewertet. Im nächsten Abschnitt wird das thermische Verhalten der Sensoren mit einer Glühbirne überprüft. Dabei zeigt sich ein Konzentrationsabfall von 0,111 Vol.-% nach Aktivierung der Lampe.
Im nächsten Messversuch wird die Reproduzierbarkeit der Messergebnisse untersucht. Hier wurde auch eine Quecksilberdampflampe integriert, welche zur Aktivierung der TiO2 Schichten verwendet werden sollte. Dabei zeigte sich, dass dieses Beleuchtungselement das vorhandene Methan bereits eigenständig oxidieren kann.
Der letzte Versuchsaufbau bestand in der Messung einer photokatalytischen Reaktion. Die in dieser Arbeit verwendeten Schichten wurden auf unterschiedliche Arten hergestellt. Es wurden vier Silizium Wafer mit einer 28 nm dicken TiO2 Schicht in der ALD Anlage der Westsächsischen Hochschule Zwickau angefertigt. Da die Oberfläche sehr klein ist, wurden außerdem vier Folien mit einem flüssigen Mittel behandelt. Laut Hersteller soll die applizierte Schicht photokatalytisch wirksam sein. Im Ergebnis lässt sich keine Veränderung der CO2 Konzentration feststellen.
Da die Sensoren stark temperaturabhängig sind und dadurch keine verlässlichen Ergebnisse produzieren können, eignen sich diese nicht weiterhin für die Aufnahme der Gaskonzentrationen.
Um Algorithmen für Fahrassistenzsysteme und autonomes Fahren zu testen, können eine simulierte Umgebung und virtuelle Steuergeräte genutzt werden. ETAS EVE stellt hierbei das virtuelle Steuergerät und Vires VTD die virtuelle Umgebung (Fahrzeuge, Sensorik, Straßen, Hindernisse) zur Verfügung. Damit beide Programme in einer synchronen Simulation ausgeführt werden und Daten austauschen können, wird eine zwischengelagerte Schnittstelle benötigt. Die vorliegende Arbeit beschäftigt sich mit der Umsetzung dieser Schnittstelle.
Konzeption und prototypische Implementierung eines leichtgewichtigen Java-Backend-Architekturstacks
(2018)
Die vorliegende Arbeit beschäftigt sich mit der Ausarbeitung und Praxiserprobung des Tameware-Ansatzes, den zuvor Dr. Karl-Heinz Wichert in seinem Vortrag "Tameware: Software wieder selber machen. Ein Selbstversuch." vorstellte. Der Tameware- Ansatz kritisiert die Verwendung von Frameworks und umfangreichen Bibliotheken in der Softwareentwicklung. Er vertritt die These, dass diese die Sicherheit, Performance und Wartbarkeit von Enterprise-Anwendungen im Java-Umfeld negativ beeinflussen. Die vier erarbeiteten Prinzipien Reduce Foreign Libraries, Avoid Transitive Dependencies, Don't Overdo Abstraction und Favor Plain Java Code für den Tameware-Ansatz sollen dem entgegenwirken. Sie helfen dabei konkreten, übersichtlichen, nachvollziehabren Quellcode zu erzeugen, wodurch die langfristigeWartbarkeit, die Prüfbarkeit der Sicherheit und Performance der Anwendung gesteigert werden soll. Die Praxiserprobung erfolgt anhand einer Überarbeitung des Projektes "Bandproobe". Hierbei entfällt ein Großteil der Konzeptions- und Entwicklungsarbeit auf technische Querschnittsthemen, wie Persistierung, Zugriffskontrolle und der Erstellung von REST-Schnittstellen. Die dabei entstehende Applikation wird anschließend durch ausgewählte Metriken und Interviews mit Entwicklern und Softwarearchitekten untersucht. Dabei wird subjektiv und objektiv geprüft, ob die erzeugte Applikation nachvollziehbar, langfristig wartbar und prüfbar auf Sicherheit ist. Die Ergebnisse deuten darauf hin, dass eine konkrete und nachvollziehbare Applikation mit dem Tameware-Ansatz entwickelt werden konnte. Im Hinblick auf die langfristige Wartbarkeit und Sicherheitsprüfbarkeit sind die Ergebnisse nicht eindeutig. Die entwickelte Applikation liefert wiederverwendbare Komponenten, die nach weiterer Entwicklungsarbeit und Dokumentation ein Fundament für technisch ähnliche Projekte bilden könnte.
Seit der Entwicklung und Weiterentwicklung von Datenbrillen werden diese nicht mehr nur als Einzelware für den Fachhandel angeboten. Das Angebot von Massenware reicht nun vom privaten Sektor bis hin zum industriellen Sektor. Die Wirtschaft und die Industrie profitieren durch Massenware, da die Preise für Datenbrillen gesenkt werden können. Die Anforderungen für Datenbrillen für den privaten Sektor sind ähnlich den Anforderungen für Datenbrillen, die in der Industrie eingesetzt werden. Der Einsatz solcher Hardware kann demnach branchenübergreifend erfolgen. Dazu muss in einer Anforderungsanalyse geprüft werden, ob die verwendetet MR-Brille diese Eignung besitzt. Darauf aufbauend wurde eine Software entwickelt, die einen beispielhaften Montageprozess unterstützen kann. Der Montagearbeiter hat weiterhin beide Hände frei zum arbeiten, hat aber zusätzlich den Blick auf verschiedene Informationen. Neben der MR-Brille kommt auch ein RFID-Scanner zum Einsatz. Mit Hilfe des RFID-Scanners können Informationen an die MR-Brille gesendet werden, die einerseits qualitative Vorteile bietet und andererseits den Informationsfluss in der Software der MR-Brille steuern kann. Beide Hardwarekomponenten in Kombination bieten die Möglichkeit, Prozesse in der Industrie zu unterstützen, obwohl eine der Komponenten nicht für diesen Einsatz konzipiert wurde.
Im Rahmen des Forschungsprojektes AOSAplus wird ein automatisiertes Stromabnehmersystem für Trolleybusse entwickelt. Die Arbeit greift dabei eine Teilaufgabe auf, mit dem Ziel eine Erkennung und Nachverfolgung von Trolleybus-Oberleitungen mit Toleranz gegenüber unvollständigen Laserscanner-Daten sowie eine Zuordnung erkannter Fahrdrähte zu Leitungspaaren zu ermöglichen. Dazu wird je ein Verfahren aus den Bereichen Maschinelles Lernen sowie Bildverarbeitung und Mustererkennung ausgewählt, implementiert und miteinander verglichen. Zwar zeigt sich, dass sowohl die dichtebasierte Cluster-Analyse mit DBSCAN als auch eine Linienerkennung mit der Hough-Transformation ein Erkennen und Verfolgen ermöglichen, jedoch wird nach einem Abwiegen von Vor- und Nachteilen das Clustering-Verfahren favorisiert. Zudem werden die Interpolation unvollständiger Laserscanner-Messdaten und die Zuordnung erkannter Trolleybus-Fahrdrähte zu zugehörigen Paaren betrachtet. Nach einer Evaluierung mit den Laserscanner-Daten verschiedener Trolleybus-Strecken zeigt sich, dass das entwickelte Verfahren zum Erkennen und Verfolgen von Trolleybus-Oberleitung geeignet ist.
Im Rahmen dieser Abschlussarbeit wurden nichtlineare Spinwellen-Prozesse in magnetischen Vortex-Strukturen aus einer Ni81Fe19-Legierung untersucht. Die radialen Randbedingungen und die Rotationssymmetrie eines kreisförmigen Vortex bedingen eine Quantisierung azimutaler und radialer Spinwellen in diesem System. Typische Frequenzen dieser Eigenzustände liegen im Gigahertz-Bereich und können durch Mikrowellenfelder angeregt werden.
In dieser Arbeit wurden verschiedene nichtlineare Magnonen-Wechselwirkungen bei hinreichend hohen Pumpleistungen mittels mikrofokussierter Brillouin-Lichtstreuung identifiziert. Auswahlregeln für die Aufspaltung der direkt angeregten, fundamentalen Mode in zwei diskrete Zustände mit niedrigerer Energie wurden anhand der gemessenen BLS-Spektra und räumlichen Modenprofile formuliert.
Die zeitliche Entwicklung der Besetzung dieser zusätzlichen Zustände, welche nur durch 3-Magnonen-Streuung erklärbar ist, wurde mithilfe zeitaufgelöster μBLS untersucht. Bei großen Amplituden des externen Anregungsfeldes sättigen die Anstiegszeiten der zusätzlich populierten Zustände. Ein Modell aus gekoppelten Differentialgleichungen basierend auf dem Formalismus der analytischen Theorie wurde vorgestellt, um die experimentellen Daten zu beschreiben. Die Population der linear angeregten Mode und der durch 3-Magnonen-Prozesse angeregten Moden konnten damit hinreichend beschrieben werden. Das Modell und die experimentellen Daten weichen ab dem Einsetzen von Streuprozessen höherer Ordnung voneinander ab.
Der Übergang zur 4-Magnonen-Streuung wurde in weiteren Messungen untersucht und zeigt Kaskaden der verschiedenen Streuprozesse auf Zeitskalen einiger Nanosekunden. Im untersuchten Probensystem bedingt die 4-Magnonen-Streuung die zusätzliche Population von Zuständen mit der 1/2- und 3/2-fachen Anregungsfrequenz. Mögliche Ursachen für diese Beobachtungen werden diskutiert, können jedoch aufgrund ihres zeitgleichen Auftretens nicht experimentell bestätigt werden.
Ziel der vorliegenden Arbeit war der Vergleich einer systemübergreifenden Simulation mit der Simulation eines Einzelsystems am Beispiel radarbasierter Fahrassistenz-Systeme. Zunächst wurde der derzeitige Stand der Technik im Bereich der Assistenzsysteme beschrieben. Anschließend wurde der Aufbau der Radarsoftware und dessen Auswirkungen auf die Simulation analysiert. Zudem wurden die unterschiedlichen Simulationsmethoden und die existierenden Simulationstools dargestellt. Nachfolgend wurden die Kriterien zum Vergleich der Simulationsumgebungen erarbeitet. Anhand dieser Kriterien wurde eine geeignete Umgebung ausgewählt. Mit diesem Tool wurde ein gemeinsames Simulationsmodell für ESP und Radar entwickelt. Dieses Modell wurde getestet und die auftretenden Probleme analysiert. Außerdem wurden die Vor- und Nachteile des gemeinsamen Modells erarbeitet und das Modell mit den existierenden Tools verglichen. Abschließend wurden die erhaltenen Ergebnisse diskutiert und Möglichkeiten zur Weiterführung des Themas aufgezeigt.
Die vorliegende Bachelorarbeit stellt einen selektiven Überblick existierender Pupillener- kennungsalgorithmen, basierend auf Infrarotbildern, bereit. Diese werden hinsichtlich ver- schiedener Qualitätskriterien untersucht und verglichen. Ein selbst erstellter Algorithmus basierend auf maschinellem Lernen wurde implementiert und in die Untersuchung einbe- zogen. Die Arbeit soll dabei dem Leser als Referenz dienen, in welchem Zusammenhang welcher Algorithmus als geeignet eingestuft werden kann.
Als Ziel dieser Arbeit möchte der Autor der Frage nachgehen, ob eine PV-Anlage mit stationärem Speichersystem nach dem aktuellen Stand der Technik wirtschaftlich im nördlichen Umland von Berlin betrieben werden kann. Um belastbare Aussagen bei der Betrachtung zu erhalten, sollen neben möglichen Förderungen auch die steuerlichen Aspekte und die relevanten rechtlichen Rahmenbedingungen berücksichtigt werden.
Hierbei liegt der Fokus der vorliegenden Arbeit nicht auf einer technisch optimierten Konzeptionierung eines PV-Generators, sondern auf einem bewussten Aufbau von Komponenten einer Solaranlage und deren Auswirkungen im Rahmen der Simulation zur Ermittlung der sich hieraus ergebenen solaren und finanziellen Erträge. Diese Ergebnisse der Simulation werden die Grundlage für die abschließende wirtschaftliche Betrachtung darstellen.
Die Arbeit gliedert sich in fünf inhaltliche Bereiche, welche aufeinander aufbauen. Im Kapitel 2 soll die historische Entwicklung der Photovoltaik im Allgemeinen und deren physikalischen Grundlagen dargestellt sowie deren Einfluss auf die Photovoltaik erläutert werden. Der historische Abriss soll mit einem Überblick über die preisliche Entwicklung von Photovoltaikanlagen, der Entwicklung der Einspeisevergütung und den jährlichen Zuwachsraten der installierten Anlagenleistungen bis zum aktuellen Zeitpunkt enden.
Im dritten Bereich der Arbeit wird der Stand der Technik beleuchtet. Hierbei sollen kurz die zu unterscheidenden Betriebsarten von Photovoltaikanlagen und deren typischen Einsatzbereiche dargestellt werden. Im Nachgang sollen der allgemeine Aufbau eines Solarmoduls und deren typische Einflussfaktoren auf die Leistung skizziert werden. Abschließen sollen in diesem Kapitel die notwendigen Komponenten für eine PV-Anlage in ihren unterschiedlichen Ausprägungen vorgestellt und näher erläutert werden.
Kapitel 4 wird sich dem konzeptionellen Aufbau der Anlage widmen. Hier werden die standortspezifischen Einflussfaktoren erläutert und ein schematischer Aufbau wie er in der Arbeit zu Grunde gelegt wird erklärt. Im weiteren Verlauf werden die notwendigen Komponenten ausgewählt und plausibilisiert sowie die Simulationssoftware und die hierfür notwendigen Grundannahmen vorgestellt und die Ergebnisse der Simulation erläutert. Hierbei soll an typischen Kennzahlen geprüft werden, ob die simulierte Anlage von Ihrer Effizienz den aktuellen Stand der Technik entspricht.
Im letzten inhaltlichen Abschnitt wird eine Wirtschaftlichkeitsbetrachtung durchgeführt. Hierfür soll ein kurzer Überblick über die zur Verfügung stehenden staatlichen Anreizsysteme und deren inhaltliche Ausgestaltung gegeben werden.
Mit dem Energiekonzept 2050 strebt die Bundesregierung eine umweltschonende, zuverlässige und bezahlbare Energieversorgung an. Vor allem im Bauwesen spielt die Einsparung von Energie eine immer größere Rolle, da durch die energetische Sanierung von Gebäuden ein großer Beitrag zur bundesweiten Reduktion der Kohlendioxid-Emissionen geleistet werden kann. Ein neuzeitlicher Aufschwung für die Dämmstoffe begann bereits mit der Ölkrise. Seit dem haben sich die Dämmstoffe stetig weiterentwickelt, so dass auch neue Einsatzgebiete erschlossen werden konnten. Betrachtet man die heutigen Marktanteile der verwendeten Dämmstoffe sowie die eigesetzten Volumina, stellt sich konsequenterweise die Frage, wie mit den hohen Abfallmengen an z.T. mit gesundheitsschädlichen Materialien belasteten EPS und Mineralwolle umgegangen werden soll und welche Herausforderungen für eine sekundäre Nutzung von EPS und Mineralwolle existieren.
Bereits 1972 wurde mit dem Gesetz über die Beseitigung von Abfall (Abfallbeseitigungsgesetz, AbfG) die erste bundeseinheitliche Regelung des Abfallrechts geschaffen. Über die Jahrzehnte wurden weitere Gesetze und Verordnungen, auch auf europäischer Ebene, ergänzt. Hierzu zählen u.a. KrWG, BauPVO, AVV, EBV sowie REACH und POP-Konvention.
Für den Einsatz der Dämmstoffe sind in der Vergangenheit vor allem deren physikalisch-technischen Eigenschaften, wie Wärmeschutz, Energieeinsparung, Brandverhalten, Schallschutz und Feuchteschutz- und
The SuperStitch is a suture-based closure device for the use during minimally invasive surgical procedures. The aim is to close a vessel or wound site in an open setting. The project is dealing with the further development of an already proven product pf the HeartStitch company. In the process, adaptation and fining solutions based on new requirements are discussed. These aim to perform surgery in the area of the human heart. The new field of application is mostly meant to deal with the closure of PFO's, ASD II and occurring residual shunts.
Diese Arbeit befasst sich mit der Beschichtung dünner Kunststofffolien mithilfe der .arcPECVD-Beschichtung. Die Beschichtung erfolgt in der Anlage labFlex 200 des Fraunhofer Institutes FEP. Für diesen Prozess soll eine Methode für die Temperaturerfassung an der aus Graphit bestehenden Boosteranode erarbeitet und bewertet werden. Ein wichtiger Bestandteil dieser Arbeit bildet die Untersuchung in wie fern eine Variierung von Parameter Einfluss auf den Prozessablauf nimmt. Hierfür wurde ein Versuchsplan aufgestellt, der unterschiedliche Parametereinstellungen kombiniert. Somit kann der Einfluss verschiedenster Parameter mit auf den Prozess untersucht werden. Ebenso wird der Einfluss der Parameter auf die Beschichtungsrate hin untersucht. Dies soll ermöglichen, eine gezielte Aussage über das Beschichtungsverhalten geben zu können. Weiterer Kernpunkt dieser Arbeit ist Variation der Geometire der Graphitboosteranode. Die Variation erfolgt über Veränderungen in der Höhe und Veränderungen in der Breite der Anode. Diese geometrischen Variationen werden in Bezug auf die Versuchsparameter hin analysiert um eine Aussage darüber treffen zu können, ob und wie die Veränderung der Anodenhöhe/breite einen Einfluss auf die Prozessparameter und auf die Beschichtungsrate hat.
In der vorliegenden Arbeit wird die aktuelle Situation der Elektromobilität in Deutschland erörtert, um daraus Beiträge für ein nichtthermisches Verfahren zur Aufbereitung von Lithium-Ionen Ni1/3Mn1/3Co1/3O2-Traktionsenergiespeichern zu liefern. Bestehende Recyclingverfahren arbeiten dagegen mit energie- und kostenintensiven pyro
Automatisierte Datenanalyse von Klimadaten am Beispiel der Klimaveränderung in Deutschland bis 2070
(2018)
Durch den Menschen werden seit Beginn der Industrialisierung zunehmend Treibhausgase freigesetzt. Diese Treibhausgase verursachen einen großen Teil des anthropogenen Klimawandels und verstärken den natürlichen Treibhauseffekt. Der anthropogene Klimawandel hat bereits heute deutliche Auswirkungen auf unseren Planeten. Die Auswirkungen auf den Menschen, natürliche Ökosysteme, die Landwirtschaft und auf andere Wirtschaftsbereiche stehen momentan im Fokus der Forschung. Die zukünftige Entwicklung des Klimas ist dabei von besonderer Bedeutung, da die Anpassung an Klimaveränderungen Zeit benötigt und eine Abschätzung der Risiken zu starker Klimaänderungen für viele Bereiche bereits heute von entscheidender Bedeutung ist. Zukunftsszenarien können dabei genutzt werden um aufzuzeigen welche Risiken entstehen und zu entscheiden, wie Anpassungsstrategien genutzt werden können um zu negative Auswirkungen zu vermeiden. Ziel der vorliegenden Projektarbeit war es ein Verfahren zu entwickeln, mit dem Daten aus den Klimadaten (genauer: Daten des CORDEX-Projekts) ausgelesen und zusammengefasst werden können. In der vorliegenden Arbeit wird zunächst eine selbst entwickelte skriptbasierte Methode vorgestellt, die zehn Klimavariablen aus dem Datensatz direkt ausliest oder berechnet (direkt ausgelesen: mittlere Tagestemperatur, Tageshöchsttemperatur, Tagesminimumtemperatur, Niederschlag, Windgeschwindigkeit und kurzwellige Solarstrahlung am Boden; berechnet: Hitzetage, Kältetage, die Länge der Vegetationsperiode sowie die Häufigkeit von Starkregenereignissen). Diese Klimavariablen können mit dem Skript für variable Zeiträume (das ganze Jahr, einzelne Monate, für bestimmte Wachstumsphasen) zusammengefasst werden. Es werden anhand der Klimaveränderungen bis 2070 in Deutschland drei Anwendungsbeispiele für diese Methode vorgestellt. Die vorgestellte skriptbasierte Methode ist dazu in der Lage, im Raum Europa für variable Zeiträume und definierte geographische Räume Daten für 10 Klimavariablen auszulesen und die Ergebnisse von bis zu fünf Klimamodellen zusammenzufassen. Weitere Klimavariablen oder Klimamodelle lassen sich jederzeit in die vorliegenden Skripte mit einarbeiten. Die hier vorgestellte Methode wurde bereits erfolgreich dazu genutzt, die Klimaentwicklung in der Ukraine vorherzusagen und als Grundlage zur Berechnung künftiger Ernteerträge zu nutzen.
Aktuell existieren mehrere Frameworks, die für die Entwicklung von Single-Page Applications (SPAs) eingesetzt werden können. In der vorliegenden Arbeit wird eine Formel ermittelt, mit der die Wahl eines Frameworks beim Projektstart unterstützt wird. Die Formel setzt sich aus dem Entwicklungsaufwand, wie auch Performance, Wartbarkeit und Nachhaltigkeit zusammen. Die Kriterien wurden im Rahmen der Arbeit auf drei Entwicklungsframeworks für SPAs angewendet. Angular, Vue.js und React.js. Die Bewertung der Kriterien erfolgt über die Vergabe von Punktzahlen, wobei die Kriterien in Unterkriterien gegliedert sind. Die Punktzahlen müssen gewichtet werden, um Einfluss auf das Ergebnis zu nehmen. Standardmäßig kann eine Gleichverteilung von 25 Prozent pro Kriterium angenommen werden. Zur Bewertung der Kriterien und zur Darstellung der Verwendung und Gewichtung der Formel wird ein Projekt mit jedem der drei Frameworks implementiert. Das Ergebnis der Arbeit besteht aus drei Formeln, eine für jedes Framework, in der nur die Gewichtungen eingetragen werden müssen. Das Framework mit der größten Punktzahl kann für die Umsetzung des jeweiligen Projekts ausgewählt werden.
Phosphor ist einer der Grundbausteine des Lebens. Für Pflanzen gehört Phosphor zu den wichtigsten Mineralien, er ist wachstumsentscheidend. Aber Phosphor ist nicht substituierbar. Er stellt eine endliche Ressource dar. Staatliche Förderprogramme sowie politische Regularien und Restriktionen haben in den letzten 15 Jahren die Entwicklung verschiedenster Technologien zur Rückgewinnung von Phosphor forciert. Die vorliegende Arbeit fasst die neuen rechtlichen Grundlagen mit den entscheidenden Daten und Fristen zusammen. Zur Einschätzung des agronomischen Potenzials von Düngemitteln aus dem Phosphorrecycling wird in der Arbeit zunächst ein Überblick zum
In der Halbleiterindustrie spielt die Fehleranalyse von defekten Bauteilen eine bedeutende Rolle. Damit Bauteile, zum Beispiel mittels Infrarotspektroskopie, auf Fehler untersucht werden können, muss als Vorpräparation dienender Arbeitsschritt realisiert werden. Mit Hilfe von Ultrakurzpulslaser wird das Substratmaterial (Silizium) eines integrierten Schaltkreises, ohne nennenswerte Schädigung der umliegenden Strukturen, auf wenige Mikrometer abgedünnt. Die fertigungsbedingte Biegung des Siliziums muss dabei berücksichtigt werden.
In dieser Bachelorarbeit werden die Prozessparameter Pulsenergie und Pulsabstand von verschiedenen Ultrakurzpulslasersystemen, sowie die Größe der abzutragenden Fläche, auf deren Einfluss auf die Ablationsrate untersucht und anschließend dargestellt. Diese ermittelten Daten geben die Basis für eine Berechnung des Materialabtrages, welche zur Optimierung des o.g. Arbeitsschrittes dienen soll. Zeit- und kostenintensive Vortests zur Abtragsrate sollen damit entfallen.
Diese Bachelorarbeit beschäftigt sich mit der Weiterentwicklung eines bestehenden Trainingssystems für die Chirurgie der Lendenwirbelsäule. Das Produkt ist nicht nur für die Ausbildung von Ärzten von Bedeutung, sondern findet auch in der Wirtschaft Anwendung für die Präsentation neuer chirurgischer Instrumente und anderer Medizinprodukte. Dem momentanen Modell werden weitere anatomische Strukturen hinzugefügt, um die Durchführung von Operationen mit interlaminären Zugang simulieren zu können. Eine der neuen Strukturen wird mit einem CAD-Programm konstruiert und auf dieser Grundlage wird die für die Produktion nötige Gussform erstellt. Außerdem werden verschiedene Ansätze präsentiert wie man die Halterung der Lendenwirbelsäule verändern könnte. Das Ergebnis dieser Arbeit ist ein neues Trainingssystem, dessen Anwendungsbereiche sich auf andere Gebiete als das Ausgangsmodell konzentrieren.
Die Anforderungen an Mikrospiegelarrays steigen stetig. Bei Anwendungen mit hohen Laserpulsfrequenzen ist die Stabilität der Spiegelauslenkung eine besonders wichtige Eigenschaft. Durch den Laserinduzierten Photoeffekt in der Spiegelektronik kommt es zur Entladung der Spiegelspannung. Um diesen Effekt genauer untersuchen zu können wurde eine zeitaufgelöste Messung realisiert. Dadurch ist es möglich mit einer zeitlichen Auflösung von bis zu 10 µs über einen Zeitraum von 2 ms das Verhalten der Mikrospiegel zu untersuchen und Rückschlüsse auf den Einfluss einfallender Laserstrahlung zu ziehen. Der realisierte Messaufbau dient dabei vornehmlich als "Proof of Concept" und bildet die Grundlage für weiterführende Untersuchungen.
Schwerpunkt der vorliegenden Arbeit ist die Untersuchung der Adsorptionsmechanismen von Phosphat an ausgewählten Eisenhydroxid haltigen Agglomeraten. Die im Rahmen der vorliegenden Arbeit durchgeführten Untersuchungen umfassen die Erprobung und vergleichende Bewertung verschiedener Ansätze zur Modifizierung der offenporigen Eisenhydroxid haltigen Agglomerate und sollen insbesondere der Klärung von Auswirkungen dieser auf die Eigenschaften des Agglomerats im Allgemeinen und auf die Phosphatadsorption im Speziellen dienen. Dabei stehen, neben der vergleichenden Testung thermisch behandelter/aktivierter Agglomerate, auch die Verifizierung der Einflüsse von Korngröße sowie Umströmung des Agglomerates im Fokus. Hauptziel ist das Erlangen von detaillierten Kenntnissen über die ablaufenden Reaktionen.
Gegenstand dieser Diplomarbeit ist die technische, wirtschaftliche, energetische und ökologische Bewertung der bestehenden Ring-Jet-Stufe als Bestandteil der nassen Rauchgasreinigung (betriebsintern auch vierte Reinigungsstufe der nassen Rauchgasreinigung) in der Sonderabfallverbrennungsanlage Biebesheim. Neben der Ring-Jet-Stufenbewertung sollen in einem zweiten Schritt anlagenspezifische Optimierungsmaßnahmen entwickelt werden. Für die Bewertung der eingebauten Ring-Jet-Stufe wurden entsprechende Anlagenversuche, Analysen und Berechnungen durchgeführt. Die Versuchsfahrten und Messkampagnen zeigen, dass die Ring-Jet-Düsenfunktionen im täglichen Anlagenbetrieb außerhalb ihres optimalen Arbeitsbereiches (Einsatzbereiches) liegen. Dennoch ist ein Komplettentfall der gesamten Ring-Jet-Stufe aus dem bestehenden Rauchgasreinigungssystem aus Gründen der Betriebs- und Anlagensicherheit nicht möglich. Durch entsprechende Optimierungsmaßnahmen im Bereich der vierten Reinigungsstufe kann die Effektivität der Schadstoff-, Partikel- und Aerosolabscheidung gesteigert sowie die betriebswirtschaftlichen Kosten für die Leistungsaufnahme von Saugzug I- und der Ring-Jet-Pumpen gesenkt werden können.
Neben verschiedenen integrierten Entwicklungsumgebungen für eingebettete Systeme gibt es am Markt verschiedene Programme für deren formalen Echtzeitfähigkeits-nachweis. Diese Masterarbeit schafft eine allgemeine Schnittstelle für Scheduling-Analyse-Programme und integriert das Programm MAST in die erweiterbare Entwicklungsumgebung mbeddr, um so die Entwickler von eingebetteten Systemen beim Echtzeitfähigkeitsnachweis zu unterstützen. Dazu wird mithilfe von mbeddr als modellzentrierter Entwicklungsumgebung das mbeddr-Quellcode-Modell in das MAST-Analyse-Modell transformiert, die MAST-Analyse mit diesem Modell aufgerufen und die Ergebnisse in mbeddr angezeigt.
Im Rahmen dieser Arbeit werden die notwendigen Schritte, welche zur Umsetzung der Personalisierung von Inhalten innerhalb des Content-Management-Systems TYPO3 notwendig sind, beschrieben. Dabei werden bestehende Techniken untersucht, um eine möglichst gute Umsetzung zu erzielen. Dies gelingt zwar nur mit Einschränkungen, liefert somit jedoch Erkenntnisse über die Einsetzbarkeit dieser Technologien. Im Gegensatz zu herkömmlichen aktiven Bewertungssystemen soll bei dieser Arbeit primär das Verhalten des Nutzers dafür verwendet werden. Dadurch soll eine universelle Einsetzbarkeit erreicht werden. Aus diesen impliziten Bewertungen sollen die Empfehlungen entstehen.
Im Rahmen der Arbeit wird ein historisch gewachsenes Softwareprojekt modernisiert. Dabei wird ein Continuous Delivery-Verfahren umgesetzt. Ein Teil dieses Verfahrens sind Softwaretests und -inspektionen. Mit diesen werden verschiedene Aspekte der Softwarequalität verbessert und die zukünftige Erhaltung gesichert. Ein weiterer Teil der Arbeit ist die Überarbeitung der Architektur. Die überarbeitete Softwarearchitektur orientiert sich an gängigen Richtlinien und setzt moderne Softwaretechnologien ein.
Im Rahmen dieser Diplomarbeit werden physikalische Eigenschaften von zwei Filtermaterialtypen der UGN-Umwelttechnik GmbH beschrieben und ein Werkzeug zur Produktion von neuen Filtermaterialien entwickelt. Dabei werden zuerst die Filtermaterialien zur Abluftreinigung und Ihre Zusammensetzung beschrieben und anschließend die werkstofftechnischen Größen. Das im Rahmen der Diplomarbeit entwickelte Werkzeug, ausgehend von bereits bestehenden Werkzeugen der Firma UGN-Umwelttechnik GmbH, führte zur Herstellung eines neuen Filtermaterialtyps, der heute in der UGN-Umwelttechnik GmbH produziert wird und ebenfalls Gegenstand der physikalischen Eigenschaftsbestimmung dieser Arbeit ist. Bei dem neuen Filtermaterialtyp handelt es sich um eine Weiterentwicklung der UgnCleanPellets® S 3.5, die eine veränderte Form, durch einen Hohlraum in der Mitte aufweisen. In dem Werkzeugentwicklungsprozess werden vier verschiedene Konstruktionsvarianten verglichen und ein Werkzeugfavorit ausgewählt und gefertigt. Der ausschlaggebende Faktor für die gewählte Variante war die einfachere Herstellbarkeit, bessere Filtermaterialdurchströmung und die Stabilität der Hohlraumdüsen zur Fertigung der neuen UGN-Filtermaterialien mit dem Namen UgnCleanTubes® S 3.5. Den Hauptteil der Diplomarbeit bilden die Experimente der bestehenden und neu entwickelten Filtermaterialien. Die untersuchten Filtermaterialien sind einerseits mit den bestehenden Werkzeugen hergestellt und andererseits mit dem Werkzeug erzeugt, dass im Rahmen dieser Diplomarbeit entwickelt wurde. Damit unterteilen sich die Werkzeuge, in ein Laborwerkzeug und Werkzeuge im Serienfertigungsprozess. In dem Versuchsprogramm werden die Trockensubstanz, das Trocknungsverhalten, die Porosität, die Schüttdichte, die Feuchtigkeitsaufnahme, das Druckverlustverhalten und die Druckfestigkeit der UgnCleanPellets® S 3.5 und UgnCleanTubes® S 3.5 der Chargen KW3, KW5 und KW15 untersucht. Aus der Druckfestigkeit wird die Schütthöhe der untersuchten Filtermaterialien berechnet. Diese gewonnenen Ergebnisse werden von der UGN-Umwelttechnik GmbH verwendet, um neue Filter zu entwickeln und die Produktpalette mit den neu entwickelten Filtermaterialien zu erweitern.
Ziel dieser Bachelorarbeit war es, verschiedene Arten von Membranen auf ihre Leistungsfä-higkeit und Stabilität bezüglich der Entwässerung von Ethanol mittels Pervaporation unter der Anwesenheit von CO2 zu prüfen. Dafür wurden zwei verschiedene Pervaporationsanlagen verwendet. Die verwendeten Membranen waren Zeolith- und molsiebende Kohlenstoffmemb-ranen. Es wurden zwei Arten von Zeolithmembranen verwendet, zum einen NaA Membranen und zum anderem SAPO-34 Membranen. Zuerst wurden an der PV-Anlage
Lastenräder haben vor allem im durch geringe Entfernungen und beengte Verhältnisse charakterisierten innerstädtischen Verkehr das Potential, 15 - 40 % aller Fahrten zu leisten, die ansonsten mit einem Kraftfahrzeug durchgeführt würden. Dies erstreckt sich sowohl auf den gewerblichen als auch auf den privaten Bereich. Die dadurch möglichen Einsparungen an CO2-Emissionen werden in verschiedenen Quellen in Abhängigkeit vom spezifischen Untersuchungsstandort auf bis zu 73 % beziffert. Im Handel erhältliche Lastenfahrräder verursachen nur rund 40 % der Kosten eines Kleinwagens. Das in der vorliegenden Arbeit beschriebene Selbstbau-Lastenrad mit Recyclinganteilen verursacht bedingt durch die deutlich geringeren Anschaffungskosten weniger als 30 % der Kosten eines Kleinwagens. Ein Lastenfahrrad vom Typ
Für die Anwendung SPARTACUS Facility Management (r) sollten die Werkzeuge zur Administration von Benutzer- und Systemeinstellungen erneuert werden. Dazu wurde im Projekt eine Anforderungsermittlung durchgeführt. Darauf aufbauend wurde in einem iterativen Prozess Prototyping eingesetzt, um ein Design der Benutzeroberfläche zu entwerfen. Dies diente als Basis für ein technisches und fachliches Konzept eines neuen Administrationswerkzeuges und dessen Umsetzung.
Die vorliegende Masterarbeit gliedert sich in zwei Bereiche, eine Projektplanung und -umsetzung und die Entwicklung einer prototypischen REST Schnittstelle. Viele neue Ideen und Anwendungsfälle im Industrie 4.0 Umfeld beruhen auf Lokalisierungsinformationen. Hierfür entstand bei BMW ein neues System, die Internationale-Produktionssystem- Identifizierungs-Plattform (IPS-i). Der Einsatz und Umfang dieses Systems hängt jedoch stark vom Prozess und Anwendungsfall ab und es ist erforderlich Tests im Vorfeld durchzuführen. Das Ziel des Projektes ist eine Installation und Inbetriebnahme des IPS-i-Systems in einer Innovationsfläche, die einem produktiven Umfeld sehr nahekommt. Dazu wird ein Projektplan erstellt und anschließend umgesetzt. In einem Projektreview wird der Projektverlauf, die dabei auftretenden Hindernisse und die daraus entstandenen Erkenntnisse festgehalten. Die Ziele bei der Entwicklung der prototypischen REST Schnittstelle sind der Nachweis der Umsetzbarkeit der REST Architektur und die unkomplizierte Anbindung weiterer Anwendungen an diese. Hierfür wird eine Gesamtarchitektur, bestehend aus zwei Softwarekomponenten, konzeptioniert und umgesetzt. In der ersten Komponente wird die bereits bestehende Schnittstelle analysiert und ein funktionaler Schnittstellentest durchgeführt. Die Testimplementierung und -durchführung erfolgt mit dem Test-Framework unittest von Python. Das Ergebnis des Tests ist, dass die Services der Schnittstelle bei einer korrekten Parameterübergabe hingehend ihrer Funktionalität die erwarteten Resultate liefern. Für die prototypische Schnittstelle wird zunächst ein Konzept für die Ressourcen und ihre Routen erstellt. Anschließend erfolgt die Umsetzung dieser mit der Servertechnologie Flask von Python. Das zweite Softwaremodul ist eine klassische Webapplikation mit einer 3-Schichten Architektur. Diese verbindet sich auf die zuvor entwickelte Schnittstelle und stellt dem Anwender die Daten in einem User Interface zur Verfügung. Das Ergebnis ist die erfolgreiche Anbindung der Applikation und der Nachweis der Realisierbarkeit der konzeptionierten Gesamtarchitektur.
Photovoltaikanlagen gehören heutzutage zu einer der wichtigsten regenerativen Energiequellen. Ihr flächiger Aufbau macht sie jedoch sehr anfällig für Wetterkatastrophen wie etwa Hagelstürme. Um zukünftig schwere Schäden an Solarzellen eindämmen zu können, wurde ein Aufbau realisiert um das Verhalten einer Solarzelle durch simulierte Hagelschläge zu untersuchen. Es wurde das Impactverhalten von Solarzellen beim Beschuss unter verschiedenen Winkeln, Geschwindigkeiten und Projektilen verschiedener Materialzusammensetzung untersucht. Außerdem wurde eine Solarzelle bei steigenden Geschwindigkeiten bis zur ihrem Bruch beschossen, um Unterschiede im Signalverhalten vor und nach dem Bruch zu unter-suchen, sodass man eine Detektionsmethode entwickeln kann um einen Bruch des Solarmoduls nachweisen zu können. Die Auslenkung der Solarzelle wurde mit einer Triangulationseinheit aufgenommen und die intern auftretenden Spannungen wurden durch Spannungsdoppelbrechung untersucht.
Im Zuge der Bildung eines Integrierten Managementsystems (IMS) in der IAMT-Gruppe soll die DIN EN ISO 14001:2015 in der Form der High Level Structure (HLS) mit implementiert werden. Damit sich die Aufgabe nicht nur als Verwaltungsakt darstellt setzt das Unternehmen verstärkt auf ein tatkräftiges Mitwirken jedes einzelnen Mitarbeiters. Um dieses Ziel erreichen zu können, gilt es zunächst im ersten Schritt die einzelnen Kapitel der Norm auf ihre Kernan-forderungen zu analysieren und eine Art Leitfaden daraus abzuleiten. Aus diesem Leitfaden sollen sich dann die Folgeschritte mit deren jeweiligen Aufgaben, Maßnahmen und Wirksam-keitskontrollen ableiten lassen.
Die vorliegende Masterthesis befasst sich mit dem Thema, wie ein optischer, fußbodenintegrierter Sensor zur Sturzdetektion und zum Aktivitätsmonitoring hilfebedürftiger Personen aufgebaut werden kann. Dieses Thema wird im zukünftigen Wohnungsbau, gerade in Hinblick auf den demographischen Wandel, eine zentrale Rolle spielen. Nicht nur, dass sich die Wohnsituationen an den Geist der Zeit anpassen werden, auch der Fachkräftemangel im pflegerischen Umfeld wird dafür ein treibender Faktor sein. Zur Umsetzung eines fußbodenintegrierten Sensors werden zwei unterschiedliche Systeme aufgebaut, getestet und auf ihre Fähigkeit zur Sturzdetektion hin evaluiert. Einerseits wird ein Sensor auf Basis der spannungsinduzierten Doppelbrechung aufgebaut, wobei die zum Einsatz kommenden Komponenten variiert werden. Weiterhin wird ein Sensorprinzip angewandt, welches auf Streuung in komprimierbaren, porösen Kavitäten reagiert. Auch bei diesem Sensorprinzip werden Materialien und Ausführung der verwendeten Hardware, insbesondere der Faserkonfigurationen variiert. Für einen bodenintegrierten Sensor, der im Rahmen eines Neubaus entsteht, eignet sich das Prinzip der Spannungsdoppelbrechung besser, da es mechanisch belastbar und stabil ist. Hier zeigen feste Silikone einem sehr guten Signalverlauf und eine gut reproduzierbare Schwellwertdetektion. Die Komponenten auf Epoxydharzbasis bieten den Vorteil größerer mechanischer Stabilität, müssen für eine Schwellwertdetektion aber hohl gelagert werden, was die Integration in einen Fußboden erschweren könnte. Für eine Nachrüstung in eine Wohnung bietet sich die Verwendung des Streulichtsensors an, da er nicht in den Boden integriert werden muss, sondern als Belag obenauf liegen kann. Hier empfiehlt sich der Einsatz zweier parallel ausgeführter Fasern mit einem großen Kerndurchmesser (getestet wurden 600 µm) auf der Unterseite eines dünnen Schaumes auf Poron oder Polyurethanbasis. Dieser bietet die besten Ergebnisse und ist zugleich günstig herzustellen.
Die Substrate Maissilage, Hühnertrockenkot (HTK), Rindergülle und sonstige Substrate (u.a. Apfeltrester und Wasserlinsen) sowie Gärrest wurden mittels Nahinfrarotspektroskopie (NIRS) analysiert. Es erfolgte die Aufnahme von NIR-Spektren mit dem Ziel NIR-Methoden für die Vorhersage von wenig bis nicht-verdaulichen Faserstoffen von Gärrest sowie von eingesetzten Substraten zur Biogasgewinnung zu entwickeln. Anhand von Messdaten aus einer davor durchgeführten Referenzanalytik, der Weender Futtermittelanalyse und der erweiterten Ween-der Analyse, sind Vergleiche angestellt worden. Die eingesetzte Methode zum Vergleich war die
Die vorliegende Masterarbeit gibt einen Überblick über verschiedene Bewertungsverfahren im Kontext mit kognitiven Einschränkungen und demenziellen Erkrankungen sowie deren Krankheitsbilder. Dabei wird die Funktionsweise der Bewertungssysteme von relevanten Studien untersucht. Die Ergebnisse der Studien sollen den positiven Einfluss der Aktivierung bei Menschen mit Demenz unterstreichen. Die Masterarbeit bezieht sich auf das, in einer Parallelarbeit prototypisch entwickelte, Serious Game. Der Konzeptentwurf des Bewertungssystems wurde unter Einbeziehung der Erkenntnisse aus der Recherche der Studien erarbeitet und wird in Abhängigkeit zu den Aufgabenabläufen und Interaktionsmöglichkeiten des Serious Games gestellt. Die technische Umsetzung der Testumgebung für das Bewertungs- und Auswertungsverfahren erfolgte in der Spiele-Engine Unity 5. Die prototypische Umsetzung wird den erhobenen Anforderungen gerecht und zeichnet sich durch die niedrige Komplexität und die leichte Skalierbarkeit aus. Der Autor erhofft sich die Aufnahme des Bewertungs- und Auswertungssystems in eine spätere Version des Serious Games, um die in der Arbeit erarbeiteten Erkenntnisse mit Testdaten belegen zu können.