Refine
Year of publication
- 2017 (91) (remove)
Document Type
- Master's Thesis (91) (remove)
Institute
Is part of the Bibliography
- no (91)
In der vorliegenden Arbeit ist ein Messplatz zur Eigenspannungsbestimmung gekrümmter Dünnschichten erstellt worden. Es wurden nichtinvasive Messmethoden zur Eigenspannungsbestimmung gesammelt und auf Tauglichkeit für die gewünschten amorphen oder teilkristallinen Dünnschichtproben analysiert. Dünnschichten wurden mittels der Bogen -Plasma erweiterten chemischen Gasphasenabscheidung (arcPECVD) beschichtet und bezüglich der Eigenspannungen charakterisiert. Druckspannungen sind festgestellt worden.
Die vorliegende Literaturarbeit beschäftigt sich mit dem Thema der Neuen Seidenstraße Chinas und ihrer Auswirkung auf die Rolle Chinas in den Regionen Südostasien und Zentralasien. Das Thema ist im Fachgebiet der Geopolitik einzuordnen. Ziel der Arbeit ist es einen umfassenden Überblick in der Thematik zu verschaffen und zu beurteilen, wie China mithilfe des Konzeptes der
Infolge der gesellschaftlichen Entwicklung und des engeren interkulturellen Austauschs zwischen unterschiedlichen Ländern legt man mehr Wert auf das Übersetzen der Kinder- und Jugendliteratur. In der vorliegenden Arbeit konzentrierte sich die Verfasserin unter der Anleitung der Skopostheorie auf die Forschung vom Übersetzen der deutschen Kinder- und Jugendliteratur ins Chinesische und versuchte, unter der Berücksichtigung der Adressaten
Als Ausgangstext der Übersetzungspraxis wurde der Jugendroman Der Ernst des Lebens macht auch keinen Spaß vom deutschen Schriftsteller Christoph Wortberg ausgewählt. Anders als Erwachsene verfügen die Zielempfänger Jugendliche über ihre eigenen Besonderheiten. Deshalb sollte sich der Übersetzer an den Adressaten orientieren, deren Erwartungen berücksichtigen und dann geeignete Übersetzungsstrategien auswählen. Ein Auszug aus diesem Roman zu übersetzen ist eine große Herausforderung und gleichzeitig sinnvoll für die theoretische Forschung des Übersetzens von Jugendliteratur. Nach der funktionalen Übersetzungstheorie ist Translation eine kulturspezifische kommunikative Handlung und betont vor allem die kommunikative Funktion von Texten. Um diese Funktion zu erfüllen, wird beim Übersetzen immer beachtet, wozu wurde der Ausgangstext geschrieben und für wen erfolgt die Übersetzung. Aus diesem Grund wird die funktionale Übersetzungstheorie als praktische Hinweise beim Übersetzen der Jugendliteratur angewandt. Das Ziel der vorliegenden Arbeit liegt darin, für andere Übersetzer eine Vorgehensweise für die Textanalyse und den Umgang mit Übersetzungsproblemen von Jugendliteratur zur Verfügung zu stellen. Durch das Verfassen wird die anweisende Bedeutung der funktionalen Übersetzungstheorie beim Übersetzen der Jugendliteratur unter Beweis gestellt.
Menschen gehören immer einer bestimmten sozialen Gruppe an, deswegen ist auch die von dem jeweiligen Menschen benutzte Sprache stets von der Kultur der jeweiligen Gruppe geprägt. Translation beinhaltet nicht nur die Übertragung von Informationen, sondern auch den Kulturtransfer. Für Übersetzer oder Fremdsprachenlerner ist somit die interkulturelle Kompetenz essentiell. Die kulturelle Adäquatheit von Ausgangs- und Zieltext macht die Qualität einer Übersetzung aus. Somit müssen die Übersetzer beim Übersetzungsprozess dem kulturspezifischen Hintergrund der Ausgangs- und Zielsprache-Gemeinschaft besondere Aufmerksamkeit widmen. Ziel der vorliegenden Arbeit ist es, anhand des Buches
Die vorliegende Masterarbeit besteht aus zwei Teilen. Im ersten Teil wird analysiert, ob interkulturelle Dramapädagogik ein geeignetes Werkzeug zur Stimulation von kultureller Selbst- und Fremdreflexion ist. Dafür wird eingangs der Begriff der Interkulturellen Dramapädagogik erläutert und aufgezeigt, wie diese im Fremdsprachenunterricht angewandt werden kann
Internationale Projektzusammenarbeit hat in den verschiedensten Geschäftsbereichen Einzug gefunden. Da global agierende Unternehmen immer mehr gezwungen sind, ihre Geschäfte auf internationale Märkte auszuweiten, müssen auch Belegschaften von unterschiedlicher Herkunft zusammenarbeiten. Vor diesem Hintergrund haben sich interkulturelle und fächerübergreifende Teams entwickelt. Schon Mengzi hat gesagt, dass der Bedarf eines Menschen von den hundert unterschiedlichen Handwerken und Berufen durch Zusammenarbeit gedeckt wird. Doch aus den hundert Berufen zu der Zeit des Mengzis haben sich mittlerweile unzählige Professionen und Fachgebiete entwickelt, die die Zusammenarbeit immer facettenreicher machen.
In einer spieltheoretischen Analyse soll ermittelt werden, ob die EU chinesischen Unternehmen weiterhin freien Marktzugang gewähren sollte, obwohl europäische Unternehmen diesen nicht genießen. Bei der Analyse werden wirtschaftliche, politische und rechtliche Aspekte mit in Betracht gezogen. Ein weiterer Teil der Arbeit ist eine Übersetzungswissenschaftliche Problematik.
In meiner Arbeit geht es um die Strategie für eine adressatenorientierte Übersetzung eines Fachtextes. In der Übersetzungspraxis zielt es darauf ab, wie man adressatenorientiert den Ausgangstext übersetzt, da der Adressat oftmals keinen professionellen Hintergrund hat und mit fachlichen Begriffen nicht vertraut ist. Nach einer genauen Analyse der Übersetzungstheorie und durch die Übersetzungspraxis sollen nun die wichtigsten Ergebnisse zusammengefasst werden und die Forschungsfrage:
Die Arbeit gliedert sich in zwei Teile. Teil I befasst sich mit der praktischen Übersetzung eines wissenschaftlichen Fachzeitschriftenartikels vom Chinesischen ins Deutsche. Dabei werden besonders Probleme bei der Übersetzung von Fachterminologie und theoretischen Konstrukten betrachtet. Die Vorgehensweise orientiert sich an der funktionalen Übersetzungstheorie. Teil II behandelt das Thema der Migration von Fachkräften über Ländergrenzen hinweg. Wissenschaftlicher Hauptertrag ist die Erstellung eines Framework zur zielorientierten Untersuchung von Faktoren, die auf die Migrationshandlungen von Arbeitskräften einwirken und die exemplarische Gegenüberstellung einiger Faktoren für China und Deutschland.
Die Arbeit diskutiert über die Methoden und Strategien, wie kann man die Ausdrucksweisen vom Chinesischen ins Deutsche präzise übersetzen lassen und gleichzeitig auch mit der Ausdrucksweise der fremden Sprache entsprechen. Aus einer interkulturellen Perspektive werden die Ähnlichkeiten und Unterschiede zwischen chinesischen und ausländischen Esskultur analysiert. Die Bücher stellen meistens die chinesische Esskultur für Ausländer vor und diese Bücher sind im Allgemeinen als Touristenwerbung zu verwenden gedacht. Aber Bücher der chinesischen Esskultur, die aus Sicht von Ausländern geschrieben wurden, lassen sich kaum relevante Bücher finden.
Die vorliegende Arbeit beschäftigt sich mit der grundlegenden Frage, welche Möglichkeiten heutige Technologien zur Erstellung eines naturgetreuen Abbildes eines Knochens bieten. Da- bei ist nicht nur die Anatomie des Knochens entscheidend, sondern auch seine mechanischen Eigenschaften bei einer Belastung. Die moderne Technik ermöglicht es, Aufnahmen des Kno- chens in hoher Qualität zu erzeugen, dabei werden aber nicht zwingend die biologischen und mechanischen Eigenschaften betrachtet. Mit zweidimensionalen Bildaufnahmen und Software- unterstützung werden dreidimensionale virtuelle Modelle erstellt. Diese können anschließend realitätsnah mittels generativer Fertigungsverfahren erstellt werden. Jedes Verfahren bietet un- terschiedliche Möglichkeiten mit einer Vielzahl an Materialien. Diese Verfahren und das Vor- gehen bis zu einem dreidimensionalen Modell der Fibula sollen hier verglichen und erläutert werden. Augenmerk liegt dabei in der biomechanischen Korrektheit des Modells, da diese für einheitliche Tests neuer Implantate Verwendung finden. Das Ergebnis ist eine Auswahl an ver- schiedenen Ansätzen zur Erstellung eines biomechanisch korrekten Fibulamodells.
Unnoticed by many, a congenital cardiac anomaly is in existence, which can be found in over a quarter of the total population. It is associated with the occurrence of strokes, migraine with and without an aura and feelings of faintness.This refers to the atrial septal defect (ASD) or one of its forms, the patent foramen ovale (PFO). Eventhough this illness, depended on the manifestation, can remain without any symptoms, it should still be considered to treat the condition, to prevent possible complications in a higher age. In recent years, based on several studies, a closure of ASDs and PFOs has been established as the preferred approach and is therefore increasingly replacing the medicinal treatment. In the context of this Master
Zukünftig soll am Virtual Reality Center Production Engineering der Technischen Universität Chemnitz eine markerlose Arbeitsraumüberwachung am Roboterarbeitsplatz zur Untersuchung von Szenarien der Human-Robot-Collaboration zur Verfügung stehen. Ein Objekterkennungssystem auf Grundlage modellbasierter, lokaler Objekterkennungsverfahren wird entwickelt und als Komponente in ein Konzept zur Arbeitsraumüberwachung integriert. Der Fokus liegt auf der Erkennung von Gegenständen aus dem industriellen Umfeld in 3D-Punktwolken, die z. B. mit Stereokamerasystemen erfasst werden. Zur Modellbildung werden vorhandene CAD-Modelle der Gegenstände in Punktwolken überführt. Bezüglich der Arbeitsraumüberwachung dient die Objekterkennung der Initialisierung nachgelagerter Trackingverfahren. Verschiedene Methoden für die Schritte im Objekterkennungsprozess werden untersucht, unter anderem die Merkmals-Deskriptoren SHOT, FPFH, 3DSC, RSD und Spin-Images sowie die Merkmals-Detektoren Harris3D, ISS, SIFT3D und Uniform-Sampling. Durch einen zusätzlich eingeführten Vorverarbeitungsschritt wird der Objekterkennungsprozess optimiert. Vor allem wirken sich eine Segmentierung sowie die Glättung der aufgezeichneten Punktwolken positiv auf die Laufzeit sowie die Erkennungsqualität aus. Das entwickelte System ist in der Lage, vorgegebene Gegenstände zu erkennen und zu lokalisieren. Der Objekterkennungsprozess kann dabei flexibel konfiguriert werden. Optimierungspotential besteht hinsichtlich Laufzeit sowie der Bewertung von Hypothesen zur Objekt-Pose.
Gegenstand der Betrachtung ist die Alterssicherung in Deutschland, als sozialpolitisches Gestaltungsinstrument zur Beantwortung sozialer Fragen. In der Ausgestaltung der Alterssicherung äußern sich Vorstellungen von Gerechtigkeit und einer guten Gesellschaft. Die Alterssicherung ist Teil des politischen und sozialen Systems. Vor diesem Hintergrund wird der Alterssicherung eine wirklichkeitskonstruierende Dimension zugesprochen. Das Leistungsprinzip und die darin eingebettete Ambivalenz von Finanzierung und Leistung setzt darauf, die soziale Stellung zu manifestieren, wobei das Prinzip sozialer Sicherung eine Egalisierung von Lebenslagen durch Umverteilung anstrebt. Der geltende Rechtsrahmen der Alterssicherung wird in dieser Arbeit als soziale und gesundheitliche Determinante eingeordnet. Die rechtliche Rahmung ist Resultat historisch-kultureller Entwicklungen, in ihr spiegelt sich eine Gerechtigkeitskultur wider. Angenommen wird, dass sich der Status Quo in eine Entwicklungsdynamik einbettet und die aktuelle Ausgestaltung Ergebnis und Treiber eines wirklichkeitskonstruierenden Prozesses ist. Ziel dieser Auseinandersetzung ist es, diese Entwicklungsdynamik herauszuarbeiten und sie vor dem Hintergrund der Solidarität und Subsidiarität zu bewerten. Im ersten Teil der Arbeit wurden strukturelle Besonderheiten in der Ausgestaltung der Alterssicherung in Deutschland anhand von drei Strukturdimensionen untersucht. Die drei Dimensionen erfassen die Struktur der Versichertengemeinschaft, Finanzierung und Leistungsumfang der gesetzlichen Rentenversicherung und der kapitalgedeckten Vorsorgeoptionen, Betriebs- und Riester Rente. Angelehnt an Esping-Andersen (1989) wird untersucht, inwieweit Individuen von ihrer Marktabhängigkeit befreit werden und welches System sozialer Stratifizierung, als Verhältnis zwischen Rechten und sozialen Klassen, den sozialpolitischen Bestrebungen zugrunde liegt. Unterschiedliche Rechte und Privilegien für unterschiedliche Statusgruppen provozieren Spaltungen und Dualismen, die die kollektive Solidaritätskultur verändern. Die Dynamik der Effekte der konkreten Ausgestaltung werden auf individueller, gesellschaftlicher und globaler Ebene phänomenologisch diskutiert und ein Spannungsverhältnis zwischen Rechtsideal und Rechtsnorm aufgeworfen. Im zweiten Teil wird die identifizierte Entwicklungsdynamik in Bezug zu definierten Transformationsphänomenen gesetzt. Da sich sozialer Wandel nicht linear vollzieht, wurde die Ausgestaltung der Alterssicherung als Zielvariable und erklärende Variable eingeordnet.
Die vorliegende Arbeit thematisiert die Nutzung eines kollaborierenden Roboters als haptisches Eingabegerät. Die konkrete Problemstellung umfasst dabei die Schaffung einer Schnittstelle zu einer übergeordneten VR-Anwendung in Form einer Bibliothek. Es werden sowohl die mathematischen Grundlagen der Kinematik von mechanischen Strukturen (Arm) mit 6 und 7 Freiheitsgraden, die Funktionalität und Schnittstellen des Roboters, wie auch die Kommunikation zwischen den Komponenten erörtert. Die Arbeit beschreibt die verschiedenen Schritte, die zur Umsetzung der Aufgabe nötig sind. Dabei geben die allgemeinen Kapitel zunächst einen Überblick über einige am Markt erhältliche haptische Eingabegeräte und kollaborierende Roboter. Eine Beschreibung verschiedener Möglichkeiten der Realisierung schafft die Grundlage zum Verständnis der folgenden Projektumsetzung. Eine anschließende Projektreflexion zeigt Möglichkeiten zur Erweiterung des Nutzungsumfangs der entstandenen Bibliothek auf.
Die Glanzwinkeldeposition (GLAD) ist ein leistungsfähiges Werkzeug zur Herstellung komplexer Schichtmorphologien. In der vorliegenden Arbeit wurde eine Nickel-Eisen-Legierung (Ni/Fe 81/19 wt%) durch GLAD mit Hilfe von Elektronenstrahlverdampfung auf Si(100)-Substrat abgeschieden. Um die Wachstumseigenschaften der Nanostrukturen zu untersuchen, wurden verschiedene Wachstumsparameter wie Substrattemperatur, Einfallswinkel und Substratvorstrukturierung variiert. Die daraus resultierenden Schichteigenschaften wurden mittels REM-, AFM-, XRR-, XRD- und Polfigurmessungen analysiert. Dies ermöglichte die Analyse der Schichtporosität und -dicke sowie der Neigungswinkel und der Kristallinität der abgeschiedenen Säulen. Beim Vergleich mit bekannten Modellen betreffs der Abhängigkeit vom Neigungswinkel vom Einfallswinkel zeigte sich eine gute Übereinstimmung, insbesondere mit anderen Metallen. Der Einfluss der mittels Nanokugellithographie (NSL) hergestellten Vorstrukturen ist als gering einzuschätzen. Jedoch zeigte die durch Erhöhung der Substrattemperatur verstärkte Oberflächenmobilität der Adatome einen signifikaten Effekt auf das Schichtwachstum.
Herstellung und Charakterisierung von Spin-Hall Effekt-basierten Nano-Mikrowellenoszillatoren
(2017)
Die vorliegende Masterarbeit beschäftigt sich mit der Herstellung und Charakterisierung spezieller Spin-Hall Nano-Oszillatoren. Zu Beginn werden die physikalischen Grundlagen zum Verständnis der Funktion dieser Oszillatoren dargestellt. Weiterhin wird die Brillouin-Lichtstreu- Mikroskopie vorgestellt, die zur optischen Erfassung der Magnetisierungspräzession eingesetzt wurde. Im Anschluss wird das Herstellungsverfahren dieser nanoskaligen GHz-Oszillatoren gezeigt. Der experimentelle Teil der Arbeit beschäftigt sich mit der Charakterisierung von Spin- Hall Nano-Oszillatoren mit lokalen, lateralen Verengungen, die zu einer erheblichen Stromdichteerhöhung führen. Dabei liegt der Schwerpunkt auf den Abhängigkeiten der Oszillatorleistung, -frequenz und -linienbreite von der Stärke des Gleichstromes, der diesen Bauteilen kontinuierlich Energie zuführt. Durch ortsaufgelöste Messungen konnten die gefundenen Frequenzen den jeweiligen Oszillatororten, die den Bereichen mit hoher Stromdichte entsprechen, zugeordnet werden. Weiterhin wird gezeigt, dass bei hohen Leistungen der Effekt der Frequenzverdopplung auftritt. Der experimentelle Teil schließt mit der Vorstellung eines Experiments, bei dem der Versorgungsstrom eine Modulation erfährt und die Oszillationseigenschaften über einen bestimmten Frequenzbereich verschoben werden können.
Zunehmend ersetzen Microservice-dominierte Architekturen monolithische oder starre SOA-Architekturen durch Infrastrukturlandschaften mit kleinen, der kontinuierlichen Anpassung unterworfenen Services eigenverantwortlicher Entwicklerteams. Das betrifft den Einbezug sowohl externer als auch unternehmensinterner Services. Die Arbeit gibt einen Überblick über das veränderte Vorgehen bei der Softwareentwicklung durch z.B. Container-Technologien und zeigt die Auswahl benötigter Werkzeuge, Qualitätssicherungs- und Auslieferungsprozesse auf. An einem konkreten Projektbeispiel wird deren Zusammenspiel nachgewiesen.
Gegenstand der Arbeit ist es, die Prozessstabilität für die Herstellung von nanoskaligen Strukturen durch Laserinterferenztlithographie zu optimieren und die Möglichkeit des Einbringens dieser Strukturen in eine OLED zu untersuchen. Dabei steht die Optimierung der Strukturen im Vordergrund dieser Arbeit. Zur Optimierung der nanoskaligen Strukturen wurde ein Doppelbelichtungsverfahren nach O
Durch einen disruptiven Technologieansatz wird den Heterojunction-Solarzellen zugesprochen, das Wirkungsgradpotential der Photovoltaik deutlich zu vergrößern. Deren Zellkonzept sowie die eingesetzte Dünnschichttechnik bedingen jedoch eine stärkere Empfindlichkeit gegenüber Prozessschwankungen. Zur kontinuierlichen Kontrolle der Einzelprozesse gewinnt daher die Qualitätssicherung zunehmend an Bedeutung. Insbesondere die statistische Prozesskontrolle lässt eine objektive Sicht auf die Prozessstabilität zu, indem sie diese anhand von definierten Kriterien bewertet. In der Mas-terarbeit wird sich deshalb mit der Einführung der statistischen Prozesskontrolle in der Fertigung beschäftigt. Auf der einen Seite ist es notwendig, nach erfolgter Festlegung der Kontrollparameter, deren genaue und präzise Messung zu untersuchen. Andernfalls ist das Auftreten einer Instabilität nur schwer feststellbar. Auf der anderen Seite hat sich die Qualitätsregelkarte als Kernelement der Stabilitätskontrolle herausgestellt. Hierfür werden diese für den jeweiligen Parameter festgelegt und auf Eignung überprüft. Als Ergebnis der Masterarbeit werden zum einen abgeschlossene Vorlaufuntersuchungen dargelegt. Zum anderen ist speziell die Anwendung einer Qualitätsregelkarte für den Wirkungsgrad innerhalb der aktuellen Fertigung verdeutlicht.
Die Arbeit befasst sich mit der Erzeugung von Strukturen im nanoskaligen Bereich, sowie der Integration und Untersuchung fluoreszierender Stoffe in diesen Strukturen. Für die Realisierung dieser Aufgaben werden verschiedene Materialien und Aufbauten verwendet. Für die Erzeugung der Strukturen im nanoskaligen Bereich wird die Laser Interferenz Lithografie genutzt. Innerhalb dieses Verfahrens wird ein Laserstrahl mit einer Wellenlänge von 325 nm mittels eines Raumfilters aufgefächert und leuchtet somit ein Lloyd Interferometer vollständig aus. Das Lloyd Interferometer besteht aus einem Spiegel. 90° zum Spiegel versetzt befindet sich eine Siliziumscheibe, auf die ein lichtempfindliches Substrat aufgetragen wird. Der aufgefächerte Strahl leuchtet den Spiegel, als auch das lichtempfindliche Substrat aus. Über den Wegunterschied, den das am Spiegel reflektierte Licht erfährt, kommt es am lichtempfindlichen Substrat zur Interferenz. Es entsteht ein periodisches Intensitätsmuster, welches vom Substrat aufgezeichnet wird. Im nächsten Schritt wird das aufgezeichnete Periodische Intensitätsmuster auf ein Zweikomponenten Silicone Kautschuk übertragen. Der Kautschuk ist ein Polydimethylsilioxane (PDMS). Das PDMS wird aus zwei Komponenten zusammengerührt und anschließend in eine Form gegossen, in der sich das aufgezeichnete Intensitätsmuster befindet. Hierbei härtet das PDMS aus und die Strukturen werden darauf übertragen. Für die Untersuchung fluoreszierender Stoffe innerhalb der Strukturen im nanoskaligen Bereich standen das Fluoreszein-Natrium, das Eosin Y und das Rhodamin B zur Verfügung. Im Rahmen von Versuchsreihen wurde mit dem Rhodamin B gearbeitet und dann dem PDMS während des Anrührens beigemengt. Somit besitzt das PDMS nach Aushärtung fluoreszierende Eigenschaften. Für die Auswertung der Strukturen wurde ein Spektrometer von Ocean Optics verwendet. Das PDMS wurde positioniert und angeregt. 25° versetzt zum erzeugten Intensitätsmuster wurde der Fiberkopf des Spektrometers ausgerichtet und auszuwertende Spektren aufgenommen. Innerhalb des Intensitätsmusters mit einer strukturierten Periodizität von 290nm werden im Vergleich zur unstrukturierten Fläche des PDMS eine Verschiebung des Spektrums im sichtbaren Bereich des elektromagnetischen Spektrums, sowie eine prozentuelle Änderung der Intensität ersichtlich.
In bereits hergestellten Siliziumdioxid-Schichten wurde nach einiger Zeit eine Veränderung der optischen Funktion in der Schicht festgestellt. Eine solche Veränderung der optischen Funktion wird als Drift in der optischen Schicht bezeichnet und kann im vorliegenden Fall zum einen durch Wassereinlagerung in porösen Schichten und zum anderen durch Wasseranlagerung an der Schichtoberfläche hervorgerufen werden. Eine Wassereinlagerung in der Schicht hätte eine Dichteveränderung in der Schicht zur Folge und eine Wasseranlagerung hätte Einfluss auf die gemessene Oberflächenrauigkeit. Für die Überprüfung dieser zwei Theorien wurden drei verschiedene Schichtdickenverteilungen (100 nm, 50 nm und 20 nm) mittels reaktiven Puls-Magnetron-Sputtern hergestellt und nach der Beschichtung, nach der Wässerung und nach dem Ausheizen mittels XRR gemessen. Es konnte festgestellt werden, dass die Wässerung Auswirkungen auf die Schicht hat und die Veränderung nach der Wässerung bei dickeren Schichten stärker auftritt. Dies ließ vermuten, dass sich bei dickeren Schichten mehr Wasser an der Schichtoberfläche ansammeln könnte. Nachdem die Messungen für die Dichte aufgenommen wurden, konnte gezeigt werden, dass die Wässerung keinen Einfluss auf die Dichte hat und somit eine Wassereinlagerung in eventuellen Poren in der Schicht ausgeschlossen werden kann. Da festgestellt werden konnte, dass die Wässerung auf die Dichte keinen Einfluss hat, scheint die Ursache des optischen Drifts in der Veränderung der gemessenen Oberflächenrauigkeit zu liegen. Die durchgeführten Messungen zur Oberflächenrauigkeit konnten bestätigen, dass mit zunehmender Schichtdicke die Rauigkeit steigt. Durch die höhere Rauigkeit bei 100 nm kann sich nach der Probenwässerung mehr Wasser an der Oberfläche anlagern und führt demzufolge zur stärkeren Veränderung der Oberflächenrauigkeit. Auch bei einer dünneren Schicht tritt dieser Effekt auf, aber die Veränderung der Oberflächenrauigkeit vermindert sich. Somit konnte letztendlich bestätigt werden, dass die nach einiger Zeit auftretende optische Drift nicht durch Wassereinlagerung in der Schicht, sondern durch Wasseranlagerung an der Schichtoberfläche hervorgerufen wird.
Die LUCOM GmbH bietet u.a. einen VPN-Service - den "Digicluster" - an Kunden der Industrie an. Dieser Service ist auf einem firmeneigenen Framework aufgebaut, welches jedoch neben dem Digicluster auch einen IoT Service anbieten soll und dem Nutzer über ein Webinterface zugänglich gemacht wird. Als weiterer Service soll nun die Fernsteuerrungssoftware "Guacamole" in diese Architektur integriert werden. Das Dokument beschreibt, welche Anbindungsmöglichkeiten zur Verfügung stehen und wie solch eine Integration in diesem Spezialfall durchgeführt wurde. Dabei soll Rücksicht auf Aspekte der IT-Sicherheit und Systemperformanz gegeben, sowie ein Test auf einer Multiclient-Umgebung durchgeführt werden.
Die Arbeit bietet einen Überblick über Einflussfaktoren auf Integrationssysteme. Dabei werden verschiedene Dateneigenschaften untersucht. Dazu gehören u.a. Datenschutz & -sicherheit, Verteilung der Daten und Big Data-Eigenschaften. Für die Integration von Messdaten werden verschiedene Ansätze (z.B. ETL, EAI) und Kriterien für unterstützende Methodiken und Tools aufgezeigt. Im Zuge dessen werden auch verwendbare Datenbanktechnologien vorgestellt und kategorisiert. Alle Aspekte werden dabei in Zusammenhang mit der Integration von Messdaten gestellt. Auf Basis der ergründeten theoretischen Grundlagen erfolgt die Konzeption und Umsetzung eines Integrationssystems für einen spezifischen Anwendungsfall.
Die hier vorliegende Arbeit beschäftigt sich mit der Entwicklung einer Abbildung von UML-Verhaltensdiagrammen in ein Metamodell für Anforderungen, mit dem es möglich sein soll, die Qualität von erhobenen Anforderungen zu steigern. Sie ist unterteilt in die theoretischen Grundlagen, einer Analyse von UML-Sequenzdiagrammen, dem daraus folgenden Entwurf eines Interpretationsmodells sowie der Integration in das Metamodell. Zunächst werden die fachlichen Grundlagen erläutert, die für das Verständnis des späteren Interpretationsmodells und der Modellintegration relevant sind. Dies umfasst den Anforderungsbegriff, die UML-Verhaltensdiagramme, das Prinzip der Modelltransformation sowie eine Beschreibung des zugrundeliegenden Metamodells. Der Modellentwurf geht auf das Sequenzdiagramm als Vertreter von Verhaltensdiagrammen ein und beschreibt anhand einer Analyse der Notationselemente das Transformationspotential. Basierend darauf wird ein Interpretationsmodell und die damit verbundenen Transformationsregeln herausgearbeitet. Im Anschluss wird die Integration in das Anforderungsmetamodell beschrieben und die Auswirkungen untersucht. Im nächsten Schritt wird eine prototypische Realisierung anhand eines Beispielszenarios vorgenommen und bewertet. Der Fokus liegt dabei auf der neu konzipierten Interpretationskomponente. Anhand dieser Ergebnisse sollen Annahmen, potentiellen Probleme und Hinweise aus dem Entwurf belegt und dargestellt werden.
Diese Arbeit hat das Ziel, verschiedene Methoden und Techniken zur Anomalieerkennung und Ereigniskorrelation zu untersuchen. Während dieser Arbeit wird die Log-, Monitoring- und Reporting-Software Splunk analysiert. Die Grundlagen der statistischen Methoden und maschinellem Lernen dienen als Basis dieser Untersuchung. Diese Algorithmen ermöglichen die Erkennung von Ausreißern in vorhandenen Datensätzen. Hierfür wurden Anforderungen definiert und die Konzeption für den Einsatz entwickelt. Im Anschluss erfolgt die Vorstellung der Ansätze zur Anomalieerkennung und Ereigniskorrelation basierend auf praktischen Ergebnissen.
Diese Arbeit hat das Ziel, verschiedene Methoden und Techniken zur Anomalieerkennung und Ereigniskorrelation zu untersuchen. Während dieser Arbeit wird die Log-, Monitoring- und Reporting-Software Splunk analysiert. Die Grundlagen der statistischen Methoden und maschinellem Lernen dienen als Basis dieser Untersuchung. Diese Algorithmen ermöglichen die Erkennung von Ausreißern in vorhandenen Datensätzen. Hierfür wurden Anforderungen definiert und die Konzeption für den Einsatz entwickelt. Im Anschluss erfolgt die Vorstellung der Ansätze zur Anomalieerkennung und Ereigniskorrelation basierend auf praktischen Ergebnissen.
Die vorliegende Arbeit befasst sich mit dem Bootvorgang eines eingebetteten Linux-Systems, mit dem Ziel, diesen zu beschleunigen. Der bestehende Bootvorgang wird analysiert und auf Schwachstellen hin untersucht, um daraus Optimierungspotentiale festzustellen und diese schließlich umzusetzen. Dabei müssen verschiedene Komponenten des eingebetteten Systems berücksichtigt werden, die an unterschiedlichen Phasen des Bootvorgangs beteiligt sind. Ein Großteil der Analysen und Optimierungen konzentriert sich auf die Parallelisierung von Prozessen im Init-System und den Einsatz eines neuen Komprimierverfahrens. Es wird ein Konzept aufgestellt und implementiert, das den parallelen Start von Diensten ermöglicht, die Abhängigkeiten untereinander besitzen. Für die Komprimierung des Linux-Kernels und des squashfs-Dateisystems wird der Brotli-Algorithmus in den Linux-Kernel aufgenommen, der eine schnelle Dekomprimierung mit hoher Kompressionsrate aufweist.
Im Jahr 1986 wurde der erste 3D-Drucker patentiert. Die Technik des 3D-Drucks realisierte der Industrie völlig neue Möglichkeiten, Bauteile herzustellen. Mit den zuvor bekannten Herstel-lungsmethoden konnten diese entweder gar nicht oder lediglich mit großem Aufwand und hohen Kosten hergestellt werden. Im Laufe der Zeit entwickelte sich die Technik des 3D-Drucks immer weiter. Diese Weiterentwicklungen beziehen sich hauptsächlich auf zwei Bereiche: zum einen auf die Erweiterung der verwendbaren Materialien, zum anderen in Bezug auf den ei-gentlichen Bauprozess. Hierbei wurde sich auf die Baugeschwindigkeit, Baufläche sowie Auf-lösung der Bauteile konzentriert. Das Alleinstellungsmerkmal der Firma 3D MicroPrint GmbH liegt im Bereich der Auflösung. Damit ist gemeint, dass immer kleinere und feinere Strukturen hergestellt werden sollen. In dieser Arbeit wird einerseits das Grundmaterial, metallisches Pulver, untersucht. Diese Untersuchung bezieht sich auf vier verschiedene metallische Pulver: Titanbasis, Eisenbasis, Molybdänbasis sowie Wolframbasis. Bei der Untersuchung dieser Pulver soll der Zusammenhang zwischen den rheologischen und den beschichtungsrelevanten Eigenschaften gefunden werden. Andererseits werden aus den gegebenen Pulvern Testkörper hergestellt und deren Eigenschaften analysiert. Die Ergebnisse beider Untersuchungen werden letztendlich verknüpft, um deren Auswirkung auf den 3D-Druckprozess aufzuzeigen. In
Die Echtzeit-Lokalisierung von Objekten innerhalb und außerhalb von Gebäuden mit einer Genauigkeit im Dezimeter-Bereich wird bereits nutzbringend in zahlreichen Anwendungsfällen eingesetzt. Die Verarbeitung der anfallenden Daten geschieht meist in proprietären Systemen, die speziell für eine Art von Anwendungsfällen konzipiert sind. Dabei ist erkennbar, dass eine Reihe von Ähnlichkeiten in den benötigten Funktionalitäten bestehen. Für diese Teilmenge wird ein generisches Konzept vorgestellt, dass Anwendungsfall-übergreifend Verwendung finden kann und jeweils durch Parametrierung konkretisiert wird. Die besondere Herausforderung besteht darin, die zusätzlichen System-Anforderungen in eine Software-Architektur zu integrieren. Diese reichen von Ende-zu-Ende-Latenzen im niedrigen Millisekunden-Bereich bis hin zur Verarbeitung von Zehntausenden Daten pro Sekunde in einem System, dass horizontal skalierbar sein soll. Die möglichen Lösungsansätze der einzelnen Anforderungen widerstreben sich dabei teilweise gegenseitig. Die vorliegende Arbeit beschreibt eine mögliche System-Architektur. Mit einem Prototyp wird außerdem die horizontale Skalierbarkeit untersucht.
In der folgenden Abhandlung geht es im wesentlichen um die Evaluation des Intenta S-2000 3D-Vision Sensor. Dieser Smart-Sensor basiert auf einem Stereokamera-Sensorsystem und erlaubt die Erfassung der dreidimensionalen Umgebung und die Erkennung von Objekten und Personen, sowie Ereignissen in dieser. Hierfür berechnet er sich aus den beiden Stereobildern eine 3D-Punktwolke, welche die Umgebung abbildet. Anhand dieser Daten können dann, je nach Anwendungsfall und Konfiguration der Software des Sensors, verschiedene Detektionsaufgaben ausgeführt werden. Angefangen bei einfachem Tracking, also Personen- bzw. Objektverfolgung, über Personenzählung, bis hin zu Verhaltensanalyse reichen die Anwendungsmöglichkeiten. Jedoch erzeugen solche komplexe Anwendungsmöglichkeiten auch Probleme bei der Evaluierung. Die bisher verwendete Tool-Kette ist den vielfältigen Möglichkeiten und auch der großen Testdatenmenge aus vielerlei Gründen nicht mehr gewachsen. Die Evaluation soll in Zukunft automatisch anhand vorgegebener Referenzdaten und abhängig vom Anwendungsfall erfolgen. Als Ergebnis dessen sollen qualitative Einschätzungen der verschiedenen Trackerrevisionen anhand ausgewählter und aussagekräftiger Metriken erzeugt werden, um etwaige Probleme nach Revisionsänderungen bzw. Konfigurationsänderungen zu erkennen. Auch die Qualität der Tracking-Algorithmen über den Entwicklungsverlauf soll darüber vergleichbar gemacht werden und dementsprechend die Wirksamkeit der Änderungen nachweisbar zu machen.
Mit Hilfe verschiedener Modellierungssprachen können Domänen oder Ausschnitte einer Domnäne als konzeptionelle Modelle beschrieben werden. Jedes Metamodell einer Modellierungssprache (und damit auch die Sprache selbst) zeigt ähnliche, aber im Detail trotzdem verschiedene Sichten auf die beschriebene Domäne. Gerade in industriellen Projekten ist es üblich, dass das selbe Konzept in verschiedenen Teilprojekten in unterschiedlichen Sprachen modelliert wird. Soll ein Modell in andere oder alle beteiligte Metamodelle überführt werden, z.B. um es zwischen Teilprojekten auszutauschen, müssen Model-to-Model-Transformationen definiert werden. Umso mehr Modellierungssprachen und Metamodelle beteiligt sind, desto mehr Transformationsbeschreibungen werden benötigt und mit jeder neuen Sprache steigt der Aufwand, entsprechende Transformationen zu beschreiben, enorm. Wird für die Transformationen jedoch ein zentrales Zwischenmetamodell genutzt, reduziert sich die Anzahl benötigter Transformationsbeschreibungen, da jede einzelne Transformation von der konkreten Kombination von Metamodellen entkoppelt wird. Pro Modellierungssprache sind dann nur die Transformationen zwischen der neuen und der Zwischensprache zu definieren. Die vorliegende Arbeit beschäftigt sich mit dieser Vorgehensweise und entwickelt ein erweiterbares System, das diesen Ansatz umsetzt.
In dieser vorliegenden Masterarbeit wird erläutert, wie eine oder mehrere Fremddatenbanken an ein bestehendes Business Intelligence System angebunden werden können. Ebenfalls soll diese Arbeit darüber Aufschluss geben, wie die Daten aus den Fremdsystemen extrahiert, transformiert und geladen werden müssen, um anschließend für das System verwendbar zu werden. Um die beste Lösung für die Vereinigung der Daten zu ermitteln, werden verschiedene Methoden gegenübergestellt und nach einem firmeninternen Bewertungssystem benotet. Anhand des Bewertungsystems soll verdeutlicht werden, welche der einzelnen Lösungsmöglichkeiten mit den Daten und den auftretenden Problemen, z.B. Duplikate der Daten, bei der Übertragung in das eigene System am besten anwendbar ist bzw. wie solche Probleme vermieden werden können. Dies wird zusätzlich am direkten Beispiel der Materialstamm-Integration veranschaulicht. Schlussendlich soll ein effektiver Weg für die Integration von Fremddatenbanken in ein bestehendes SAP BI-System gefunden und modelliert werden.
Die Berücksichtigung mehrerer Personen ist in aktuell verfügbaren Smart Home Systemen ein wenig beachtetes Themengebiet. Diese Arbeit stellt die gegenwärtige Situation der Personenberücksichtigung vor. Wissenschaftliche Ansätze zur Repräsentation und Erkennung von Personen werden vorgestellt und deren Übertragbarkeit auf das vorliegende Umfeld geprüft. Aufgrund fehlender Eignung existierender Ansätze wird ein Modell zur sensorbasierten Personenerkennung erarbeitet und vorgestellt. Für dieses Modell wird ein prototypisches Personensystem entwickelt, welches die Bedeutung der Personenerkennung und Personenberücksichtigung verdeutlicht. Anhand eines Szenarios wird die intelligente Steuerung einer Wohnung beschrieben, welche ohne das System zur Personenerkennung und -verwaltung nicht möglich wäre.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer Smart Home Steuereinheit. Dabei werden verschiedene Lösungsansätze analysiert und im Hinblick auf die Einbettung von Multi-Person Konzepten beurteilt. Unter den Multi-Person Konzepten ist im Wesentlichen die Erkennung und Berücksichtigung von Bewohnern eines Hauses zu verstehen. Die Umsetzung dieser Multi-Person Erkennung und Verwaltung ist jedoch Bestandteil einer weiteren Masterarbeit. In Kombination bilden beide Teilprojekte eine Multi-Person Smart Home Steuereinheit. Als Grundlage dient die Smart Home Software Z-Way, welche in Verbindung mit dem Smart Home Framework Eclipse SmartHome die Laufzeitumgebung für die Multi-Person Konzepte bildet. Die Integration beider Systeme ist die wesentliche Herausforderung dieser Ausarbeitung, einschließlich der Auseinandersetzung mit verschiedenen Kommunikationsmodellen und der Verknüpfung der unterschiedlichen Datenmodelle. Neben einer abgeschlossenen Entwicklung zur Integration von Z-Way in Eclipse SmartHome, zählt die Abbildung von Anwendungsszenarien zu sogenannten Z-Way Apps zu den wichtigsten Ergebnissen.
Einleitung: Zur Weiterentwicklung von Pflegeeinrichtungen ist ein Vergleich zu empfehlen. Kommunale Unternehmen sind aufgrund spezieller Anforderungen lediglich eingeschränkt mit nicht kommunalen Unternehmen vergleichbar. Aus diesem Grund wurde ein Benchmarking zwischen neun Mitgliedern des VKSB durchgeführt. Das ermöglicht auch eine Verbesserung des Wissens gegenüber den Pflegekassen zur Optimierung der Verhandlungsergebnisse. Theoretischer Hintergrund: Die vorliegende Arbeit basiert auf einem Benchmarking. Ein Benchmarking ist ein Vergleich, um Leistungslücken zu identifizieren und diese auf der Grundlage der Ergebnisse zu schließen. Das basiert auf gegenseitigem Lernen. Methodik: Es wurden die Unterlagen der Pflegesatzverhandlung und zusätzliche Kennzahlen mittels eines Erhebungsbogens zur Auswertung erhoben. Aus den erhobenen Kennzahlen wurde mit Hilfe einer Expertengruppe eine Auswahl vorgenommen. Zusätzlich wurden zweigeteilte Experteninterviews geführt. Der qualitative Teilbereich I umfasste Fragen zu vorangegangenen und zukünftigen Pflegesatzverhandlungen. Die Auswertung erfolgte nach Mayring. Der Teilbereich II diente dem detaillierten Verständnis der Kennzahlenauswertung. Ergebnisse: Zusammenfassend zeigte die Kennzahlenauswertung geringe Kürzungen der Pflegekassen bei den Personalaufwendungen. Häufige Kürzungen nahmen die Pflegekassen bei den Aufwendungen für Lebensmittel und Wasser, Energie, Brennstoffe sowie bei den Fremd-/Trägerleistungen vor. Besonders herauszuheben ist die Bedeutung personalrelevanter Themen für die Träger. Das begründet die Struktur von Pflegeeinrichtungen mit Personalaufwendungen zwischen ca. 70 % und 80 %. Problematisch ist in diesem Zusammenhang der Fachkräftemangel. Diskussion: Um Probleme bei der Besetzung der Pflegestellen zukünftig zu vermeiden, sind Gehaltserhöhungen und weitere Attraktivitätssteigerungen notwendig. Durch das Pflegesystem wirkt sich das direkt auf die Pflegekunden aus. Vor diesem Hintergrund ist ein Umdenken von politischer Seite notwendig.
Neurologische Krankheitsbilder zählen zu den häufigsten Erkrankungen in Deutschland. Aufgrund der Alterung der Gesellschaft werden diese künftig einen zentralen Stellenwert in der ärztlichen Versorgung der Bevölkerung einnehmen. Einen zukunftsweisenden Lösungsansatz kann das sektorenübergreifende Versorgungsmodell "MoVo" (Modellvorhaben: Langfristige Sicherung von Mobilität und Versorgung in ländlichen Räumen) bieten, bei dem Case-Manager in einer Modellregion unter Zuhilfenahme von telemedizinischen Informationssystemen eine wichtige Schlüsselfunktion in der neurologischen Versorgung einnehmen sollen. Die vorliegende Arbeit fokussiert sich auf die Entwicklung von Handlungsempfehlungen für die Konzeption des sektorenübergreifenden Versorgungsmodells "MoVo" mit dem Schwerpunkt Schnittstellenmanagement zwischen dem ambulanten und stationären Sektor. Hierfür wurden mit Patienten und Akteuren aus dem neurologischen Bereich Interviews geführt, um bestehende Schnittstellenprobleme zu analysieren, Wünsche und Anforderungen an eine ideale Versorgung zu ermitteln, um darauf aufbauend die Handlungsempfehlungen zu entwickeln. Die Ergebnisse zeigen, dass die Hauptschnittstellenprobleme der Modellregion in den Bereichen Kommunikation, Kooperation und Organisation liegen. Weiterhin wurden Defizite bei der Aufklärung und Information des Patienten angesprochen. Um diese künftig zu reduzieren, soll qualifiziertes nichtärztliches Personal als Case-Manager eingesetzt werden. Diese fungieren als feste Ansprechpartner für Ärzte und Patienten in beiden Sektoren. Sie stehen bei Rückfragen zur Verfügung, stellen den Kontakt zum benötigten Leistungserbringer her bzw. leiten relevante Informationen weiter, um so die Kommunikation zu optimieren. Im Bedarfsfall beraten und begleiten sie den Patienten und gegebenenfalls dessen Angehörige entlang des Behandlungspfades bzw. im häuslichen Umfeld. Zudem sollen auf Versorger-Ebene transsektorale Telekonsile sowie ein einheitliches Datenmanagement etabliert werden, um die Kooperation und Vernetzung zu fördern. Auf Patientenebene empfiehlt es sich, Videosprechstunden und Online-Terminbuchungen anzubieten. Zusätzlich ist es notwendig, die Vernetzung der Akteure in der Modellregion zu fördern und eine Datenbank mit allen beteiligten Akteuren und Dienstleistern der neurologischen Versorgung aufzubauen.
Die Teleradiologie ist die momentan führende Disziplin in der Telemedizin. Der Bedarf an innovativen Versorgungskonzepten wird sich aufgrund der sinkenden Facharztzahlen und dem steigenden Kostendruck im Gesundheitswesen immer weiter erhöhen. Dabei spielt die Telemedizin eine zentrale Rolle. Sie ermöglicht mit Hilfe von Informations- und Kommunikationssystemen eine effiziente Patientenversorgung. Die Teleradiologie bietet einen Lösungsansatz, trotz begrenzter personeller Ressourcen eine schnelle und dennoch qualitativ hochwertig, bildgebende Diagnostik zu realisieren.
Ziel: Mit den zunehmenden Herausforderungen in der Gesundheitsversorgung werden Startups, als innovative Gründungsform immer entscheidender für die Zukunftsfähigkeit Deutschlands (StartupValley, 2017). Das Ziel der Untersuchung ist es, durch eine Typisierung der Startup Gründer im Gesundheitsmarkt, eine Einordnung der derzeitigen Gründer hinsichtlich ihrer Gründungsmotivation und der strategischen Ausrichtung ihres Startups zu geben. Die Erkenntnisse können zukünftig dazu genutzt werden, um geeignete Unterstützungsmaßnahmen abzuleiten, die den Gründungsprozess erleichtern und mehr Menschen zur Gründung eines Startups im Gesundheitsmarkt bewegen. Methode: Die Forschungsfragen lauteten: Was bewegt Personen zur Gründung eines Startups im Gesundheitsmarkt in Deutschland? Und: Welche Faktoren spielen bei der Geschäftsausrichtung des Startups eine Rolle? Und: Welche exogenen Faktoren beeinflussen die Ausgestaltung des Startups? Zur Beantwortung der Forschungsfragen wurden neun Experteninterviews mit Startup Gründern geführt. Die Daten wurden im Zeitraum von Juni bis September 2017 mit einem leitfadengestützten Interview erhoben. Die anhand der Transkriptionsregeln von Kuckartz et al. (2008) transkribierten Interviews wurden mit Hilfe der typisierenden Inhaltsanalyse nach Mayring (2015) in der Analysesoftware MAXQDA ausgewertet. Ergebnisse: Es konnten acht Gründertypen identifiziert werden, wobei alle Gründer einen akademischen Hintergrund aufwiesen und die Gründung zur Erreichung persönlicher Mehrwerte nutzten. Dabei entstand die Gründungsmotivation sowohl durch intrinsisch gewachsene Motive, als auch aufgrund günstiger Rahmenbedingungen. Die Gestaltung des Startups richtet sich vor allem anhand der Bedürfnisse der Kunden aus und hebt den Marktvorteil gegenüber der Konkurrenz hervor. Unterschiede zwischen den Gründern zeigten sich vor allem bei der Wahl der Unterstützungsformen und der Bedeutung von Charaktereigenschaften für die Startup Gründung. Im Hinblick auf mögliche Einflussfaktoren wurden die hohen Eintrittsbarrieren und die Offenheit des Marktes positiv hervorgehoben, während die Akquise von Mitarbeitern und das Fehlen von finanzieller Unterstützung kritisiert wurden. Schlussfolgerung: Die Verbesserung der Unterstützung und Gewinnung potenzieller Gründer erscheint durch die Berücksichtigung bestehender Potenziale und Hemmnisse möglich.
Ziel der Arbeit war es, die Möglichkeiten und Grenzen der Mitgliedschaft in Seniorengenossenschaften im Hinblick auf die primärpräventiven Schutzfaktoren für Alterssuizidalität darzustellen. In Form von halb-standardisierten Interviews wurden fünf Mitglieder einer Seniorengenossenschaft befragt. Als Erhebungsinstrument wurde ein Interviewleitfaden mit offenen Fragen eingesetzt. Die Ergebnisse zeigen, dass die Mitgliedschaft in einer Seniorengenossenschaft einen positiven Einfluss auf die primärpräventiven Schutzfaktoren für Alterssuizidalität hat. Die psychische Gesundheit wird gestärkt und ein nichtfamiliales Netzwerk wird aufgebaut. Die Gesundheitspolitik sollte Seniorengenossenschaften als Instrument für die Primärprävention für Alterssuizidalität erkennen, fördern und entsprechend in der Suizidpräventionsstrategie berücksichtigen.
Jahrhundertelange Tradition, geformt und entwickelt, ständigem Wandel unterworfen und doch immer lebendig und ausdrucksstark. Teppich ein Textil, welches schon die frühen Nomaden begleitete und so vielfältig gebraucht wurde. Ständig mit Füßen getreten und häufig doch mehr wertgeschätzt, als es den Anschein hat. Ein Jahr Zeit um es einem Thema zu widmen, welches sich umfangreich präsentiert. Diese Arbeit möchte die Ursprünge erkunden und in das Hier und Jetzt holen. Da der Orientteppich aufgrund seiner weitverzweigten Geschichte, allein schon Seiten füllen kann, soll dies nur ein kurzer Einblick in diese Thematik sein. Um dem großen Facettenreichtum des Teppich gerecht zu werden, kommen für die Erstellung von Prototypen drei verschiedenen Techniken zum Einsatz. So wird nachfolgend auch auf das Tuften im industriellen und handwerklichen Sinne näher eingegangen, sowie das Rutenweben näher beleuchtet. Mit dieser Arbeit wird der Versuch unternommen, dem Teppich ein Stück Modernität zurückzugeben, indem er durch seine vielfältigen Erscheinungen besticht.