Refine
Year of publication
- 2015 (636) (remove)
Document Type
- Diploma Thesis (293)
- Bachelor Thesis (229)
- Master's Thesis (113)
- Article (1)
Institute
- Maschinenbau und Kraftfahrzeugtechnik (bis 2018) (241)
- Gesundheits- und Pflegewissenschaften (102)
- Physikalische Technik, Informatik (93)
- Architektur (53)
- Elektrotechnik (42)
- Wirtschaftswissenschaften (41)
- Sprachen (35)
- Angewandte Kunst (28)
Is part of the Bibliography
- no (636) (remove)
Während eines Betriebsrundgangs mit dem Werkleiter zur Beurteilung der Ergonomie an Arbeitsplätzen verweilte dieser on einer lärmintensiven Anlage, zog sein Smartphone aus der Jackettasche und hielt es in Richtung der Maschine, um deren Schallpegel zu messen. Augenblicke später recherchierte er über die Suchfunktion des Gerätes nach zulässigen Grenzwerten. Am Ende des Rundgangs entspann sich eine Diskussion über die Aussagefähigkeit und Zuverlässigkeit Smartphone-gestützter Messungen von Arbeitsumweltfaktoren. Eine Studie am Institut für Produktionstechnik der Westsächsischen Hochschule Zwickau sollte klaren, ob es überhaupt noch des Einsatzes spezifischer Messtechnik bedarf. Das Ergebnis der Studie zeigt deutlich, dass sowohl die eingesetzte Hardware aktueller Smartphones und Tablets als auch die zur Verfügung stehen Programme bislang nicht den Ansprüchen einer Messung aus arbeitswissenschaftlicher Sicht entsprechen. Angesichts der Begeisterung vieler Gerätebesitzer in Kombination mit der Unkenntnis tatsächlicher Fähigkeiten solcher Apps ist es dringend notwendig, Aufklärungsarbeit zu leisten. Unabhängig von diesen Analyseergebnissen sollte die Chance betrachtet werden, dass durch zertifizierte messtechnische Erweiterungen von Smartphones eine engmaschigere und einfachere Überprüfung ergonomischer Arbeitsbedingungen möglich ist. Da es sich bei Smartphones vordergründig um Geräte zur Aufbereitung von Informationen handelt, verweist die Studie auf die Kopplung geeigneter Messsonden mit einem Smartphone. In dieser Kombination könnten Messsysteme zur Arbeitssystembeurteilung mit integrierter Anleitung entstehen, welche es vor allem ermöglichen, nicht nur korrekt zu messen, sondern die Ergebnisse auch richtig zu interpretieren und einzuordnen.
In der Praxis stellt die Ermittlung von Unternehmenswerten eine große Herausforderung dar, da sie gemäß der herrschenden funktionalen Bewertungslehre neben dem Subjekt und seiner individuellen Situation den konkreten Bewertungsanlass und die daraus abzuleitenden Bewertungszwecke berücksichtigen muss. Letztere manifestieren sich in der Anwendung unterschiedlicher Funktionen, den Haupt- und Nebenfunktionen, der Bewertungstheorie. Einen besonderen Bewertungsanlass stellt die Unternehmensnachfolge vor dem Hintergrund des Generationswechsels in familiengeführten Firmen dar. Dabei existiert ein breites Spektrum an Möglichkeiten, die Übertragung des Unternehmens an den oder die Nachfolger zu gestalten. Entsprechend dieser Pluralität an Formen ergibt sich eine vielfältige Bedeutung des Unternehmenswertes und dessen Ermittlung. Demnach können durch eine Nachfolge bedingte Bewertungen zahlreiche Zwecke verfolgen und verschiedene Funktionen tangieren. Aus diesem Grunde besteht das Ziel der vorliegenden Bachelorarbeit darin, die Bedeutung der Funktionen der Unternehmensbewertung für die Unternehmensnachfolge als Bewertungsanlass zu eruieren. Dabei sollen die einzelnen Formen der Nachfolge differenziert auf betroffene Bewertungsfunktionen hin untersucht werden. Die Betrachtungen sollen im Sinne der funktionalen Bewertung erfolgen und den Anspruch erfüllen, dass jede Unternehmensbewertung eine Anlass- und Zweckanalyse voraussetzt.
Die vorliegende Bachelor Thesis untersucht das Thema der Arbeitsmarktintegration ausländischer Absolvent/-innen deutscher Hochschulen. Dabei werden zum einen wesentliche Ergebnisse bisheriger Studien zusammengefasst und zum anderen realisierte Handlungsinitiativen zur Bindung und Arbeitsmarktintegration ausländischer Studierender und Absolvent/-innen betrachtet. Ziel des Überblicks bisher gewonnener Informationen ist es schließlich, einzuschätzen, ob diese Handlungsinitiativen bereits genügend Impulse geben können, um diese jungen Talente in Deutschland zu halten.
Im Rahmen dieser Arbeit wird die betriebliche Laufbahn- und Karriereplanung für die Mitarbeitergeneration Y als Maßnahme des Employer Brandings in kleinen und mittleren Unternehmen näher betrachtet. Das Ziel ist es, Karrieremodelle zu bestimmen, die als Anreize des Employer Brandings für kleine und mittlere Unternehmen (KMU) geeignet sind, sodass das KMU von der deutschen als auch der chinesischen Generation Y als attraktiver Arbeitgeber wahrgenommen wird und folglich eine längerfristige Mitarbeiterbindung garantieren kann. Hierfür werden die Erwartungen der deutschen Generation Y an die berufliche Karriere mit den Erwartungen der chinesischen Generation Y verglichen. Im Gegensatz zur deutschen Generation Y sind die Erwartungshaltungen und Arbeitgeberpräferenzen der chinesischen Generation Y bislang kaum in wissenschaftlichen Studien untersucht worden - dies unterstreicht die Forschungsrelevanz des Themas. Unter Zuhilfenahme von empirischen Studien werden die Erwartungen der deutschen und der chinesischen Generation Y an den potentiellen Arbeitgeber ausgewertet sowie abgeglichen. Die Ergebnisse der Auswertung ermöglichen die Herleitung von Handlungsempfehlungen für die strategische Personalentwicklung im KMU, i.e.S. für die Gestaltung von Karrieremodellen als Instrument der Personalentwicklung sowie für eine erfolgreiche Integration der betrieblichen Karriereplanung in das Konzept des Employer Brandings.
In Zeiten wirtschaftlicher Disparitäten innerhalb den Grenzen Europas gewinnt die transnationale Personalmobilität enorm an Bedeutung. Dies bedeutet, dass Personen, in diesem Fall Arbeitnehmer, ihr Herkunftsland verlassen, um in einem anderen europäischen Land eine Tätigkeit aufzunehmen. In diesem Zusammenhang wurden zahlreiche Projekte gegründet. welche sich die Vermittlung und Integration internationaler Fachkäfte zum Ziel gesetzt haben. Diese Bachelorarbeit thematisiert eben diese Projekte, begrenzt sich dabei aber auf die transnationale Personalmobilität zwischen Deutschland und Spanien. Dabei stellt Spanien das Herkunftsland und Deutschland das Aufnahmeland dar. Beide Länder werden als Rahmenbedingungen kurz vorgestellt, wobei das Augenmerk auf der jeweiligen Arbeitsmarktsituation liegt. Außerdem werden nur Projekte betrachtet, die in Spanien vorqualifizierte Fachkräfte vermitteln, welche in Deutschland direkt in den Arbeitsmarkt einsteigen könnten. Welche Erfahrungen mit dieser Thematik gemacht wurden, soll insbesondere das beispielhaft herangezogene Projekt Spanische Fachkräfte - Leben und Arbeiten in Schwaben aufzeigen. Zu diesem Zweck wurde ein Interview mit Herrn Axel Sir von der IHK Schwaben geführt und somit Eindrücke einer für das Projekt verantwortlichen Person gesammelt. Ausgewählte Passagen wurden dabei transkibiert und in Hinblick auf die Türöffnerproblematik analysiert. Im Fazit soll dann anhand der Zusammenfassung zentraler Ergebnisse eine Antwort auf die Frage gefunden werden, ob Mobilitätsprojekte einen Türöffner für junge spanische Fachkräfte zum deutschen Arbeitsmarkt darstellen können.
In dieser Arbeit wird die Übersetzungsstrategie bei der politischen Rede aus dem Blickwickel der funktionaler Übersetzungstheorie analysiert. Als Beispiele hat die Verfasserin vier verschiedenen Redestexten von der Bundeskanzlerin Angela Merkel aus Deutsch ins Chinesisch übersetzt und analysiert. Die funktionalistische Übersetzungstheorie geht in die 1970er Jahren auf die deutschen Translationswissenschaftler Katharina Reiß, Hans Vermeer, Justa Holz-Mänttari und Christiane Nord zurück. Die Entstehung und Entwicklung des deutschen Funktionalismus ist insgesamt in vier Stufen untergliedert, die jeweils von vier bekannten Gelehrten vertreten werden können, welche eine neue Perspektive für die Forschung der Übersetzung gelegt haben und die Lücke zwischen Übersetzungstheorie und Übersetzungspraxis verengt haben. Bedeutend für die erste Stufe ist Katharina Reiß, die als Begründerin des deutschen Funktionalismus angesehen wird und die Theorie der Übersetzungskritik sowie die Theorie der Texttypologie aufgestellt hat. In der zweiten Stufe folgt Hans J Vermeer. Um die Lücke zwischen der Übersetzungstheorie und der Übersetzungspraxis zu überbrücken, stellte er zum ersten Mal in seiner "Grundlegung einer allgemeinen Translationstheorie" die Skopostheorie auf, die später als wichtigste Theorie des Funktionalismus betrachtet wird. Die Skopostheorie trägt dazu bei, dass Übersetzer bei der Translation den Fokus nicht mehr nur auf dem Ausgangstext legen. Im Gegenteil betont er, dass auf die Funktion des Zieltextes mehr Gewicht gelegt werden muss. Als drittwichtigste Vertreterin des deutschen Funktionalismus schlug Justa Holtz-Mänttäri das Konzept der "translationalen Handlung" im Jahr 1981 vor. Danach wurde Übersetzung als ein Zusammenwirken von interkultureller und interlingualer Handlung betrachtet. Darauf hat Christiane Nord in der vierten Stufe auf einer Seite zum ersten Mal eine gesamte und systematische Erfassung und Zusammenfassung verschiedener funktionalistischen Theorien auf Englisch durchgeführt. Auf der anderen Seite stellte sie auch das Funktion-Plus-Treue-Prinzip als Ergänzung zum deutschen Funktionalismus auf. Darüber hinaus verlangte sie, dass in einer translatorischen Handlung der Übersetzer versuchen soll, für alle in der Übersetzung engagierte Teilnehmer verantwortlich zu sein und alle Beziehungen zu koordinieren. Auf dem theoritischen Grundlage von der funktionalen Theorie werden zuerst die übersetzungsrelevante Analyse durchgeführt, die in der textexternen Faktoren wie Situativer Hintergrund, Kontext, Adressat, Kultur, Funktion- und Skopos, sowie der textinternen Faktoren wie Textthematik, Textinhalt, Lexik, Syntax, Textlinguistik eingeliedert wird.Durch die Analysieren sind bessere Verständnisse und Übersetzungen gegenüber der Ausgangstexten möglich. Auf diesem Basis werden die Mikrostrategien bei verschiedenen Übersetzungsfällen jeweils auf der semantischer Ebene und auf der syntaktischer Ebene aufgestellt, wie z.B. Wortartenwechseln, Wortbedeutungsveränderung, Weglassen mancher Wörtern, Synonymische und antonymische Übersetzung, Wechseln der positiven und negativen Bedeutung, Wechseln des Aktivs und Passivs, Umschreibung des Konjunktivs, Anpassung und Änderung der Satzfolge, Abbauen und Re-aufbauen der komplexen Sätzen, Entmetaphorisierung und Metaphorisierung usw.. Nach dem Funktionalismus soll ein Übersetzer sowohl für die Sender als auch für die Empfänger verantwortlich sein. Bei der Übersetzung der politischen Redetexte soll man insbesondere die Absichten des Redners bzw. der Rednerin, der Redensform, der stilistischen Merkmale der Ausgangssprache, die Ausdrucksgewohnheiten der Zielsprache sowie die Wirkung der Zielsprache auf die Empfänger beachten.
In der Arbeit wurde eine Kritische Diskursanalyse von Kommentaren auf der Facebook-Seite von Pegida durchgeführt. Die Methode der Kritischen Diskursanalyse, die in der Arbeit Anwendung fand, basiert auf der Methodik von Siegfried Jäger. Durch die Analyse sollte ermittelt werden, wie sich Facebook-Nutzer auf der Seite der Pegida in Kommentaren äußern. Dazu wurden Aussagen getrennt nach Themen auf ihre Inhalte und Besonderheiten untersucht. Anschließend wurden die Aussagen durch die Untersuchung verwendeter sprachlicher Mitte feinanalysiert. Zum Schluss wurden die Ergebnisse in einem Fazit zusammengefasst und kritisch bewertet.
Im Sinne der Textverarbeitung beschreiben Walter Kintsch und Teun van Dijk das Situationsmodell als eine mentale Repräsentation der Situation, welche im Text beschrieben wird. Dieses Modell besagt, dass Informationen eines Textes vom Rezipienten so lange in ein Situationsmodell eingefügt werden, bis diese inkohärent sind. Eine Inkohärenz entsteht durch Erzählereigniswechsel, auch narrative Shifts genannt. Diese Erzähleireigniswechsel sind für hörende Personen als Personenwechsel, Zeitwechsel, Ortswechsel, Emotionswechsel und Handlungswechsel definiert. Aufgrund bisheriger Studien mit hörenden Probanden wird von der Annahme ausgegangen, dass das Situationsmodell ein allgemeingültiges Modell ist, welches sowohl modalitätsunabhänig (Sehen, Lesen, Hören) als auch sprachunabhängig (Deutsch, Finnisch, Spanisch) angewandt wird. Die Gebärdensprachen stellen jedoch insofern eine Besonderheit dar, als dass sie sich sowohl einer anderen Modalität bedienen als auch eigenständige Sprachen sind. Diese Studie befasst sich daher mit der Frage, ob die Verarbeitung von Texten bei gehörlosen Gebärdensprachnutzern anhand des Situationsmodells, wie es für hörende Lautsprachnutzer definiert ist, verläuft oder nicht. Hierfür werden deutschen gehörlosen Gebärdensprachnutzern sprachfreie Filme gezeigt, da auch diese im Sinne der Sprachverarbeitung als Texte angesehen werden, und ihre Reaktionen mit bereits vorliegenden Reaktionen deutscher hörender Probanden verglichen. Die Ergebnisse dieser Studie zeigen, dass das Situationsmodell zwar auch bei Gebärdensprachnutzern Anwendung findet, jedoch um einen Erzählereigniswechsel erweitert werden muss. Desweiteren unterscheidet sich die Priorität, mit der Erzählereigniswechsel von gehörlosen Personen wahrgenommen werden, grundlegend von der Priorität hörender Personen.
Die vorliegende Arbeit beschäftigt sich intensiv den Einfluss des Legierungselementes Chrom und der Wärmebehandlung auf die Eigenschaften von Mn-Ga Magnetmaterialien, speziell der Legierung Mn2.48Cr0.12Ga. Die magnetischen Messungen wurden durch Struktur und Gefügeuntersuchungen ergänzt. Die Herstellung der Proben erfolgte in einem Lichtbogenschmelzofen. Die entstandenen polykristallinen Proben wurden für 14 Tage in einem Labormuffelofen getempert. Für die Versuche zur Optimierung magnetischer Eigenschaften wurden verschiedene Temperaturen gewählt. Strukturuntersuchungen mittels Pulver-XRD zeigten kaum Unterschiede, was der schwierigen Präparation von Pulvern geschuldet ist. Die in der Arbeit erprobte XRD an dünnen, geschliffenen und polierten Plättchen ergab drastisch verbesserte Röntgenbeugungs-Diagramme.
Diese Bachelorarbeit behandelt das Thema Vergleich statischer Website Generatoren. Am Beispiel von Hugo, Octopress und Ghost wird beschreiben wie eine statische Webseite erzeugt und verwaltet werden kann. Vor dem Hintergrund, das bekannte CMS wie Wordpress viel zu komplex für kleine Seiten sind, wurde nach Lösungwegen gesucht Webseiten auch ohne CMS zu erstellen. Ziel war es eine Empfehlung für geben, Vor- und Nachteile deutlich zu machen.
Im Modul "Spezifikations- und Verifikationsmethoden" wird im Rahmen der Praktika ein System spezifiziert. Tools zum Abbilden, Erstellen und Management kommen nicht zum Einsatz. Aufgabe der Arbeit ist es, die Durchführung effizienter zu gestalten. D.h., dass durch den gezielten Tooleinsatz das Arbeiten unterstützt wird und die Studenten dazu angehalten werden, Requirements richtig zu erfassen und zu verwalten. Im Rahmen der Praktika werden verschiedene Diagrammtypen der UML verwendet sowie atomare textliche Anforderungen definiert und mehrmals überarbeitet. Die Erfassung, Verwaltung und die Überarbeitung der Anforderungen erfolgt aktuell formlos. Mit fortschreitenden Praktika werden verschiedene Reviewtechniken angewendet, wodurch ebenfalls teilweise Formalien eingeführt werden und Techniken aus dem Bereich des RE vermittelt werden. Den Studierenden soll, unter Berücksichtigung der durch das Studium vorgegebenen Randbedingungen, erlebbar ein Eindruck der Tätigkeiten im Rahmen des RE vermittelt werden. Außerdem sollen die Möglichkeiten und Grenzen bei der Durchführung mittels Textverarbeitung veranschaulicht werden sowie darauf basierend mögliche Auswege aufgezeigt werden.
Das Unternehmen SYSTEC electronic GmbH bietet verschiedene Steuerungen einer PLC/ SPS Produktlinie an. Diese werden mithilfe der Entwicklungsumgebung OpenPCS pro- grammiert. Die so erstellten Programme werden in einer Laufzeitumgebung auf der Steue- rung ausgeführt. Das Laufzeitsystem wird von SYSTEC für die konkreten Steuerungen und deren Peripherie angepasst und erweitert. Die Arbeit verfolgt das Ziel Systemtests für das Laufzeitsystem und dessen Anpassungen automatisch durchführen zu können. In der folgenden Arbeit werden die notwendigen Grundlagen erläutert. Außerdem wer- den Anforderungen erhoben und mögliche Ansätze beschrieben, wie diese erfüllt werden können. Aus den Ansätzen wird anhand geeigneter Kriterien eine Wahl getroffen, die in der Lösung verwendet wird. Im Anschluss werden die einzelnen Aufgaben und Komponen- ten der Implementierung beschrieben. Danach wird ein Vergleich zwischen Anforderungen und Ergebnissen gezogen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick an weitere mögliche Entwicklungen gegeben.
Ziel der Bachelorarbeit ist es, eine Lösung zur Verarbeitung großer Datensätze (Big Data) zu gewinnen. Dabei wird ein Augenmerkt auf das Framework Hadoop geworfen werden, welches ab dem kommenden Sommersemester 2015 an der Westsächsischen Hochschule in Zwickau den Studenten gelehrt werden soll. Um neben den theoretischen Informationen ebenfalls das zu Lehrende im Praktischen demonstrieren zu können, ist ein funktionstüchtiger Hadoop-Server aufzusetzen. Dieser soll in Form einer fertig erstellten Virtuellen Maschine für die Studierenden vorliegen, an welcher diese praktisch tätig werden können.
Ziel der vorliegenden Bachelorarbeit ist die Erstellung einer grafischen Benutzeroberfläche für den Bereich des Ambient Assisted Living, welche von älteren Menschen bedient werden kann, ohne dass diese dabei an ihre körperlichen Grenzen stoßen werden. Dazu erfolgte eine Analyse darüber, welchen Beeinträchtigungen die Zielgruppe unterliegt und mit welchen Methoden der Oberflächengestaltung diese ausgeglichen werden können. Anschließend wurde ein Designkonzept für eine derartige Bedienoberfläche erstellt und diese dann mittels der Programmiersprache Java in eine lauffähige Android-Applikation umgesetzt.
Die Arbeit befasst sich mit einer technische Reorganisation des Bewerber-Management-Systems. Dabei sind neue Anforderungen entstanden, die bei der Reorganisation berücksichtigt werden sollten. Zunächst werden die verwendeten Webtechnologien näher erläutert. Anschließend erfolgt die technische Umsetzung. Die Arbeit wird durch eine Testphase und dem Aufzeigen zukünftiger Erweiterungsmöglichkeiten beendet.
In der Welt der 3D-Engines gewinnt die Großbildprojektion immer höherer Auflösungen zunehmend an Bedeutung. Ins Besondere im Simulations- und Entertainmentbreich werden die Anforderungen vor allem an die Projektion immer vielseitiger. In der vorliegenden Arbeit soll es nun darum gehen, eine in der 3D-Render-Engine Unity erzeugte 3D-Szene auf eine vertikal zylindrisch gekrümmte Projektionsfläche zu ermöglichen. Dabei handelt es sich um den Fahrsimulator der Fakultät Kraftfahrzeugtechnik der Westsächsischen Hochschule Zwickau. Für jenen Anwendungsfall muss dies ohne Verzerrungen vor allem im Randbereich der Darstellung geschehen, um so eine realistische und realitätsgetreue Darstellung der Umwelt zu ermöglichen. Als Ziel soll eine bessere Geschwindigkeitswahrnehmung, sowie eine geringe "Motion-Sickness" auftreten.
Diese Arbeit beschreibt ein Modell, eine Architektur und eine beispielhafte Implementierung für einen sicheren behördlichen Internetzugang, basierend auf überwiegend freier Software. Dabei werden zuerst aktuelle, relevante Bedrohungen und Angriffstechniken eruiert und analysiert. Für den Entwurf eines Sicherheitsmodells zur Abwehr von Angriffen werden mehrere verbreitete Muster und Standards bewertet und auf diesen Erkenntnissen ein eigenes Modell entwickelt. Aufbauend auf diesem Modell wird unter Berücksichtigung der behördlichen Anforderungen ein Sicherheitskonzept entwickelt. Abschließend wird eine exemplarische Umsetzung dieses Konzeptes beschrieben.
Datenmodell für Track&Trace
(2015)
HTML5 und mobile Geräte wie Smartphones und Tablets sind zwei Bereiche, welche in den vergangenen Jahren eine deutliche Weiterentwicklung erfahren haben. Browserentwickler stellen ihre Software auch für mobile Betriebbsysteme zur Verfügung und dank der wachsenden Möglichkeiten aktueller Webtechnologie wird es zusehens attraktiver, Software nach dem Motto "Write once, run anywhere" auf Webbasis zu entwickeln und damit viele Hard- und Softwareplattformen zu erreichen. Die Andersartigkeit mobilen Geräte verglichen mit PCs, gekennzeichnet beispielsweise durch Hardwareausstattung und -leistung, Bildschirmgröße und Touchbedienung, erzeugt jedoch neue Problemfelder. Diese Arbeit beschäftig sich exemplarisch anhand des HTML5-Spiels "Letti ABC" mit dem Aspekt der vergleichweise geringen Hardwareleistung und damit verbundenen Performance-einschränkung. Es werden Analysemethoden für Webanwendungen vorgestellt und Lösungen unter anderem für die Bereiche Renderperformance, Audio und Speichernutzung aufgezeigt. Im Ergebnis dieser Arbeit ist das Spiel sowohl auf PCs als auch auf mobilen Geräten gleichermaßen spielbar.
Analyse und Optimierung der Kommunikation zwischen den Komponenten des Fahrsimulators an der WHZ
(2015)
Mit verteilten Systemen können die Ressourcen mehrerer Rechnersysteme gebündelt und komplexe Berechnungen gegenüber einem einzelnen Rechnersystem schneller ausgeführt werden. Solch ein System wird auch für den Fahrsimulator am Institut für Energie und Verkehr an der Westsächsischen Hochschule Zwickau eingesetzt. Die aufwendigen Berechnungen sind dabei das Rendering der Szenen für die Leinwände und das Verhalten des Fahrzeugs in der virtuellen Welt, nach den Gesetzen der Physik. Diese sollen dabei möglichst schnell berechnet werden, denn Lenkbewegungen und andere Eingaben sollten natürlich so schnell es geht auch auf den Leinwänden als solche zu erkennen sein, damit ein realistisch wirkende Simulation entsteht. Neben schnellen Berechnungen ist dazu auch eine schnelle Kommunikation zwischen allen beteiligten Software- und Hardware-Komponenten notwendig. Diese Bachelorarbeit untersucht den Fahrsimulator am Institut für Energie und Verkehr hinsichtlich der Kommunikationsvorgänge. Dabei werden die Gesamtarchitektur vorgestellt, die verwendeten Technologien diskutiert, Schwachstellen im System erörtert und alternative Ansätze aufgezeigt. Es erfolgt dabei gleichzeitig eine Einordnung in den jeweiligen fachlichen Kontext. Die vorgestellten Möglichkeiten zur Optimierung legen dabei sowohl den Fokus auf Effizienz, als auch auf Effektivität. Es werden also Optimierungen vorgeschlagen, die mit kleinem Änderungsbedarf an der Gesamtarchitektur spürbare Performance-Steigerungen erzielen. Gleichermaßen werden auch solche Optimierungen diskutiert, die sogar noch bessere Ergebnisse erzielen würden, aber einen höheren Änderungsbedarf erforderlich machen.
Stereo matching methods are usually relying on rectified images to calculate disparities. If the rectification is inaccurate or not present at all most stereo matching algorithms will produce distorted disparity maps. In this thesis an approach is described that overcomes this issue for the PatchMatch Stereo algorithm. As groundwork for stereo matching four rectification procedures namely Bouget
Diese Bachelorarbeit behandelt die Evaluierung von nicht-relationalen Datenbanksystemen für die Restrukturierung des Dokument-Archivsystems der XCOM AG. Die Evaluierung wurde im Rahmen eines unternehmensinternen Projekts durchgeführt, dessen Ziele und Ablauf ebenfalls Bestandteil dieser Arbeit sind. Beim Archivsystem der XCOM AG handelt es sich um ein System zur elektronischen Ablage von Dokumenten, welches in erster Linie bei Banken zum Einsatz kommt. Durch diese Form der Archivierung können Arbeitsabläufe optimiert und beschleunigt werden. Voraussetzung dafür ist jedoch eine performante Umsetzung. Da das hier vorliegende System mittlerweile seit über zehn Jahren im Einsatz ist, entsprechen die eingesetzten Technologien nicht mehr dem Stand der Zeit, was sich unter anderem auf die Performance auswirkt. Daher soll mit diesem Projekt die Einsetzbarkeit von modernen Technologien untersucht werden, um die Nutzung des Archivsystems effizienter zu gestalten. Da es sich um ein System zur Speicherung von Dokumenten und somit Daten handelt, stammen die zu untersuchenden Technologien alle aus dem Bereich der Datenbanksysteme. Hier erfreuen sich seit einigen Jahren besonders nicht-relationale Datenbanksysteme großer Beliebtheit. Diese unterscheiden sich sowohl in ihren Konzepten, als auch in ihren Einsatzbereichen mitunter stark von klassischen, relationalen Datenbanken. Es ist daher Bestandteil dieses Projekts, die Besonderheiten derartiger Systeme darzustellen und anschließend einige Vertreter hinsichtlich ihrer Einsatzmöglichkeiten für das Archivsystem näher zu untersuchen. Darüber hinaus wird eine Implementierung vorgestellt, welche die Nutzung eines solchen nicht-relationalen Systems im Archivsystem demonstriert. Hierfür erfolgt die Auswahl eines der näher untersuchten Datenbanksysteme. Es gilt, die Implementierung im Rahmen dieses Projekts zunächst zu planen und anschließend umzusetzen. Abschließend wird die Performance des neuen und alten Systems miteinander verglichen. Der Vergleich wird durch die Messung von Zeiten vorgenommen, die das Archivsystem für die Ausführung bestimmter Aufgaben benötigt. Dies stellt den Abschluss des Projekts dar und soll zeigen, inwiefern sich durch den Einsatz des ausgewählten Datenbanksystems Optimierungsmöglichkeiten ergeben. Auf diesen Ergebnissen aufbauend kann anschließend eine fundierte Entscheidung darüber getroffen werden, ob eine Restrukturierung des Archivsystems tatsächlich durchgeführt werden soll.
Ziel dieser Arbeit ist es, die Entwicklung einer Webseite auf Grundlage des AngularJSFrameworks darzustellen und zu analysieren. Die Webseite besitzt dabei eine auf der REST-Architektur basierende Anbindung zu einem vorgegebenen Server. Die realisierte Webanwendung beinhaltet exemplarische Funktionen einer Finanzanwendung um die Entwicklung in einen praktischen Kontext zu setzen. Das verwendete AngularJS Framework ist ein von Google entwickeltes HTML- und Javascript Framework für auf einem Model-View-Controller-Muster basierende Single-PageWebanwendungen. Um die Visuelle Umsetzung des Projekts zu unterstützen kommt das Bootstrap CSS Framework zum Einsatz.
Die vorliegende Arbeit befasst sich mit der theoretischen Auseinandersetzung von Architekturkonzepten in Bezug auf eine verteilte IT-Infrastruktur. Dabei werden verschiedene Modelle, die von Client-Server-Architekturen bis hin zu Cloud Computing Ansätzen reichen, untersucht. Anhand verschiedener Kriterien wird eine Lösungsmöglichkeit ausgewählt und prototypisch implementiert. Als Grundlage dient hierbei ein Basissystem aus dem Kontext der Gemeinschaftsverpflegung, welches um ein mobiles Menü-Bestellsystem erweitert wird. Beginnend mit einer Dokumentation der Anforderungs- und Geschäftsprozessanalyse werden die wichtigsten Funktionen des mobilen Menü-Bestellsystems erläutert, um anschließend einen Lösungsansatz für die IT-Infrastruktur zu modellieren. Den Abschluss bildet die Realisierung, von der Anbindung des bestehen Basissystems, über das verteilte Informationssystem bis hin zum mobilen Client für den Nutzer.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeptionierung und Implementierung eins Lizenzierungsmoduls für das Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird zuerst die gesamte Vorgehensweise geschrieben und danach ein Überblick über die verwendeten Technologien gegeben. Danach wird die Analyse durchgeführt. Als nächstes werden Entwicklungs- und Realisierungsprozess beschrieben. Abschließend wird die Arbeit zusammengefasst.
Diese Arbeit soll einen Überblick über REST und dessen Anwendung auf eine Web-Schnittstelle geben. Im ersten Teil wird REST als Architekturstil beschrieben und die Prinzipien, welche REST allgemein zugrundeliegen. Dabei wird starker Bezug auf die Dissertation von Roy Fielding [Fie00] genommen, in welcher er die Ideen von REST entwickelt und beschreibt. Da sich REST nicht zwangsläufig auf HTTP bezieht, sondern ein allgemeines Architekturmuster darstellt, soll im folgenden Abschnitt die Implementation von REST mittels HTTP betrachtet werden. Aufgrund der hohen Verbreitung und Universalität von HTTP bildet dies meist die Grundlage von RESTful-Webschnittstellen. Weiterhin analysiert diese Arbeit eine vorhandene Schnittstelle auf die Einhaltung der REST-Prinzipien. Diese Analyse soll exemplarisch verdeutlichen, welche Anforderungen an eine REST-Schnittstelle bestehen. Als Prüfkriterium wird das Richardson-Maturity-Model vorgestellt und die Schnittstelle darin eingeordnet. Dabei wird erkennbar, in welchen Aspekten REST-Prinzipien beim Schnittstellenentwurf berücksichtigt bzw. verletzt wurden. Weitergehend wird untersucht, welche Veränderungen an dieser Schnittstelle vor- genommen werden können um den REST-Prinzipien zu entsprechen. Dabei wird analysiert, welche Vorteile diese Veränderungen in Hinsicht auf das Design der Schnittstelle haben.
Diese Arbeit zeigt einen Lösungsansatz für die Entwicklung eines Messverfahrens zur quantitativen Erkennung von Lungenkrebszellen in Mikroskopiebildern mithilfe von Bildauswertungsalgorithmen. Dies erfordert eine Auseinandersetzung mit bestehenden Bildverarbeitungsprogrammen und deren Bildfiltern und startet mit dem spezifischen Einsatz gewählter Bildauswertungssoftware bis hin zur Lösungsvariante einer Zellenerkennung. Zunächst setzt man sich mit den Grundlagen der Bildverarbeitung auseinander, um das gestellte Bildmaterial zu verstehen. Dieses wird im Laufe des Projektes vertieft, damit eine Nutzung zur Auswertung der gewünschten Ziele erreicht werden kann. Als erstes werden die Bildfilter und deren Eigenschaften und Funktionsweise erläutert, um zu verstehen wie sie die vorhandenen Bilder verändern. Danach wird eine Auswertung durchgeführt, ob diese Veränderungen die optimalen Ergebnisse erzielt haben. Daraufhin werden zwei Lösungswege für positive und negative Zellen entwickelt. Diese werden durch statistische Auswertungen überprüft und zum bestmöglichen Ergebnis entwickelt.
Der Gegenstand dieser Abschlussarbeit ist ein exemplarischer Konvertierungsprozess der 3D-Daten des proprietären Formates zum Zielformat. Es geht dabei um das proprietäre Format ema der Firma imk automotive und das Format 3DPDF, das als Zielformat zusammen mit U3D-Format betrachtet wird. Im Zuge der Abschlussarbeit kann man drei Hauptteile der Arbeit hervorheben. Dabei lässt sich der Teil mit der Auswahl des Zielformates für die Konvertierung, der Teil mit der Umsetzung der Daten von ema-Format in das U3D-Format und der Teil mit der Integration von U3D-Datei in PDF-Dokumente unterscheiden. Für die Umsetzung und die Integration werden mehrere Lösungsansätze in Anspruch genommen, um die optimale Variante auswählen zu können. Die Umsetzung der ema-Daten in das U3D-Format erfolgt sowohl direkt als auch mit Hilfe des IDTF-Zwischenformates. Die Integration der beim Konvertierungsprozess entstandenen U3D-Datei in PDF-Dokumente hat auch mehrere Lösungswege. Einer von diesen ist die Möglichkeit der Integration über Latex, die Realisierung von welcher auch im Zuge der vorliegenden Abschlussarbeit betrachtet wird. Es gibt auch weitere Lösungswege, sie sind aber nicht getestet.
Im Rahmen dieser Ausarbeitung wurde eine Untersuchung bezüglich der automatisierten Erkennung von semantisch äquivalenten Datensätzen in Datenbanksystemen durchgeführt. Ziel der Arbeit ist es, die dabei auftretenden Problematiken, sowie die aktuellsten Ansätze zur Lösung dieser Probleme zu erforschen. Aufbauend auf einer tiefgründigen Literaturuntersuchung, wurden sowohl der Gegenstand und die Problematik des Themas, als auch aktuellste Ansätze zur Lösung dieser Probleme untersucht und in Form einer wissenschaftlichen Arbeit vereinheitlicht. Ein Großteil der Literatur zielt auf spezielle Aspekte der Dublettensuche ab und gibt keinen umfassenden Überblick über die Thematik. Diesen Überblick soll das vorliegende Werk anhand einer stark beispielorientierten und praxisnahen Schreibweise offerieren. In der Arbeit findet zunächst eine Einordnung des Problems in den Terminus der Datenqualität statt. Weiterhin wird grundlegendes Wissen über die Entstehungsursa-chen und Auswirkungen von Duplikaten vermittelt. Den Großteil der Arbeit bildet die Beschreibung des Ablaufes einer Duplikaterkennung, einschließlich der aktuellsten Verfahren, welche hierbei eine Rolle spielen. Dabei werden zunächst die Grundlagen der Duplikaterkennung verdeutlicht, welche im Laufe der Arbeit detaillierter unter-sucht werden. Besonders tiefgründige Einblicke versucht diese Arbeit dabei auf die Gesichtspunkte Gütekriterien, Datenvorbereitung, Suchraumreduzierung (Partitionierung) und die Erkennung von Duplikaten durch Ähnlichkeitsbestimmungsverfahren zu legen. Das Ergebnis der Arbeit ist eine wissenschaftliche und praxisnahe Darstellung der Duplikaterkennung, welche sich auf die aktuellsten Ansätze dieser Thematik bezieht. Somit kann dieses Werk als Wissensgrundlage für verschiedenste Softwareprojekte, beispielsweise im Bereich Data-Warehouse, dienlich sein oder für weitere Nachforschungen genutzt werden.
Inhaltsverzeichnis 1. Einleitung/Motivation 2. Cyanobakterien 3. Sekundärmetaboliten und deren öko- und humantoxikologische Bedeutung 3.1. Stoffwechselprodukte der Cyanobakterien 3.2. Wirkung in der Umwelt 3.3. Analytische Methoden 4. Verfahrenskonzepte zur Beseitigung von Stoffwechselprodukten der Cyanobakterien in der Trinkwasseraufbereitung 4.1. Notwendigkeit der Abtrennung bzw. Umsetzung 4.2. Verfahrenskonzepte 4.2.1 Adsorption 4.2.2.Membranverfahren 4.2.3.Ultraschall 4.2.3 Chemische Umsetzung 4.2.4 AOP 4.2.1 Verfahrenskombinationen 4.3. Bewertung und Vergleich der Verfahrensvarianten 4.3.1. Risikoabschätzung in Bezug auf die Bildung toxischer Zwischenprodukte und Abfallstoffe 4.3.2. Abschätzung notwendiger Investitions- und Betriebskosten 4.4. Studien und großtechnisch realisierte Projekte zur Beseitigung von organischen Spurenstoffen in Wässern 4.4.1. Geosmin und MIB 4.4.2. Behandlungskonzepte für weitere organische Spurenstoffe in Rohwässern 5. Zusammenfassung
In der vorliegenden Arbeit wird die Wirksamkeit eines Ausheiz- und Belüftungsverfahrens zur Sanierung eines ausgewählten VOC-Schadensfalls überprüft. Es handelt es sich in diesem Fall um lösemittelbelastete Mauerwerksbereiche in Büroräumen eines historischen Sockelgeschosses. Durch die technisch unterstützte Einstellung emissionsbeschleunigender Parameter, wie der Erhöhung der Bauteiltemperatur und des Luftwechsels, soll die Schadstoffquelle vollständig abgebaut, oder zumindest deutlich verringert werden. Die Anwendung solcher Verfahren erfolgt bei VOC-Sanierungsmaßnahmen bislang nur sehr vereinzelt. Üblicherweise wird auf konventionelle Verfahren, wie z.B. Beschichtungssysteme zur Quellenverkapselung zurückgegriffen. Der Vorteil von Ausheiz- und Belüftungsverfahren wird in der zerstörungsfreien und nachhaltigen Beseitigung der Schadstoffquelle gesehen. Detaillierte Informationen und Messdaten über Möglichkeiten und Grenzen emissionssteigernder Maßnahmen an reellen VOC-Schadensfällen liegen jedoch kaum vor. Diese sind exemplarisch anhand des ausgewählten Schadensfalls erhoben worden. Neben der Darstellung der technischen Umsetzung und der messtechnischen Überwachung des Verfahrens, werden in der Arbeit auch die Ergebnisse bisheriger Sanierungsversuche im Objekt präsentiert, sowie Vor- und Nachteile der jeweiligen Verfahren diskutiert.
Kalibrierung und Freilandtest von Passivsammlern für ausgewählte organische Gewässerschadstoffe
(2015)
Passivsammler sind schon seit einigen Jahren in der Entwicklung. Mit ihnen können zeitgemittelte Konzentration über einen längeren Zeitraum in einem Umweltmedium ermittelt werden. Typische Vertreter sind der POCIS, der Chemcatcher oder der am UFZ entwickelte MESCO. Weiterhin wird in einer Studie am UFZ derzeit ein anderes Passivsammlermaterial untersucht, Polyethersulfon (PES). Bereits seit Jahren sind PES-Membranen Bestandteile von Passivsammlern. Sie dienen als Schutz-membranen um das eigentliche Sammlermaterial vor zu starker Verschmutzung oder Bioaufwuchs zu schützen. Es existieren jedoch Untersuchungen die belegen, dass manche Schadstoffe sehr gut im PES aufgenommen werden, wenn nicht sogar besser als in der eigentlichen Sammelphase. Aus diesem Grund sollte Poly-ethersulfon in dieser Arbeit auf seine Eignung als Passivsammler, bzw. auf seine Sammeleigenschaften (Verteilungskoeffizienten und Sammelraten), für bestimmte Gewässerschadstoffe untersucht werden. Es wurden elf Substanzen ausgewählt und die PES-Membranen in zwei mehrwöchigen Laborexperimenten und einem Freilandtest untersucht. Im Labor wurde ein Glasgefäß mit Wasser befüllt, welches mit einem Schadstoffcocktail kontaminiert war. Nach der Befestigung der Sammler im Gefäß, wurde mithilfe eines Magnetrührers eine leichte Strömung erzeugt. Im ersten Versuch wurden die Verteilungskoeffizienten der Stoffe ermittelt und im zweiten Versuch die Sammelraten. Beide Parameter sind wichtig und müssen bekannt sein wenn ein Passivsammler für die Untersuchung von Gewässern genutzt werden soll. Zusätzlich wurden die Sammler im 20-tägigen Feldversuch in der Saale bei Halle und im Ablauf des Klärwerks Halle Nord getestet.
Die Reinhaltung der Luft ist für die menschliche Gesundheit und im Rahmen des Umweltschutzes unentbehrlich. Im Zuge der Industrialisierung kam es in der Vergangenheit zum Teil zu erheblichen Beeinträchtigungen der Luftqualität. Trotz umwelttechnisch deutlich verbesserter Produktionsabläufe werden auch weiterhin bestimmte Stoffe emittiert. Für die Entwicklung eines neuartigen und nachhaltigen Verfahrens zur Abluftreinigung hat der Forschungsverbund HUPAC im gleichnamigen Projekt die Abluftreinigung VOC- bzw. ammoniakbelasteter Abluft thematisiert. Diese beiden Substanzen sind von besonderer Relevanz für die Beeinträchtigung der Umwelt bzw. der Luftqualität. Für ihre Abreinigung aus der Abluft von Produktionsprozessen wurde im Projekt eine neuartige Technologie entwickelt, die aus einer Kombination adsorptiver und mikrobieller Prozesse auf der Basis huminsandhaltiger, zellulosebasierter Pellets verläuft. Bei den als reaktive Komponente eingesetzten Huminsanden handelt es sich um natürliche Substrate, welche aus Tagebauen des Lausitzer und Mitteldeutschen Braunkohle-Reviers kostengünstig gewonnen werden können, die über interessante physiko-chemische Eigenschaften verfügen und die damit generell für eine innovative Alternative als Substrat für Abreinigungsprozesse genutzt werden können. Die Eignung der aus den Sanden hergestellten Pellets für die Abluftreinigung wurde im Rahmen des HUPAC-Projekts laborativ sowie praktisch getestet und ausgewertet. Wie erwartet, können die Huminsand-Pellets die Schadstoffe (VOC bzw. Ammoniak) zunächst adsorptiv binden. Die fixierten Schadstoffe werden dann anschließend durch eine sich etablierende Mikroorganismenpopulation abgebaut. Im technologisch angelegten Projekt wurden Eignung der Substrate und Erfolg der Reinigungsleistung mit der Gegenüberstellung von input und output bewertet, wobei die Huminstoffe als
Mit den Auswirkungen der demografischen Entwicklung werden gesunde und motivierte Mitarbeiter in Gesundheits- und Pflegeeinrichtungen immer bedeutender. Neben einem stärkeren Versorgungsbedarf der älteren Patienten wird der Erhalt der Gesundheit und Leistungsfähigkeit der Mitarbeiter wichtiger. Derzeit liegt der Fokus auf der Behandlung der Patienten. Der Gesunderhaltung der Mitarbeiter wird noch zu wenig Beachtung geschenkt. Maßnahmen der Betrieblichen Gesundheitsförderung werden in den meisten Gesundheits- und Pflegeeinrichtungen bereits angeboten. Ein Betriebliches Gesundheitsmanagement hingegen, halten nur wenige vor. Die Bachelorthesis wurde von folgender Forschungsfrage geleitet: Welcher Mehrwert entsteht durch die Implementierung eines Betrieblichen Gesundheitsmanagements im Krankenhaus? Zur Beantwortung der Forschungsfrage wurden sechs Experteninterviews in Gesundheits- und Pflegeeinrichtungen geführt, die ein Betriebliches Gesundheitsmanagement vorhielten oder den Mitarbeitern Maßnahmen der Betrieblichen Gesundheitsförderung anboten. Die Datenerhebung erfolgte unter Anwendung der Grounded Theory Methode. Zur Datenauswertung diente die qualitative Inhaltsanalyse nach Mayring, wobei die Kategorien computergestützt im Programm MAXQDA gebildet wurden. Es konnte festgestellt werden, dass der Mehrwert für ein Krankenhaus nur im Rahmen eines Betrieblichen Gesundheitsmanagements entstehen kann. Es zeigte sich, dass Krankenhäuser dafür konkrete Voraussetzungen schaffen müssen. Um den Mehrwert zu generieren ist ein zielgerichtetes Vorgehen erforderlich. Dem PDCA-Zyklus folgend, müssen die Angebote und Maßnahmen auf die gewünschte Zielgruppe abgestimmt werden. Das ermöglicht einen gezielten Ressourceneinsatz, der im Hinblick auf den enormen Kostendruck, dem Krankenhäuser ausgesetzt sind, bedeutend ist. Daraus erwächst eine hohe Inanspruchnahme der Angebote, was sich in einer Vielzahl von Erfolgen in den Einrichtungen widerspiegelte. Das Vorgehen im Betrieblichen Gesundheitsmanagement mündet in eine WIN-WIN-WIN-Situation für die Mitarbeiter, das Krankenhaus und die Gesellschaft. Die Ergebnisse zeigten aber auch, dass in den Ein-richtungen ein Controlling zur Überprüfung der Wirksamkeit der Maßnahmen noch aus-stand. Durch den Einsatz von Messinstrumenten im Betrieblichen Gesundheitsmanage-ment können Ziele in Kennzahlen überführt werden, wodurch eine ziel- und wirksamkeits-orientierte Steuerung des Betrieblichen Gesundheitsmanagements ermöglicht wird.
Um einen Überblick über die verwendeten Ressourcen und die entstanden Kosten pro Patient zu bekommen, ist es notwendig ein transparentes und einheitliches Vergütungssystem am Markt zu implementieren. Daher ist gem. § 17d KHG ein nach Leistung orientierendes und pauschalierendes Vergütungssystem einzuführen. Dieses generiert sich auf der Basis von tagesbezogenen Entgelten. Vor diesem Hintergrund besteht die Zielstellung der vorgelegten Arbeit darin, das PEPP-Abrechnungssystem darzustellen und wirtschaftliche Auswirkungen auf die Erlössituation von stationären Leistungserbringern aufzuzeigen. Die Arbeit gibt einen Überblick auf die Krankenhausversorgung in der Bundesrepublik Deutschland und schildert detailliert die Funktionsweise des PEPP-Abrechnungssystem. Um die Kalkulation und gegenwärtige Abrechnungssituation besser darstellen zu können, ist auf der Grundlage reeller Daten ein fiktiver Datensatz generiert worden. Für die Berechnung der Erlöse der Musterklinik wird das erste Abrechnungshalbjahr 2015 zugrunde gelegt. In der Einzelfallkodierung wird aufgezeigt, wie die Kodierung nach dem PEPP-Abrechnungssystem funktioniert. Anschließend findet eine Gegenüberstellung der Erlöse nach der Pflegesatz-vereinbarung und nachdem PEPP-Abrechnungssystem statt. Das Ergebnis weist einen Mehrerlös von 12 % aus. Hierbei handelt es sich um die veränderte Kodierung von Diagnosen und Prozeduren und somit ist dieser Mehrerlös zu 100 % abzuführen. Ausblick: Die Weiterentwicklung des PEPP-Entgeltes führt zunehmend dazu, dass die entstehenden Kosten angemessen darin abgebildet werden können. Die Abschaffung der Vergütungsstufen, die Erweiterung der tagesbezogenen Zusatzentgelte und die mit Einbeziehung des Entlassungstages in die Abrechnung führt dazu, die Erlösdegression mit zunehmender Verweildauer zu reduzieren. Es ist jedoch so, dass mit steigender Verweildauer die Kosten gleich bleiben und die Erlöse bis zu einer bestimmten Verweildauer degressiv verlaufen. Mit den Zusatzentgelten wird den hochaufwendigen Fällen Rechnung getragen. Aus dieser aktuellen Gegebenheit heraus sollten die Strukturen und Prozesse der ausführenden Akteure kontinuierlich evaluiert und weiterentwickelt werden. Es gilt auch an dieser Stelle neue oder veränderte Wege zu gehen, da die "Enthospitalisierung" ein möglicher Schritt zu einem selbstbestimmenden Leben ist. Ferner könnte das Ziel sein weniger stationär zu betreuen und den Fokus auf die ambulante Versorgung und Betreuung zu legen unter der Prämisse nicht nur die tagesklinischen Plätze zu erhöhen, sondern auch die mobile Betreuung vor Ort zu fokussieren und zu erhöhen.
Die vorliegende Arbeit beschäftigt sich mit dem progostizierbaren ökonomischen Nutzen von gesundheitsförderlichen Maßnahmen. Zur Untermauerung der Aussagen standen Daten des Diakonievereins Carolinenfeld e.V. in Greiz zur Verfügung. In einer Ist-Analyse wird die momentane Situation aufgezeigt, sowie eine Prognose für künftige Entwicklungen gegeben. Darauf aufbauend folgt eine Darstellung von etablierten Modellen und Maßnahmen sowie speziell für die Diakonie in Greiz möglichen Maßnahmen zur Verbesserung des gesundheitlichen Zustandes der MitarbeiterInnen. Es wird aufgezeigt wie durch die Verbesserung des Gesundheitszustandes monetäre wie auch nicht-monetäre Erfolge erzielt werden können.
Psychische Erkrankungen sind in der deutschen Gesellschaft weit verbreitet und führen zu erheblichen finanziellen, gesundheitlichen und sozialen Beeinträchtigungen. Um psychische Störungen effektiv zu therapieren, gibt es in der stationären Versorgung verschiedene Verfahren. Neben klassischen Methoden, wie Psychopharmako- und Psychotherapien, gewinnen neue ergänzende Therapieformen zunehmend an Bedeutung. Zu diesen Therapieformen zählt die Bewegungstherapie, die aufgrund verschiedener Erklärungsansätze zur positiven Wirkung von Bewegung auf die psychische Gesundheit plausibel legitimiert werden kann. Allerdings scheint die Bewegungstherapie immer noch nicht in allen psychiatrischen Kliniken als vollkommen etabliertes und eigenständig annerkanntes klinisches Verfahren zu gelten. Aus diesem Grund wurde sich in der vorliegenden Arbeit mit dem Stellenwert, den Zielen sowie den Entwicklungsmöglichkeiten der Bewegungstherapie in der Praxis befasst. Ziel war es, herauszufinden, inwieweit Bewegungstherapie in einzelnen Kliniken Berücksichtigung findet und mit welchen Absichten sie durchgeführt wird. Dies geschah unter besonderer Betrachtung von Abhängigkeitserkrankungen. Zudem wurden Entwicklungsmöglichkeiten der Therapieform erfasst, um letzten Endes Hinweise für zukünftige Ansätze und Weiterentwicklungen zu geben. Diese Hinweise bezogen sich nicht ausschließlich auf den psychiatrischen Bereich, sondern gelten auch für das Segment Gesundheitsförderung. Um die Ziele der Arbeit umzusetzen, erfolgte eine explorative Datenerhebung. Hierbei wurden sechs Experteninterviews mit ärztlichen und therapeutischen Mitarbeitern psychiatrischer Kliniken in Sachsen durchgeführt. Die Daten wurden anhand der Qualitativen Inhaltsanalyse nach Mayring ausgewertet und anschließend mithilfe zweier Kategoriensysteme dargestellt.
Der Klimawandel und schwindende fossile Energiequellen stellen die Regierungen weltweit vor große Herausforderungen, um der stetig wachsenden Nachfrage an Energie gerecht zu werden. Neuerungen und innovative Konzepte im Bereich der Energieversorgung sind daher ein wichtiger Beitrag zum Umweltschutz. In der vorliegenden Diplomarbeit werden Lösungsansätze für eine energieeffiziente Wärmeversorgung unter Einsatz erneuerbarer Energiesysteme für Wohngebäude aufgezeigt. Am Beispiel einer altersgerechten Neubau-Wohnanlage in Löbnitz am See werden Konzepte der Wärmeversorgung erarbeitet, Anlagenkombinationen vorgestellt und die entsprechenden Varianten ökologisch und ökonomisch bewertet. Schwerpunkt dabei sind die energetischen Analysen nach EnEV, KfW-Vorgaben und den Anforderungen des EEWärmeG. Ziel der Arbeit ist eine Gegenüberstellung von alternativen und konventionellen Heizsystemen hinsichtlich energetischer und wirtschaftlicher Gesichtspunkte, sowie die Empfehlung einer geeigneten Variante für eine energieeffiziente Wärmeversorgung der geplanten Wohnanlage.
Mit dem Einsatz eines geregelten nachhaltigen Fehlerabstellprozesses wird der Grundstein zu einer kontinuierlichen Produkt- und Produktionsqualitätsverbesserung gelegt. Resultate sind eine gesteigerte produktive Effizienz infolge einer Ausschussdezimierung, was sich positiv auf die Produktionskosten und Liefertreue auswirkt. Diese wissenschaftliche Arbeit widmet sich dem Volkswagen Werk internen Fehlerabstellprozess in der Kugelgewindetriebmontage. Innerhalb des Produktionsprozesses wird am Beispiel des letzten Inline-Prüfstandes ein nachhaltiges Konzept zur kontinuierlichen Produktionsprozessverbesserung entwickelt, was einen positiven Beitrag zur nachhaltigen Produktoptimierung leisten soll. Grundlage für die Initialisierung eines solch komplexen Prozesses stellt generell eine Systemanalyse dar. Diese Analyse widmet sich der genaueren Untersuchung des Messsystems sowie der Kugelgewindetriebbestandteile. Hierbei finden die Methoden der Versuchsplanung Anwendung. Die aus den Versuchen gewonnen Erkenntnisse bilden unter anderem die Basis für zielführende Optimierungsmaßnahmen innerhalb des Produktionsprozesses.
Im Rahmen der Diplomarbeit wird versucht einen objektiven Zusammenhang zwischen dem Frontscheibenverschleißzustand und der daraus resultierenden Blendung für den Kraftfahrzeugführer herzustellen. Dazu werden Recherchen nach bereits veröffentlichten Forschungen in Deutschland und anderen Ländern betrieben. Weiterhin werden verschiedene Varianten für mögliche Prüfmethoden vorgestellt und bewertet. Die Vorzugslösungen werden anschließend ausgearbeitet und auf den Einfluss möglicher Störgrößen untersucht. Danach erfolgt, mittels der Vorzugsvarianten, eine Felduntersuchung an sich im Verkehr befindlichen Fahrzeugen. Aus dieser Messreihe wird der theoretische Zusammenhang zwischen Verschleiß und Sichtbeeinträchtigung abgeleitet, der abschließend mit Hilfe einer Evaluierung überprüft wird.