Refine
Year of publication
- 2014 (96) (remove)
Document Type
- Bachelor Thesis (58)
- Master's Thesis (28)
- Diploma Thesis (10)
Institute
- Physikalische Technik, Informatik (96) (remove)
Is part of the Bibliography
- no (96) (remove)
Die Bachelorarbeit beschäftigt sich mit einem PVD-Kombinationsverfahren in einer Drehtrommelanlage, zur Abscheidung von metallischen Schichten auf Kleinteilen, die als Schüttgut behandelt werden. Das Verfahren baut auf einer Technologieentwicklung zur plasmaaktivierten Hochratebedampfung plus Puls-Magnetron-Sputtern auf. Es dient dazu Korrosionsschutzschichten als Multilagen- bzw. Legierungsschicht abzuscheiden. Bei der etablierten Abscheidung mehrlagiger Korrosionsschutzschichten werden die PVD-Verfahren abwechselnd betrieben. Für die Erzeugung von Legierungsschichten wurden erstmals beide physikalischen Verdampfungsprozesse parallel gefahren, im Hinblick auf die gezielte Variation der Schichtzusammensetzung zur Verbesserung der Korrosionsbeständigkeit. Anhand der Ergebnisse der Einzelprozesse, Aluminiumbedampfung und Magnetronsputtern, wurden Prozessabläufe für die Abscheidung von Legierungsschichten etabliert und die Schichtdickenverteilung für die verschiedenen Legierungszusammensetzungen bestimmt.
Bioabfälle besitzen ein enormes Potential, wenn es um Ressourcenschonung und regionale Wertschöpfung im Sinne eines nachhaltigen Umweltschutzes geht. Besonders im Hinblick auf zukünftige Entwicklungen, bei denen durch das geforderte Getrennthaltegebotes des Kreislaufwirtschaftsgesetzes mit einem vermehrten Bioabfallaufkommen zu rechnen ist, soll die Verwertung dieser organischen Abfälle betrachtet und diskutiert werden. Maßgebend ist dabei der Status quo des Düngemitteleintrages, welcher exemplarisch anhand der kreisfreien Stadt Gera für das Kalenderjahr 2013 ausgewiesen wird. Dass trotz zahlreicher Vorteile, die eine Düngung mit biologischen Abfällen besitzt, nur auf circa 12 % der Ackerflächen Bioabfälle verwertet werden, ist unterschiedlichen Aspekten geschuldet. Diese gründen zumeist auf Bedenken seitens eines möglichen Schadstoffeintrages, der komplexen Rechtslage und wirtschaftlichen Nachteilen. Daraus können zahlreiche Vorschläge abgeleitet werden, die sowohl allgemeine Hinweise als auch spezifische Ratschläge für Behörden beinhalten, um das Bioabfallpotential besser auszuschöpfen.
Die vorliegende Bachelorarbeit handelt über das Verschleißverhalten von Diamond Like Carbon Schutzschichten an Düsennadeln im Piezo Common Rail Dieseleinspritzsystem. Nach ausführlichen Informationen zu der Continental AG und reichlicher Grundlagenbetrachtung, werden 2 Prüfstände miteinander verglichen um heraus zu finden ob der neu angewendete Kuppenfestigkeitsprüfstand für das Hervorbringen eines beschleunigten Verschleißes geeignet ist. Dazu werden verschiedene Referenz Proben getestet und durch unterschiedliche Untersuchungsmethoden betrachtet. Die ausgewählten Untersuchungsverfahren sind das Lichtmikroskop, das Rasterelektronenmikroskop, der Nadelöffnungsdruckprüfstand und das Fouriertransformations - Infrarot - Spektrometer. Nachdem der Prüfstand festgelegt wird, beginnt die Betrachtung der unterschiedlichen Verschleissschutzschichten von der Firma Hauzer und der Firma Balzer. Hier dienten die balzerbeschichteten Düsennadeln als Referenz. Ziel ist es heraus zu finden ob die neuen hauzerbeschichteten Düsennadeln ein gleiches Verschleißverhalten aufweisen wie die derzeit in der Produktion verwendeten Balzer Düsennadeln. Die Ergebnisse werden ausführlich und deutlich dargestellt, um eine Entscheidung am Ende der Bachelorarbeit treffen zu können.
Im Rahmen der vorliegenden Arbeit wurde ein fermentativer Prozesses im Labormaßstab entwickelt und aufgebaut . Dabei wurde der Effekt der Desintegration auf die Vergärung von Gerstenstroh untersucht. Vor der Vergärung wurde das Stroh mechanisch zerkleinert. Ein Teil des Strohs wurde zusätzlich bei einer Temperatur von 40 °C über einen Zeitraum von 24 h hydrolytisch vorbehandelt, um anschließend fermentiert zu werden. Es wurden dafür vier Laborreaktoren über einen Zeitraum von 162 Tagen täglich mit einem Substratgemisch aus Gerstenstroh und Rindergülle bis zum stabilen Prozessverlauf der Reaktoren beschickt. In der zweiten Versuchsphase über 23 Tage wurde die Beschickung von zwei der Reaktoren auf hydrolytisch vorbehandleltes Stroh umgestellt. Die beiden anderen Reaktoren dienten als Referenz. Danach wurde der Effekt von hydrolytisch vorbehandeltem Gerstenstroh auf die kontinuierliche Vergärung in Bezug auf die Prozessparameter z. B. Temperatur, pH-Wert, flüchtige organische Säuren diskutiert. Die experimentellen Untersuchungen der vorliegenden Arbeit, gaben Auskunft über die Vergärung von hydrolytisch vorbehandeltem Gerstenstroh. Hierbei war zu erkennen, dass hydrolysiertes Gerstenstroh zu einer Senkung der spezifischen Gasproduktion führte. Der Unterschied zu den Referenzreaktoren betrug am Ende der zweiten Versuchsphase 100 mlN/gvs pro Tag. Gründe Grund dafür köonnte die Wirkung des niedrigen pH-Wert des Gerstenstrohs, der durch die Vorbehandlung erreicht wurde, auf die empfindlichen Methanogenen sein. Eine mögliche Adaption der Mikroorganismen an die neuen Substrateigenschaften kann noch über einen Zeitraum der dreifachen Verweilzeit erreicht werden und sollte weiter untersucht werden. Weiterhin sollte durch die Hydrolyse-Vorbehandlung die Angriffsfläche für Mikroorganismen vergrößert werden und die darin befindlichen Enzyme freigesetzt werden. Es war zu befürchten, dass durch die zu niedrigen Temperaturen, die nötige Angriffsfläche für die Mikroorganismen nicht geschaffen wurde. Die durch die Hydrolyse frei werdenden Enzyme verblieben möglicherweise im Wasser und fehlten somit bei der Vergärung in den Reaktoren, was die spezifische Gasproduktion erniedrigte. Es konnte aber festgestellt werden, dass das Vergären von Stroh prinzipiell möglich ist. Um kostengünstige und effizientere Möglichkeiten zu finden, wurden mehrere erfolgreiche Untersuchungen zur Fermentation von Stroh (Gerstenstroh) wie Thermo-Druck- Hydrolyse und der Einsatz von Enzymen durchgeführt . In weiteren Versuchen kann die Vergärung von Gerstenstroh durch verschiedene Maßnahmen optimiert werden. Zu nennen sind beispielsweise die unterschiedliche Vorbehandlung des Strohs durch. chemische-, biologische/biochemische Vorbehandlungen, die Verwendung anderer Substrate als Co-Substrate wie Schweinegülle, Mist usw. Das vorhandene Potential wird weiter ausgenutzt.
Medizinische Leitlinien zu modellieren und zu formalisieren, sodass sie computergestützt verarbeitet und ausgewertet werden können ist eine komplexe aber wichtige Arbeit. Nur eine solche Ausführbarkeit ermöglicht die beste Patientenversorgung ohne diese aufzuhalten. Dazu werden verschiedene Modellierungssprachen eingesetzt, die domänenspezifische Besonderheiten und Einschränkungen aufweisen. In dieser Arbeit sollen Sprachen die im klinischen Umfeld Verwendung finden evaluiert werden. Dazu sollen in dieser Arbeit klinische Modellierungssprachen für Prozesse und standardisierte Modellierungssprachen wie UML und BPMN formal verglichen werden. Heutzutage ist die Computergestützte Ausführung von medizinischen Leitlinien eines der interessantesten Themen der Informatik. Medizinische Leitlinien enthalten Prinzipien und Richtlinien, die Praktiker bei der Diagnose, Therapie oder anderen spezifischen klinischen Behandlungspfaden unterstützten. Im Rahmen dessen wurde eine umfangreiche Literaturrecherche durchgeführt.
Die Bachelorarbeit stellt die klassischen und die In-Memory Datenbanktechnologien vor und zieht einen Vergleich zwischen diesen. Nach eingehenden Betrachtungen eines Datenbankeinsatzes werden die technologischen Grundlagen erläutert. Weiterhin erfolgt die Analyse verschiedener klassischer Datenbanktechnologien. Anschließend werden In-Memory Technologien betrachtet und aufgezeigt, wie der Arbeitsspeicher als Datenspeicher genutzt wird. Neben dem direkten Vergleich der einzelnen Technologien wird auf Vor- und Nachteile in der Speichertechnik eingegangen. Näher werden Komprimierungstechniken bei der In Memory Speicherung betrachtet und miteinander verglichen. Des Weiteren erfolgt eine Gegenüberstellung unterschiedlicher Speichermedien hinsichtlich Einkaufspreis und Verar-beitungsgeschwindigkeit.
Mobile Geräte spielen eine immer wichtiger werdende Rolle im Bereich der Softwareentwicklung. Zwei Betriebssysteme dominieren seit Jahren ganz klar den mobilen Markt. Google bietet mit Android ein Open Source System, welches auf Offenheit und Anpassbarkeit setzt. Stärkster Konkurrent ist Apples IOS, welches auf Sicherheit und Geschlossenheit bedacht ist. Der Entwicklungs- und Kostenaufwand, um eine Applikation für beide mobilen Systeme zu programmieren, ist jedoch enorm hoch. Durch das Generieren von Applikationen für die jeweiligen Systeme, kann dieser Aufwand minimiert werden. Die Frage ist, wie aufwändig und kostenintensiv ist die Entwicklung einer solchen Technologie. Durch Untersuchung der beiden Applikationsarchitekturen wurde eine Antwort im Rahmen dieser Arbeit gesucht. Um ein möglichst aussagekräftiges Ergebnis zu erlangen, fand der Vergleich anhand von mehreren Szenarien statt. Auf diese Weise kann ermittelt werden, wie beide Systeme mit ein und derselben Problemstellung umgehen. Die Untersuchung lässt klare Rückschlüsse auf den benötigten Abstraktionsgrad zu, der für die Entwicklung eines solchen Codegenerators benötigt wird.
Validierung eines Verfahrens zur qualitativen und quantitativen Bewertung von Restschmutzfiltern
(2014)
Kurzzusammenfassung Diese Bachelorarbeit beschäftigt sich mit der manuellen und automatischen Analyse von Partikeln mit dem Rasterelektronenmikroskop, um die technische Sauberkeit von funktionsrelevanten Werkstücken und Baugruppen zu überwachen. Durch die Bestimmung von Elementgehalten mittels energiedispersiver Röntgenanalyse (EDX) soll die Herkunft und die Ursache schadhafter Teilchen ermittelt werden. Ziel der Arbeit ist es, Fehlereinflüsse aufzudecken, die die Reproduzierbarkeit der Ergebnisse beeinträchtigen können. Zu Beginn dieser Arbeit werden grundlegende Ziele und Vorgehensweisen der Sauberkeitsanalyse erläutert. Im Hauptteil erfolgen die Untersuchungen zu Fehlereinflüssen, die sowohl die Detektion der Partikel als auch die Elementanalyse beeinflussen. Um Parameter zu optimieren, werden die Messzeiten und Zählraten variiert. Anschließend wird die Reproduzierbarkeit der Messdaten geprüft und es werden verschiedene Vorgehensweisen miteinander verglichen. Ziel ist es aus den gewonnenen Daten eine Prüfvorschrift zu entwickeln. Diese wird Richtlinien für Probenpräparation, Parameter der Messung und anschließender Datenauswertung enthalten.
Diese Mastertheis untersucht die Möglichkeiten der Nutzung einer Spiele-Engine für die Visualisierung in der Fahrsimulation und im Speziellen für den Fahrsimulator der Westsächsischen Hochschule Zwickau. Dabei wird im Rahmen dieser Arbeit die Analyse auf die Darstellung von einspurigen Außerortsstraßen beschränkt. Für diese Aufgabe werden die grundlegenden Anfroderung für eine solche Visualisierungssoftware dargelegt und auf Basis eine entsprechenden Engine gewählt.Darauf aufbauend wird ein Prototyp entiwckelt, der eine Alternative zu den derzeitig eingesetzten Softwaresystemen zu virtuellen Darstellung einer Straßenszene dient. die wichtigsten Algorithmen und technischen Bedingungen werden dabei näher erläutert. Es ist das Anliegen dieser Mastertheis die Möglichkeiten und Techniken der heutigen Computerspieleauf die Software für das Fahrsimulationslabor zu übertragen, um eine hohe Grafikqualität zu erreichen. Zudem soll mit dem entwickelten Prototyp der Prozess der Szenenerstellung für die virtuelle Befahrung deutlich verringert und ein komfortables Werzeug für diese Aufgabe geschaffen werden.
Im Rahmen der Diplomarbeit soll das Optimierungspotenzial der Trenngüte, der Verfügbarkeit und der Energieeffizienz einer LVP-Sortieranlage untersucht werden. Die Verbesserung der stofflichen Trennung der Abfallmaterialien und das Einsparen von Energie sind die Hauptziele bei der Optimierung der Sortierung. Möglichkeiten der Energieoptimierung sind dahingehend zu analysieren. Die Verbesserung und der Ausbau der eingesetzten Technik bilden die Grundlage dieser Untersuchung.
In der vorliegenden Arbeit wurde die Wechselwirkung des Bioliganden Glutathiondisulfid (GSSG) mit sechswertigem Uran untersucht. Dafür wurden hauptsächlich die Kernspin-resonanz- (NMR) und die zeitaufgelöste Laser-induzierte Fluoreszenz-Spektroskopie (TRLFS) eingesetzt. Es wurden Probereihen mit unterschiedlichen Gesamt-Konzentrationen und Ligand-zu-Metall-Verhältnissen in wässriger und deuterierter Lösung hergestellt. NMR-spektroskopisch wurden sowohl ein- als auch zweidimensionale Methoden genutzt, wobei der Fokus auf den Kernen 1H und 13C lag. Als spektrale Parameter wurden insbesondere die chemische Verschiebung, die skalare Kopplung und die Linienbreite analysiert. Die Komplexbildung wurde in Abhängigkeit des pH bzw. pD-Wertes im Bereich von pD 2 bis pD 8 untersucht. Für das Komplexierungsverhalten konnten sowohl eine Konzentrations- als auch eine Verhältnisabhängigkeit festgestellt werden. Bei höheren Konzentrationen waren die Protonen generell besser abgeschirmt. bei pD 2 konnte, vor allem am α-Proton der Glutaminsäure, bei höheren Konzentrationen eine stärkere Wechselwirkung beobachtet werden. Über den gesamten pH-Bereich wurden Fällungs-reaktionen beobachtet, die einerseits auf die Komplexierung, andererseits auf die mit steigendem pH-Wert sinkende Löslichkeit des Uran(VI) zurückzuführen sind. Deutliche Änderungen im Spektrum zeigen sich selbst noch bei Kernen, die drei Bindungen von den Carboxyl-Sauerstoffatomen entfernt liegen, was auf deren Uran-Bindung schließen lässt. Im Vergleich zu freiem GSSG, das im Vorfeld dieser Arbeit unter sonst gleichen Bedingungen untersucht wurde, sind die Wechselwirkungen in saurem Milieu besonders deutlich zu sehen. Die mittels TRLFS untersuchten ausgewählten Präzipitate und die Überstände zeigten im sauren Milieu deutliche Banden, die dem U(VI)-GSSG-Komplex zugeordnet werden konnten. Weiterhin wurden für pH 3 Assoziationskonstanten anhand der Stern-Volmer-Gleichung ermittelt. Aus dem Datenfit ging hervor, dass sich abhängig vom Ligand zu Metall Verhältnis ein 1:1- und ein 2:1-Komplex bildet. Die Konstanten wurden zu pKAss,1:1 = 4,6 ± 0,1 und pKAss, 2:1 = 3,31 ± 0,9 bestimmt. Zur Bestimmung wurden unterschiedliche Methoden heran-gezogen .Basierend auf den gewonnenen Daten und deren Vergleich mit der Literatur wurden Strukturvorschläge erstellt.
Die hier vorliegende Bachelorarbeit beschäftigt sich mit dem Thema der Elektrofiltration mit angelegtem Gleichspannungsfeld unter dem Schwerpunkt der elektrolytischen Entkeimung. Im Rahmen dessen wurden zwei Filtrationsreaktoren unterschiedlicher Geometrie mit jeweils zwei kontaktierten porös keramischen Rohrmembranen aus Titandioxid hinsichtlich ihres potentiell möglichen Verwendungszweckes zur Behandlung von Prozesswässern mittels Elektrolyse und Filtration untersucht. Für die Laborversuche wurden unterschiedliche Variationen von Überströmung, Spannung und Natriumchloridkonzentration gewählt, um die günstigste Fahrweise der beiden Filtrationsreaktoren zur Bildung von freiem Chlor zu ermitteln. Zur Untersuchung der Überströmung der Rohrmembran wurden Strömungssimulationen durchgeführt. Dafür wurde die Strömung zuerst im Labor mit in den Reaktor eingebrachten Gasblasen visualisiert. Danach erfolgten am CAD-Computermodell der beiden Filtrationsreaktoren numerische Strömungsberechnungen über das Programm Solidworks Flow Simulation. Darauf wurden die Strömungen im Reaktorinneren der beiden Filtrationsreaktoren untersucht und miteinander verglichen. Nach den Strömungssimulationen mit dem Programm Solidworks Flow Simulation und anschließenden E-Feld-Simulationen mit dem Programm ElmerGUI wurde die zweite Reaktorgeometrie hinsichtlich u. a. AV-Wert und elektrischer Feldstärke weiter optimiert.
Die mittels Cone-Beam-CT geführte Radiotherapie stellt eine Möglichkeit zur Beurteilung der Qualität der Bestrahlung von Patienten mit Prostatakarzinom dar. Ziel der Arbeit ist es, die intrerfraktionellen Organbewegungen von Blase, Rektum und Prostata auszuwerten und deren Zusammenhang zwischen Volumen und Dosis zu untersuchen. Hierfür wurden von 30 Patienten mit Prostatakarzinom jeweils 10 CBCT Datensätze im Bestrahlungsplanungssystem bearbeitet und ausgewertet. Die Studie zeigt, dass eine moderate Blasenfüllung sowie ein leeres Rektum die Chance des erwünschten Therapieerfolges verbessert. Aufgrund der durch interfraktionelle Varianz von Blase und Rektum verursachten Prostataverschiebung ist das regelmäßige CBCT zur Lagerungskontrolle sowie die Patientenaufklärung zu Ess- und Trinkverhalten während der Behandlungen ein wichtiger Bestandteil einer IMRT geplanten Strahlentherapie.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Eignung des Rastertunnelmikroskops der Schweizer Firma Nanosurf AG, dem NaioSTM, für den Einsatz im Praktikum. Dabei sollen topographische sowie spektroskopische Messungen an verschiedenen leitfähigen Probenoberflächen durchgeführt werden. Eine Erweiterung des verwendeten Portfolios zur Oberflächenanalytik stellt im Studium immer eine Bereicherung dar. Zu Beginn wird eine Einführung in die Thematik der Rastertunnelmikroskopie dargelegt. Dazu gehören theoretische Grundlagen als auch Aufbau und Funktionsweise einzelner Komponenten. Für anschließende Untersuchungen wurden zum einen gängige Standardproben, wie HOPG (hoch orientierter pyrolytischer Graphit), zum anderen aber auch speziellere Proben, wie Wolframdiselenid, gewählt und deren Eignung für verschiedene Messverfahren bewertet. Des Weiteren wurden Proben in Bezug auf verschiedene Eigenschaften, wie zum Beispiel die Oberflächenrauheit, miteinander verglichen und diskutiert.
Es wurde eine Messanordnung entwickelt mit der es möglich ist, unter festen Winkeln, die Reflexions- sowie die Polarisations- Eigenschaften reflektierender Oberflächen zu bestimmen. Im Zuge dessen wurde eine geeignete Lichtquelle ausgewählt, sowie ein dafür passendes Spektrometer. Die Messanordnung wurde so konstruiert das mit ihr auch Messungen von Flüssigkeiten und flüssigkeitsfilmen möglich sind. Des weiteren wurden Messungen an verschiedenen Probendurchgeführt.
Die Beschichtung ist in der Technik in den unterschiedlichsten Bereichen verbreitet. Funktionelle Schichten müssen geprüft werden, was mit zerstörungsfreien Analyseverfahren, unter der Zuhilfenahme von Röntgenstrahlung, erfolgt. Der Einfluss der Abscheidemethoden, thermische Verdampfung und Hochfrequenz Sputtern (kurz: HF Sputtern), auf die Texturausbildung wird am Beispiel von Silberschichten auf Glas untersucht. Es werden die Auswirkungen der Schichtdickenvariation und der Veränderung des Einfallswinkels der Silberteilchen in beiden Verfahren diskutiert. Zur Auswertung und grafischen Darstellung der Texturen finden Isoliniendiagramme (oder auch Polfiguren) Anwendung. Erkenntnisse über die Ausbildung der Textur sollen gewonnen werden.
Teilautomatisierte Rekonstruktion komplexer technischer Objekte und Szenen mittels Microsoft Kinect
(2014)
Diese Arbeit beschäftigt sich mit der Erzeugung dreidimensionaler Abbildungen der Realität. Dafür müssen die Oberflächen der realen Objekte ermittelt werden. Um diese ermitteln zu können, werden Tiefenmessungen mithilfe der Microsoft Kinect durchgeführt. Die daraus entstehenden Punktwolken werden dann in einer Datenstruktur organisiert und auf die Triangulation vorbereitet. Um die Triangulation durchführen zu können, wird in der Arbeit eine abgewandelte Form des Spiraling-Edge-Verfahrens entwickelt und angewendet. Das Ergebnis ist eine approximierte digitale Version der realen Oberflächenstruktur. Der in dieser Arbeit entwickelte Ansatz ist dabei in der Lage, Oberflächen unbekannter Größe auf leistungsschwachen Rechnern zu erfassen.
Methods of analyzing the structural integrity of compound materials under stressed conditions becoming more importantly. Not merely safety and economic reasons demanding a good monitoring of e.g. wind turbine blades or aircraft wings but also ecological ones. The existing strategy for the blades is to replace them at a certain schedule, resulting in unnecessary downtimes and high cost. Several possibilities of an optical structural health monitoring system been examined in this thesis. Both free-space and fiber-based setups are tested and evaluated in their usability. The methods were tested with the objective of embedding them into large-scale polymer structures such as the mentioned fields of application.
In der „High-k Metal Gate“ Technologie ist Titannitrid aktuell eines der wichtigsten Elektrodenmaterialien. Am NaMLab wird es u.a. auch in ferroelektrischen Kondensatoren eingesetzt. Um Prozess- und Wartungszeit zu reduzieren, ist das Ziel dieser Arbeit einen DC-Magnetron-Sputter-Prozesses in einer Hochvakuum-Anlage als Alternative zum vorhandenen Prozess in einer Ultrahochvakuumanlage zu etablieren. Letztere dient dabei als Referenz zur Beurteilung der Schichtqualität. Anfangs werden Prozessdruck und das Flussverhältnis von Stickstoff zu Argon bei Raumtemperatur optimiert. Aus der Anlagen-Geometrie ergeben sich Plasmainstabilitäten bereits bei deutlich höheren
Drücken als in der UHV-Anlage. Dies limitiert den verfügbaren Parameterraum, sodass auch bei 350°C nur 2/3 der Leitfähigkeit der Referenzschichten erreicht werden. Es wird gezeigt, dass mittels RF-Plasma am Substrat sowohl die Dichte als auch Leitfähigkeit deutlich erhöht werden können. Bei Raumtemperatur sind die Schichten aus der HV-Anlage leitfähiger als die aus der UHV-Anlage. Mit steigender Substrattemperatur gleichen sich die Werte an. Als abschließender Test werden ferroelektrische Kondensatoren mit TiN-Elektroden aus beiden Anlagen untersucht. Vergleichbare Ergebnisse in Kapazitäts- und Polarisationsmessung sowie geringerer Leckstrom bestätigen die Eignung des neuen Prozesses mit RF-Plasma.
Die vorliegende Arbeit beschreibt die elektrochemische Abscheidung von Aluminium aus ionischen Flüssigkeiten. Ionische Flüssigkeiten sind unterkühlte Salzschmelzen, welche bei weniger als 100 °C flüssig sind. Durch die Verwendung solcher Flüssigkeiten als Elektrolyte ist es möglich auch Metalle und Legierungen galvanisch abzuscheiden, welche ein negatives Standardpotential gegenüber Wasserstoff aufweisen. Somit ist die Abscheidung von Al, Ti, Li und La möglich. Metalle, die aus wässrigen Elektrolyten abgeschieden werden, können zusätzlich aus diesen Elektrolyten reduziert werden. Dazu zählen z. B. Cu, Ni, Pd und Ag. Ziel dieser Arbeit ist die Herstellung von galvanisch abgeschiedenen Al-Schichten aus der ionischen Flüssigkeit 1-Ethyl-3-Methylimidazolium-Chlorid. Das elektrochemische Verhalten des Elektrolyts wird charakterisiert. Die anschließende Abscheidung erfolgt auf Si-Substraten mit unterschiedlichen Startschichten (Cu, Au) und verschiedenen Abscheideparameter. Die hergestellten Schichten werden hinsichtlich ihrer Mikrostruktur, den elektrischen Eigenschaften, der Drahtbondfähigkeit und der Haftung zum Substrat untersucht und bewertet.
Bei der Herstellung eines Fahrzeuges gibt es viele sicherheitsrelevante Tätigkeiten. Gerade in dem Bereich Verschraubungen am Automobil, wie zum Beispiel die Airbag-Verschraubung, spielt dies eine wichtige Rolle. Um diese Sicherheit zu gewährleisten, gibt es bei der Bayrischen Motoren Werke Group (BMW Group) ein Werkzeugassistenzsystem. Dieses garantiert die automatische Zuordnung eines Schraubauftrages zum richtigen Fahrzeug mit den richtigen Schraubdaten, wie zum Beispiel Drehmoment und Drehwinkel. Dieser Prozess untersteht nicht nur einer ständigen Überwachung sondern auch einer ständigen Optimierung. Im Rahmen einer Pilotinstallation bei der BMW Group erfolgt die Konzeption und Entwicklung eines Ortungs- und Identifizierungssystem zur Unterstützung und Automatisierung dieses Werkzeugassistenzsystems. In der vorliegenden Arbeit wird dabei auf die aktuellen Technologien und Systeme eingegangen und deren Schwächen analysiert. Mit Hilfe der Analyse wird ein Soll-Konzept beschrieben um die Machbarkeit dieses Ortungs- und Identifizierungssystems in der Automobilindustrie nachzuweisen. Ergebnis der praktischen Realisierung des Pilotprojektes ist eine ganzeinheitliche Anwendung mit einem automatisierten Zusammenspiel zwischen dem Lokalisierungs(Ortungs-) und Identifizierungssystem und dem Werkzeugassistenzsystem (LIS/WAS). Das primäre Ziel dieser Masterarbeit ist die Gegenüberstellung der aktuellen Systeme und des Pilotsystems sowie dessen Machbarkeitsnachweis in der Automobilindustrie. Dabei wird auf die Anforderungsanalyse und das Testmanagement eingegangen. Als sekundäres Ergebnis wird eine Standardisierung und Generalisierung des Testmanagements entwickelt, um die zukünftige Verwendung des LIS/WAS in verschiedenen Werken zu vereinfachen und zu unterstützen
Das Thema dieser Arbeit umfasst die Entwicklung, den Aufbau und die Optimierung verschiedener Auswerteelektroniken zur Verstärkung des Ausgangssignals von piezoelektrischen Freiträgern (PE-Cantilevern) für die Anwendung in Rasterkraftmikroskopen (AFM). PE-Cantilever, die als Abraster-Element von Oberflächen in AFMs fungieren, bieten in der Rasterkraftmikroskopie entscheidende Vorteile in Bezug auf Integrierbarkeit, Scan-Geschwindigkeit und Reduzierung der Elektronikkomplexität. Für den Funktionsnachweis dieser Art des Rastervorgangs mit piezoelektrischen Cantilevern werden vier verschiedene Verstärkerschaltungen entwickelt und charakterisiert. Diese werden anschließend mit kommerziellen Verstärken anhand ausgewählter Messparameter verglichen und evaluiert. Zusätzlich wird ein Funktionsdemonstrator für den Einsatz der PE-Cantilever aufgebaut, um mit Hilfe der Verstärkerschaltungen deren Funktion nachzuweisen.
Die Arbeit behandel die Umweltbeeinträchtigung und Umweltbeansruchung durch den Handel. Das Umweltmanagement ist als Bereich des Management zu verstehen, welches die Aufgabe hat die gestellten oekologischen Entscheidungs probleme im Sinne der Unternehmensziele zu lösen. Betroffen sind alle Bereiche in einem Unternehmens, von der Unternehmenskultur, Personalmanagement, Organisation, Einkauf, und Controlling.
Das Ziel der vorliegenden Masterarbeit ist es, die bestehenden semantischen Ansätze im Referenzprojekt A²LICE zu erweitern oder unter Anwendung neuer semantischer Technologien zu optimieren. Der Fokus im Rahmen der Themenstellung lag dabei auf der Konzeption einer Aktivitätserkennung für dieses Projekt. Die erste Phase umfasste zunächst die Analyse von Einsatzpotentialen aktueller semantischer Technologien, welche als Kerntechnologien des Web 3.0 verstanden werden. Ergänzend dazu wurde eine Analyse von A²LICE, insb. seiner semantischen Aspekte, durchgeführt, um daraus eine Anforderungsspezifikation abzuleiten. In der anschließenden Phase erfolgte, basierend auf den gewonnenen Erkenntnissen, eine Analyse von potentiellen Lösungsansätzen. Aus diesen Ansätzen wurde der erfolgversprechendste Ansatz, welcher auf Bayesschen Netzen beruht, ausgewählt. Dieser diente anschließend als Basis für die Entwicklung eines Konzeptes zur Aktivitätserkennung sowie zur Optimierung der bestehenden semantischen Konzepte. Die dritte Phase beinhaltete die Implementierung eines Prototyps anhand eines Beispielszenarios auf Basis der vorangegangenen Konzeptionsphase. Diese erfolgte in der Programmiersprache Java unter Nutzung des OpenSource
Diese Arbeit wurde in dem Unternehmen msg Systems AG in der Geschäftsstelle Chemnitz erstellt. Sie befasst sich mit der Software msg.Businesspartner, das zur Verwaltung von Geschäftspartnern für Versicherungsunternehmen dient. Dieses Programm wurde modellgetrieben mit dem Tool Innovator entwickelt. In dieser Arbeit wird beschrieben wie das Tool Innovator, durch Xtext ersetzt werden kann. Hierfür wird erläutert auf welche Weise diese Migration durchgeführt wurde. Die Arbeit umfasst zur Einleitung eine kurze Einführung zur modellgetriebenen Softwareentwicklung und DSLs sowie die Grundlagen zu Xtext. In Bezug auf die Migration wird erläutert welche Probleme auftraten, wie sie gelöst wurden und wie die Lösung schließlich umgesetzt wurde.
Die vorliegende Arbeit befasst sich mit der Struktur, Modellierung und Manipulation von Graphendatenbanken. Insbesondere wird dabei auf Neo4J und die Abfragesprache Cypher eingegangen. Ziel ist es dem Nutzer die Grundlagen mit dem Arbeiten an diesem Datenmodellen zu vermitteln um ein praktisches Arbeiten damit zu ermöglichen. Zudem wird auf die Erstellung eines Plugins für die plattformübergreifende Datenbanken Lernsoftware DiTZ eingegangen.
Die Arbeit befasst sich mit der Einführung eines Helpdesk-Systems im Heinrich-Braun-Klinikum gGmbH. Zur Einführung zählt die theoretische Funktionsweise eines Servicedesk im Unternehmen mit dessen Komponenten, die Suche eines solchen Systems sowie dessen Einführung in der Abteilung Medizinische Informatik und die Schulung der Nutzer. Dafür werden Statistiken erstellt und ausgewertet um eine Grundlage für die Einführung des Systems zu bilden. Anschließend wird die Installation und Konfiguration des Helpdesk-Systems beschrieben und ausgewertet. Ein wesentlicher Teil der Arbeit befasst sich mit Grundlagen zum Thema ITIL und dessen Kernpublikation in der aktuellen Version. Besonders betrachtet werden dabei die Prozesse Incident Management und Request Fulfilment in der Prozessgruppe Service Operation.
Langzeitmonitoring von Krankenhausabwasser hinsichtlich des Verhaltens ausgewählter Antibiotika
(2014)
In Vorbereitung auf die Umsetzung der WRRL wurde im Rahmen des PILLS-Projektes eine Pilotkläranlage am MHG errichtet. Neben anderen Spurenstoffen werden seit September 2011 dort unter anderem Antibiotika im Rahmen eines Monitorings untersucht. Im Abwasser des MHG sind hohe Konzentrationen von dem Fluorchinolon Ciprofloxacin, sowie den Metaboliten dh-Erythromycin und N4-Acetyl-Sulfamethoxazol nachweisbar. Nach Analytik des Jahresganges der Antibiotika konnte eine Periodizität für die kumulierte Antibiotikafraktion nachgewiesen werden; die Werte liegen im Sommer etwa 2 µg/L niedriger als im Winter. Für die Makrolide, die vermehrt für die Therapie von Atemwegsinfektionen sowie im HNO-Bereich eingesetzt werden, kann eine Periodizität im Jahresgang vermutet werden, ebenso für die Fluorchinolone Ciprofloxacin und Ofloxacin. Für die Plausibilisierung der gemessenen Werte wurde eine Prognose der Antibiotikakonzentration im Abwasser (PEC) aufgrund von Verbrauchsdaten, Ausscheidungsrate und Wasserabfluss errechnet. Problematisch hierbei ist, dass für die jeweilige Ausscheidungsrate der einzelnen Antibiotika unterschiedlichste Literaturangaben gibt; außerdem schwankt sie für unterschiedliche Applikationsformen. Weiterhin wird bei dieser Berechnung das chemische Verhalten der Antibiotika im Abwasser nicht berücksichtigt. Während für ß-Lactame aufgrund hoher Verbrauchszahlen eine hohe PEC errechnet wurde, sind sie am Abwasser kaum nachweisbar aufgrund des instabilen ß-Lactamringes. Sinnvoller kann hier die Anwendung der Wiederfindungsrate sein, bei der aus Abwasserkonzentration und Verbrauchsdaten der Anteil errechnet wird, der tatsächlich im Abwasser nachweisbar ist. Der im Rahmen des Intensivmonitorings untersuchte Wochenverlauf lässt auf einen Wochengang schließen, bei dem gegen Anfang und Mitte der Woche höhere Konzentrationen nachgewiesen werden als am Wochenende. Nach Literaturrecherche entspricht dies auch der Bettenbelegung, die in der Woche höher ist als am Wochenende. Leider liegen für das MHG keinerlei Belegungszahlen vor, so dass hier keine Korrelation zwischen Bettenbelegung und Antibiotikanachweis im Abwasser möglich ist. Die Pilotkläranlage des MHG verfügt über unterschiedliche Behandlungsmöglichkeiten für das Abwasser. Nach der obligaten Behandlung im MBR gibt es die optionalen Stufen Ozonung und Aktivkohleadsorption. Die Eliminationsraten des MBR liegen im Vergleich mit den Literaturwerten sehr hoch, teilweise über den Literaturwerten. Hervorzuheben ist hier das Ciprofloxacin, das zwar eine sehr gute Eliminationsrate hat, aber aufgrund seiner hohen Konzentration im Abwasser auch nach der MBR-Behandlung im Mittel noch über 1 µg/L gemessen wird. Außerdem ist die mangelhafte Elimination von Sulfamethoxazol im MBR zu betonen. Die Mittelwerte von MBR-Zulauf und MBR-Ablauf sind ähnlich hoch, hier findet fast keine Elimination statt. Die Effizienz der weiteren Behandlungsstufen wurde im Rahmen dieser Arbeit nicht untersucht. Die Errichtung und der Betrieb der Pilotanlage führen zu zusätzlichen Kosten, die für die Kalkulation einer Antibiotikatherapie berücksichtigt werden sollten. Während es Antibiotika gibt, deren Einsatz in Bezug auf deren Eliminierung nahezu "kostenneutral" sind (z. B. ß-Lactam-Antibiotika), gibt es andere Antibiotika, für die eine Eliminierung mit mehreren Behandlungsstufen nötig ist (z. B. Sulfamethoxazol). Wenn diese Eliminierungskosten zu den Tagestherapiekosten addiert werden, kann das, gerade für kostengünstige Antibiotika, zu großen Kostensteigerungen führen.
Der Gegenstand des Projektes ist die Entwicklung einer Applikation, welche die angefallenen Kosten durch genutzte, von der Volkswagen AG bereitgestellte, Systeme im Unternehmen gerecht berechnen und verteilen soll. Im Unternehmen der Volkswagen Sachsen GmbH ar-beiten Mitarbeiter, welche bei Partnerfirmen tätig sind. Diese nutzen, ebenso wie die Volks-wagen Mitarbeiter, Systeme der Volkswagen AG um ihre Aufgaben zu erledigen. Da aber für die Nutzung dieser diverse Kosten anfallen, müssen diese berechnet und an die Abteilungen, in welchen die Mitarbeiter der Partnerfirmen tätig sind, aufgeteilt werden. Somit soll sicher-gestellt werden, dass die Abteilungen einen genauen Überblick über ihre monatlichen Kos-ten haben. Für die Berechnung der Kosten bekommt die Volkswagen Sachsen GmbH monatlich eine Liste aller genutzten Systeme zusammen mit deren angefallenen Gesamtkosten, sowie eine Datei mit allen Nutzerdaten des Unternehmens. Diese beiden Informationsmengen werden in der Applikation zusammengeführt und ausgewertet, sodass alle Abteilungen ihre individu-ell verursachten Kosten erfahren können.
Die Arbeit befasst sich mit dem Entwurf und der Entwicklung einer Lernsoftware für verschiedene Datenbankmodelle. Ziel der Arbeit ist ein Programm, das studiengangsüber- greifend in Lehrveranstaltungen der Westsächsischen Hochschule Zwickau zur Demonstration von Datenbankkonzepten eingesetzt werden kann. Bisher wurde zu diesem Zweck die Software SQL-Teacher der Pocketbit GmbH verwendet. Allerdings ist der Einsatz mit Problemen ver- bunden, da die Software nicht plattformunabhängig funktioniert und verschiedenste Systeme von den Studenten verwendet werden. Zudem finden nicht nur in akademischen Kreisen immer mehr Alternativen zu den am weitesten verbreiteten relationalen Datenbanken Anwendung. Daraus resultiert die Anforderung an die Software, modular erweiterbar zu sein, um Module für alternative Datenbankmodelle wie Graphendatenbanken einbinden zu können. Die Arbeit kann grob in zwei Meilensteine eingeteilt werden. Der erste Teil besteht aus der Entwicklung einer Basisanwendung, welche die Plattform für alle weiteren Module zur Verfügung stellt. Im zweiten Teil wird eine Erweiterung für relationale Datenbanken erarbeitet.
Bring Your Own Device umfasst die Integration von mobilen Endgeräten der Mitarbeiter in eine bestehende Infrastruktur eines Unternehmens. Dabei entstehen neben den Vorteilen wie finanzielle Einsparungen, auch Nachteile, die sich besonders beim Betrachten der Sicherheitsrichtlinien bemerkbar machen. Die Arbeit zeigt, wie mit Hilfe des Qt-Frameworks eine leichtgewichtige Lösung realisiert werden kann, die firmenspezifische Anwendungen unter Beachtung von Sicherheitsaspekten hosten und folglich die externe, fremde Hardware in den Produktivprozesse der Firma einschließen kann. Dabei werden die Vor- und Nachteile bereits bestehender Lösungen ermittelt und in die Konzeption der Gesamtlösung einbezogen, um eine optimale Nutzerakzeptanz, sowohl auf der Seite des Arbeitnehmers als auch auf der Seite des Arbeitgebers zu erreichen.
In der vorliegenden Bachelorarbeit liegt das Hauptaugenmerk auf dem Webframework Play. Dieses Framework unterstützt die Entwicklung von flexiblen und skalierbaren Webanwendungen durch die Nutzung von etablierten Web-Standards. Mit Hilfe von Play wird eine neue und intuitive Benutzeroberfläche für ein bereits entwickeltes Softwareprojekt umgesetzt, das im Bereich der Bankensoftware anzusiedeln ist. Entwickelt wurde das Projekt als eine JavaEE-Applikationen, wobei dessen Benutzerschnittstelle mit dem Webframework JavaServer Faces erstellt wurde. Bevor in der Arbeit der Fokus auf die praktische Umsetzung gelegt wird, werden die beiden Softwarekomponenten Bankensoftware und Play Framework vorgestellt. Es wird den Fragen nachgegangen, welche Eigenschaften ein Play Projekt auszeichnet und wie der Zugriff auf die JavaEE-Applikation erfolgen kann. Im Kapitel der Projektumsetzung, wird die resultierende neue Benutzeroberfläche vorgestellt, die Ideen und Gedanken hinter der Gestaltung der Oberfläche erörtert und die Kommunikationsmethoden zwischen dem Play Framework und der Bankensoftware beschrieben.
Heute ist das Internet die größte Informationsquelle, die unter anderem unterschiedliche Suchdienste anbietet. Oft werden solche Suchdienste als Webanwendungen angeboten. In dieser Arbeit werden einige Kooperationsbörsen nach der Verwendung verschiedenen Suchkriterien und Optionen kurz betrachtet. Dabei wird der Akzent auf Kooperationsbörsen und Portale mit automatischen Suchdiensten gemacht, welche nicht nur die Kooperation zwischen den Unternehmen ermöglichen, sondern auch den Universitäten und Hochschulen die Möglichkeit bieten, Forschungspartner zu finden. Das aktuelle Forschungsprofil der Hochschule wird analysiert und dessen relevante Felder werden gesondert betrachtet. Anschließend wird die Möglichkeit der Verwendung von semantischen Technologien bei der Implementierung solcher Suchdienste analysiert und ein mögliches Szenarium vorgeschlagen. Es wird einen Entwurf für den Aufbau der semantischen Webanwendung gemacht und prototypisch umgesetzt. Bei der Anwendungsentwicklung werden die gekennzeichneten Felder des Forschungsprofils in Bezug auf die möglichen Suchparameter betrachtet und bei der Implementierung der Ontologie, die die Wissensbasis der Anwendung darstellt, berücksichtigt.
Die Visite ist wesentlicher Bestandteil für die Entscheidungsfindung an vielen Stationen im Krankenhaus. Während der Visite werden Informationen zum Patienten eingeholt, klinische Aufträge veranlasst sowie Aufgaben ermittelt und koordiniert. Diese werden allerdings nicht formal organisiert, schränken zudem die ArztPatient-Kommunikation ein und sind durch Medienbrüche fehleranfällig. Darüber hinaus wissen die Ärzte nicht in welchem Status sich die Behandlungen und Untersuchungen befinden. In dieser Arbeit wurden Prozessmodelle der einzelnen Phasen der Visite für die Neurologie erstellt und ausgewertet. Basierend auf den Ergebnissen der Analyse wurde ein prozessunterstützter Prototyp einer Anwendungsbereitstellung entwickelt mit Anbindung an die Patientendaten der Informationssysteme. Der abschließende Usability-Test beweist die optimale Unterstützung der Visite-Prozesse, die Vermeidung zusätzlicher Nacharbeit und das alle Befragten das Tablet als hilfreich ansehen und zur Erledigung von Aufgaben einsetzen würden.
Konzeptionierung und Implementierung eines cumputerunterstützten Verfahrens, zur Verwaltung und Steuern des aktuellen Personaleinsatzes der Abteilung Instandhaltung von iwis. Die Mitarbeiter der Instandhaltung sind für die ständige Wartung und Instandsetzung aller Betriebsmittel, wie Maschinen und Werkzeug, verantwortlich. Dieses Anwendungssystem soll zur Optimierung des Personaleinsatzes dienen und somit die Unternehmenskosten reduzieren.
Inhalt der Arbeit ist die Entwicklung einer Transformationskomponente, mit der es möglich ist. ein gegebenes Modell der Modellierungssprache OpenSAGA in ein gegebenes Modell zur Validierung zu überführen. In der Arbeit werden grundlegende Konzepte der Modelltransformation in Anwendung auf die durchzuführende Transformation dargestellt. Parallel wurde Epsilon als eine weitere Transformationssprache betrachtet und mir dem entwickelten Ansatz verglichen.
Räder sind nicht einfach rund. Sie versprechen Sicherheit, Eleganz und Komfort. Dies dem Kunden zu vermitteln, hat sich Mercedes-Benz mit ansprechenden Werbeträgern im Autohaus zu Eigen gemacht. Inhalt dieser Masterarbeit ist, diese Werbeträger im Browser dreidimensional darzustellen und damit die Verkäufer bei der Auswahl der passenden Träger zu unterstützen. Besonderes Augenmerk wird auf eine möglichst realitätsnahe Darstellung, einfa-che Bedienbarkeit und Interkompatibilität gelegt. Bei der Realisierung dieser Masterthesis kommen u.a. die freie Java-OpenGL Grafikengine jMonkeyEngine 3.0 als auch das Modellgetriebene Softwareentwicklungs-Framework GeneSEZ der Westsächsischen Hochschule Zwickau zum Einsatz.
In dieser Arbeit geht es um die Untersuchung des Oxid-CMP-Prozesses für einen Run-to-Run Controller in einem industriellen Produktionsumfeld. Dabei liegt der Fokus auf der Vorhersage der Abtragsrate auf strukturierten Wafern. Diese wird durch eine Reihe produkt- und anlagenspezifischer Parameter beeinflusst, welche für die Prozessierung von bekannten als auch neuen Produkten von großer Bedeutung sind. Im Rahmen dieser Untersuchungen werden die entscheidenden Parameter sowie deren Wechselwirkungen für eine Run-to-Run gesteuerte Bearbeitung an CMP-Anlagen untersucht um eine automatisierte Waferbearbeitung ohne vorherige Abtragsratenbestimmung mittels Pilotwafer zu gewährleisten. Somit kann sowohl die Prozesszeit als auch der Materialverbrauch für die Bearbeitung eines Produktes deutlich gesenkt werden.
In dieser Bachelorarbeit wird eine Software zur Plagiatserkennung für Quellcode gesucht. Diese soll studentische Programmieraufgaben nach Ähnlichkeiten analysieren und aussagekräftig darstellen. Dazu wird eine Auswahl an Software erstellt und auf Basis der Anforderungen, der Westsächsische Hochschule Zwickau, eingegrenzt. Durch eine kurz Vorstellung und nähere Analyse wird sich für ein Produkt entschieden. Von dieser Software wird der Erkennungsprozess, der dafür genutzte Algorithmus, sowie die benötigen Informationen näher erläutert. Aufbauend auf diesen Kriterien werden Voraussetzungen geschaffen um einen Automatisierten Ablauf des Prozesses, mit Hilfe eines Build-Servers, zu gewährleisten. Dafür wird ein Konzept entwickelt und realisiert, welche alle nötigen Informationen sammelt und diese für die Software verständlich aufbereitet und zur Verfügung stellt. Auf Grundlage des Konzeptes und seiner Realisierung wird abschließend ein Ausblick, mit Verbesserungsmöglichkeiten, gegeben.
Im Bereich der Mobilität wird vor allem Forschungs- und Entwicklungsaufwand in die Elektromobilität investiert. Die Durchsetzung von Elektrofahrzeugen in der Praxis wird durch verschiedene Faktoren erschwert. Eine geringe Reichweite, lange Ladezeiten, eine fehlende Ladeinfrastruktur und hohe Anschaffungskosten sind die Argumente, die gegen den Kauf eines Elektrofahrzeuges sprechen. Um Elektrofahrzeuge trotz der genannten Nachteile für potentielle Käufer attraktiv zu gestalten, ist es wichtig, dass heute Werkzeuge zur Streckenplanung zur Verfügung stehen, die den effizienten Einsatz der Akkuladung ermöglichen. Im Gegensatz zu Fahrzeugen mit Verbrennungsmotor, werden an die Navigationssysteme von Elektrofahrzeugen andere Anforderungen gestellt. Die notwendigen Routingalgorithmen bewerten eine Straße nicht nach ihrer Streckenlänge oder Fahrzeit, sondern nach dem Energieverbrauch. Der Energieverbrauch hängt von unterschiedlichen Einflussfaktoren ab, was eine exakte Berechnung erschwert. Zur Berücksichtigung dieser Faktoren werden unterschiedliche Informationen benötigt, die für die Berechnung des Energieverbrauchs benutzt werden. Das können z.B. Informationen über das Straßennetz sowie Informationen über das Fahrzeug sein. In der Arbeit wurde eine Routinganwendung konzeptioniert und entwickelt, die es ermöglicht, die energiesparendste Route zu bestimmen und die Route anhand der auftretenden Einflussfaktoren zu untersuchen. Mit dieser Routinganwendung werden unterschiedliche Faktoren hinsichtlich ihrer Einflussstärke analysiert und bewertet.
Die Bachelorarbeit stellt eine Evaluation von verschiedenen Softwarelösungen für automatisierte Oberflächentests dar. Diese sollen für das von der msg systems ag entwickelte Programm PMQ.Designer eingesetzt werden. Da am Markt verschiedene Softwarelösungen existieren, muss zunächst anhand verschiedener Kriterien eine Selektion durchgeführt werden. Die auf diesem Wege ermittelten Testprogramme sollen kurz vorgestellt und später evaluiert sowie verglichen werden. Die daraus resultierenden Ergebnisse dienen der Bewertung und ermöglichen eine Aussage über deren Qualität. Darauf aufbauend wird eine Entscheidung getroffen, welche Testsoftware für das Unternehmen eingesetzt werden soll.
Die Hüftendoprothese dient dem teilweisen oder vollständigen Ersatz des physiologischen Hüftgelenkes. Die stabile Fixierung eines zementfrei implantierten Hüftschaftes stellt dabei die Grundvoraussetzung für eine hohe Standzeit im Patienten dar. Durch Elemente aus Formgedächtnislegierung kann die Sekundärstabilität unterstützt werden. Diese Komponenten erhöhen dabei die Druckvorspannung zwischen Knochen und Implantat. Es werden zwei verschiedene Varianten zur Verklemmung der Elemente im Hüftschaft vorgestellt. Diese beruhen ebenfalls auf Formgedächtnis-Basis. Unter Einsatz einer entwickelten Versuchsvorrichtung werden die Prinzipien hinsichtlich ihrer Funktionalität überprüft. In einer messtechnischen Prüfung wird die Kraft ermittelt, welche zur Lösung der Verklemmung zwischen den Komponenten notwendig ist. Auf Grundlage der experimentellen Ergebnisse wird eine Vorzugslösung gewählt.
Die Arbeit behandelt das Diplomprojekt zur Installation und Integration einer IT-Systemüberwachungslösung bei der Linamar Antriebstechnik GmbH (Crimmitschau) als Praxispartner. Dabei werden theoretische Kenntnisse zum System-Monitoring vermittelt, welche bei der praktischen Integration des Systems im Unternehmen Anwendung finden. Eine Anforderungsanalyse beschreibt, welche Anforderungen an Monitoring-Systeme aus der vorhandenen IT-Umgebung eines mittelständischen Industrieunternehmens resultieren. Gleichzeitig werden diese beim Vergleich aktueller Software genutzt, um eine den Ansprüchen gerecht werdende Softwarelösung auszuwählen. Während der Konzeptionierung und Planung werden verschiedene Ansätze für die Anpassung von Überwachungssystemen an IT-Umgebungen diskutiert, wobei sowohl Architektur- und Systemklassifizierungsmodelle als auch Benachrichtigungs- und Alarmkonzepte besprochen werden. Der praktische Teil der Arbeit geht auf die Umsetzung der theoretisch gewonnenen Ansätze und Konzepte in die praktische Lösung ein, wobei sowohl Möglichkeiten als auch Hindernisse bei der Überführung der Theorie in die Praxis im Mittelpunkt stehen. Abschließend werden der tatsächliche Nutzen und daraus entstehende Chancen der geschaffenen Monitoring-Lösung für das IT-Team des Unternehmens dargestellt und diskutiert.
Die Arbeit befasst sich mit der Integration von zwei Software-Komponenten für das Anforderungsmanagement und die Validierung von Datenmodellen. Die Integration erfolgte dabei auf Basis der von ScopeSET entwickelten Architektur für einen Daten Model Editor. Für die Integration wurden Eclipse-Technologien wie zum Beispiel EMF und JFace verwendet. Betrachtet wird dabei auch der Prozess des Anforderungsmanagements und der Prozess zu Validierung des Datenmodells unter Verwendung der integrierten Software-Komponenten