Refine
Year of publication
- 2015 (113) (remove)
Document Type
- Master's Thesis (113) (remove)
Institute
Is part of the Bibliography
- no (113)
Die vorliegende Arbeit beschäftigt sich intensiv den Einfluss des Legierungselementes Chrom und der Wärmebehandlung auf die Eigenschaften von Mn-Ga Magnetmaterialien, speziell der Legierung Mn2.48Cr0.12Ga. Die magnetischen Messungen wurden durch Struktur und Gefügeuntersuchungen ergänzt. Die Herstellung der Proben erfolgte in einem Lichtbogenschmelzofen. Die entstandenen polykristallinen Proben wurden für 14 Tage in einem Labormuffelofen getempert. Für die Versuche zur Optimierung magnetischer Eigenschaften wurden verschiedene Temperaturen gewählt. Strukturuntersuchungen mittels Pulver-XRD zeigten kaum Unterschiede, was der schwierigen Präparation von Pulvern geschuldet ist. Die in der Arbeit erprobte XRD an dünnen, geschliffenen und polierten Plättchen ergab drastisch verbesserte Röntgenbeugungs-Diagramme.
Die vorliegende Arbeit umfasst die Übertragung eines patentierten Rolle"=zu"=Rolle"=Plasmaätzverfahrens auf das Polymer PMMA, sowie die Charakterisierung der modifizierten Folien. Der Plasmaätzprozess basiert auf einem Sauerstoffplasma mit einem Doppelmagnetronsystem als Plasmaquelle und wird zur Erzeugung von Nanostrukturen genutzt. Als Targetmaterialien für das Doppelmagnetronsystem werden Magnesium, Aluminium und Titan genutzt. Durch die erzeugten Nanostrukturen wird ein Gradientenverlauf der Brechzahl zwischen Folie und Umgebung erzeugt, wodurch eine breitbandige optische Entspiegelung erreicht wird. Durch die Verbesserung der optischen Eigenschaften der PMMA-Folie soll ein weiteres Material für die Frontseitenverkapselung von optischen Bauelementen untersucht werden. Zunächst werden die mechanischen und optischen Eigenschaften der PMMA-Folie charakterisiert. Die Ergebnisse zeigen, dass PMMA schon eine hohe Transparenz besitzt. Durch die erfolgreiche Übertragung des Prozesses konnte die optische Transmission um 2 % - 3 % für die untersuchten Targetmaterialien erhöht werden. Für die Titantargets ergaben sich die besten optischen Eigenschaften. Die Ergebnisse, sowie REM-Untersuchungen der Nanostrukturen werden vorgestellt. Um den Prozess zu optimieren wurde der Einfluss der Prozessparameter Geschwindigkeit, Leistung und Sauerstofffluss auf die Transmission untersucht. Die ermittelten Zusammenhänge werden gezeigt und diskutiert. Für eine beidseitig behandelte Folie ergab sich eine Restreflexion von unter 1 % pro Seite. Des Weiteren wurden Versuche mit einer Initialschicht durchgeführt, da sich diese auf anderen Polymeren als vorteilhaft erwiesen hat.
Die stetig fortschreitende Miniaturisierung in der Herstellung elektronischer Schaltkreise führt zu immer geringeren Leitungsquerschnitten. Daraus folgt ein Anstieg der Stromdichte, welcher ein erhöhtes Ausfallrisiko des Schaltkreises durch Elektromigration zur Folge hat. Hierbei findet eine diffusionsgetriebene Umlagerung von Kupferatomen statt, wodurch Unterbrechungen der Leiterbahnen oder Kurzschlüsse zwischen benachbarten Leiterzügen entstehen können. Elektromigration kann durch die Abscheidung von Adhäsionsschichten effektiv verringert werden. Hierfür werden auch mittels MOCVD abgeschiedene Kobaltschichten in Betracht gezogen. Ziel dieser Arbeit war es, auf Basis der theoretisch zu erwartenden Einflüsse der ver-schiedenen Prozessparameter einen Versuchsplan zu erstellen und den MOCVD-Prozess zur Herstellung von Kobaltdeckschichten für die Kupfermetallisierung systematisch zu untersuchen. Um Kurzschlüsse zwischen benachbarten Leiterbahnen zu verhindern, musste ein materialselektiver Abscheidungsprozess entwickelt werden. Die Einflüsse der Prozess-parameter auf die Abscheidung wurden untersucht und Auswirkungen auf das Wachstumsverhalten und die Eigenschaften der Kobaltschichten diskutiert. Die Schicht-charakterisierung belegte, dass es gelungen war einen materialselektiven Abscheidungs-prozess zu entwickeln. Es konnte ein Beschichtungsprozess etabliert werden, welcher es ermöglicht Kobalt bevorzugt auf den Kupferleiterbahnen und nicht auf den umliegenden isolierenden Gebieten abzuscheiden. Für ein reproduzierbares Beschichtungsergebnis ist ein in-situ Vorbehandlungsprozess erforderlich. Sowohl für die Entfernung oberflächlicher Adsorbate als auch für die Reduktion von gebundenem Sauerstoff konnte ein effektives Vorgehen entwickelt werden.
Als Ausgangspunkt der Arbeit auf dem Gebiet der Quantum Dot LEDs (QD-LEDs) wurden bereits verschiedene Materialien für Ladungsträgertransportschichten (engl. charge transport layer, CTL), verschiedene Sorten Quantum Dots (QDs) und Aufbringungsmethoden von dünnen Schichten untersucht. Über Langzeitstudien und Degradation war bis dato noch wenig bekannt. Es gab lediglich die Erkenntnis, dass die Elektrolumineszenz (EL) der QD-LED bei Inbetriebnahme einen sofortigen und starken Abfall über der Betriebszeit zeigte. Es gab die Vermutung, dass infolge einer hohen Stromdichte und damit einer hohen Temperatur im Bauteil, die organischen CTLs und auch die emittierenden QDs irreversibel geschädigt werden. Ziel dieser Arbeit ist es, mithilfe genauer Untersuchungen an CTLs und an QDs, die Effizienz und Lebensdauer der QD-LEDs zu erhöhen. Dazu wurden verschiedene Herstellungsparameter variiert wie z.B. die Herstellungsumgebung, die Präparation der Lochinjektionsschicht (engl. hole injection layer, HIL), die Schichtdicke und das Tempern der QD-Schicht, die Substratvorbehandlung und die Verkapselung des Bauteils. Anschließend wurde deren Einfluss auf die elektrooptischen Eigenschaften und das Langzeitverhalten untersucht. Des Weiteren galt es herauszufinden, welche möglichen Degradationsmuster bei den QD-LEDs auftreten und worin deren Ursachen liegen. Aufgrund einer verbesserten Präparation der HIL, bestehend aus Poly(3,4-ethylenedioxythiophene)-poly(styrenesulfonate) (PEDOT:PSS), konnten elektrisch leitfähige und stabile Schichten ohne elektrische Kurzschlüsse hergestellt werden. Durch das gezielte Tempern von QDs konnte mithilfe von Photolumineszenzmessungen herausgefunden werden, dass die verschiedenen Sorten von QDs eine sehr unterschiedliche thermische Stabilität besitzen. Des Weiteren konnte durch eine Vorbehandlung des Substrates aus Indiumzinnoxid (engI. indium tin oxide, ITO) mit einem Sauerstoffplasma, der Kontaktwinkel verringert und die Oberflächenenergie erhöht werden. Aufgrund der verbesserten Adhäsion von PEDOT:PSS entstand somit ein stabilerer Kontakt zwischen den beiden Schichten, wodurch die Langzeitstabilität der QD-LED leicht erhöht werden konnte. Ein Abkühlen des Bauteils nach dem Tempern jeder einzelnen Schicht während des Herstellungsprozesses, bewirkt dabei ebenfalls eine Steigerung der Langzeitstabilität. Durch eine Variation der Schichtdicke der QD-Schicht konnte zudem die optische Leistungsdichte erhöht werden. Im Gegensatz dazu konnte durch eine teilweise Herstellung der QD-LED in einer vereinfachten Glovebox und unter Inertgasatmosphäre, keine Verbesserung der optischen Leistungsdichte und der Langzeitstabilität nachgewiesen werden. Eine Kapselung des Bauteils durch eine mit Epoxidharz befestigten Glasplatte auf der Bauteiloberfläche, führte dabei zu einer starken Verschlechterung der optischen Leistungsdichte der QD-LED. Die Langezeitstabilität des Bauteils wurde durch eine Kapselung zudem nur geringfügig verbessert. Des Weiteren konnte mithilfe von Pulsmessungen der EL und der Photolumineszenz (PL) an einer QD-LED, ein Rückschluss auf die im Bauteil vorliegende Temperatur bei Inbetriebnahme gezogen werden. Insgesamt wurden durch eine verbesserte Herstellung der Bauteile, die elektrooptischen Eigenschaften der QD-LEDs deutlich verbessert. Die Langzeitstabilität der Bauteile konnte dabei durch eine teilweise Herstellung der Proben in einer Inertgasatmosphäre und durch eine Kapselung nicht erhöht werden. Eine Möglichkeit besteht darin, andere Schichtmaterialien und/oder eine invertierte Bauteilstruktur zu testen. Ferner ist eine Präparation der QD-LEDs in einer Glovebox unter reiner Stickstoffatmosphäre zwingend notwendig, um die Effizienz und Langzeitstabilität der QD-LEDs nachhaltig erhöhen zu können.
Die Doppelseitenpolitur (DSP) ist ein wichtiger Bearbeitungsschritt bei der Herstellung von Siliziumwafern, welcher zur Planarisierung der Waferoberfläche und Entfernung der Restdefekte der vorhergehenden Schritte benutzt wird. Im Rahmen dieser Arbeit wurden die Ursachen für die während der DSP-Politur auftretenden Geräusche im Bereich von ca. 850 Hz untersucht, die auf den Stick-Slip- (Haft-Gleit-) Effekt zurückzuführen sind. Die Geräusche wurden aufgenommen und mittels FFT-Analyse charakterisiert. Für den Wafer wurde ein FEM-Modell erstellt, mit dessen Hilfe eine Eigenfrequenzanalyse durchgeführt worden ist. Es wurde nachgewiesen, dass die Frequenz der untersuchten Geräusche der Eigenfrequenz des Wafers entspricht. Des Weiteren wurde festgestellt, dass die Poliermittelfilmdicke hauptsächlich für das Auftreten des Stick-Slips und damit für die Anregung des Wafers maßgebend ist. Abschließend wird ein Modell zur Entstehung des Stick-Slip Effektes bei DSP erstellt und beschrieben.
Der Halbleiterhersteller X-FAB bietet eine Reihe von Technologien (z.B. XH018) in denen CMOS-Photodioden hergestellt werden. Am Ende der Prozessierung werden die Halbleiterbauelemente auf Waferebene geprüft. Bislang konnten nur rein elektrische Parameter wie Kapazitäten oder Durchbruchsspannungen im Prozess Monitoring geprüft werden. Für optoelektronische Parameter, wie beispielsweise die Sensitivität von Photodioden, wird eine flexible Beleuchtung benötigt, die in das bestehende Testsystem integriert werden kann. Die homogene Beleuchtung soll dabei mit verschiedenen Wellenlängen erfolgen, welche das relevante Spektrum repräsentieren. Hauptziel ist die reproduzierbare Messung von Photoströmen, wodurch Prozessunterschiede in dielektrischen Schichten detektiert werden können, die mit rein elektrischen Messung nicht erfasst werden. Bei dem vorgestellten Konzept wird neben der Photodiode auch der umliegende Siliziumwafer beleuchtet. Dadurch entstehen laterale Ladungsträger, welche den Photostrom beeinflussen können. Zur Abschätzung dieses Einflusses wurden Teststrukturen entwickelt und ausgewertet.
Die Konzeptstudie befasst sich mit der Evaluierung unterschiedlicher Konzepte von Avalanche Photodioden in einer 0,18 µm CMOS- Hochvolttechnologie. Die Anforderungen für die Avalanche Photodioden liegen bei einer Durchbruchspannung von 14 V in Sperrrichtung und haben eine maximale Quanteneffizienz von 850 nm/940 nm im nahen infraroten Bereich. In Betracht wurden fünf verschiedene Strukturen gezogen. Anhand von TCAD-Simulationen ließen sich unterschiedlichen Parameter der APDs untersuchen und Prozesseinflüsse definieren. Ein Abgleich der Simulationsmodelle erfolgt über die Messung mit einer Referenzdiode. Mit dieser Vergleichsmessung lässt sich die Gültigkeit der Simulation bestätigen oder widerlegen. Nur so können die Ergebnisse der APDs eingeordnet werden.
Flammengestützte Abscheidung verschiedener Schichtsysteme und Optimierung des r-CCVD Prinzips
(2015)
Die vorliegende Arbeit beschäftigt sich mit der flammengestützen Abscheidung verschiedener Schichtsysteme unter der Zuhilfenahme des remote Combustion Chemical Vapor Deposition Verfahrens. Zahlreiche und hydrolytisch umsetzbare Precursoren konnten recherchiert werden. Unter verschiedenen Bedingungen erfolgte eine Auswahl an bestimmten Precurso-ren zur Erprobung. Titandioxid- (mittels Titantetraisopropoxid und Titanethoxid), Siliziumdi-oxid- (Hexamethyldisiloxan und Triethoxyorthosilikat), Aminosilan- (3-Aminopropyltriethoxysilan) und Aminotitanatschichten (Isopropyl tri(N-ethylene diamino)ethyl titanat) wurden erzeugt und ihre Schichteigenschaften mit unterschiedlichen instrumentellen Anlagen charakterisiert. Zu den Charakterisierungsmöglichkeiten gehörten ein Profilometer zur Schichtdickenbestimmung, Röntgen-Photoelektronenspektroskopie (XPS) und energie-dispersive Röntgenspektroskopie (EDX) zur Elementanalyse sowie ein Röntgendiffraktome-ter mit streifendem Einfall (GIXRD) zur Zusammensetzungsbestimmung. Weiterhin erfolgten Rasterelektronen- (REM), Raster-Kraft-Mikroskopie (AFM) und Grauwertmessungen zur Bestimmung der Oberflächenbeschaffenheit. Die Anlagenoptimierung erfolgte hinsichtlich Abscheiderate durch die Erprobung unternehmensentwickelter Verdampfereinheiten und hin-sichtlich des Prozessparameters Temperatur der Precursorsprühleiste.
Schleifen ist ein bedeutsames und hochpräzises Verfahren in der mechanischen Fertigung. Durch verschiedene Einflüsse kann es bei der Bearbeitung von Werkstücken zur Entstehung von Schleifbrand kommen. Schleifbrand ist eine lokale Gefügeumwandlung im Bauteil, die Belastbarkeit und Langlebigkeit des Werkstückes herabsetzt. Eingeführte Detektionsverfahren für die Erkennung von Schleifbrand sind: Wirbelstromprüfung und Nitalätzung. Um die Funktion dieser Verfahren in regelmäßigen Abständen zu prüfen, werden Vergleichskörper mit künstlicher Inhomogenität durch Laserbehandlung hergestellt. Zur Verbesserung der Prozessfähigkeit und zur Minimierung des Geometrieeinflusses der Bauteile wurde eine Optimierung der Laseroptik durchgeführt. Für die Auslegung der Optik wurde eine Strahlcharakterisierung des kollimierten und fokussierten Strahls vorgenommen. Es wurde eine Aufweitung des Laserstrahls durchgeführt und der Arbeitspunkt wurde vom des fokussierten Stahl in den Fokus verschoben. Benutzt wurde hierfür eine zweilinsige Teleskopanordnung. Daraufhin wurde die Funktionalität der optimierten Optik mit diversen Probenkörpern unter Variation Prozess-, Material- und Geometrieparameter untersucht. Die Ergebnisse der Laserbehandlung mit optimierter Laseroptik wurden mit denen der Ausgangsoptik verglichen und eine Verbesserung der Prozessfähigkeit festgestellt.
Die vorliegende Masterarbeit beschäftigt sich mit dem Verfahren der thermischen Hochrateverdampfung zur Abscheidung von aluminiumbasierten Schichten auf Kleinteilen, die als Schüttgut behandelt werden. Realisiert wird dies mit der am Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik (FEP) entwickelten Versuchsanlage ALMA 1000. Die Anlage vereint zwei physikalische Dampfabscheidungs-prozesse (engl.: physical vapor deposition
Die vorliegende Arbeit behandelt die Konstruktion eines Molekülverdampfers für die Ab-scheidung von endohedralen Fullerenen unter Ultrahochvakuumbedingungen zur Herstellung von geeigneten Proben für die Tunnelmikroskopie. Anhand erster tunnelmikroskopischer Messergebnisse zu Er3N@C80 auf Metalloberflächen wird die Funktionsfähigkeit des Verdampfers eindrucksvoll bestätigt. Nach einer kurzen Vorstellung der abzuscheidenden endohedralen Fullerene werden die für den Verdampfungsprozess relevanten thermodynamischen Grundlagen zusammengefasst dargestellt. Anschließend wird der Aufbau des Verdampfers präsentiert. Über Betrachtungen zu den Grundlagen der Tunnelmikroskopie soll die Interpretation der im darauf folgenden Kapitel vorgestellten Messergebnisse ermöglicht werden. Rastertunnelmikroskopische und -spektroskopische Daten zu Er3N@C80 auf Wolfram Gold werden gezeigt.
Für die Charakterisierung von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen wird eine Messprozedur benötigt, die den Anforderungen einer solchen Produktion gewachsen ist. Zum einen ist es notwendig, dass die Genauigkeit und Präzision der verwendeten Messsysteme besser ist, als die Prozessstreuung der Abscheideprozesse. Nur so ist es möglich den Prozess zu kontrollieren. Hierfür werden in der Masterarbeit die Messsysteme mit Hilfe einer Messsystemanalyse untersucht. Zum anderen ist es notwendig, den Eingriff in den Herstellungsprozess so gering wie möglich zu halten. Hierfür werden in der Masterarbeit alternative Messmethoden zur Charakterisierung der elektrischen Eigenschaften der Indium-Zinn-Oxid-Schichten evaluiert. Als Ergebnis der Masterarbeit wird eine Messprozedur dargelegt, die für die Charakterisierung der elektrischen Eigenschaften von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen geeignet ist.
Für die Entwicklung neuer Medikamente und zur Züchtung künstlicher Organe ist es essenziell, die Wechselwirkungen zwischen verschiedenen Organen zu Untersuchen. Darum ist es notwendig, über ein komplexes und realitätsnahes Modellsystem zu verfügen, Lab-on-Chip Bioreaktoren bieten diese Möglichkeit. Ziel dieser Arbeit ist es, ein Messsystem zu entwickeln, das unter Ausnutzung von im Stoffwechsel aller eukaryotischen Zellen vorkommenden Substanzen zur kontinuierlichen Überwachung der Zellen geeignet ist. Als geeignete Markerfreie Messung hat sich die Fluoreszenzlebensdauermessung an NADH erwiesen. Die Änderungen des Metabolismus der Zelle sowie ihrer Umgebung führen zu einer Verschiebung der Fluoreszenzlebensdauer im einstelligen ns-Bereich. Da einige Stoffwechelprozesse in allen eukaryotischen Zellen gleich sind, konnte Saccharomyces cerevisiae als Modellorganismus zur realitäsnahen Messung eingesetzt werden. In dieser Arbeit wurden zeit- und frequenzbasierte Messmethoden zur ns-genauen Bestimmung der Fluoreszenzlebensdauer untersucht. Dabei wurden die Zellen gezielt mit den zellschädigenden Stoffen HCl sowie Triton-X100 behandelt und die Änderung vermessen. Es konnte gezeigt werden, dass sich die Fluoreszenzlebensdauer bei induzierter Apoptose um 1,4 ns verlängert, sowie durch induzierte Nekrosen um 0,5 ns verringert. Die Messergebnisse zeigen, dass es möglich ist, den Vitalitätszustand der Zellen optisch zu analysieren.
In dieser Arbeit wird die Übersetzungsstrategie bei der politischen Rede aus dem Blickwickel der funktionaler Übersetzungstheorie analysiert. Als Beispiele hat die Verfasserin vier verschiedenen Redestexten von der Bundeskanzlerin Angela Merkel aus Deutsch ins Chinesisch übersetzt und analysiert. Die funktionalistische Übersetzungstheorie geht in die 1970er Jahren auf die deutschen Translationswissenschaftler Katharina Reiß, Hans Vermeer, Justa Holz-Mänttari und Christiane Nord zurück. Die Entstehung und Entwicklung des deutschen Funktionalismus ist insgesamt in vier Stufen untergliedert, die jeweils von vier bekannten Gelehrten vertreten werden können, welche eine neue Perspektive für die Forschung der Übersetzung gelegt haben und die Lücke zwischen Übersetzungstheorie und Übersetzungspraxis verengt haben. Bedeutend für die erste Stufe ist Katharina Reiß, die als Begründerin des deutschen Funktionalismus angesehen wird und die Theorie der Übersetzungskritik sowie die Theorie der Texttypologie aufgestellt hat. In der zweiten Stufe folgt Hans J Vermeer. Um die Lücke zwischen der Übersetzungstheorie und der Übersetzungspraxis zu überbrücken, stellte er zum ersten Mal in seiner "Grundlegung einer allgemeinen Translationstheorie" die Skopostheorie auf, die später als wichtigste Theorie des Funktionalismus betrachtet wird. Die Skopostheorie trägt dazu bei, dass Übersetzer bei der Translation den Fokus nicht mehr nur auf dem Ausgangstext legen. Im Gegenteil betont er, dass auf die Funktion des Zieltextes mehr Gewicht gelegt werden muss. Als drittwichtigste Vertreterin des deutschen Funktionalismus schlug Justa Holtz-Mänttäri das Konzept der "translationalen Handlung" im Jahr 1981 vor. Danach wurde Übersetzung als ein Zusammenwirken von interkultureller und interlingualer Handlung betrachtet. Darauf hat Christiane Nord in der vierten Stufe auf einer Seite zum ersten Mal eine gesamte und systematische Erfassung und Zusammenfassung verschiedener funktionalistischen Theorien auf Englisch durchgeführt. Auf der anderen Seite stellte sie auch das Funktion-Plus-Treue-Prinzip als Ergänzung zum deutschen Funktionalismus auf. Darüber hinaus verlangte sie, dass in einer translatorischen Handlung der Übersetzer versuchen soll, für alle in der Übersetzung engagierte Teilnehmer verantwortlich zu sein und alle Beziehungen zu koordinieren. Auf dem theoritischen Grundlage von der funktionalen Theorie werden zuerst die übersetzungsrelevante Analyse durchgeführt, die in der textexternen Faktoren wie Situativer Hintergrund, Kontext, Adressat, Kultur, Funktion- und Skopos, sowie der textinternen Faktoren wie Textthematik, Textinhalt, Lexik, Syntax, Textlinguistik eingeliedert wird.Durch die Analysieren sind bessere Verständnisse und Übersetzungen gegenüber der Ausgangstexten möglich. Auf diesem Basis werden die Mikrostrategien bei verschiedenen Übersetzungsfällen jeweils auf der semantischer Ebene und auf der syntaktischer Ebene aufgestellt, wie z.B. Wortartenwechseln, Wortbedeutungsveränderung, Weglassen mancher Wörtern, Synonymische und antonymische Übersetzung, Wechseln der positiven und negativen Bedeutung, Wechseln des Aktivs und Passivs, Umschreibung des Konjunktivs, Anpassung und Änderung der Satzfolge, Abbauen und Re-aufbauen der komplexen Sätzen, Entmetaphorisierung und Metaphorisierung usw.. Nach dem Funktionalismus soll ein Übersetzer sowohl für die Sender als auch für die Empfänger verantwortlich sein. Bei der Übersetzung der politischen Redetexte soll man insbesondere die Absichten des Redners bzw. der Rednerin, der Redensform, der stilistischen Merkmale der Ausgangssprache, die Ausdrucksgewohnheiten der Zielsprache sowie die Wirkung der Zielsprache auf die Empfänger beachten.
Obwohl die wirtschaftliche Entwicklung Chinas derzeit sinkt (OECD 2015: 13) und das Land keinen neuen Wachstumsrekord aufstellt, ist das wirtschaftliche Wachstum Chinas seit der Öffnung 1978 sehr bemerkenswert. Mit dem sich entwickelten Markt in China und der zunehmenden Bedeutung Chinas als Welthandelsmacht weiten immer mehr deutsche Firmen ihre Geschäfte auf dem chinesischen Markt aus. Ohnehin ist Deutschland schon lange der wich- tigste Handelspartner Chinas in Europa und China mittlerweile wichtigster Han- delspartner in Asien. China sieht sich selbst als eine führende Kultur- und Technologienation und respektiert dahingehend kulturelle und technologische Leistungen anderer Na- tionen. Ausgehend davon können sowohl das große Interesse Chinas an einer Zusammenarbeit mit Deutschland in wirtschaftlichen, technologischen und wis- senschaftlichen Bereichen als auch die sich stetig entwickelnden Beziehungen zwischen beiden Ländern begründet werden (Wolff 2006: 8). Deutsch-chinesische Zusammenarbeit findet jedoch nicht nur in diesen Berei- chen statt. Einen weiteren großen Teil der Zusammenarbeit zwischen beiden Ländern bildet neben der politischen und rechtlichen die Entwicklungszusam- menarbeit. Weltweit war in den zwei vergangenen Jahrzehnten Deutschland einer der größten bilateralen Geberländer in diesem Bereich (OECD 2010: 13). 1.1 Fragestellung Bei der Entwicklungszusammenarbeit sind Projekte die bis heute am weitesten verbreitet Form der Umsetzung (Struck / Hagedorn 2012: 192). Arbeit in Projek- ten ist ein wichtiger Bereich der Wirtschaftswissenschaften und über die erfolg- reiche Durchführung von Projekten wurde viel geforscht. Obwohl der Stand der Forschung in diesem Bereich sich auf einem hohen Niveau befindet, steht die Durchführung vieler Projekte im Einzelnen vor sich ständig ändernden Heraus- 1 forderungen. Sie werden von einer Vielzahl von Faktoren beeinflusst und die Realisierung von Projekten verläuft auf Grund dessen nicht immer reibungslos. Hinsichtlich der Bedeutung von Projekten in der Entwicklungszusammenarbeit kann davon ausgegangen werden, dass auf Grund der weit größeren Zahl von Einflussfaktoren, Anzahl der Beteiligten und deren Interessen, die erfolgreiche Durchführung eines Projektes vor wesentlich höheren Anforderungen steht. Wenn es sich dabei noch um eine gemeinsame Zusammenarbeit zwischen ver- schiedenen Kulturen wie Deutschland und China handelt, muss eine äußerst gewissenhafte Projektplanung im Voraus erfolgen. Da ich selbst im Rahmen eines Praktikums in einem deutsch-chinesischen Pro- jekt vielfache Erfahrungen sammeln konnte, stellen sich aus eigenen Beobach- tungen folgende Frage zur Untersuchung des Themas: Welche Herausforderungen stellen sich in konkreten Projekten der deutsch- chinesischen Entwicklungszusammenarbeit? Welche Handlungsempfehlungen lassen sich aus diesen Herausforderungen lassen für einen verbesserten Pro- jektablauf geben? Die Arbeit gliedert sich grundsätzlich in zwei Teile. Die Vorgehensweise zur Bearbeitung der Fragestellung führt im ersten Teil zu folgendem Aufbau: Im ersten Punkt wird zunächst die Entwicklung der deutsch-chinesischen Ent- wicklungszusammenarbeit dargestellt. Außerdem erfolgt die Klärung von in die- sem Zusammenhang wichtigen verwendeten Begriffen. Der zweite Punkt des ersten Teils der Arbeit behandelt den Projektbegriff an sich. Dabei wird der Begriff Projekt definiert, welche Merkmale und Phasen ty- pische Projekte haben und warum Projekte durchgeführt werden. Des Weiteren wird auf internationales Projektmanagement und Projektmanagement in der Entwicklungszusammenarbeit eingegangen. Im Anschluss werden mit Hilfe von qualitativen Interviews die Herausforderun- gen in drei konkreten Projekten der deutsch-chinesischen Entwicklungszusam- menarbeit untersucht. Im dritten Punkt wird zunächst die Vorgehensweise zur Datenerhebung erläu- tert. Im darauf folgenden vierten Punkt der Arbeit werden mit der Auswertung der Interviews die konkreten Herausforderungen in den Projekten ausgearbeitet. 2 Im letzten Punkt werden die gesammelten Erkenntnisse zusammengefasst und ausgewertet. Aus den Ergebnissen erfolgt die Erstellung eines Leitfadens zur erfolgreichen Zusammenarbeit in den Projekten der deutsch-chinesischen Ent- wicklungszusammenarbeit. Der zweite Teil der vorliegenden Arbeit ist ein Praxisbericht zur Übersetzung eines zum Thema der Arbeit passend gewählten chinesischen Fachtextes. Zu- nächst erfolgt eine theoretisch fundierte Analyse der durchgeführten Überset- zung nach den übersetzungstheoretischen Ansätzen der Übersetzungswissen- schaftlerin Christiane Nord. Anschließend erfolgt die Analyse von Überset- zungsproblemen auf lexikalischer oder syntaktischer Ebene sowie der Darstel- lung von Vorschlägen und Lösungen zur Übersetzung.
Bei der Praxis der Übersetzungsübung neigen viele dazu, das Textverstehen als etwas Selbstverständliches oder Automatisches anzusehen. Man legt eventuell viel mehr Wert auf die Recherche nach fremden Wörtern oder auf die Formulierung des Zieltextes. Aber das Verstehen und die Analyse des Ausgangstextes spielen in dem Ablauf des Übersetzungsprozesses eine große Rolle. Wenn ein Leser einen Text verstehen möchte, wird eine Verbindung zwischen seinem sprachlichen Wissen und seinem Weltwissen hergestellt. Der sprachliche Faktor bezieht sich auf die lexikalische, grammatische Text-Kompetenz. Das Weltwissen, nämlich der nichtsprachliche Faktor, stellt das Hintergrundwissen dar. Da Jeder unterschiedliche Sprachkenntnisse sowie Hintergrundwissen beherrscht, verstehen alle Menschen einen Text anders. Wenn ein normaler Übersetzer einen Text übersetzen möchte, ist der Prozess des Textverstehens auch unterschiedlich. Das hängt davon ab, ob der Ausgangstext in der Muttersprache oder in der Fremdsprache geschrieben wird. Deshalb wird die Forschungsfrage so sein: Welche Faktoren beeinflussen das Textverstehen in der Muttersprache sowie in der Fremdsprache im Ablauf des Übersetzungsprozesses? Anhand meiner Forschungsfrage habe ich einen chinesischen Text (2013年全国教育事业发展情况) und noch einen deutschen Text (Die soziale Situation in Deutschland: Bildung, Forschung und Entwicklung) ausgewählt. Ich werde beide Texte lesen, verstehen und dann versuchen jeweils in die Zielsprache zu übersetzen. Im Ablauf des ganzen Übersetzungsprozesses werde ich ausführlich protokollieren, in welchem Wörterbuch, z.B. in ein- oder zweisprachigem Wörterbuch, ich nachgeschlagen habe, welche Hintergrund- und Paralleltexte ich gelesen habe, mit welchen translatorischen Methoden ich Probleme gelöst habe und Schwierigkeiten überwunden habe. In beiden Texten handelt es sich um ein gleiches Thema, nämlich das Bildungswesen. Der Texttyp und Sprachstil beider Texte sind auch ähnlich. So kann ich das Verstehen des Ausgangstextes in der Muttersprache und in der Fremdsprache besser analysieren und vergleichen.
Diese Masterarbeit hat sich mit den Übersetzungsproblemen der chinesischen und deutschen Medientexten beschäftigt. Als Beispiel wurden sieben deutsche und fünf chinesische Medientexte, die aus Nachrichten (im weiteren Sinn) und Kommentaren bestehen, übersetzt und die Übersetzungsproblemen darin nach drei Kategorien analysiert. Bevor die Ausgangstexte übersetzt wurden, wurde ein Vergleich zwischen der chinesischen und deutschen journalistischen Darstellungsform gemacht. Dann ließen sich die Medientexte nach der funktionalen Übersetzungstheorie übersetzen. Es ist die Forschungsfrage der Arbeit, inwiefern man die Textkonventionen der Medientexte im Übersetzungsprozess berücksichtigen muss, um den Erwartungen der Adressaten zu entsprechen.
Im ersten Teil der Arbeit werden wesentliche Ausprägungsformen der Online-Vermittlungsdienste für den Fahrgasttransport in China vorgestellt und hinsichtlich ihres Entwicklungsstandes, ihrer Herausforderungen und Chancen vorgestellt. Zuvor werden wesentliche Grundlagen der Innovationstheorie und Online-Vermittlungsdienste erläutert. Im zweiten Teil der Arbeit wird die Übersetzung zweier themenrelevanter Texte vom Chinesischen ins Deutsche analysiert.
In der Übersetzungspraxis gibt es kaum einen Übersetzer, der sofort nachdem er den Ausgangstext von dem Auftraggeber erhalten hat, mit dem Übersetzen anfängt. Jeder Übersetzer hat seine eigene Strategie. Dabei scheint die größte Schwierigkeit darin zu bestehen, das Verstehen des Zieltextlesers zu gewährleisten. In der Arbeit wird der Adressatenbezug im Übersetzungsprozess in Anlehnung von Skopostheorie nach Reiß/Vermeer sowie Adressatengerechtigkeit nach Nord theoretisch aufgearbeitet und anschließend auf eine praktische Übersetzung angewandt und reflektiert. Ziel ist es, eine Orientierungshilfe im Übersetzungsprozess für zukünftige Übersetzer zu schaffen, die es erleichtert Translate zu produzieren, die als adressatengerecht gelten und vom Adressaten leicht interpretiert werden können.
Die Arbeit beschäftigt sich mit dem Genre der Erziehungsratgeber, stellt dieses vergleichend für Deutschland und China vor und analysiert im Anschluss zwei Erziehungsratgeber (Deutschland, China) anhand folgenden Kritierien: Wie wird Erziehung dargestellt, Welche Ziele werden formuliert, Welche Probleme gibt es, Wie werden die Eltern und die Kinder dargestellt und welche Methoden werden vorgeschlagen. In einer Diskussion werden die Ergebnisse interpretiert und in einen gesellschaftlichen Kontext gestellt. Der zweite Teil der Arbeit analysiert einen Auszug aus einem chinesischen Erziehungsratgeber hinsichtlich übersetzungstheoretischer Fragestellungen. Die Arbeit versucht zu klären, ob der Vergleich von Ratgebern als Ansatz kulturvergleichender Forschung geeignet ist.
Im Rahmen dieser Arbeit wird die betriebliche Laufbahn- und Karriereplanung für die Mitarbeitergeneration Y als Maßnahme des Employer Brandings in kleinen und mittleren Unternehmen näher betrachtet. Das Ziel ist es, Karrieremodelle zu bestimmen, die als Anreize des Employer Brandings für kleine und mittlere Unternehmen (KMU) geeignet sind, sodass das KMU von der deutschen als auch der chinesischen Generation Y als attraktiver Arbeitgeber wahrgenommen wird und folglich eine längerfristige Mitarbeiterbindung garantieren kann. Hierfür werden die Erwartungen der deutschen Generation Y an die berufliche Karriere mit den Erwartungen der chinesischen Generation Y verglichen. Im Gegensatz zur deutschen Generation Y sind die Erwartungshaltungen und Arbeitgeberpräferenzen der chinesischen Generation Y bislang kaum in wissenschaftlichen Studien untersucht worden - dies unterstreicht die Forschungsrelevanz des Themas. Unter Zuhilfenahme von empirischen Studien werden die Erwartungen der deutschen und der chinesischen Generation Y an den potentiellen Arbeitgeber ausgewertet sowie abgeglichen. Die Ergebnisse der Auswertung ermöglichen die Herleitung von Handlungsempfehlungen für die strategische Personalentwicklung im KMU, i.e.S. für die Gestaltung von Karrieremodellen als Instrument der Personalentwicklung sowie für eine erfolgreiche Integration der betrieblichen Karriereplanung in das Konzept des Employer Brandings.
Die Arbeit untersucht die Eignung von Storytelling zu Implementierung von Unternehmenskulturen in deutsch-chinesischen Joint Ventures in China. Dazu werden sowohl Unternehmenskulturen als auch Storytelling als Konzepte vorgestellt und Schwierigkeiten in der deutsch-chinesischen Zusammenarbeit genannt, um schließlich die Eignung des Storytellings für die Lösung dieser Schwierigkeiten zu prüfen.
Bei der Praxis der Übersetzungsübung neigen viele dazu, das Textverstehen als etwas Selbstverständliches oder Automatisches anzusehen. Man legt eventuell viel mehr Wert auf die Recherche nach fremden Wörtern oder auf die Formulierung des Zieltextes. Aber das Verstehen und die Analyse des Ausgangstextes spielen in dem Ablauf des Übersetzungsprozesses eine große Rolle. Wenn ein Leser einen Text verstehen möchte, wird eine Verbindung zwischen seinem sprachlichen Wissen und seinem Weltwissen hergestellt. Der sprachliche Faktor bezieht sich auf die lexikalische, grammatische Text-Kompetenz. Das Weltwissen, nämlich der nichtsprachliche Faktor, stellt das Hintergrundwissen dar. Da Jeder unterschiedliche Sprachkenntnisse sowie Hintergrundwissen beherrscht, verstehen alle Menschen einen Text anders. Wenn ein normaler Übersetzer einen Text übersetzen möchte, ist der Prozess des Textverstehens auch unterschiedlich. Das hängt davon ab, ob der Ausgangstext in der Muttersprache oder in der Fremdsprache geschrieben wird. Deshalb lautet meine Forschungsfrage: Welche Faktoren beeinflussen das Textverstehen in der Muttersprache sowie in der Fremdsprache im Übersetzungsprozess? Anhand meiner Forschungsfrage habe ich einen chinesischen Text (2013年全国教育事业发展情况) und noch einen deutschen Text (Die soziale Situation in Deutschland: Bildung, Forschung und Entwicklung) ausgewählt. Ich werde beide Texte lesen, verstehen und dann versuchen jeweils in die Zielsprache zu übersetzen. Im Ablauf des ganzen Übersetzungsprozesses werde ich ausführlich protokollieren, in welchem Wörterbuch, z.B. in ein- oder zweisprachigem Wörterbuch, ich nachgeschlagen habe, welche Hintergrund- und Paralleltexte ich gelesen habe, mit welchen translatorischen Methoden ich Probleme gelöst und Schwierigkeiten überwunden habe. In beiden Texten handelt es sich um ein gleiches Thema, nämlich das Bildungswesen. Der Texttyp und Sprachstil beider Texte sind auch ähnlich. So kann ich das Verstehen des Ausgangstextes in der Muttersprache und in der Fremdsprache besser analysieren und vergleichen.
Die vorliegende Arbeit beschäftigt sich mit der Thematik: Landschaften- ein Impuls für Teppiche, eine Angebotskollektion für die Halb- mond Teppichwerke Oelsnitz. Im ersten Teil dieser Arbeit wird der Praxispartner für Realisierung der Kollektion vorgestellt, sowie die gestalterische Grundlage dargelegt. Das Konzept des Eco-Design und die Landschaft der Magdeburger Börde beschrieben, die als Anregungen für die Kollektion KRUME dienten.
Blendwerk
(2015)
Im Rahmen meiner Masterarbeit habe ich mich mit der Wahrnehmung von Bekleidung, unter besonderer Berücksichtigung der verschiedenen Textildruckverfahren, auseinandergesetzt. Die aus der Analyse der Anwendungsbeispiele gewonnenen Erkenntnisse waren Grundlage und Orientierung im Designprozess meiner Abschlusskollektion Blendwerk.
Die Auswirkungen des demografischen Wandels machen auch keinen Halt vor der Automobilindustrie. Da die Belegschaften immer älter werden, müssen frühzeititig Maßnahmen getroffen werden, um die Beschäftigungsfähigkeit der Mitarbeiter zu sichern. Anhand einer schriftlichen Befragung im Karosseriebau der D-Klasse in der Volkswagen Sachsen GmbH wurden Potentiale und Handlungsbedarfe unterschiedlicher Dimensionen der Beschäftigungsfähigkeit ermittelt und statistisch ausgewertet. Anschließend wurden vier Handlungsempfehlungen gegeben, die sowohl für den Anlauf des neuen Fahrzeugs Phaeton als auch übergreifend am gesamten Standort angewendet werden können.
Entwicklung eines Tools zur Erstellung und Veröffentlichung von dynamischen interaktiven Karten
(2015)
Die vorliegende Masterarbeit zeigt auf, wie mit vorgegebenen Technologien und Anwendungsfällen ein Tool erstellt wird, das für die Erstellung und Veröffentlichung von dynamischen interaktiven Karten dient. Nach der Herausarbeitung von thematischen Grundlagen erfolgt die Untersuchung von Anforderungen spezieller Fälle, sowie eine Einarbeitung und Darstellung der Möglichkeiten der Software-Infrastruktur. In Anbetracht dieser wird ein abstraktes Konzept aufgezeigt, dass Raum für die Interpretation in der Nutzung bestimmter Rahmenwerke lässt. Bei der anschließenden Erläuterung der Implementierung, werden eingesetzte Frameworks genannt und auf Besonderheiten im Quelltext eingegangen.
Die Arbeit beschäftigt sich mit der prototypischen Implementierung eines Andon-Boards für die Meleghy Automotive Unternehmensgruppe.Dabei werden Anforderungen aus betriebswirtschaftlichen Gesichtspunkten wie auch auf Hinsicht der Qualitätssicherung zusammengeführt und analysiert. Aus betriebswirtschaftlicher Hinsicht handelt es sich bei der Anwendung um ein Visualisierungstool aktueller Produktionsstatus auf Basis der Produktionsdaten eines bestehenden SAP-Systems. Zusätzlich zu den Produktionsdaten werden Echtzeit-Daten mittels einer Anbindung an eine Anlagen-SPS angezeigt. Neben der Anzeige von Echtzeit-Daten befasst sich die Arbeit auch mit der Ermittlung und Aufbereitung von statistisch ermittelten Daten.
Die Arbeit befasst sich mit der Konzeption eines Tools, dass die Modellierung zeitabhängiger Städteansichten ermöglicht. Ziel der Anwendung ist es, ein virtuelles 3D-Stadtmodell aus historischen Abbildungen erstellen zu können. Das Modell soll außerdem nicht an einen Zeitpunkt gebunden sein, sondern für unterschiedliche Zeitpunkte in der Vergangenheit generiert werden können. Nutzer sollen zudem die Möglichkeit haben, bei der Vervollständigung des Modells zu helfen, da im historischen Kontext oft nur begrenzt viele Informationen vorhanden sind und sich jede Information als nützlich erweisen kann. In der Arbeit wird auf viele notwendige Schritte eingegangen, die beachtet werden müssen, um ein solches Tool zu implementieren. Besonders detailliert betrachtet wird der Schwerpunkt der 3D-Rekonstruktion aus von wenigen Bildern. Zudem wird ein Teil der Anwendung in JavaScript implementiert.
Die in dieser Arbeit entstandene Webanwendung zur Projektverwaltung kombiniert verschiedene Technologien, um den steigenden Anforderungen gerecht zu werden. Die Geschäftsprozesse wurden zunächst analysiert und für die Ausführung als BPMN-Workflows präzisiert. Die Ausführung übernimmt die Java-basierte Workflow Engine Activiti. Die Geschäftslogik wird mithilfe des Spring Framework realisiert. Geschäftsprozesse und
Immer mehr Menschen sehen heutzutage das Internet als eine Notwendigkeit an. Sei es nun zur Kommunikation, Informationsaustausch oder Informationsgewinnung. Im Zeitalter von Industrie 4.0 und Web 2.0 ist der Bedarf an Informationen im letzten Jahrzehnt enorm gewachsen. Dies ist bedingt durch eine rasant steigende Anzahl an Webseiten und Webanwendungen, die sich im Laufe der Zeit weiterentwickelt haben, um den Ansprüchen der Bevölkerung gerecht zu werden. Die zunehmende Komplexität der Anwendungen fordert deswegen eine höher werdende Durchsatzrate der Datenverbindung, mehr Speicher zum Ablegen der Daten und eine angemessene Rechenleistung für Berechnung von Algorithmen. Aufgrund dieser Anforderungen müssen Rechenzentren ihre vorhandenen Kapazitäten erhöhen. Diese Kapazitäten können entweder mit dem Ausbau des Rechenzentrums und Steigern der Serveranzahl erreicht werden oder aber mit Aufrüsten der vorhandenen Ressourcen. Das bedeutet analog dazu einen steigenden Wartungsaufwand für jeden Server, der zusätzlich benötigt wird. Für eine Reduktion des Wartungsaufwandes können KVM-Switches genutzt werden, welche eine Fernwartung ermöglichen. Dahingehend bezieht sich diese Arbeit auf eine KVM-Client-Implementierung für aktuelle Webbrowser. Dieser Client auf HTML5-Basis soll eine Alternative zu dem bereits entwickelten Java-Client darstellen, da die Browserhersteller zunehmend den Java-Support einstellen. Im Zuge der Projektarbeit wird Wissen über Farbräume, Codierungen, RFB und JavaScript benötigt, welches im Vorfeld erläutert wird.
Softwarearchitektur gilt als Königsdisziplin der Softwareentwicklung. Viele Aspekte sind für eine gute Architektur in Einklang zu bringen. Hierzu müssen neben Softwarequalitätskriterien wie Performance oder Wartbarkeit auch die Interessen aller Projektbeteiligten vom Kunden bis zum einzelnen Entwickler einbezogen werden. Je größer und komplexer ein Softwaresystem wird, desto herausfordernder ist auch die Entwicklung der Softwarearchitektur. Zudem entwickelt sich die Architektur aufgrund sich stetig ändernder Anforderung immer weiter. Bestehende Teile müssen umgestaltet und neue integriert werden. Es gilt die Komplexität zu beherrschen und den Überblick im Großen wie auch im Kleinen zu behalten. Von sich stetig ändernden Anforderungen ist auch das Softwaresystem HSCERP des Unternehmens HSC Solutions betroffen. Das ursprünglich für den Einsatz in Kleinstunternehmen ausgelegte System findet zunehmend mehr Interessenten mit einem immer größer werdenden Nutzerkreis. War die aktuelle Performance der Architektur unter Berücksichtigung der Anforderungen von Kleinst- und Kleinunternehmen angemessen, stößt sie in mittleren Unternehmen an ihre Grenzen. In der Softwaretechnik sind solche Probleme schon lange ein Thema. Sie wurden in zahlreichen Arbeiten behandelt und in Form von Standardarchitekturansätzen verarbeitet. Ziel dieser Arbeit ist die Untersuchung solcher Standardarchitekturen hinsichtlich ihrer Eignung zur Performancesteigerung von HSCERP. Zu den untersuchten Ansätzen zählen neben der weitverbreiteten Schichtenarchitektur und dem Ansatz des Domain Driven Designs auch das weniger bekannte Quasar, welches versucht eine Standardarchitektur speziell für ERP-Systeme zu beschreiben.
Im Laufe dieser Masterthesis sollen die Grundlagen für die Entwicklung eines Prototypen für eine Sprachsteuerung im Rahmen der Gebäudeautomatisierung ViciOne erarbeitet werden. Es wird gezeigt, wie sich die Prinzipien der Sprachsteuerung auf den Bereich des Smart Homes übertragen lassen und wo sie heute schon zum Einsatz kommen. Dabei werden alle theoretischen Grundlagen wie die Bedeutung der Sprache als primäres Kommunikationsmittel, so wie die Funktionsweise von Spracherkennung und -synthese ausführlich erläutert. Als Grundlage für das Projekt dient Microsofts Sprachassistent Cortana. Aus diesem Grund werden die zugrundeliegenden Technologien wie die UAP und Windows 10, welche für den Einsatz von Cortana benötigt werden, näher beschrieben. Da diese zum Zeitpunkt der Anfertigung der Arbeit nur als Vorabversion für Entwickler zur Verfügung standen, erfolgt eine weitreichende Analyse dieser Technologien. Die Untersuchung dieser Plattformen soll gleichzeitig auch als Grundlage für spätere Entwicklungen auf dieser Basis dienen. Außerdem werden die Versionen von Windows 10 IoT beschrieben und es wird auf deren Bedeutung für dieses und künftige Projekte eingegangen. Im praktischen Teil wird beschrieben, wie auf Basis der UAP und der neuen Windows 10 Plattform ein Prototyp einer Sprachverarbeitung umgesetzt wurde, der über einen selbst erstellten Treiber samt zugehörigem Funktionsblock von der ViciOne Engine verarbeitet werden kann. Das Ergebnis dieser Arbeit ist eine theoretisch fundierte Machbarkeitsstudie, die zeigt, wie eine Sprachsteuerung mit den neusten technischen Möglichkeiten umgesetzt werden kann, um den Nutzern eine einfache und benutzerfreundliche Schnittstelle für ihr Smart Home bieten zu können.
Das Ziel dieser Masterarbeit ist es, eine Neukonzeption eines verteilten Softwaresystems bei der Ablösung bisheriger Kommunikationsverfahren durch nachrichtenorientierte Middleware zu realisieren. Das betrachtete System umfasst die verteilte Berechnung einer Gesamtaufgabe und damit die Verteilung von Teilberechnungen. Dieses System wird zunächst einer Systemanalyse unterzogen. Dabei werden die Komponenten und deren bisherige Kommunikation untereinander beschrieben. Anhand dieser Voruntersuchungen werden Anforderungen für die Umstellung auf eine nachrichtenbasierte Kommunikation erstellt. Weiterhin werden die Konzepte einer nachrichtenorientierten Middleware betrachtet. Für die eigentliche Kommunikation werden standardisierte Zugriffsschnittstellen und die Themen Transaktionen sowie Zugriffskontrolle behandelt. Dadurch entsteht ein ganzheitlicher Überblick über das einzusetzende System. Anhand dieser Informationen wird eine konkrete Implementierung ausgewählt. Die Auswahl ist die Folge eines zweistufigen Vergleichs, der aus einer grob definierten Menge zunächst einige Kandidaten herausgelöst. Durch einen produktiven Versuch, wird aus den übrigen Kandidaten die geeignete Implementierung bestimmt und anschließend genauer beschrieben. Weitestgehend unabhängig von dieser konkreten Auswahl werden Teile der Anwendung grundlegend umgestaltet. Dabei wird stets darauf geachtet, dass die untersuchten Konzepte von nachrichtenorientierten Middleware-Systemen betrachtet und einbezogen werden. Außerdem werden, falls angebracht, oft alternative Lösungswege berücksichtigt und beurteilt. Es wird außerdem ein Fokus auf die Realisierung unter Verwendung des Spring Frameworks gelegt. Das Ergebnis dieser Arbeit ist schließlich ein in weiten Teilen neu konzipiertes System, bei dem die Kommunikation beteiligter Komponenten sowie die Verteilung der einzelnen Teilberechnungen durch die Verwendung einer nachrichtenorientierten Middleware erfolgt.
Ein Unternehmen möchte ein Ganzheitliches Betriebliches Gesundheitsmanagement System (GABEGS) einführen und orientiert sich dabei am vorliegenden Handlungsleitfaden, der mit seinen überwiegend konventionellen Methoden gerade in den Dokumentationsprozessen an seine Grenzen stößt. Deshalb wurde eine rechnerunterstützte Vorgehensweise abgeleitet, die die Integration vorhandener und neu erforderlicher Anwendungssysteme beinhaltet und drei Hauptziele anstrebt: Ziel 1 beabsichtigt den optimalen Aufbau des rechnerbasierten Teils des Informationssystems zur Unterstützung des Betrieblichen Gesundheitsmanagements (BGM). Ein weiteres Ziel besteht darin, eine Liste über am Markt verfügbare Produkte sowie deren Funktionalitäten und Schnittstellen zu erhalten. Das dritte Ziel strebt eine Liste aller Anwendungssysteme an, die zur Unterstützung der BGM dienen und integriert werden müssen sowie ein Integrationskonzept, das jeweils den Entwurf einer exemplarischen Schnittstelle für die beteiligten Systeme beschreibt. Eine Analyse und Bewertung der Ist-Situation bezüglich des Handlungsleitfadens brachte ein Drei-Ebenen-Metamodell (3LGM²) als Ist-Modell hervor, für das z. B. eine vollständige rechnerbasierte Aufgabenunterstützung nicht gewährleistet ist und sich der Grad an Datenintegration als mangelhaft erwies. Im Rahmen des Soll-Konzepts entstanden ein 3LGM²-Soll-Modell, das die aufgedeckten Schwachstellen behebt, sowie ein Migrationskonzept, das die Maßnahmen dazu beschreibt. Die Durchführung einer Marktanalyse zeigte, dass am Markt kein Softwareprodukt existiert, welches alle erforderlichen Funktionalitäten sowie Schnittstellen bieten kann. Deshalb wurden die Integrationsaspekte beteiligter Anwendungssysteme in den Fokus gestellt. Weiterhin wurde die Konzeption einer Schnittstelle zwischen einer beliebigen Befragungssoftware und dem SAP® Human Resources-System (HR) als exemplarische Personenverwaltungssoftware betrachtet. Damit wurde ein Weg zur Integration aller relevanten Daten aufgezeigt. Ferner wurde die Konzeption einer Schnittstelle zwischen einer beliebigen Befragungssoftware und dem Statistical Package for the Social Sciences (SPSS) als exemplarische Analyse-/Auswertungssoftware durchgeführt. Dadurch wurde gezeigt, wie die Erhebungsdaten der Mitarbeiter und notwendigen Verwaltungsdaten eines Fragebogens in SPSS integriert und einzelne Schritte des Analysevorgangs automatisiert werden können.
Raritan Deutschland GmbH entwickelt und produziert Stromversorgungsgeraete, die kontinuierlich den Strom- und Energieverbrauch von Servern und anderen IT-Geraeten messen und Umgebungsparameter ueberwachen. Mithilfe von Sensoren wird unter anderem die Umgebungstemperatur, Luftfeuchtigkeit, sowie der Luftdruck innerhalb eines Serverraums ueberwacht und die Messwerte kontinuierlich abgespeichert. Die Datenerfassungsperiode liegt im Bereich von wenigen Sekunden bis Minuten, sodass fuer kleine Rechenzentren mit der Zeit große Datenmengen angesammelt werden, welche fuer nachtraegliche Auswertungen gespeichert werden muessen. Das Ziel dieser Masterarbeit ist es verschiedene effiziente Ansaetze fuer das Sammeln und das Speichern der Sensordaten von Raritan Deutschland GmbH zu untersuchen, zu vergleichen und eine prototypische Implementierung zu realisieren. Dabei sollen folgende Technologien analysiert werden: SQL-RDBMS, SQL-RDBMS mit Zeitreihenfunktion und NoSQL-Datenbanken. Zur Leistungsbestimmung der verschiedenen Technologien sollen Testreihen durchgefuehrt und ausgewertet werden. Fuer die verschiedenen Datenbanktechnologien soll die Abfrageperformance, der Speicherbedarf und die Geschwindigkeit beim Einfuegen der Daten untersucht werden. Folgende Optimierungen / Speichermodelle werden analysiert bzw. auf den Anwendungsfall der Raritan GmbH uebertragen: ein Rollup Mechanismus (von Raritan GmbH), die Verteilungskonzepte Partitionierung und Sharding, verwenden von Indizes sowie das Speichern der Sensordaten in einem denormalisierten Schema (Arrays), Row-Store, Column-Store, Dokumentenorientiert, Key/Value, Wide Column-Sore und In-Memory DB.
In dieser Arbeit wurde der DICOM Standard verwendet, um eine Kommunikationsstruktur, zwischen Software- und Hardwarekomponenten zu schaffen. Als Kommunikationspartner wurde ein PACS Server verwendet, zu dem sowohl eine Verbindung aufgebaut, als auch die gehaltenen Daten aus der Datenbank dieses Servers gelesen werden musste. Dabei musste sich an die Konformitäten von DICOM gehalten werden, um somit eine Wiederverwendbarkeit der Arbeitsergebnisse zu sichern.
Die Entwicklung von Software Produktlinien ist ein bekanntes Verfahren zur Wiederverwendung von Softwareartefakten für ähnliche Varianten eines Produktes. Ein Schwerpunkt ist das Testen von Software Produktlinien. Die Herausforderung beim Testen ist, dass durch die Konfigurierbarkeit eine große Menge an Produktvarianten entstehen. Diese Arbeit zeigt, wie Software Produktlinien entwickelt werden. Am Beispiel einer Software Produktlinie werden die theoretischen Grundlagen erläutert und beschrieben, wie die konkreten Produktvarianten mit dem Konfigurator der iSAX GmbH & Co. KG erstellt werden. Es wird erläutert, wie diese Produktvarianten effizient getestet werden können. Hierfür werden verschiedene Testansätze vorgestellt, welche die aus der Software Produktlinie resultierenden Produktvarianten testen. Um den Testaufwand zu verringern, werden Testartefakte für verschiedene Produktvarianten wiederverwendet.
Applikationen im Java Enterprise Umfeld benötigen meist eine Funktionalität, mit welcher Daten vom Client, über mehrere Aufrufe hinweg, zugeordnet und verwaltet werden können. Meist wird diese Funktionalität von dem verwendeten Java-Framework abgedeckt. Diese Arbeit zeigt eine Alternative auf, welche den aktuellen Trend der Webentwicklung berücksichtigt. Dabei wird vor allem auf die Entwicklung des JavaScripts in den letzten Jahren eingegangen. Des Weiteren werden Anforderungen aufgestellt und Analysen verschiedener Technologien betrieben, welche zur Entwicklung einer Bibliothek benötigt werden. Dabei werden die möglichen Technologievarianten vorgestellt und erklärt, warum sich für eine bestimmte Technologie entschieden wurde. Hierbei wird auf Features eingegangen, welche im weiteren Verlauf der Arbeit noch praktische Anwendung finden. Das Ziel ist es, eine modulare Bibliothek zur Sessiondatenverwaltung zu konzipieren und deren Einsatz anhand eines Prototypen aufzuzeigen.