Refine
Year of publication
- 2013 (698) (remove)
Document Type
- Diploma Thesis (364)
- Bachelor Thesis (249)
- Master's Thesis (84)
- Book (1)
Institute
- Maschinenbau und Kraftfahrzeugtechnik (bis 2018) (296)
- Gesundheits- und Pflegewissenschaften (118)
- Physikalische Technik, Informatik (90)
- Elektrotechnik (50)
- Sprachen (45)
- Architektur (37)
- Wirtschaftswissenschaften (35)
- Angewandte Kunst (27)
Frauen in Führungspositionen
(2013)
Zielstellung der vorliegenden Bachelorarbeit ist es, der gegenwärtigen Situation von Frauen in Führungspostionen in Deutschland sowie auf EU-Ebene nachzugehen und mögliche Ursachen sowie Möglichkeiten zur Veränderung aufzuzeigen. Um in die Thematik einzuführen, erfolgt zunächst eine klärende Begriffsdefinition über Management und Führungspositionen im Allgemeinen. Im darauffolgenden Kapitel widme ich mich der Frage, ob Männer anders führen als Frauen und durchleuchte diese Problematik nach verschiedenen Gesichtspunkten. Darauffolgend gehe ich auf die gegenwärtige Situation von Frauen in Führungspostionen in Deutschland und in anderen Ländern der Europäischen Union ein. Hierbei bediene ich mich zunächst aktueller Zahlen, Daten und Fakten, um einen möglichst umfassenden Überblick zur aktuellen Situation bezüglich Frauen im Management in Europa zu geben. Außerdem gehe ich in diesem Kapitel auch auf das umstrittene Thema einer verbindlichen Frauenquote in den Vorständen und Aufsichtsräten großen, börsennotierten Unternehmen ein. Im Weiteren nehme ich in jenem Kapitel auch Bezug zur deutschen Familienpolitik und deren möglichen Auswirkungen auf die Karrieremöglichkeiten und -entscheidungen von Frauen. Abschließend befasse ich mich noch mit der Frage, ob und in wie weit es über 20 Jahre nach der Wiedervereinigung in Deutschland noch Unterschiede zwischen den Erwerbsmustern und somit den Karrieren von Frauen in Ost- und Westdeutschland gibt. Dabei gehe ich sowohl auf historische Begebenheiten sowie auf aktuelle Entwicklungen ein. Im vierten Kapitel bildet ein Vergleich deutscher Medien hinsichtlich der Thematik
Die vorliegende Diplomarbeit beschäftigt sich mit dem ökonomischen und ökologischen Vergleich ausgewählter Heizsysteme unter Berücksichtigung eines Mikro-Blockheizkraftwerkes. Einleitend erfolgt die Darstellung wesentlicher Merkmale der Technologien. Der Vergleich der Heizanlagen zur Bereitstellung von Raumwärme und Warmwasser basiert auf der Annahme zweier Versorgungsaufgaben, einem Ein-familienhaus und einem Reihenmittelhaus. Als Versorgungssysteme dienen die Gas-brennwerttechnik, Wärmepumpen mit den Wärmequellen Luft, Sole und Wasser sowie ein Holzpelletkessel und ein Mikro-Blockheizkraftwerk. Heizkosten sind eine sich stetig verändernde Größe. Die Wirtschaftlichkeitsberechnungen beruhen daher auf einem dynamischen Verfahren, nämlich der Annuitätenmethode. Die ökologische Betrachtung erfolgt auf Basis des Primärenergiebedarfs und der CO2-Äqivalent-Emissionen.
Eine Vollversorgung mit 100% EE wird nur durch strukturellen Wandel des Energiesystems vollzogen werden können. Die Herausforderung besteht darin, den Elektrizitäts-, Wärme-, und Transportsektor in Zukunft gemeinsam zu betrachten und Synenergien zu nutzen. Die hauptsächliche Energiebereitstellung wirde durch PVA und WEA erfolgen. Der in nahezu allen grundlegenden Studien zur Energietransformation prognostizierte massive Ausbau von WEA offshore wird in dieser Arbeit nicht befürwortet. Es müssen geeignete Kurzzeit- wie auch Langzeitspeicher bereitgestellt werden. Insbesondere bei der PV sind zusätzliche Systemleistungen erforderlich. DSM ist ein wichtiger Bestandteil der zukünftigen Netzstruktur und Regelglied für den Lastausgleich.
Die vorliegende Masterarbeit beschäftigt sich mit der Konzeption und prototypischen Umsetzung zweier unterschiedlicher optischer Ansätze, um die Beinlänge und Lage des Hüftrotationszentrums im Rahmen von Hüftendoprothesenoperationen zu bestimmen. Nach eingehenden Betrachtungen zum gegenwärtigen Stand der Technik, der medizinischen Grundlagen sowie dem Verständnis der Funktionsweise der eingesetzten Technologien werden beide Verfahren bezüglich medizinischer und technischer Anforderungen untersucht. Ziel der Arbeit ist es, sowohl einen Versuchsstand unter Verwendung von Markern, handelsüblichen RGB-Kameras und der Open Source Software Kinovea als auch ein Messverfahren auf Basis der Infrarot-Tiefenkamera Microsoft Kinect zu entwerfen. Die beiden untersuchten Verfahren sollen schlussendlich hinsichtlich deren Eignung und einem möglichen Praxiseinsatz beurteilt werden. Anhand exemplarischer Beinlängenmessungen und anschließender Auswertung der gewonnenen Resultate werden Aussagen über Genauigkeit, Laufzeitverhalten und Benutzbarkeit getroffen und ermöglichen darüber hinaus eine vergleichende Betrachtung beider Varianten.
Die europäische Leiterplattenindustrie sucht nach neuen Wegen, um sich den ständig wach-senden Preisdruck der asiatischen Billiglohnländer entgegenstellen zu können. Besonders der Bereich der flexiblen Leiterplatten bildet einen stark umkämpften Markt. Ein Hochlohnland wie Deutschland hat nur eine Chance, wenn es auf neue Technologien setzt, welche die bisherigen Herstellungskosten um ein Vielfaches senken können. Die 3D - Micromac AG ist auf dem Weg ein neues, kostenoptimiertes Herstellungsverfahren zu etablieren und der eu-ropäischen Industrie zur Verfügung zu stellen. Ein letzter Schritt zum Ziel ist die Auswahl eines Klebstoffsystems, mit welchem sich die flexiblen Leiterplatten in geeigneter Weise pro-duzieren lassen. Die vorliegende Arbeit beschäftigt sich mit dieser Thematik und stellt die Auswahl von Klebstoffen und deren Erprobung in den Mittelpunkt.
Die Lokomotionstherapie ist derzeit eine der effektivsten Methoden zur Rehabilitation von inkomplett querschnittgelähmten Patienten. Die Patienten erhalten bei dieser Therapieform durch den Therapeuten eine verbale und visuelle Rückmeldung zu ihrem Gehverhalten. Ein objektives Feedback wird durch instrumentelle Ganganalyse in Verbindung mit einem messfähigen Laufbandsystem erreicht. Dazu wurde eine experimentelle Untersuchung von Echtzeit-Feedback bei Standphasenvariation durchgeführt. An gesunden Probanden wurde getestet, mit welcher Feedbackmodalität (visuell, akustisch und haptisch) die gestellten Bewegungsaufgaben optimal umgesetzt werden konnten. Auf die instrumentell erhobenen Bewegungsdaten wurde ein latenter Eventdetektions-Algorithmus angewendet. Die damit erkannten Zeitpunkte des Fersenkontaktes und des Zehablösens vom Boden wurden für das Feedback genutzt. Es konnte ein neuer Eventdetektions-Algorithmus validiert werden, der diese Zeitpunkte latenzarm detektiert. Zur Beurteilung der Abweichung von den Bewegungsaufgaben wurde dieser Algorithmus zusätzlich auf die instrumentell erhobenen Bewegungsdaten angewendet.
In dieser Diplomarbeit wird das Recyclingpotential kritischer Rohstoffe am Beispiel von Energiesparlampen wie Kompaktleuchtstofflampen und LED-Lampen analysiert. Dazu werden neben Aufbau und Funktion der Beleuchtungskörper, die Zusammensetzung der stofflichen Komponenten sowie deren primäre Gewinnung erläutert. Die Darstellung der Recyclingprozesse von Energiesparlampen wird anhand des bestehenden Kreislaufwirtschaftssystems dargestellt und die zugehörigen Verfahren und Patente für die Rückgewinnung der relevanten Metalle beschrieben. In der Zusammenfassung werden die Vor- und Nachteile der sekundären Rohstoffgewinnung diskutiert.
Der Inhalt dieser Bachelorarbeit ist die Charakterisierung der Zellqualifizierungssysteme im Forschungs- und Entwicklungszentrum der Roth & Rau AG. Dabei soll die Optimierung der täglichen Kalibriersequenz erfolgen. Das Einhalten von Anlagenspezifikationen und das Zellverhalten in Bezug auf Degradation sollen untersucht werden. Es wird die Reproduzierbarkeit, sowie die Temperaturabhängigkeit der Kennwerte bestimmt. Dies erfolgt mit der Ermittlung von Kurzzeitmessungen und der Bestimmung genauer Temperaturkoeffizienten. Bei den Messungen wurden unterschiedliche Zellkonzepte wie zum Beispiel die HJT-, PERC- und STD-Technologien berücksichtigt.
In Zeiten des demografischen Wandels und des Fach- und Führungskräftemangels ist es für Unternehmen schwierig, qualifizierte Mitarbeiter identifizieren, entwickeln und vor allem binden zu können. In der Arbeit werden Retentioninstrumente, -Strategien sowie -Maßnahmen dargestellt. Außerdem wird eine Toolbox entwickelt.
In dieser Bachelorarbeit werden Tiermotive und ihre symbolische Bedeutung in den verschiedenen Kulturkreisen erörtert. Dabei wird anhand von internationalen Werbeplakaten die Verwendung von Tiermotiven als Testimonials und Werbeträger analysiert und die Entstehungsgeschichte einiger exemplarisch ausgewählter Tiermotive bekannter Marken und Produkte vorgestellt.
Gesättigte Werbemärkte, deutliche Wirkungsverluste der traditionellen Werbeformen sowie die zunehmende Reaktanz der Konsumenten bestärken das wachsende Interesse der werbetreibenden Unternehmen an alternativen Werbeformen, insbesondere dem Product Placement. Zwangsläufig beschäftigt sich die Werbewirkungsforschung vermehrt mit der Auswirkung unterschiedlicher Formen des Product Placement auf die Erinnerung der Konsumenten. Eine valide Erinnerungsmessung wird derzeit in erster Linie durch den Einsatz von Befragungen gewährleistet. Die vorliegende Arbeit setzt sich zum Ziel, zu überprüfen, ob das Eye-Tracking ein intern valides Datenerhebungsverfahren zur Messung der Erinnerung bei einem Product Placement und somit eine Alternative zur Befragung darstellt. Zur Überprüfung der Forschungsfrage erfolgte eine empirische Untersuchung. 45 Probanden wurden ausgewählte Spielfilmsequenzen mit bewusst integrierten Markenprodukten vorgeführt und dabei die Blickbewegungen mit Hilfe von Eye-Tracking aufgezeichnet. Anschließend wurde die Erinnerung an die beworbenen Produkte durch Befragung gemessen. Eine Auswertung der erhobenen Daten zeigte auf, dass eine mittlere bis starke Korrelation zwischen Fixation, dem gezielten Betrachten eines Objektes, und Erinnerung besteht. Resultierend aus der Korrelation zwischen Fixation und Erinnerung kann angenommen werden, dass das Eye-Tracking ein intern valides Instrument zur Erinnerungsmessung und somit eine potenzielle Alternative zur Befragung darstellt. Diese Erkenntnis bedeutet eine signifikante Erleichterung für die Marketingforschungspraxis bezüglich der anfallenden Kosten sowie dem verbundenen Zeitaufwand unter der Verwendung von Befragungen. Die vorliegende Untersuchung ist aufgrund des Stichprobenumfangs und -selektion nicht repräsentativ und bedingt durch die künstliche Erhebungssituation ist eine Übertragbarkeit der Ergebnisse auf biotische Situationen nicht zwangsläufig gegeben. Deshalb bedarf es vor einer endgültigen Implementierung des Eye-Tracking zur Erinnerungsmessung in der Marketingforschungspraxis an zusätzlicher, intensiverer Forschung. Weiterhin ist es von besonderem Interesse durch zukünftige Forschung nähere Erkenntnisse bezüglich des Zusammenhangs von Blickbewegung, insbesondere der Dauer und Häufigkeit der Fixationen, zum Grad der Erinnerung zu erlangen.
Gegenstand der Arbeit ist die Untersuchung von Plasmaparametern einer Dielektrika-Trockenätzanlage AMAT Centura Super-e für die Halbleiterproduktion mittels des SEERS-Systems Hercules® APC. Mittels statistischer Versuchsplanung werden die Einstellgrößen Leistung, Druck, magnetischer Fluss sowie die Gasflüsse variiert und der Einfluss auf Elektronenstoßrate, Elektronendichte und Ätzraten analysiert. Es zeigen sich nichtlineare Abhängigkeiten in den Plasmaparametern. Die Charakterisierung der Ätzprozesse der Super-e erfolgt anhand von Plasmadaten aus 4 Monaten Produktion. Die Plasmaparameter sind über die Rezepte determiniert und zeigen Streuverhalten. Die Daten werden zudem auf Korrelationen zu bekannten Einflussgrößen untersucht. Über die Plasmastunden der Kammer ergibt sich eine Langzeitdrift. Diese bildet sich auch in den Ätzraten und dem Ätzprofil ab. Es lassen sich zudem Kurzzeitdrifts durch Prozessinteraktionen aufzeigen und Produktabhängigkeiten beobachten.
Ziel der vorliegenden Arbeit ist die elektrochemische Erzeugung von reaktiven Mehrschichtsystemen (RMS) aus der Einbadtechnik basierend auf dem System Palladium/Zinn. Durch die Charakterisierung der Elektrolyte mittels Stromdichte- Potential- Kurven (SPK) konnte gezeigt werden, dass Parameter wie z.B. Homogenisierungsdauer und Umwälzung Einfluss auf die Stabilität des Elektrolyten haben. Des Weiteren wurde nachgewiesen, dass die Rührgeschwindigkeit des Elektrolyten bei der Abscheidung einen wesentlichen Einfluss auf die Schichtzusammensetzung hat. Legierungsschichten unterschiedlicher Zusammensetzung konnten durch das Variieren des Potentials und der Konvektion hergestellt werden. Im Rahmen dieser Arbeit konnte keine Stapelung der einzelnen Schichten erfolgreich durchgeführt werden. Für die Herstellung von Mehrschichtsystemen sind daher noch weitere Untersuchungen notwendig.
Gegenstand der vorliegenden Arbeit ist die laserinduzierte Plasmaspektroskopie (LIPS) zur Detektion von Wasserstoff in Aluminiumschmelzen. Bei diesem Verfahren wird ein hochenergetischer Laserpuls auf die Probenoberfläche fokussiert. Durch die Wechselwirkungen des Pulses mit der Probe entsteht ein Plasma, dessen Emission spektral analysiert wird. Aus dem Spektrum können so qualitative und quantitative Aussagen über die chemische Zusammensetzung getroffen werden. Ein zu hoher Wasserstoffanteil führt, während des Erstarrungsvorgangs, zur Ausbildung von Poren. Infolgedessen kommt es zur Beeinträchtigung der mechanischen Eigenschaften des Gusserzeugnisses. Somit ist eine Qualitätskontrolle während des Prozesses erforderlich. Die derzeitig eingesetzten Verfahren zur Analyse des Wasserstoffgehaltes haben entscheidende Nachteile. Sie können entweder erst nach dem Erstarren der Schmelze durchgeführt werden oder haben einen stark erhöhten Wartungsaufwand. Die LIPS kann eine verschleißarme Echtzeitanalyse unmittelbar im Schmelzprozess bieten. Der Aufbau einer Anordnung zur spektralen Analyse laserinduzierten Plasmen konnte in dieser Arbeit realisiert werden. Hauptaugenmerk lag dabei auf der Zeitsteuerung. Diese verwirklicht die Abstimmung der spektralen Erfassung auf den Laserpuls. Für diese Herausforderung wurde eine Evaluierung verschiedener Varianten durchgeführt. Danach folgte die Charakterisierung der Spektrometersignale und Laserpulse. Bei der anschließenden qualitativen Auswertung der Spektren konnte unter anderem Wasserstoff identifiziert werden. Die Art und Intensität der Emission ist stark abhängig von Messzeit und Messbeginn. Demzufolge musste ein optimales Zeitfenster gefunden werden. Abschließend wurden die Auswirkungen des Energieeintrages auf die Probe untersucht.
Um den Anforderungen zukünftiger Mikroprozessoren nachkommen zu können, muss der Einsatz neuer Materialien bzw. Materialsysteme in der Halbleiterindustrie überprüft werden. Ziel dieser Masterarbeit war die Optimierung eines Kobalt-MOCVD-Prozesses zur Herstel-lung von Kupferdiffusionsbarrieren in der Back-End-of-Line-Metallisierung. Unter Berücksichtigung des theoretisch zu erwartenden Einflusses der verschiedenen Pro-zessparameter auf das Beschichtungsresultat wurden separate Versuchspläne aufgestellt, deren Durchführung beschrieben und die Ergebnisse der Schichtcharakterisierung vorgestellt. Die beobachteten Auswirkungen dieser Prozessparametervariation auf das Wachstumsverhalten und die Eigenschaften der Kobaltschichten wurden diskutiert. Dabei konnte gezeigt werden, dass die Oberflächenrauheit der Kobaltschichten ausschlaggebend für ihre elektrische Leitfähigkeit war. Außerdem war es möglich vorteilhafte Einstellungen gegenüber dem Referenzprozess, sowohl für Blank- als auch Strukturscheiben, abzuleiten. Abschließend zeigten erste Untersuchungen zur direkten elektrochemischen Bekupferung der Kobaltschichten die Möglichkeit zur Integration in den bestehenden Herstellungsprozess.
Das Thema dieser Arbeit ist die Untersuchung einer alternativen Metallisierung von Solarzellen mit Nickel- Vanadium. In der Produktion kommt heute zu 86 % [10] die Siebdrucktechnologie zum Einsatz, um Silberbusbars herzustellen. Silber ist sehr kostenintensiv und die Forschung muss günstigere Alternativen finden. Während der Untersuchungen wurde die Effizienz der neuen Technologie mit dem Siebdruckverfahren verglichen und die Lötbarkeit auf Vorder- und Rückseite analysiert. Die Konkurrenzfähigkeit der Nickel- Vanadium- Metallisierung konnte gegenüber der Silberanwendung nachgewiesen werden. Es konnte eine funktionsfähige Prozessabfolge für rückseitige Haftkräfte ermittelt werden. Zukünftig müssen weitere Versuchsreihen zur Lötbarkeit der Vorderseite unternommen werden und die Zuverlässigkeit der Metallisierung in Modultest bewiesen werden. So wird es gelingen den Silberanteil zu verringern und die Produktion kostengünstiger zu gestalten.
Die vorliegende Studie beschäftigt sich mit der elektrochemischen Kupferabscheidung auf sehr dünnen metallischen Saatschichten im Hinblick auf die Kontaktierungs-möglichkeiten innerhalb ultrahoch-integrierter Schaltkreise. Dabei soll die prinzipielle Machbarkeit der galvanischen Abscheidung auf 50 bis 10 nm dünnen, mittels PVD hergestellten Kupfer- und Nickelsaatschichten experimentell sowie auf Ruthenium und Kobalt in der Theorie gezeigt werden. Eine praktische Vorbetrachtung der Abscheidung auf Kupfer dient zur Optimierung der Prozessparameter und des Versuchsablaufes. Darauf wird die erfolgreiche Abscheidung auf allen Kupfer- und Nickelsaatschichten mittels Vier-Spitzen-Schichtwiderstandsmessung und der Untersuchung mit dem Rasterelektronenmikroskop genauer charakterisiert. Eine kurze theoretische Vorbetrachtung zu Kobalt und Ruthenium als Saatschicht-material skizziert die potenzielle Realisierung der Kupferabscheidung und stellt einen Ansatz für folgende Abscheideexperimente dar.
In dieser Arbeit geht es um die Untersuchung des Belackungsprozesses und der Strukturierung mittels Laser-Interferenz-Lithografie auf großen Silizium-Trägern, welche auf Grund ihrer höheren Formstabilität und individuelleren Montagemöglichkeiten, zur Fokussierung und Dispersion von Synchrotronstrahlung besser geeignet sind als dünne Wafer. Dabei werden im ersten Abschnitt die Gesetzmäßigkeiten zwischen Drehzahl und Schichtdicke anhand von Schleuderkurven ermittelt sowie die Homogenität der aufgebrachten Oberflächen bestimmt. Nach der Untersuchung geeigneter Schleuderparameter werden die Proben mit Hilfe der Laser-Interferenz-Lithografie periodisch strukturiert und die Ergebnisse mit geeigneten Verfahren charakterisiert und bewertet.
In vorliegender Arbeit geht es um die Stabilitätskontrolle von Backendstrukuren mit ULK-Materialien. Weil die Strukturen bei der Mikrochipherstellung immer kleiner werden, müssen neuartige Materialien für die Isolierung der Leiterbahnen entwickelt werden. Diese Materialien nennt man ultra-low-k-Materialien, kurz ULK. Sie besitzen einer niedrige Dieelektrizitätszahl k. Diese Materialien kommen in den Verdrahtungsebenen im Mikrochip zum Einsatz und dienen dort als Isolator zwischen den Leitungsbahnen. Ulk beeinflusst jedoch die Stabilität des Backend negativ. Aus diesem Grund müssen schon in der Entwicklungsphase eines Mikrochips Tests durchgeführt werde. Der hier verwendete Test nennt sich Bump Assisted Backend of Line Stability Indentation Test (kurz BABSI-Test. Dieser Test ist durch GLOBALFOUNDRIES Dresden patentiert.Hierbei wird mit einer Nanoindenternadel in den Bump indentiert und anschließend ein Ritztest durchgeführt. Dabei kommt es durch die Lateralkraft, welche über dem Bump in das Backend ein gekoppelt wird, zu einer Schädigung im Backend. Die Lateralkraft bei der das Backend geschädigt wird dient als Stabilitätskennzahl. Somit können verschiedene Backendvarianten bzw. verschiedene Fertigungsprozesse miteinerander verglichen werden. In der Arbeit werden verschiedene Versuche durchgeführt, um den BABSI-Test zu verbessern. So kommen zum Beispiel verschiedene Indenterspitzen zum Einsatz.
Die vorliegende Masterarbeit beschäftigt sich mit der Herstellung und Charakterisierung von transparenten Permeationsbarrrieren auf Kunststofffolien im Hinblick auf die Sauerstoff- und Wasserdampfdurchlässigkeit für die Anwendung als Verkapselung organischer Elektronik. Zur Schichtabscheidung wurden dabei verschiedene Schichtsyteme mittels Atomlagenabscheidung (ALD) und reaktivem Sputtern herstellt. Bei den untersuchten Oxidschichten handelt es sich unter anderem um die typischen transparenten Barrierematerialien Zink-Zinn-Oxid (ZTO) und Al2O3. Des Weiteren wurde der Einfluss der Schichtdefekte und Schichthaftung auf die Barriereeigenschaften untersucht. Zur Charakterisierung der Permeationsbarriere wurden die Normen DIN EN ISO 15106 -3 und DIN 53380 -3 verwendet. Dabei handelt es sich um eine coulometrische Messmethode, die durch ein Trägergas unterstützt wird. Für die Untersuchungen zur Defektdichte wurde das optimierte elektrolytische Verfahren der Kupferdekoration angewendet. Dabei wird eine Unterschicht aus Silber auf dem Substrat abgeschieden, dass als Kathode und Kupfer als Anode verwendet wird. Ziel ist die Herstellung von Ultrabarrieren mit einer Wasserdampfpermeation von unter 10^-4 g/m^2*d. Ebenfalls stellt das Substrat selbst eine wichtige Rolle dar. So besteht eine wichtige Vorraussetzung darin, dass die Polymersubstrate für eine sehr glatte Oberfläche aufweisen. Verschiedene Sputtereinzelschichten wurden hergestellt und charakterisiert und mit den ALD Einzelschichten und den drei verschiedenen Schichtsystemen verglichen. Dabei finden für ZTO und Al2O3 das Sputtern Anwendung. Wohingegen sich für die ALD nur Al2O3 als Schichtmaterial verwendet wird. Gute Ergebnisse konnten mit dem 2-Schichtsytem erzielt werden, bei dem das ALD-Verfahren als Deckschicht verwendet wird. Dagegen eignen sich die 3-Schichtsysteme mit der ALD-Zwischenschicht nicht als Permeationsbarriere.
Bei der Fertigung von Strukturen der Bereich MEMS und MOEMS ist eine ständige messtechnische Kontrolle und Überprüfung notwendig. Mit dieser wird sichergestellt dass die durchgeführten Produktionsschritte zu der Funktionsfähigkeit des Systems beitragen und die Qualität alle geforderten Ansprüche erfüllt. Diese Zwischenschritte erfordern aber auch einen hohen Zeitaufwand. Um diese Zeit weitestgehend zu ver-kürzen bietet sich eine Automatisierung der Messprozesse an, da diese sich auf einem Wafer mit 70 oder mehr Strukturen ständig wiederholen. Für die Automatisierung wird in dieser Arbeit ein Messstellenumschalter entwickelt, welcher die Prozesse zur elektrischen Charakterisierung von MEMS und MOEMS steuern soll. Dabei wird auf alle notwendigen Aspekte, die diese Aufgabe erfordert, eingegangen.
In der Zahnmedizin werden zur Kronenablösung aktuell ausschließlich Verfahren angewandt, bei welchen die Kronenrestauration zerstört wird. Der Patient muss hohe Kosten für den Kronenersatz und in manchen Fällen einen Zahnverlust in Kauf nehmen. Hierfür wurde eine Technologie entwickelt, die mittels Laserapplikation durch entstehende Mikroexplosionen im Adhäsivzement zwischen Krone und Zahnstumpf eine schonende und zerstörungsfreie Ablösung der künstlichen Zahnkrone ermöglicht. Die Keramik transmittiert das Laserlicht, das danach im Zement bzw. Bonding vollständig absorbiert werden soll, um den Zahnstumpf (Zahnpulpa) nicht durch übrige Energie zu schädigen. Durch eine Literaturrecherche konnten nur verwandte Anwendungen bzgl. dieser Technologie gefunden werden. Es wurde eine Bearbeitungsstation errichtet, in der zwei Er:YAG-Laser mit einer geeigneten Wellenlänge von 2940 nm aber mit unterschiedlichen Repetitionsraten integriert wurden. Nachdem die Funktionsweise dieser Station nachgewiesen wurde, konnten die Ablösungsprozesse durch Integration einer Hochgeschwindigkeitskamera charakterisiert werden. Dabei erkannte man bei Ablösung thermomechanische Effekte, währenddessen ausschließlich thermische Reaktionen bei ausgebliebener Ablösung stattfanden. Um diese Technologie später am Menschen einzusetzen, sind Temperaturmessungen mittels eines Hochgeschwindigkeit-IR-Kamerasystems notwendig, um den Schädigungsgrad des Zahnstumpfes bei der Laserapplikation abschätzen zu können. Es wurden die Temperaturen an der Oberfläche und im Inneren des Zahns während der Applikation untersucht. Die Temperaturen im Zahn lagen unterhalb der zugelassenen Temperaturänderung von 5,5 K.
Die dielektrischen Materialien SiO2 und Si3N4 eignen sich als Isolator Schichten in Transistoren und als Matrix Material für seltene Erden (z.B. Erbium) und kommen deshalb in Silizium-basierenden Lichtemittern (MOSLED) zum Einsatz. Sie weisen besonders geringe Verluste von 0,1 dB/cm bis 1 dB/cm im Bereich des sichtbaren (VIS) bis infraroten (IR) Lichtes auf und finden daher Verwendung in Wellenleiter-basierenden photonischen Systemen. Der Trend zur Anwendung siliziumreicher Si3N4 (SiNX/SRN) und SiO2 Schichten (SiOX/SRO) liegt vor allem in der Steigerung der optischen Effizienz Er3+-dotierter MOSLEDs im Telekommunikationsbereich (1535 nm) und in der Erhöhung der Integrationsdichte der Si-basierenden Optik. Eine kostengünstige Umsetzung wird über die Herstellung mittels plasmagestützter Gasphasenabscheidung (PECVD) ermöglicht, die sich problemlos in CMOS-Halbleiterprozessabläufe integrieren lässt. Diese Arbeit befasst sich zum einen mit der Herstellung als auch Charakterisierung siliziumreicher SiO2 und Si3N4 Systeme und zum anderen mit der Entwicklung Abscheideraten-kontrollierter SiO2 Schichten mittels PECVD. Die Struktureigenschaften werden anschließend über Fourier Transformations-Infrarotspektroskopie (FTIR), elastischer Rückstreudetektionsanalyse (ERDA), Ellipsometrie sowie Transmissionsmessungen charakterisiert. Die optoelektronischen Eigenschaften wurden an MOSLEDs, basierend auf einem ITO/SiOX/SiNX:Er3+/Si-System, bei dem die lumineszierende Schicht aus SiNx:Er3+ besteht, untersucht. Die Einflüsse der Schichtstöchiometrien auf die Lichtemitter werden sowohl über I(V) (Strom-Spannung) als auch über I_CC Messungen (Konstant-Strom) mit gleichzeitiger Erfassung der optischen Leistung sowie des Elektrolumineszenz Spektrums analysiert. Neben dem Einsatz in MOSLEDs werden die siliziumreichen Schichten in optischen Wellenleitern genutzt, wo ihre Stöchiometrie über die Änderung der optischen Konstanten das Transmissionsverhalten erheblich beeinflusst. Die Auswirkungen der sich ändernden Materialeigenschaften auf die Modendispersion in planaren Wellenleitern wurden bezüglich der Wellenleiterhöhe und der optischen Konstanten mit MATLAB simuliert. Weiterhin wird gezeigt, wie die Variation des Si-Überschusses in den optischen Schichten die Bandlücke und das Transmissionsverhalten beeinflussen. Darüber hinaus werden die Ergebnisse der weiterentwickelten Wellenleiterherstellung und ein möglicher Herstellungsprozess zur Kopplung zwischen MOSLED und Wellenleiter präsentiert.
Die effektive Verkapselung von flexiblen organischen Leuchtdioden ist ein wichtiger Bestandteil für die Erhöhung der Lebensdauer. Vielversprechend sind hier Nanolaminate, bei denen abwechselnd defektarme, anorganische Barriereschichten und flexible, organische Zwischenschichten hergestellt werden. In dieser Arbeit wurde ein Prozess zur Molekularlagenabscheidung (MLD) der organischen Schicht aus den Edukten Trimethylaluminium und 1,2-Ethandiol entwickelt und optimiert. Der Prozess ermöglicht die Herstellung von dünnen Schichten aus Poly (Aluminiumethandiol) mit einer Dichte von 1,7 g/cm3 und einem temperaturabhängigen Wachstum je Zyklus von 0,1 bis 0,05 nm für Abscheidetemperaturen von 90 bis 150°C. Infrarot- und photoelektronenspektroskopische Untersuchungen weisen auf einen Einbau der Kohlenstoffketten in die Schicht hin. Das Aufwachsen der Schichten erfolgt auf Aluminiumoxid substratverstärkt und zeigt für den verwendeten MLD-Prozess einen ungünstigen Reaktionsmechanismus an.
Der stetig fortschreitenden Entwicklung in der Elektronikindustrie folgt eine zunehmende Komplexität der Schaltungsträger. Die Leiterplatte entwickelt sich hin zu einem System. Als Leiterwerkstoff hat sich aufgrund einer guten Verarbeitbarkeit und positiven Eigenschaften Kupfer durchgesetzt und dominiert die Leiterplattenherstellung. Doch neben einer gesteigerten Funktionalität nimmt auch das Gewicht des Schaltungsträgers zu. Hier bietet der Einsatz von Aluminium ein erhebliches Einsparungspotential. Grundgedanke ist dabei, die Kupferkaschierung durch Aluminium zu ersetzen. Ziel dieser Masterthesis sind erste Untersuchungen hinsichtlich einer Realisierbarkeit der Herstellung einer durchkontaktierten Mehrlagenleiterplatte. Im ersten Teil wird auf grundsätzliche Technologien zur Herstellung einer handelsüblichen Leiterplatte eingegangen, verschiedene Prüfverfahren zur Beurteilung der Qualität und Zuverlässigkeit erläutert und Aluminium als Werkstoff vorgestellt. Weiterhin werden zu den Fertigungsschritten Multilayerherstellung, Strukturierung und Durchkontaktierung eine Bearbeitung mit bestehenden Verfahren geprüft und eine Durchführbarkeit bewertet. Doch besonders für die nasschemische Bearbeitung müssen alternative aluminiumspezifische Prozesse gefunden und charakterisiert werden. Die erreichte Produkt- und Prozessqualität wird im Hinblick auf die Anforderungen und vergleichend zum Kupfer charakterisiert und beurteilt. Auftretende Probleme werden diskutiert und Lösungsvorschläge erbracht. Letztlich erfolgt eine Einschätzung zur Realisierbarkeit einer solchen Aluminiumtechnologie unter den Fertigungsbedingungen der KSG Leiterplatten GmbH.
Die Umstellung unserer Energieversorgung von fossilen Energieträgern auf erneuerbare Energien lässt den Photovoltaiksektor auch weiterhin wachsen. Durch diese Entwicklung sinken die Preise für Photovoltaikmodule stetig. Da eine Photovoltaikanlage (PV-Anlage) die Möglichkeit bietet, sowohl einen Teil des Elektroenergiebedarfes zu decken, als auch überschüssigen Strom einzuspeisen und die Preise für Elektroenergie beständig steigen, gibt es eine hohe Zubaurate für diese Anlagen. Im Jahr 2011 wurden 7,5 GWel Leistung in Form von PV-Analgen aber nur 0,9 GWth als solarthermische Kollektoren installiert. Es wird allerdings davon ausgegangen, dass 300 bis 400 GWth im Wärmebereich notwendig sind, um einen wirksamen Klimaschutz zu erzielen. Dies würde einem Anteil an Solarenergie von etwa 15% entsprechen. Eine Möglichkeit diese Entwicklung zu kompensieren, besteht darin einen Teil der erzeugten Elektroenergie zur Heizungsunterstützung und zum Bereiten von Warmwasser zu nutzen. Derzeitig ist das wirtschaftlich noch nicht interessant. Der Hauptgrund ist darin zu sehen, dass Erdgas und Heizöl derzeitig zu günstig sind, um sie durch Elektroenergie aus einer PV-Anlage zu ersetzen, wenn diese selbst verbraucht bzw. eingespeist werden kann. Die Netzparität für Strom aus Photovoltaikanlagen wurde bereits 2012 erreicht, aufgrund der großen Nachfrage von Photovoltaiksystemen fallen bei diesen Anlagen die Stromgestehungskosten stetig, während gleichzeitig die Bezugskosten für Öl und Gas steigen. Daher wird es bereits in naher Zukunft wirtschaftlich interessant sein, einen Teil des PV-Stroms zum Bereiten von Warmwasser und zur Heizungsunterstützung zu verwenden und so überschüssige Energie zu nutzen. In der vorliegenden Arbeit wurden verschiedene PV-Anlagen mit und ohne partieller Deckung des Wärmebedarfes unter den derzeitigen und zukünftigen preislichen Entwicklungen in Bezug auf Ihre Wirtschaftlichkeit verglichen. Des Weiteren wird der wirtschaftliche Nutzen der Verwendung von Akku-Systemen für PV-Anlagen zur Erhöhung des solaren Deckungsgrades (SD) im Vergleich zum Decken des Wärmebedarfes durch überschüssige Elektroenergie betrachtet. Diese verschiedenen PV-Anlagensysteme werden weiterhin solarthermischen Anlagen gegenübergestellt, um die Wirtschaftlichkeit im Vergleich zu einem System mit ausschließlicher Wärmegewinnung beurteilen zu können. Abschließend wird der Fall betrachtet, dass bereits eine Wärmepumpe zur Bereitung von Warmwasser und als Raumheizung vorhanden ist und ein Teil der notwendigen Elektroenergie für diese Anlage durch Verwendung einer PV-Anlage gedeckt wird. Ziel ist die Klärung der Frage, welche der betrachteten Anlagen über den Betrachtungszeitraum von 20 Jahren am wirtschaftlichsten arbeitet. Dazu werden die Anschaffungskosten, die Amortisation und die Stromkosteneinsparung je Anlage ermittelt und innerhalb dieses Zeitraums verglichen. Der Betrachtungszeitraum erstreckt sich zum einen ab dem Jahr 2013 und zum andern ab dem Jahr 2030, wobei hier die jeweils geltenden Rahmenbedingungen berücksichtigt wurden. So soll geklärt werden, wie sich die Wirtschaftlichkeit der einzelnen Anlagen in Zukunft verändert und eine Empfehlung zur Wahl eines Anlagentyps gegeben werden.
Die Phytoplanktonanalyse ist ein wichtiger Indikatorparameter zur Qualitätsbestimmung und -überwachung von Rohwasser aus Oberflächengewässern. Aus der Verordnung zum Schutz der Oberflächengewässer und den Europäischen Normen DIN EN ISO/EC 17025, DIN EN 14996 sowie DIN EN 15204 für die Phytoplanktonanalyse leiten sich zwingend Maßnahmen zur Qualitätssicherung (QS) ab. Die DIN-Normen geben jedoch nur Vorschläge zur QS. Ziel dieser Arbeit ist die Entwicklung eines Qualitätssicherungssystems für die Phytoplanktonanalyse, das über die DIN EN 15204 hinaus geht und alle Aspekte der Qualitätssicherung integriert. Aus dem Vergleich des prinzipiellen Aufbaus von QS-Systemen mit dem IST-Zustand in der Phytoplanktonanalyse sowie potenziellen Fehlerquellen wird der konkrete Bedarf an weiteren QS-Bausteinen ermittelt. Dabei wird unter Berücksichtigung der Besonderheiten biologischer Verfahren im Allgemeinen und der Phytoplanktonanalyse im Speziellen die mögliche Verwendung von Referenzmaterialien untersucht. Diese fehlen bisher fast vollständig. Weitere QS-Werkzeuge wie interne Audits und Ringversuche werden beschrieben und gezielt für die Phytoplanktonanalyse entwickelt und angepasst. Als Ergebnis werden die neu entwickelten Referenzzählkammern als geeignete Referenzmaterialien ausgewählt und Shewhart-Kontrollkarten entwickelt. Mit diesen können die Referenzzählkammern in der Praxis zur Fehlerminimierung beitragen. Das in dieser Arbeit entwickelte interne Audit mit Auditplan, Fragenkatalog und Maßnahmeplan ermöglicht eine Fehlerüberwachung sämtlicher Verfahrensschritte. In Kombination mit den Referenzzählkammern und dem von der Landestalsperrenverwaltung Sachsen, Untersuchungsstelle Plauen ausgerichteten Ringversuch EQAT Phytoplankton trägt das Audit zu einem umfangreichen QS-System bei. Zusammenfassend lässt sich sagen, dass die vorliegende Arbeit eine wesentliche Erweiterung des Qualitätssicherungssystems für die Phytoplanktonanalyse um essentielle Bausteine erreicht hat. Kleinere Defizite bleiben aber bestehen. Ganz im Sinne der Qualitätssicherung wird auch in Zukunft eine stetige Überprüfung und Verbesserung nötig und sinnvoll sein.
Der Trend zu der fortschreitenden Miniaturisierung und immer höheren Packungsdichte stellt nicht nur die Halbleiterindustrie immer wieder vor neue Herausforderungen, sondern auch die Leiterplattenhersteller. In modernen Anwendungen werden mehrlagige Leiterplatten mit Durchkontaktierungen genutzt, um eine steigende Kontaktstellendichte bzw. eine effektive Wärmeabfuhr zu realisieren. Vor allem im mobilen Bereich sind diese Komponenten jedoch starken thermischen Beanspruchungen ausgesetzt. Untersuchungen an Leiterplatten haben gezeigt, dass ein elektrischer Ausfall einer Leiterplatte auf schadhafte Durchkontaktierungen zurückzuführen ist. Defekte Durchkontaktierungen werden mit der Methode des metallographischen Schliffs ausgewertet, welche sehr zeitaufwendig ist. Mit der Messung des elektrischen Widerstandes und dessen Veränderungen im Temperaturwechseltest können ebenfalls defekte Durchkontaktierungen erfasst werden. Im Rahmen dieser Arbeit wurde ein Messstand aufgebaut, welcher den elektrischen Widerstand von einzelnen Durchkontaktierungen während eines Temperaturwechseltests messen kann. Die Messung erfolgt mit einer automatisierten Vier-Leiter-Messung. Dabei wurde der Einfluss der Kontaktierung hinsichtlich einer Löt- und Steckverbindung untersucht. Außerdem wird der Einfluss der Bestromungsdauer auf die Probenlebensdauer analysiert. Im Rahmen einer Messmittel-fähigkeitsanalyse stellte sich heraus, dass das Messrauschen bei gelöteten Proben geringer ist als bei gesteckten Proben. Die gemessenen Daten wurden mittels automatisierter Software ausgewertet. Dazu wurden nur die Warmphasen der Temperaturzykeldaten genutzt, da hier die Widerstandsänderung durch einen Riss am größten ist. Die Verlaufskurven der Widerstandsänderung bestätigen die Ergebnisse hinsichtlich des Messrauschens der Messmittelfähigkeitsanalyse. Eine Durchkontaktierung gilt ab einer Widerstandsänderung von 5 % als ausgefallen. Die durchgeführte Schliffbilduntersuchung zeigte, dass bei dieser Änderung eine massive Schädigung durch Risse eintritt und somit wurde das Ausfallkriterium bestätigt. Eine statistische Untersuchung der Ausfalldaten mit Hilfe der Weibullanalyse zeigte einen signifikanten Einfluss der Bestromungsart auf die Probenlebensdauer. So führt ein dauerhafter Stromfluss zu früheren Ausfällen.
Diese Arbeit befasst sich mit der Durchführung einer Sicherheitsanalyse für eine Computer-Telefonie-Integration Applikation für mobile Endgeräte mit Android-Betriebssystem. Eine solche Applikation bietet hohe Schadpotenziale und muss daher gegen Angriffe geschützt werden. Das hohe Schadpotenzial resultiert aus den Funktionalitäten, die eine solche Applikation besitzen muss und aus den speziellen Risiken, die sich auf mobilen Plattformen durch die hohe Konzentration sensibler Daten ergeben. Mobile Plattformen rücken aus diesem Grund immer stärker in den Fokus sowohl der IT-Security als auch von Angreifern. Durch die Anwendung eines standardisierten Prozesses für die Sicherheitsanalyse lässt sich ein nachweisbares Schutzkonzept ausarbeiten. Der Analyse geht eine Auswahl eines geeigneten Prozesses voraus. Am Ende der Arbeit stehen konkrete Konzepte, die in eine Implementierung überführt werden können.
With the help of the Laser-Speckle phenomenon different in-vivo diagnostic applications can be performed at the surfaces of different tissues such as the skin, the retinal skin and the cerebral cortex. In this study the Laser light scattering phenomenon is used to measure blood flow and hemoglobin concentration change. There are a lot of different approaches to perform these investigations for example with single-mode or multi-mode fibers. A comparison between the two illumination systems is presented together with an experimental setup. The results show that both of the approaches are feasible under specific conditions. Both fiber illumination systems have their advantages and limitations in fulfilling different tasks. The two approaches are tested and evaluated to propose specific applications for every illumination system. With these results future uses of the proposed methods are encouraged.
Um die magnetorsistiven Eigenschaften dünner FeRh-Schichten zu charakterisieren, wurde ein neues Messsystem entwickelt. Für dieses Messsystem wurde ein Probeträger konstruiert der eine Mesung des elektrischen Widerstandes nach Van-der-Pauw in Abhängigkeit der Probentemperatur, eines äußeren Magnetfeldes und dem Energieeintrag durch Ionenbeschuß erlaubt.
Durch die immer höher werdenden Anforderungen an die Oberfläche von Implantaten wird eine definierte Oberflächenbearbeitung mittels Laserstrahlung zunehmend interessant. Durch Variation der Laserparameter können gezielt unterschiedliche Veränderungen der Oberflächeneigenschaften bewirkt werden. In dieser Arbeit werden die Implantatwerkstoffe Titan und Hydroxylapatit hinsichtlich der Bearbeitbarkeit mittels Laserstrahlung untersucht. Für diese Untersuchung werden Parametersätze für die verwendete Faserlaseranlage TF20 Ja der Firma Baublys ermittelt. Durch die Variation der Pulsfrequenz, Leistung und Vorschubgeschwindigkeit für bestimmte Geometrien (Punkt, Linie und flächiger Abtrag) werden Parametersätze für die Mikrostruktuirierung der Oberflächen ermittelt. Die Auswertung dieser Geometrien erfolgt über verschiedene Mikroskopische Verfahren (LSM, REM, Lichtmikroskop) und ein Kontaktwinkelmessgerät. Zusäztzlich zur Bearbeitung von Hydroxylapatit mit dem Faserlaser wird eine weitere Bearbeitung mittels CO2 Laser (= 10; 6 µm) vorgenommen. Dieser wurde im Labor aufgebaut und erzielt eine punktförmige Bearbeitung des Hydroxylapatit. Bei der Bearbeitung der Werkstoffe ist die Zielsetzung das erreichen der Parameter mittlere arithmetische Rauigkeit und Wasserkontaktwinkel aus der Literatur.
Diese Bachelorarbeit beschäftigt sich mit Messungen, mit deren Hilfe der Einfluss elektromagnetischer Felder im Frequenzbereich von 900 MHz auf die Bioregulation des Menschen untersucht wird. Die Messungen finden im Rahmen eines Forschungsprojektes an der Westsächsischen Hochschule Zwickau statt. Ziel ist die Auswertung der in der Vergangenheit aufgenommenen Messdaten. Diese wurden mittels der Herzratenvariation im Zeitbereich ausgewertet. Zum Vergleich der Analysemethoden sollen diese Daten nun noch im Frequenzbereich analysiert werden. Diese Arbeit beschreibt die Auswertung im Frequenzbereich ausführlich und vergleicht kurz die Frequenzbereichanalyse mit der Zeitbereichsanalyse. Mit dieser Arbeit soll geklärt werden, ob eine Analyse im Frequenzbereich sich von der Zeitbereichsanalyse unterscheidet und mehr Informationen liefert.
Die theoretische und praktische Untersuchung zur Wellenfronanalyse im Lithographiprozess. Es wurde ein Aberrationsmessverfahren bezüglich technischen Gegebenheiten der Belichtungsanlage analysiert und modifiziert. Anhand dieser Analyse und Modifikation wurde ein entsprechendes Messverfahren ausgearbeitet und analytisch ausgewertet.
Die Arbeit stellt eine Abhandlung theoretischer und praktischer Erkenntnisse zum Thema Markenerlebniswelten dar. Der Theorieteil beruft sich auf die erlebnisorientierte Gestaltung der Markenkommunikation, insbesondere für MArkenerlebniswelten, welcher Voraussetzung für den nachfollgenden Praxisteil ist. Im Praxisteil wird ein Erlebnisprogramm für eine Markenerlebniswelt konzipiert. Inhalte sind eine umfassende Analyse des Wettbewerbs, der Zielgruppe und des eigenen Unternehmens, sowie die Herausstellung strategischer Ziele und Maßnahmen zur Gestaltung und Umsetzung.
Das Ziel dieser Arbeit bestand darin, die personalwirtschaftlichen Herausforderungen für deutsche Unternehmen in China zu analysieren und dabei spezifisch die Problematik der Bindung und Qualifizierung chinesischer Mitarbeiter zu erörtern. Die hohen Fluktuationsquoten chinesischer Mitarbeiter innheralb der Unternehmen stellen für die Personalabteilungen ein Problem dar, dem entgegengewirkt werden muss. Aufgrund der angespannten Situation des chinesischen Arbeitsmarktes und dem Mangel an qualifizierten Personal, muss eine Unternehmensstrategie zur zielgerichteten Akquirierung, Qualifizierung und Weiterentwicklung implementiert werden. Motivations- und Anreizsysteme der chinesischen Mitarbeiter stellen einen Ansatzpunkt dar, der von der Personalführung genutzt werden kann, um die Fluktuation zu senken und eine Mitarbeiterloyalität zu fördern.
In dieser Bachelorthesis wurden drei verschiedene Deckenmaterialien für die Archtopgitarre miteinander verglichen. Dabei wurden eine herkömmlich gestaltete Fichtedecke, eine Fichten-Aramid-Decke sowie eine Karbon-Aramid-Decke untersucht. Der Bau wurde messtechnisch begleitet und ausgewertet, die fertigen Decken wurden in einem Klangvergleich bewertet.
Gegenstand dieser Arbeit sind die eleganten Hakenharfen des Schreiners und Instrumentenmachers Joseph Schweiger. Hierfür werden vier seiner erhaltenen Harfen ausführlich dokumentiert. Ausgehend von diesen Harfen führt der biographische Teil die verfügbaren Informationen über das Leben und Wirken Joseph Schweigers zusammen. Um diese Harfen besser zu verstehen, wird anhand alter Lehrwerke für Harfe versucht einen Blick durch die Augen der damaligen Musiker auf das Instrument Harfe um 1800 zu werfen.
Die Arbeit beschreibt den Aufbau und die Validierung eines Bordnetzmodells mit zwei Spannungsebenen 12V/48V über einen Gleichstromwandler gekoppelt. In Co-Simulation mit einem Gesamtfahrzeugmodell über die Middleware TISC wurden Einflussgrößen im simulierten Fahrbetrieb des NEFZs auf das Zweispannungsbordnetz ermittelt.
Diese Arbeit beschreibt die Analyse verschiedener Verfahren und Systeme zur HTTP- basierten Kommunikation zwischen einer JEE-Client- und JEE-Serverapplikation. Dazu wird die bestehende Applikation untersucht, vorhandene Kommunikationswege und daraus resultierende Anforderungen identifiziert. Verschiedene Softwareprodukte werden unter Berücksichtigung der Softwarequalität, den ermittelten Anforderungen und dem zu erwartenden Aufwand miteinander verglichen. Auf Basis dieses Vergleichs erfolgt die Wahl und Integration eines Produkts. Abschließend wird ein Vergleich der Performanz zwischen dem angepassten System und dem System im Ausgangszustand durchgeführt. Der zweite Teil der Arbeit befasst sich mit der weiteren Verbesserung des Zeitverhaltens und des Ressourcenverbrauchs. Dabei liegt der Fokus auf der Kommunikation zum Zwecke des Refreshs der Clientapplikation. Es werden die komplexen Verarbeitungsabläufe analysiert, Schwachstellen und Verbesserungsmöglichkeiten ermittelt und daraus erstellte Entwürfe auf Umsetzbarkeit und Effizienz bewertet.
Die Dokumentation von Wissen in einem Entwicklungsprojekt stellt neben der eigentlichen Entwicklung des Systems die wohl größte Herausforderung für die Projektbeteiligten dar. Für die Dokumentationserstellung muss ein für die Projektrahmenbedingungen möglichst gutes Kosten/Nutzen-Verhältnis erzielt werden. Die Gründe für die Dokumentationserstellung sind vielseitig. Neben der Konservie-rung des Wissens über einen langen Zeitraum kann auch die Wissensübermittlung zwischen Projektbeteiligten unterstützt und verbessert werden. Zudem lässt sich die Dokumentationsarbeit als Werkzeug für die Systemanalyse einsetzen. Die Dokumentationslandschaft wird im Wesentlichen durch den Informationsfluss in einem Projekt bestimmt. Dazu zählen die Sender sowie die Empfänger der jeweiligen Inhalte und wie die Informationen während der Projektdurchführung transformiert werden. Um diese Transformationsprozesse zu verstehen, muss das Wissen anhand verschiedener Attribute klassifiziert werden. Sind die einzelnen Aspekte bekannt, so können anhand der Projektrahmenbedingungen der Umfang der Dokumentation und der ideale Zeitpunkt für die Konservierung bestimmt werden. Die Wahl der passenden Dokumentationstechnik für die Konservierung des Wissens wird ebenfalls durch dessen Attribute und die Eigenschaften der jeweiligen Technik bestimmt. Je nach dem angestrebten Ziel sind unterschiedliche Kombinationen aus einer Notation und deren Verwendung geeignet. Das Zusammenspiel der einzelnen Aspekte wird abschließend in drei verschiedenen Szenarien erläutert.
This work analyzes and evaluates different approaches to translate UML state machines into C++ code. The first part of this thesis covers the ground of transforming information of a source language to a target language. It addresses the basics of language theory and different approaches of language transformation. The second part examines the properties and formalisms of state machines to value their characteristics for further reuse in the development cycle. The third part disassembles the programming language C++ with all its quirks and oddities. The last part puts all mentioned pieces together. Beyond this approach the thesis tries to point out several concepts of language engineering to ease the use of software languages for the language user as well as the language engineer. It scrutinizes diverging solutions with the resulting consequences.
Expertensysteme wurden Mitte des 20. Jahrhundert für den Bereich Medizin entwickelt. In den letzten Jahren wurde das Potenzial eines Expertensystems auch von anderen Wirtschaftsbereichen erkannt. Diese Arbeit beschreibt die Entwicklung eines Expertensystems für den Kleinbergbau. Speziell unterstützt es private Unternehmen und internationale Förder- und Finanzierungsorganisationen die durch Entwicklungsprojekte den illegalen Kleinbergbau in Entwicklungs- und Schwellenländern fördern. Dazu werden erstmals verschiedene Schwerpunkte die den Kleinbergbau beeinflussen, wie Politik, Wirtschaft, Umwelt, Recht, Technik, Arbeitsschutz und Soziales, in einem wissensverarbeitenden System übergreifend betrachtet. KnowWE, ein Entwicklungswerkzeug, programmiert an der Universität Würzburg, kombiniert ein semantisches Wiki mit der Problemlösungskomponente d3web. d3web leitet Lösungen anhand von Entscheidungsbäumen oder -tabellen, kategorischen oder heuristischen Regeln und Überdeckungsmodellen oder fallbasiertem Schließen her. Die Entwicklung des Ex-pertensystems wurde mit d3web.KnowWE realisiert.
Diese Master-Thesis dokumentiert die Planung und Realisierung einer Validator-Komponente für webMethods Business Rules, einem Werkzeug zur grafischen Modellierung von Geschäftsregeln. Mithilfe des Validators soll der Anwender bei der Erstellung einer konsistenten Regelbasis unterstützt werden, um eventuell kostenintensive Fehlentscheidungen während der Geschäftsprozessautomatisierung zu vermeiden. Neben der ausführlichen Definition von Inkonsistenzen einer Regebasis, wie z.B. Schleifen, Widersprüchen, Redundanzen und Unvollständigkeiten werden Algorithmen zur Erkennung dieser entworfen. Hierbei werden zwei Ansätze aus der Fachliteratur vorgestellt und an die spezifischen Besonderheiten von Business Rules angepasst. Einen Schwerpunkt bildet die Interpretation von Inkonsistenzen für Regeln mit nicht booleschen Datentypen. Abschließend wird die Realisierung und Implementierung der entworfenen Algorithmen in Java dokumentiert und die Anbindung als Validator-Komponente für Business Rules beschrieben.
Visual FoxPro ist eine über mehrere Jahrzehnte erfolgreich eingesetzte Entwicklungsumgebung, Programmiersprache und relationale Datenbank. Entwickelt wurde Visual FoxPro einst von Fox Software als FoxBase. Nachdem Fox Software 1992 durch Microsoft aufgekauft und in den Folgejahren weitere Versionen veröffentlicht wurden, folgte im März 2007 schließlich die Abkündigung. Seither stehen Visual FoxPro-Entwickler vor dem Problem der Migration. Auf der Suche nach Alternativen wird häufig die Programmiersprache C# angeführt. Die vorliegende Arbeit beschreibt Wege und Möglichkeiten für eine derartige Migration, zeigt welche Probleme sich daraus ergeben und wo die Grenzen der einzelnen Technologien liegen. Ferner wird anhand der Untersuchungen das von Microsoft entwickelte Component Object Model ausgewählt und im Verlauf der Arbeit näher behandelt. Eine grundlegende Analyse verdeutlicht die Arbeitsweise dieser Technologie und bildet den Ausgangspunkt für einen Vergleich von Visual FoxPro und .NET-Framework. Auf die Probleme, die sich in Zusammenhang mit dieser Technologie ergeben, wird in einem gesonderten Kapitel eingegangen. Es werden Lösungsmöglichkeiten behandelt und das Component Object Model einem Performance-Test unterzogen. Unter der Maßgabe einer schrittweisen Migration wird in einem weiteren Kapitel eine effektive Umsetzungsreihenfolge auf Basis der Anwendungsschichten erarbeitet. Die praktische Umsetzung wird anhand einer Visual FoxPro-Klassenbibliothek verdeutlicht. In einer abschließenden Betrachtung werden die einzelnen Kapitel mit den Zielen der Arbeit nochmals gegenüber gestellt. Zudem werden Vorschläge und Anregungen für weitere Arbeiten gegeben.
In dieser Bachelorarbeit werden folgende Themen behandelt: - Erklärung von Arbetiszeitmodellen und Cloud-Systemen - Amazon-Cloud vorgestellt und RDS- und EC2-Module näher erläutert - Tomcat Webserver installiert und konfiguriert - Oracle Datenbank: Tabellen, Funktionen und Prozeduren erstellt - Entwicklung von Datendiensten in Java zum Verbindungsaufbau zu einer Oracle Datenbank - grafische Oberfläche mit Apache Flex 4.6 erstellt und mit Hilfe von Datendiensten an Oracle Datenbank angebunden - Webservice erstellt und in ein vorhandenes Flex Projekt eingebunden
Konzeption und Realisierung einer BI-Loesung zur Auswertung logistischer Kennzahlen der BMW Group
(2013)
Das Outsourcing von Logistikleistungen nimmt in der Automobilbranche stetig zu. Gerade im Bereich der Materialbeschaffung beauftragt die BMW Group eine Vielzahl externer Spediteure. Diese Logistikdienstleister verantworten die Transporte von verschiedenen Lieferanten hin zu den Produktionsstätten der BMW Group. Um die Transportqualität der unterschiedlichen Spediteure vergleichen zu können, sollen logistische Kennzahlen erhoben werden. Ziel ist es, eine standortübergreifende Analyse zu ermöglichen. Damit sollen künftig Leistungsstörungen (wie z.B. Verspätungen oder mangelhafte Frachtpapiere) vermieden und die Transportqualität kontinuierlich verbessert werden. Im Rahmen eines IT-Projekts bei BMW erfolgt die Konzeption und Implementierung einer Business Intelligence (BI) Lösung zur Ermittlung und Auswertung dieser logis-tischen Kennzahlen. In der vorliegenden Arbeit verdeutlicht die Autorin ein typisches Vorgehen für die Erstellung von BI-Lösungen am Beispiel dieses Projekts. Schwerpunktmäßig geht sie dabei auf die verschiedenen Phasen der IT-Konzeption von der Voranalyse der Quelldaten über die Modellierung eines Ziel-Datenmodells bis hin zum Entwurf der vollständigen IT-Architektur und des Datenflusses ein. Ergebnis der praktischen Realisierung des Projekts ist eine Anwendung basierend auf dem SAP Business Information Warehouse (SAP BW), mit deren Hilfe eine adäquate Auswertung der logistischen Kennzahlen erfolgen kann. Ziel dieser Masterarbeit ist die Gegenüberstellung theoretischer BI-Grundlagen mit deren praktischer Anwendung im konkreten Projekt. Unter Einbeziehung organisa-torischer Rahmenbedingungen, wie sie in der Praxis herrschen, beschreibt die Autorin die praktische Umsetzung von BI-Projekten an einem exemplarischen Beispiel.
Um die Kosten und den Aufwand für die Installation, Aktualisierung und Wartung von Pool-PCs zu verringern, soll ein System zur zentralen, hardwareunabhängigen und vollautomatischen Installation der Pool-PCs eingeführt werden. Mit Hilfe des Projektes "IT-Infrastruktur KSUCTA" an der Kirgisischen Staatlichen Universität für Bauwesen, Transportwesen und Architektur (Kirgisistan) wurden bereits notwendige Server-Dienste für die effiziente Verwaltung eines lokalen Netzes geschaffen. Aber die zentrale Verwaltung der Pool-Clients wurde zu diesem Zeitpunkt noch nicht realisiert. Im Rahmen dieser Masterarbeit wird ein Konzept entwickelt, das die Vorbereitung der Pool-PCs auf Basis von OpenSource Software realisiert. Dabei werden spezielle Anforderungen betrachtet, die für die Auswahl entsprechender Technologien dienen. Abschließend wird dieses Konzept mit ausgewählten Technologien als Prototyp realisiert. Die existierende IT-Infrastruktur wird so angepasst, dass das entwickelte Konzept unterstützt wird.
Nach einer einer kurzen Einführung in die Grundlagen werden die Anforderungen der Software erhoben. Da aufgrund einer Vielzahl mobiler Plattformen der Implementierungsaufwand sehr hoch ist, wurde zunächst nach einer plattformunabhängigen Lösung gesucht. Aufgrund der Ergebnisse der Evaluierung folgt eine native Realisierung für die Apple iOS-Plattform. So wird zunächst ein Konzept der Software aufgestellt und darauffolgend prototypisch implementiert. Der Prototyp zeigt, dass der Entwurf die gestellten Anforderungen erfüllt.
Die Masterarbeit beschäftigt sich mit der Konzeption und Realisierung von Integrierung eines Vektorgrafikeditors und zusammengesetzten Medien in Learning Content Management System (LCMS) KnowledgeWorker von chemmedia AG. In der Arbeit wird ein Überblick über benutzte Werkzeuge und Technologie wie SVG-Format, Svg-Edit, Spring und AngularJS Frameworks gegeben. Im Weiteren wird detailliert das entwickelte Lösungskonzept und Implementierung beschrieben, werden ihre Vor- und Nachteile betrachtet. Am Ende der Masterarbeit werden die Ergebnisse ausführlich dargestellt und diskutiert, sowie auf aufgetretene Probleme eigegangen und Vorschläge für die mögliche Weiterentwicklung gegeben.
Das Ziel dieser Arbeit war es, mögliche Einsatzgebiete von NoSQL-Technologien im Umfeld von KIS herauszufinden. Dafür wurden zunächst die Unterschiede zwischen einem RDBMS und Document Stores aufgezeigt und anschließend mit dem typischen Vertreter, namens CouchDB, geeignete Implementierungen durchgeführt. Die Unterschiede zeigten, was die Document Stores versuchen besser zu machen wie die RDBMS. Durch die Implementierung der Prototypen wurden die Unterschiede nicht nur getestet, sondern auch neue Möglichkeiten aufgezeigt, dies umzusetzen. Zu Beginn der Arbeit wurde die Implementierung noch mit Hilfe von HTML und JavaScript getestet. Jedoch entwickelte man im Laufe der Arbeit die Anwendungen mit Hilfe von Java, um die Anwendungen dynamischer zu gestalten. Außerdem können eigene Algorithmen zur Datenverschlüsselung mehr Freiheiten in Bezug auf die Flexibilität der Anwendung schaffen. Weitestgehend lässt sich sagen, dass der Einsatz von NoSQL-Technologien im Umfeld von KIS möglich ist. Jedoch werden sie vorerst strittig bleiben, da sie in ihrer Entwicklung noch im Entwicklungsstadium sind. Allerdings besitzen sie bereits sehr gute Eigenschaften, um den RDBMS ernsthafte Konkurrenz zu machen. Eine Schwäche, die bei der Implementierung auffiel ist, dass bei einer Aktualisierung des Dokuments alle bereits vorhandenen Daten im Dokument überschrieben werden könnten. Das heißt, dass die vorhandenen Daten vorher ausgelesen, und anschließend mit den neuen Daten als ein JSON-Objekt wieder an das Dokument gesendet werden müssen. Das hat zur Folge, dass die zu sendenden im größer werden, je mehr Daten sie enthalten und einen höheren Aufwand für die Implementierung bedeuten. Die vorgestellten Prototypen decken nur grundlegende Funktionen ab. So ist es momentan zum Beispiel noch nicht möglich Umlaute in den JSON-Objekten zu benutzen. Für die Zukunft wäre es interessant die Anforderungen an ein Anwendungssystem genauesten zu studieren und dementsprechend einen Prototyp weiter auszubauen. So könnte man sich noch besser ein Bild davon machen, ob ein NoSQL-System ein RDBMS vollständig ersetzen könnte.
Die vorliegende Masterarbeit behandelt die aktuelle Thematik der Entwicklung von Gesten- und Sprachgesteuerten Systemen unter der Zielsetzung ein dafür geeignetes Framework zu entwickeln. Das Framework soll es ermöglichen modular neue Interaktionen für Virtual Reality-Anwendungen zu integrieren. Als technische Grundlage zur Erfassung der Gesten- und Sprachbefehle kommt dabei die von Microsoft erhältliche
Entwicklung eines Prototypen zur Erstellung eines klinischen Studienmanagementsystems(SChMaTZ)
(2013)
Zweck dieser Arbeit ist die Erstellung einer Datenbank aus der Wissensbasis des Studienmanagers. Der Studienmanager diente für diese Ausarbeitung als Grundlage und stellt somit das Vorgängerprojekt dar. Ziel der gesamten Projektreihe ist die effizientere Gestaltung des Erstellungsprozesses im Vorfeld klinischer Studien. In dem hier entstandenen Projekt wurde der Studienmanager um die Fähigkeit erweitert, eine Datenbank aus dem im Studienmanager enthaltenen Wissen automatisiert zu erstellen.
Das Werk beschreibt einen möglichen Software-Designansatz zur Abbildung verschiedenartiger Hardware in funktionsorientierte Datenstrukturen. Es wird dabei besonderer Wert auf gute Wartbarkeit und minimale Einarbeitungszeit in die konzipierte Lösung gelegt. Weiterhin bietet der gewählte Designansatz die Möglichkeit, dass zu erstellende Softwareprodukt jederzeit mit begrenztem Aufwand an gestiegene Anforderungen und neuartige Funktionalitäten anzupassen.
Die vorliegende Arbeit beschäftigt sich mit dem Problem der Entwicklung einer Software für ein eingebettetes System. Dessen Aufgabe ist es, die Logik einer Sortiermaschine zu realisieren. Dabei müssen Bilddaten von Hochgeschwindigkeitskameras analysiert werden, um die Qualität von Lebensmitteln zu bestimmen. Darauf basierend werden zeitkritisch Mechanismen zur Sortierung angesteuert. Zusätzlich muss über Netzwerkkommunikation ein externes Computersystem die Überwachung und Konfiguration der Maschine vornehmen können. Die Arbeit betrachtet die Herausforderungen die ein solches System stellt und wie diese über effektive Softwarearchitektur und Algorithmen gelöst werden können. Dabei liegt der Fokus auf der Konzeption einer flexiblen nachrichtenbasierten Kommunikation und nachhaltigen Methoden zur Entwicklung neuer Algorithmen für die Bildanalyse.
Ziel der Bachelorarbeit ist es, mit dem Bioloid Comprehensive Robot Kit einen Roboter zu entwickeln, der mittels des Einplatinen-Computers Raspberry Pi gesteuert wird. Erreicht werden soll damit die Überbrückung der Standardsteuereinheit des Bioloid Kit's, dem CM-5, der nur über eine sehr mäßige Rechenleistung verfügt. Des Weiteren soll der konstruierte Roboter möglichst unabhängig von der Netzstromversorgung agieren können, um einen großen Bewegungsradius und eine möglichst große Mobilität zu erreichen.
Ziel der Arbeit war es, ein Blutdruckmessgerät über Bluetooth mit einem Computer zu verbinden und die Messdaten abzuspeichern. Die abgespeicherten Daten sollten dann mithilfe von Intersystems Ensemble in eine Health-Level-7 Nachricht transformiert werden. Das Programm zum Speichern der Daten basiert auf der universAAL-Plattform.
Ziel dieser Bachelorarbeit ist es, die sicherheitskritischen Aspekte des verteilten Rechenframeworks Diconet zu analysieren und entsprechende Sicherheitsmaßnahmen zu finden. Dabei wird zuerst eine Systemanalyse des bestehenden Diconet-Frameworks durchgeführt und nachfolgend eine Methodik erarbeitet, mit deren Hilfe die Bedrohungen des Systems identifiziert und anhand ihres Risikos bewertet werden können. Für die kritischsten Schwachstellen werden abschließend geeignete Sicherheitsmechanismen vorgestellt, sowie deren Vor- und Nachteile für das System erörtert.
Im ersten Teil, den Grundlagen, wird das Konzept und die Funktionsweise der Kinect vorgestellt. Danach werden 3 Hauptfunktionen des Sensors unter XNA demonstriert. Im Anschluss werden die Komponenten und Phasen des XNA Frameworks beleuchtet. Im zweiten Teil wird das Konzept der Steuerung erklärt und der dazugehörige Quellcode gezeigt. Im dritten Teil, der Berechnung, wird auf die mathematischen Grundlagen die für die Steuerung benötigt werden eingegangen. Im vorletzten Teil, der Implementierung, wird gezeigt wie das Konzept unter XNA umgesetzt wurde und die Klassen näher erläutert. Im Kapitel Ergebnis wird beschrieben wie die virtuelle Figur modelliert und durch Rigging, Skinning für die Steuerung vorbereitet wurde, alle anderen erstellten 3D Modelle werden ebenfalls gezeigt. Im Anschluss werden die Bewegungen beschrieben.
Ausgangspunkt dieser Master-Thesis sind die Softwareanwendungen der Firma MACASO, welche der Erzeugung von NC-Maschinenprogrammen für den dreidimensionalen Zuschnitt von Stahlbau-Hohlprofilen dienen. Die Software kann auf eine fast zwanzigjährige Entwicklungsphase zurückblicken und bedarf einer dringenden Neustrukturierung. Dabei stehen vor allem die Softwareprodukte TubeCut und FrameCut im Fokus. Die Konzeption soll so gestaltet sein, dass alle MACASO-Produkte in eine Gesamtanwendung integriert werden können. Zunächst werden dem Leser die Funktionsweise und Anwendungsbereiche, sowie die auftretenden Probleme durch eine umfassende Ist-Analyse erläutert. Dabei wurde die Software aus Nutzer- und Entwicklersicht betrachtet. Daraufhin werden die Anforderungen, die seitens der Firma MACASO gestellt wurden, kurz aufgeführt. Der eigentliche Hauptteil dieser Arbeit beginnt mit der Konzeption einer neuen Benutzeroberfläche, welche beide Software-Produkte vereint. Anschließend wird ein Entwurf für die Neuentwicklung des Berechnungskerns vorgestellt. Abschließend wurde ein Konzept für eine Zwischenlösung entwickelt, welches vorsieht, den bisherigen Berechnungskern für die neu entwickelte Oberfläche nutzbar zu machen, um somit während der Entwicklungszeit immer eine lauffähige und anpassbare Software-Version zu haben. Als Ergebnis dieser Arbeit steht ein umfassendes Gesamtkonzept zur Neuentwicklung der bestehenden Software, welches durch Nutzung moderner Software-Konzepte die zukünftige Erweiterbarkeit vereinfacht und die derzeitigen Strukturprobleme behebt.
Diese Arbeit handelt von der Planung und Realisierung eines Teleteaching-Moduls für Online-Fragestunden mit Hilfe von Spring und GeneSEZ. Das Teleteaching-Modul soll im Bereich der Lehre für die Kommunikation zwischen Studenten und Dozenten Anwendung finden. Besonders wichtig ist dies, da die Zeit für Fragestellungen in der Vorlesung sehr begrenzt ist und aus diesem Grund soll diese Software als zentrale Plattform für alle Belange einer Online-Fragestunde dienen. Dabei wird gezeigt, wie eine effektive, wartbare und sichere Systemarchitektur mit Spring für diesen Problemfall aufgebaut werden kann. Zusätzlich wird erläutert, wie das Modellgetriebene Softwareentwicklungswerkzeug GeneSEZ diese Entwicklung unterstützt und wie mit dessen Hilfe die Codegenerierung von Spring erweitert werden kann.
In der vorliegenden Ausarbeitung wird nach einer Möglichkeit gesucht, die Breitung beim Warmwalzen von Stahlbrammen mittels eines künstlichen neuronalen Netzes näherungsweise berechnen zu können. Weiterhin sollen Grundlagen für ein Softwaremodul gelegt werden, mit dem das Netz von Personal im Walzwerk, auch ohne Vorkenntnisse gesteuert werden kann.
Bei der T-Systems International GmbH Zwickau/Crossen wird seit einigen Jahren eine Datenbank zum Speichern von Dateien benutzt. In diesen Dateien stehen Informationen zu den Werken des Volkswagenkonzerns, die für die Mitarbeiter der TSystems wichtig sind. Die Informationen befinden sich dabei in mehreren Dateien und es ist bekannt was in den Dateien steht. Allerdings bedarf es eines großen Aufwandes die relevanten Einträge manuell zusammenzuführen. In dieser Arbeit wurde nun analysiert, wie diese Informationen extrahiert, verknüpft und präsentiert werden können. Zum Schluss wurde die Benutzeroberfläche prototypisch erweitert um die Indexierung und Verknüpfung für die Anwender zu erleichtern.
Die Arbeit dient dazu, zu zeigen wie ein Prototyp eines HiCrypt-Clients als App aussehen kann. Sie soll darüber hinaus aufzeigen was alles zusätzlich getan werden muss um die App zum einen marktreif zu machen und zum anderen benutzerfreundlicher zu machen. Die wichtigsten Funktionen der App stehen dabei im Mittelpunkt der Arbeit.
Bilderkennung und OCR von maschinell erstellten Überweisungsträgern auf einem Android-Smartphone
(2013)
Diese Bachelorarbeit behandelt die Bilderkennung und OCR von Überweisungsträgern. Es werden hierbei die freien Bibliotheken OpenCV für das maschinelle Sehen und Tesseract für die OCR (Optical Character Recognition) verwendet. Ausgehend vom grundlegenden Konzept eines bildverstehenden Prozesses, werden konkrete Verfahren für Bilderkennung und Bildaufbereitung vorgestellt. Ziel ist es, den Überweisungsträger mit Hilfe eines Android-Gerätes zu erkennen und die Daten der relevanten Felder auszulesen.
Die Zielstellung dieser Bachelor - Arbeit ist die Integration eines Testprozesses für die vorhandene Software IAV Engine.Der Aufbau und der Entwicklungsprozess soll dargestellt werden, um so die Integration des entwickelten Testsystems in das Projekt darzustellen. Durch diesen Testprozess sollen schnell und präzise, Fehlerquellen in der Entwicklung von der Software erkannt und behoben werden können.
Im Rahmen dieser Bachelorarbeit wurde ein Hand-Koordinationstraining entworfen und umgesetzt. Die Bedienung der grafischen Benutzeroberfläche wird über verschiedene Handgesten realisiert. Damit die Gesten interpretiert werden können und eine Handbewegung des Nutzers im Raum wahrgenommen wird, wurde die Tiefenbildkamera Xtion Pro Live eingesetzt. Durch das Koordinationstraining soll vor allem die Visuomotorik, dies bedeutet die Auge-Hand-Koordination, gefördert werden. Des weiteren soll das räumliche Vorstellungsvermögen, die Logik und die Konzentration des Nutzers verbessert werden.
Diese Arbeit befasst sich mit den grundlegenden mathematischen Algorithmen die einer Grafik-Engine zugrunde liegen. Es wird analysiert wie eine Engine aufgebaut sein kann und wie die Algorithmen eingebracht werden. Es wird durch die zugrundeliegende Analyse die Implementierung durchgeführt und beschrieben. Zum Test der Engine wird ein einfaches 2D-CAD Programme erstellt indem die grundlegenden Funktionen der Engine Anwendung finden.
Diese Arbeit beschäftigt sich mit der Komprimierung von binären Bildern durch ihre Umwandlung in endliche Automaten. Dabei wird auf die theoretischen Vorbedingungen, die Umsetzung und die nach Anwendung der Methoden erhaltenen Ergebnisse eingegangen. Aufbau und Funktionsweise des Demonstrationsprogramms, welches für diese Arbeit programmiert wurde, werden vorgestellt und erläutert. Anschließend werden Vergleiche mit verschieden Bildern bzw. Bildarten angestellt und Rückschlüsse auf die Nutzbarkeit der Algorithmen gezogen. Die Ergebnisse sind nacheinander geordnet aufgeführt.
Ein Indoor Navigationssystem ist keine Neuheit. Vielverbreitet sind diese in Terminals einprogrammiert. Diese werden in großen Einkaufsläden, Kranken-häuser, Flughäfen und an einigen Universitäten verwendet. Allgemein finden Indoor Navigationssysteme in großen Gebäudekomplexen Verwendung. Terminals haben einen statischen Standort und müssen vom Besucher der jeweiligen Ortschafft aufgesucht werden. Mobile Endgeräte helfen dabei, sich von einem festen Standort zu entkoppeln. Zwei große Konzerne - Nokia und Google - sind dabei, Indoor Navigationssys-teme für Mobileendgeräte zu entwickeln. Der Campus-Navigationsservice übernimmt dabei die Idee, sich mobil in einem Gebäude zu navigieren. Der zu navigierende Bereich beschränkt sich dabei auf den Innenstadt Campus der Westsächsischen Hochschule Zwickau. Im Rahmen dieser Arbeit wurde eine Webanwendung entwickelt, die zur Orientierung auf dem Campus beiträgt. Durch Routen und Gebäudeplan anzeige, wird sich in Zukunft keiner mehr so schnell verlaufen.
Um Mitarbeitern des Heinrich-Braun-Klinikums den Zugriff auf die rechentechnische Infrastruktur auch außerhalb des Standortes Zwickau zu ermöglichen, wird auf eine VPN Verbindung und das Remote Desktop Protocol gesetzt. Durch das starke Wachstum der letzten Jahre fanden Fusionierungen medizinischer Einrichtungen statt, um die Wirtschaftlichkeit des Krankenhauses zu erhöhen. Für eine effektivere Arbeitsweise muss die Anbindung der Außenstellen schneller und damit besser skalierbar gelingen. Nur mit der Einführung einer neuen Virtualisierungstechnologie, der Desktopvirtualisierung, kann auch im HBK dieser Trend wunschgemäß verlaufen. Um die Desktopvirtualisierung optimal zu nutzen, ist eine Integration mit den anderen bereits im HBK eingesetzten Produkten notwendig. Zum Hauptaugenmerk zählen vor allem die Softwareverteilung baramundi und die Servervirtualisierungsplattform VMware vSphere. Die Verbesserung der Verzahnung erfolgte zusätzlich durch Skripte, welche aus speziellen Anforderungen des Krankenhauses entstanden sind. Künftig ist mit einer größeren Zahl virtueller Arbeitsplätze durch zusätzliche Standorte zu rechnen. Daher war eine Überprüfung der Hardware notwendig, um den künftigen Einsatz zu realisieren. Entscheidend sind hier die Flaschenhälse Datenspeicher, Hostarbeitsspeicher und Übertragungsraten des WANs zu den Außenstellen. Zusätzlich wurde durch eine Lösung zur externen Abfrage von E-Mails mit Exchange die Quantität der Desktops gesenkt. Dies führt zu einer Kostenersparnis.
Konzeptionierung und Implementierung einer Applikation zur Unterstützung von Produktzertifizierungen
(2013)
Diese Arbeit beschreibt die Konzeptionierung und Implementierung eines Systems zur Verwaltung von Testergebnissen, welche bei der Zertifizierung von Produkten nach dem Z-Wave Funkstandard ermittelt werden. Der Schwerpunkt des zu entwickelnden Systems liegt auf der Dokumentation des Fehlverhaltens einzelner Testobjekte. Für das System ist eine webbasierende Anwenderschnittstelle vorgesehen. Als Ausgangspunkt für die Implementierung wird das Webframework Symfony 2.0 verwendet.
CANopen stellt eine zentrale Komponente in der Produktpalette der SYS TEC electronic GmbH dar. Dabei spielen die Vermarktung entsprechender Hard- und Software eine entscheidende Rolle. Für die verschiedenen, aufbauenden Software- angebote stellt der CANopen-Stack die Basis dar. Um die Wartung von Systemen mit dieser zu erleichtern, soll eine Lösung gefunden werden eine FTP-Verbindung dar- über herzustellen. In der folgenden Arbeit wird das notwendige Vorwissen erläutert. Darauf aufbauend werden verschiedene Lösungsansätze besprochen. Der Hauptteil befasst sich mit der Konzeptionierung eines Proxy, welcher als normale Anwendung unter Linux oder Windows die notwendigen Netzwerkverbindungen über CAN weiterleitet. Zusätzlich werden Hinweise zur konkreten Implementierung gegeben.
In dieser Bachelorarbeit geht es um die Findung und Implementierung einer weiteren Schnittstelle von Condor in einer Data Farming Umgebung für die Bearbeitung sehr großer Data Farming Experimente. Es werden hierfür mehrere verschiedene Schnittstellen analysiert und verglichen. Explizit wird der Condor Webservice herausgenommen und der Data Farming Umgebung hinzugefügt. Ein weiteres Ziel ist es, eine Darstellung des Clusterzustandes in der Data Farming Umgebung für Benutzer, ohne fundiertes Fachwissen über Condor, zu entwickeln. Im Ergebnis wird deutlich, dass der Webservice von Condor seine Vorteile aber auch Nachteile hat. Die grundlegende Umsetzung der neuen Schnittstelle ist geglückt und kann verwendet werden. Die Anzeige des Status vom Cluster ist letztendlich eine benutzerfreundliche Ansicht innerhalb einer Webanwendung geworden. Es wurde ein wesentlicher Grundstein für die Weiterentwicklung dieser Komponenten in der Data Farming Umgebung gesetzt.
Erstellung einer JaveEE-Anwendung mit CDI-Funktionalität, einer JSF-Oberfläche und Arquillian-Tests
(2013)
Das Ziel dieser Arbeit ist die Konzeption und Entwicklung einer beispielhaften JavaEE-Anwendung mit CDI-Funktionalität, einer JSF-Oberfläche und Arquillian-Tests. Dabei gilt es zusätzlich, eine geeignete Arbeitsumgebung inklusive Server und benötigter Komponenten zu schaffen. Bei dem Projekt dieser Arbeit handelt es sich um ein Bank-Beispiel. Dieses Projekt dient der Veranschaulichung des Zusammenwirkens verschiedener Banken mit ihren Kunden und dessen Konten. Die Aufgaben, die sich in einem derartigen Szenario ergeben, sind aber viel komplexer und weitreichender, als es diese Arbeit wiedergeben könnte. Jedoch eignet sich dieses Szenario sehr gut, um die Möglichleiten und das Zusammenspiel von CDI, JSF und Arquillian innerhalb einer JavaEE-Umgebung widerzuspiegeln sowie als Lehrbeispiel Verwendung zu finden.
HiCrypt trägt dazu bei, das Hinterlegen von Informationen auf externen Onlinespeichern für den Anwender sicherer zu gestalten. Dem aktuellen Trend und der Erhöhung der Flexibilität der, von digitronic geschaffenen, Sicherheitssoftware geschuldet, befasst sich diese Bachelorarbeit mit der Cross-Plattform-Entwicklung einer mobilen Applikation für Android und iOS. Aufgrund der gegebenen Situation fließen Aspekte, wie die Wiederverwendung von bestehenden Quellcode, die Reassemblierbarkeit von geheimen Algorithmen, sowie die Authentizität der App-Oberfläche in die Wahl des Frameworks ein. In dieser Arbeit werden die theoretischen Grundlagen zur App-Entwicklung für Android dargelegt und anschließend das, von Xamarin geschaffene, Mono for Android Framework analysiert und bewertet.
Die Weiterentwicklung der Eclipse-Integration ist ein wichtiger Aspekt bei der Entwicklung des GeneSEZ Generator Framework. Dadurch kann die Software von den Nutzern besser bedient werden. In dieser Arbeit geht es insbesondere um die Erstellung von grafischen Elementen zur Bedienung von GeneSEZ. Zu Beginn wird kurz auf die Grundlagen der Arbeit eingegangen. Danach wird die Reimplementierung des bereits existierenden Wizards auf der Basis vom Eclipse 4 Applikationsmodell beschrieben. Dabei erhält der Wizard mehr Funktionalität und nutzt eine neue Architektur. Nachfolgend wird der implementierte Workfloweditor vorgestellt und dessen Konzepte erläutert. Insbesondere wird dabei auf die Verwendung des Modeling Workflow Engine 2-Modells eingegangen, sowie auf die Darstellung der einzelnen Workflow Komponenten. Anschließend werden Möglichkeiten und Ansätze aufgezeigt, wie die Arbeit fortgeführt werden kann. Abschließend wird die Arbeit zusammengefasst und das Ergebnis evaluiert.
Mit der Modellgetriebenen Softwareentwicklung (MDSD) wird lauffähige Software automatisiert aus formalen Modellen erzeugt. In dieser Arbeit wird der Prozess der MDSD auf Webseiten mit dem Ziel angewandt, HTML- und JavaServer Faces (JSF)-Seiten aus Modellen der Unified Modeling Language (UML) erzeugen zu können. Die grafische Repräsentation der Modelle kann die Verwaltung von sehr vielen Webseiten vereinfachen, insbesondere der Überblick, welche Seiten existieren und wie sie miteinander vernetzt sind, ist leichter möglich. Eine eventuelle Neuorganisation der Seiten wird durch die bessere Übersicht ebenfalls unterstützt. Automatisch generierte Artefakte vermindern den Programmieraufwand und ermöglichen eine stärkere Konzentration auf die Modelle, was vor allem in der Konzeptionsphase hilfreich sein kann. Die Entwicklung erfolgt mit GeneSEZ, einem Framework für die Modellgetriebene Softwareentwicklung. Damit können die benötigten Modelle eingelesen, ausgewertet und validiert werden, sowie aufgrund der gelesenen Informationen automatisch passende Seitenartefakte generiert werden. Der Hauptteil der Arbeit ist von der Entwicklung der UML-Profile und Generator-Templates geprägt. Es werden Hinweise und Beispiele zur Verwendung gegeben. Eine Diskussion zu den Ergebnissen sowie Hinweise für zukünftige Verbesserungen bilden den Abschluss der Bachelorarbeit.
Diese Master-Thesis beschäftigt sich mit Möglichkeit der echtzeitfähigen Vermeidung von Kollisionen zwischen Baugruppen, Werkstück und Werkzeug innerhalb von Werkzeugma-schinen. Sie wurde in Zusammenarbeit mit dem Institut für Werkzeugmaschinen und Produk-tionsprozesse der TU Chemnitz verfasst. Die Grundlage bilden Voxel-Modelle, welche durch Octrees repräsentiert werden. Kernpunkte der Arbeit sind Untersuchungen zu Schnitttests zwischen Voxel-Modellen zur Feststellung von Kollisionen und dem Materialabtrag der beim Zusammenstoß von Werkzeug und Werkstück entsteht. Für letzteren werden Algorithmen für die mengentheoretische Operation Differenz zwischen Octrees beschrieben. Im Rahmen dieser Arbeit entstanden mit Hilfe der VTK-Bibliothek und Vorarbeiten von Herrn Schumann zwei Programme und eine C++ Bibliothek für Voxel-Grafiken. Dabei han-delt es sich die Implementierung des Kollisionsvermeidungssystems und einem Tool zur Ge-nerierung von Voxel-Modellen aus CAD-Daten. Als gemeinsame Code-Basis wurde zudem Bibliothek VoxelLib erstellt.
Im Fokus dieser Masterarbeit steht die Beschreibung und Implementierung eines Grafiksystems zur Modellierung von Körpern auf Basis von Non-Uniform Rational B-Splines (NURBS). Dabei sollen ausgehend von ihren mathematischen Grundlagen, NURBS-Flächen theoretisch beschrieben und analysiert werden. Anschließend soll darauf eingegangen werden, wie mit ihrer Hilfe die verschiedensten Grundkörper, wie zum Beispiel Pyramiden, Zylinder und Kugeln modelliert werden können und welche Besonderheiten dabei zu beachten sind. Es soll infolgedessen eine Zusammenfassung über die Grundlagen einer Modellierungsart, der Constructive Solid Geometry (CSG), gegeben werden. Dabei wird unter anderem auf die dafür notwendigen Datenstrukturen und booleschen Operationen eingegangen. Ein Vergleich verschiedener Möglichkeiten boolesche Operationen zwischen, aus NURBS-Flächen bestehenden, Grundkörpern umzusetzen soll angefertigt werden. Der letzte Abschnitt der Arbeit beschreibt schließlich die Implementierung eines Grafiksystems, welches es erlaubt die interne mathematische Repräsentation von NURBS-Flächen in Kombination mit CSG und einem benutzerfreundlichen Interface umzusetzen.
Konzeption zur automatischen Generierung einerNachrichtenbeschreibung für einenKommunikationsserver
(2013)
DievorliegendeArbeitbeschäftigtsichmitderKonzeptionderautomatischenGenerierung einer Nachrichtenbeschreibung für den Kommunikationsserver Monkey. Dabei wurden ver- schiedene Möglichkeiten erarbeitet, wie aus einer Nachricht eine Nachrichtenbeschreibung generiert werden kann. Dies wurde mit Hilfe von syntaktischer und struktureller Muste- rerkennung gelöst, sowie mit einem Parser für HL7 Nachrichtentypen. Damit dieses Ziel erreicht werden kann, wurde der Kommunikationsserver Monkey analy- siert. Besonders wie eine Nachrichtenbeschreibung für diesen generiert und zur Verfügung gestellt wird. Des Weiteren wurden die Anforderungen für einen Software-Prototyp erarbeitet. Eine Software-Architektur anhand der Anforderungen ausgewählt und mit den dazugehörigen Komponenten für den Software-Prototyp beschrieben. Ein Konzept für die grafische Be- nutzeroberfläche, mit dessen Hilfe der Benutzer die Nachrichtenbeschreibung manipulieren kann wurde vorgestellt. Angewandte Entwurfsmuster zur Lösung immer wieder vorkom- mender Probleme bei der Softwareentwicklung wurden erläutert.
Analyse von Plagiatssoftware
(2013)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Analyse von Plagiatssoftware. Im ersten Teil wurden verschiedene Softwareprodukte, die frei zugänglich waren, auf ihre Fähigkeiten zum Aufspüren von Plagiaten getestet. Dabei wurden verschiedene Testszenarien erstellt und abgeprüft. Es wurde zum Beispiel getestet, ob die Software ein Plagiat auch noch als solches erkannte, obwohl der Text umgeschrieben oder mit Synonymem versehen wurde. Im zweiten Teil wurde eine Umsetzung einer eigenen Software, zur Erkennung von Plagiaten in wissenschaftlichen Arbeiten, realisiert. Dabei wurden unterschiedliche Algorithmen zur Erkennung von Zeichenketten analysiert und die verschieden Datenbasen betrachtet. Nach-dem die einzelnen Komponenten zusammengetragen waren, wurde mit der Entwicklung eines Prototypen begonnen. Der Prototyp wurde mit zwei verschieden Algorithmen ausgestattet. Der erste Algorithmus findet Plagiate die wortwörtlich so übernommen worden sind. Der zweite Algorithmus untersucht, wie oft die Wörter des Musters innerhalb eines Text-abschnittes vorkommen und trifft dann eine Auswahl, ob ein Plagiat vorliegen könnte. Beide Algorithmen wurden zum Abschluss auf ihre Trefferquoten getestet.
Kurvenlicht soll die Straßenverläufe besser ausleuchten und helfen, Gefahrenquellen früher zu erkennen. Herkömmliches Kurvenlicht reagiert primär auf den Lenkradeinschlag und hat Schwachstellen bei speziellen Kurven, wie zum Beispiel bei einem S-förmigen Verlauf. Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung und Implementierung eines prädiktiven Kurvenlichtalgorithmus. Das bedeutet, dass von der Navigation bereitgestellte Streckendaten genutzt werden, um die Scheinwerfer schon vor der Kurve an diese anzupassen. Der prädiktive Algorithmus soll in einem Filter für das Simulationsframework
Durch ein Modell soll ein komplizierter Sachverhalt vereinfacht dargestellt werden, gleichzeitig unwichtige Details vernachlässigt und wichtige hervorgehoben werden. Durch die Abstraktionsfähigkeit von Modellen eignen sie sich als Unterstützung für die Erstellung von Programmen. Mit der Modellgetriebenen Softwareentwicklung verfolgt man das Ziel, automatisiert aus formalen Modellen lauffähige Software zu erzeugen. Ziel dieser Arbeit ist es, den Prozess der modellgetriebenen Softwareentwicklung auf Webseiten anzuwenden. Aus einem Modell sollen wahlweise HTML- oder Java Server Faces-Seiten erzeugt werden. Dabei wird sich auf eine ausgewählte Untermenge der verfügbare Sprachelemente von HTML bzw. JSF beschränkt. Wie so oft und auch in dieser Arbeit werden mit der Unified Modeling Language die benötigten Modelle erstellt.