Refine
Has Fulltext
- no (30) (remove)
Year of publication
- 2015 (30) (remove)
Document Type
- Master's Thesis (30) (remove)
Institute
- Physikalische Technik, Informatik (30) (remove)
Language
- German (30) (remove)
Is part of the Bibliography
- no (30)
Softwarearchitektur gilt als Königsdisziplin der Softwareentwicklung. Viele Aspekte sind für eine gute Architektur in Einklang zu bringen. Hierzu müssen neben Softwarequalitätskriterien wie Performance oder Wartbarkeit auch die Interessen aller Projektbeteiligten vom Kunden bis zum einzelnen Entwickler einbezogen werden. Je größer und komplexer ein Softwaresystem wird, desto herausfordernder ist auch die Entwicklung der Softwarearchitektur. Zudem entwickelt sich die Architektur aufgrund sich stetig ändernder Anforderung immer weiter. Bestehende Teile müssen umgestaltet und neue integriert werden. Es gilt die Komplexität zu beherrschen und den Überblick im Großen wie auch im Kleinen zu behalten. Von sich stetig ändernden Anforderungen ist auch das Softwaresystem HSCERP des Unternehmens HSC Solutions betroffen. Das ursprünglich für den Einsatz in Kleinstunternehmen ausgelegte System findet zunehmend mehr Interessenten mit einem immer größer werdenden Nutzerkreis. War die aktuelle Performance der Architektur unter Berücksichtigung der Anforderungen von Kleinst- und Kleinunternehmen angemessen, stößt sie in mittleren Unternehmen an ihre Grenzen. In der Softwaretechnik sind solche Probleme schon lange ein Thema. Sie wurden in zahlreichen Arbeiten behandelt und in Form von Standardarchitekturansätzen verarbeitet. Ziel dieser Arbeit ist die Untersuchung solcher Standardarchitekturen hinsichtlich ihrer Eignung zur Performancesteigerung von HSCERP. Zu den untersuchten Ansätzen zählen neben der weitverbreiteten Schichtenarchitektur und dem Ansatz des Domain Driven Designs auch das weniger bekannte Quasar, welches versucht eine Standardarchitektur speziell für ERP-Systeme zu beschreiben.
Applikationen im Java Enterprise Umfeld benötigen meist eine Funktionalität, mit welcher Daten vom Client, über mehrere Aufrufe hinweg, zugeordnet und verwaltet werden können. Meist wird diese Funktionalität von dem verwendeten Java-Framework abgedeckt. Diese Arbeit zeigt eine Alternative auf, welche den aktuellen Trend der Webentwicklung berücksichtigt. Dabei wird vor allem auf die Entwicklung des JavaScripts in den letzten Jahren eingegangen. Des Weiteren werden Anforderungen aufgestellt und Analysen verschiedener Technologien betrieben, welche zur Entwicklung einer Bibliothek benötigt werden. Dabei werden die möglichen Technologievarianten vorgestellt und erklärt, warum sich für eine bestimmte Technologie entschieden wurde. Hierbei wird auf Features eingegangen, welche im weiteren Verlauf der Arbeit noch praktische Anwendung finden. Das Ziel ist es, eine modulare Bibliothek zur Sessiondatenverwaltung zu konzipieren und deren Einsatz anhand eines Prototypen aufzuzeigen.
Das Unternehmen SYSTEC electronic GmbH bietet verschiedene Steuerungen einer PLC/ SPS Produktlinie an. Diese werden mithilfe der Entwicklungsumgebung OpenPCS pro- grammiert. Die so erstellten Programme werden in einer Laufzeitumgebung auf der Steue- rung ausgeführt. Das Laufzeitsystem wird von SYSTEC für die konkreten Steuerungen und deren Peripherie angepasst und erweitert. Die Arbeit verfolgt das Ziel Systemtests für das Laufzeitsystem und dessen Anpassungen automatisch durchführen zu können. In der folgenden Arbeit werden die notwendigen Grundlagen erläutert. Außerdem wer- den Anforderungen erhoben und mögliche Ansätze beschrieben, wie diese erfüllt werden können. Aus den Ansätzen wird anhand geeigneter Kriterien eine Wahl getroffen, die in der Lösung verwendet wird. Im Anschluss werden die einzelnen Aufgaben und Komponen- ten der Implementierung beschrieben. Danach wird ein Vergleich zwischen Anforderungen und Ergebnissen gezogen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick an weitere mögliche Entwicklungen gegeben.
Für die Entwicklung neuer Medikamente und zur Züchtung künstlicher Organe ist es essenziell, die Wechselwirkungen zwischen verschiedenen Organen zu Untersuchen. Darum ist es notwendig, über ein komplexes und realitätsnahes Modellsystem zu verfügen, Lab-on-Chip Bioreaktoren bieten diese Möglichkeit. Ziel dieser Arbeit ist es, ein Messsystem zu entwickeln, das unter Ausnutzung von im Stoffwechsel aller eukaryotischen Zellen vorkommenden Substanzen zur kontinuierlichen Überwachung der Zellen geeignet ist. Als geeignete Markerfreie Messung hat sich die Fluoreszenzlebensdauermessung an NADH erwiesen. Die Änderungen des Metabolismus der Zelle sowie ihrer Umgebung führen zu einer Verschiebung der Fluoreszenzlebensdauer im einstelligen ns-Bereich. Da einige Stoffwechelprozesse in allen eukaryotischen Zellen gleich sind, konnte Saccharomyces cerevisiae als Modellorganismus zur realitäsnahen Messung eingesetzt werden. In dieser Arbeit wurden zeit- und frequenzbasierte Messmethoden zur ns-genauen Bestimmung der Fluoreszenzlebensdauer untersucht. Dabei wurden die Zellen gezielt mit den zellschädigenden Stoffen HCl sowie Triton-X100 behandelt und die Änderung vermessen. Es konnte gezeigt werden, dass sich die Fluoreszenzlebensdauer bei induzierter Apoptose um 1,4 ns verlängert, sowie durch induzierte Nekrosen um 0,5 ns verringert. Die Messergebnisse zeigen, dass es möglich ist, den Vitalitätszustand der Zellen optisch zu analysieren.
Für die Charakterisierung von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen wird eine Messprozedur benötigt, die den Anforderungen einer solchen Produktion gewachsen ist. Zum einen ist es notwendig, dass die Genauigkeit und Präzision der verwendeten Messsysteme besser ist, als die Prozessstreuung der Abscheideprozesse. Nur so ist es möglich den Prozess zu kontrollieren. Hierfür werden in der Masterarbeit die Messsysteme mit Hilfe einer Messsystemanalyse untersucht. Zum anderen ist es notwendig, den Eingriff in den Herstellungsprozess so gering wie möglich zu halten. Hierfür werden in der Masterarbeit alternative Messmethoden zur Charakterisierung der elektrischen Eigenschaften der Indium-Zinn-Oxid-Schichten evaluiert. Als Ergebnis der Masterarbeit wird eine Messprozedur dargelegt, die für die Charakterisierung der elektrischen Eigenschaften von Indium-Zinn-Oxid-Schichten in der industriellen Produktion von Heterojunction-Solarzellen geeignet ist.
Schleifen ist ein bedeutsames und hochpräzises Verfahren in der mechanischen Fertigung. Durch verschiedene Einflüsse kann es bei der Bearbeitung von Werkstücken zur Entstehung von Schleifbrand kommen. Schleifbrand ist eine lokale Gefügeumwandlung im Bauteil, die Belastbarkeit und Langlebigkeit des Werkstückes herabsetzt. Eingeführte Detektionsverfahren für die Erkennung von Schleifbrand sind: Wirbelstromprüfung und Nitalätzung. Um die Funktion dieser Verfahren in regelmäßigen Abständen zu prüfen, werden Vergleichskörper mit künstlicher Inhomogenität durch Laserbehandlung hergestellt. Zur Verbesserung der Prozessfähigkeit und zur Minimierung des Geometrieeinflusses der Bauteile wurde eine Optimierung der Laseroptik durchgeführt. Für die Auslegung der Optik wurde eine Strahlcharakterisierung des kollimierten und fokussierten Strahls vorgenommen. Es wurde eine Aufweitung des Laserstrahls durchgeführt und der Arbeitspunkt wurde vom des fokussierten Stahl in den Fokus verschoben. Benutzt wurde hierfür eine zweilinsige Teleskopanordnung. Daraufhin wurde die Funktionalität der optimierten Optik mit diversen Probenkörpern unter Variation Prozess-, Material- und Geometrieparameter untersucht. Die Ergebnisse der Laserbehandlung mit optimierter Laseroptik wurden mit denen der Ausgangsoptik verglichen und eine Verbesserung der Prozessfähigkeit festgestellt.
Entwicklung eines Tools zur Erstellung und Veröffentlichung von dynamischen interaktiven Karten
(2015)
Die vorliegende Masterarbeit zeigt auf, wie mit vorgegebenen Technologien und Anwendungsfällen ein Tool erstellt wird, das für die Erstellung und Veröffentlichung von dynamischen interaktiven Karten dient. Nach der Herausarbeitung von thematischen Grundlagen erfolgt die Untersuchung von Anforderungen spezieller Fälle, sowie eine Einarbeitung und Darstellung der Möglichkeiten der Software-Infrastruktur. In Anbetracht dieser wird ein abstraktes Konzept aufgezeigt, dass Raum für die Interpretation in der Nutzung bestimmter Rahmenwerke lässt. Bei der anschließenden Erläuterung der Implementierung, werden eingesetzte Frameworks genannt und auf Besonderheiten im Quelltext eingegangen.
Flammengestützte Abscheidung verschiedener Schichtsysteme und Optimierung des r-CCVD Prinzips
(2015)
Die vorliegende Arbeit beschäftigt sich mit der flammengestützen Abscheidung verschiedener Schichtsysteme unter der Zuhilfenahme des remote Combustion Chemical Vapor Deposition Verfahrens. Zahlreiche und hydrolytisch umsetzbare Precursoren konnten recherchiert werden. Unter verschiedenen Bedingungen erfolgte eine Auswahl an bestimmten Precurso-ren zur Erprobung. Titandioxid- (mittels Titantetraisopropoxid und Titanethoxid), Siliziumdi-oxid- (Hexamethyldisiloxan und Triethoxyorthosilikat), Aminosilan- (3-Aminopropyltriethoxysilan) und Aminotitanatschichten (Isopropyl tri(N-ethylene diamino)ethyl titanat) wurden erzeugt und ihre Schichteigenschaften mit unterschiedlichen instrumentellen Anlagen charakterisiert. Zu den Charakterisierungsmöglichkeiten gehörten ein Profilometer zur Schichtdickenbestimmung, Röntgen-Photoelektronenspektroskopie (XPS) und energie-dispersive Röntgenspektroskopie (EDX) zur Elementanalyse sowie ein Röntgendiffraktome-ter mit streifendem Einfall (GIXRD) zur Zusammensetzungsbestimmung. Weiterhin erfolgten Rasterelektronen- (REM), Raster-Kraft-Mikroskopie (AFM) und Grauwertmessungen zur Bestimmung der Oberflächenbeschaffenheit. Die Anlagenoptimierung erfolgte hinsichtlich Abscheiderate durch die Erprobung unternehmensentwickelter Verdampfereinheiten und hin-sichtlich des Prozessparameters Temperatur der Precursorsprühleiste.
Als Ausgangspunkt der Arbeit auf dem Gebiet der Quantum Dot LEDs (QD-LEDs) wurden bereits verschiedene Materialien für Ladungsträgertransportschichten (engl. charge transport layer, CTL), verschiedene Sorten Quantum Dots (QDs) und Aufbringungsmethoden von dünnen Schichten untersucht. Über Langzeitstudien und Degradation war bis dato noch wenig bekannt. Es gab lediglich die Erkenntnis, dass die Elektrolumineszenz (EL) der QD-LED bei Inbetriebnahme einen sofortigen und starken Abfall über der Betriebszeit zeigte. Es gab die Vermutung, dass infolge einer hohen Stromdichte und damit einer hohen Temperatur im Bauteil, die organischen CTLs und auch die emittierenden QDs irreversibel geschädigt werden. Ziel dieser Arbeit ist es, mithilfe genauer Untersuchungen an CTLs und an QDs, die Effizienz und Lebensdauer der QD-LEDs zu erhöhen. Dazu wurden verschiedene Herstellungsparameter variiert wie z.B. die Herstellungsumgebung, die Präparation der Lochinjektionsschicht (engl. hole injection layer, HIL), die Schichtdicke und das Tempern der QD-Schicht, die Substratvorbehandlung und die Verkapselung des Bauteils. Anschließend wurde deren Einfluss auf die elektrooptischen Eigenschaften und das Langzeitverhalten untersucht. Des Weiteren galt es herauszufinden, welche möglichen Degradationsmuster bei den QD-LEDs auftreten und worin deren Ursachen liegen. Aufgrund einer verbesserten Präparation der HIL, bestehend aus Poly(3,4-ethylenedioxythiophene)-poly(styrenesulfonate) (PEDOT:PSS), konnten elektrisch leitfähige und stabile Schichten ohne elektrische Kurzschlüsse hergestellt werden. Durch das gezielte Tempern von QDs konnte mithilfe von Photolumineszenzmessungen herausgefunden werden, dass die verschiedenen Sorten von QDs eine sehr unterschiedliche thermische Stabilität besitzen. Des Weiteren konnte durch eine Vorbehandlung des Substrates aus Indiumzinnoxid (engI. indium tin oxide, ITO) mit einem Sauerstoffplasma, der Kontaktwinkel verringert und die Oberflächenenergie erhöht werden. Aufgrund der verbesserten Adhäsion von PEDOT:PSS entstand somit ein stabilerer Kontakt zwischen den beiden Schichten, wodurch die Langzeitstabilität der QD-LED leicht erhöht werden konnte. Ein Abkühlen des Bauteils nach dem Tempern jeder einzelnen Schicht während des Herstellungsprozesses, bewirkt dabei ebenfalls eine Steigerung der Langzeitstabilität. Durch eine Variation der Schichtdicke der QD-Schicht konnte zudem die optische Leistungsdichte erhöht werden. Im Gegensatz dazu konnte durch eine teilweise Herstellung der QD-LED in einer vereinfachten Glovebox und unter Inertgasatmosphäre, keine Verbesserung der optischen Leistungsdichte und der Langzeitstabilität nachgewiesen werden. Eine Kapselung des Bauteils durch eine mit Epoxidharz befestigten Glasplatte auf der Bauteiloberfläche, führte dabei zu einer starken Verschlechterung der optischen Leistungsdichte der QD-LED. Die Langezeitstabilität des Bauteils wurde durch eine Kapselung zudem nur geringfügig verbessert. Des Weiteren konnte mithilfe von Pulsmessungen der EL und der Photolumineszenz (PL) an einer QD-LED, ein Rückschluss auf die im Bauteil vorliegende Temperatur bei Inbetriebnahme gezogen werden. Insgesamt wurden durch eine verbesserte Herstellung der Bauteile, die elektrooptischen Eigenschaften der QD-LEDs deutlich verbessert. Die Langzeitstabilität der Bauteile konnte dabei durch eine teilweise Herstellung der Proben in einer Inertgasatmosphäre und durch eine Kapselung nicht erhöht werden. Eine Möglichkeit besteht darin, andere Schichtmaterialien und/oder eine invertierte Bauteilstruktur zu testen. Ferner ist eine Präparation der QD-LEDs in einer Glovebox unter reiner Stickstoffatmosphäre zwingend notwendig, um die Effizienz und Langzeitstabilität der QD-LEDs nachhaltig erhöhen zu können.
Immer mehr Menschen sehen heutzutage das Internet als eine Notwendigkeit an. Sei es nun zur Kommunikation, Informationsaustausch oder Informationsgewinnung. Im Zeitalter von Industrie 4.0 und Web 2.0 ist der Bedarf an Informationen im letzten Jahrzehnt enorm gewachsen. Dies ist bedingt durch eine rasant steigende Anzahl an Webseiten und Webanwendungen, die sich im Laufe der Zeit weiterentwickelt haben, um den Ansprüchen der Bevölkerung gerecht zu werden. Die zunehmende Komplexität der Anwendungen fordert deswegen eine höher werdende Durchsatzrate der Datenverbindung, mehr Speicher zum Ablegen der Daten und eine angemessene Rechenleistung für Berechnung von Algorithmen. Aufgrund dieser Anforderungen müssen Rechenzentren ihre vorhandenen Kapazitäten erhöhen. Diese Kapazitäten können entweder mit dem Ausbau des Rechenzentrums und Steigern der Serveranzahl erreicht werden oder aber mit Aufrüsten der vorhandenen Ressourcen. Das bedeutet analog dazu einen steigenden Wartungsaufwand für jeden Server, der zusätzlich benötigt wird. Für eine Reduktion des Wartungsaufwandes können KVM-Switches genutzt werden, welche eine Fernwartung ermöglichen. Dahingehend bezieht sich diese Arbeit auf eine KVM-Client-Implementierung für aktuelle Webbrowser. Dieser Client auf HTML5-Basis soll eine Alternative zu dem bereits entwickelten Java-Client darstellen, da die Browserhersteller zunehmend den Java-Support einstellen. Im Zuge der Projektarbeit wird Wissen über Farbräume, Codierungen, RFB und JavaScript benötigt, welches im Vorfeld erläutert wird.
Ein Unternehmen möchte ein Ganzheitliches Betriebliches Gesundheitsmanagement System (GABEGS) einführen und orientiert sich dabei am vorliegenden Handlungsleitfaden, der mit seinen überwiegend konventionellen Methoden gerade in den Dokumentationsprozessen an seine Grenzen stößt. Deshalb wurde eine rechnerunterstützte Vorgehensweise abgeleitet, die die Integration vorhandener und neu erforderlicher Anwendungssysteme beinhaltet und drei Hauptziele anstrebt: Ziel 1 beabsichtigt den optimalen Aufbau des rechnerbasierten Teils des Informationssystems zur Unterstützung des Betrieblichen Gesundheitsmanagements (BGM). Ein weiteres Ziel besteht darin, eine Liste über am Markt verfügbare Produkte sowie deren Funktionalitäten und Schnittstellen zu erhalten. Das dritte Ziel strebt eine Liste aller Anwendungssysteme an, die zur Unterstützung der BGM dienen und integriert werden müssen sowie ein Integrationskonzept, das jeweils den Entwurf einer exemplarischen Schnittstelle für die beteiligten Systeme beschreibt. Eine Analyse und Bewertung der Ist-Situation bezüglich des Handlungsleitfadens brachte ein Drei-Ebenen-Metamodell (3LGM²) als Ist-Modell hervor, für das z. B. eine vollständige rechnerbasierte Aufgabenunterstützung nicht gewährleistet ist und sich der Grad an Datenintegration als mangelhaft erwies. Im Rahmen des Soll-Konzepts entstanden ein 3LGM²-Soll-Modell, das die aufgedeckten Schwachstellen behebt, sowie ein Migrationskonzept, das die Maßnahmen dazu beschreibt. Die Durchführung einer Marktanalyse zeigte, dass am Markt kein Softwareprodukt existiert, welches alle erforderlichen Funktionalitäten sowie Schnittstellen bieten kann. Deshalb wurden die Integrationsaspekte beteiligter Anwendungssysteme in den Fokus gestellt. Weiterhin wurde die Konzeption einer Schnittstelle zwischen einer beliebigen Befragungssoftware und dem SAP® Human Resources-System (HR) als exemplarische Personenverwaltungssoftware betrachtet. Damit wurde ein Weg zur Integration aller relevanten Daten aufgezeigt. Ferner wurde die Konzeption einer Schnittstelle zwischen einer beliebigen Befragungssoftware und dem Statistical Package for the Social Sciences (SPSS) als exemplarische Analyse-/Auswertungssoftware durchgeführt. Dadurch wurde gezeigt, wie die Erhebungsdaten der Mitarbeiter und notwendigen Verwaltungsdaten eines Fragebogens in SPSS integriert und einzelne Schritte des Analysevorgangs automatisiert werden können.
Die vorliegende Arbeit behandelt die Konstruktion eines Molekülverdampfers für die Ab-scheidung von endohedralen Fullerenen unter Ultrahochvakuumbedingungen zur Herstellung von geeigneten Proben für die Tunnelmikroskopie. Anhand erster tunnelmikroskopischer Messergebnisse zu Er3N@C80 auf Metalloberflächen wird die Funktionsfähigkeit des Verdampfers eindrucksvoll bestätigt. Nach einer kurzen Vorstellung der abzuscheidenden endohedralen Fullerene werden die für den Verdampfungsprozess relevanten thermodynamischen Grundlagen zusammengefasst dargestellt. Anschließend wird der Aufbau des Verdampfers präsentiert. Über Betrachtungen zu den Grundlagen der Tunnelmikroskopie soll die Interpretation der im darauf folgenden Kapitel vorgestellten Messergebnisse ermöglicht werden. Rastertunnelmikroskopische und -spektroskopische Daten zu Er3N@C80 auf Wolfram Gold werden gezeigt.
Die Arbeit befasst sich mit der Konzeption eines Tools, dass die Modellierung zeitabhängiger Städteansichten ermöglicht. Ziel der Anwendung ist es, ein virtuelles 3D-Stadtmodell aus historischen Abbildungen erstellen zu können. Das Modell soll außerdem nicht an einen Zeitpunkt gebunden sein, sondern für unterschiedliche Zeitpunkte in der Vergangenheit generiert werden können. Nutzer sollen zudem die Möglichkeit haben, bei der Vervollständigung des Modells zu helfen, da im historischen Kontext oft nur begrenzt viele Informationen vorhanden sind und sich jede Information als nützlich erweisen kann. In der Arbeit wird auf viele notwendige Schritte eingegangen, die beachtet werden müssen, um ein solches Tool zu implementieren. Besonders detailliert betrachtet wird der Schwerpunkt der 3D-Rekonstruktion aus von wenigen Bildern. Zudem wird ein Teil der Anwendung in JavaScript implementiert.
Die Entwicklung von Software Produktlinien ist ein bekanntes Verfahren zur Wiederverwendung von Softwareartefakten für ähnliche Varianten eines Produktes. Ein Schwerpunkt ist das Testen von Software Produktlinien. Die Herausforderung beim Testen ist, dass durch die Konfigurierbarkeit eine große Menge an Produktvarianten entstehen. Diese Arbeit zeigt, wie Software Produktlinien entwickelt werden. Am Beispiel einer Software Produktlinie werden die theoretischen Grundlagen erläutert und beschrieben, wie die konkreten Produktvarianten mit dem Konfigurator der iSAX GmbH & Co. KG erstellt werden. Es wird erläutert, wie diese Produktvarianten effizient getestet werden können. Hierfür werden verschiedene Testansätze vorgestellt, welche die aus der Software Produktlinie resultierenden Produktvarianten testen. Um den Testaufwand zu verringern, werden Testartefakte für verschiedene Produktvarianten wiederverwendet.
Das Ziel dieser Masterarbeit ist es, eine Neukonzeption eines verteilten Softwaresystems bei der Ablösung bisheriger Kommunikationsverfahren durch nachrichtenorientierte Middleware zu realisieren. Das betrachtete System umfasst die verteilte Berechnung einer Gesamtaufgabe und damit die Verteilung von Teilberechnungen. Dieses System wird zunächst einer Systemanalyse unterzogen. Dabei werden die Komponenten und deren bisherige Kommunikation untereinander beschrieben. Anhand dieser Voruntersuchungen werden Anforderungen für die Umstellung auf eine nachrichtenbasierte Kommunikation erstellt. Weiterhin werden die Konzepte einer nachrichtenorientierten Middleware betrachtet. Für die eigentliche Kommunikation werden standardisierte Zugriffsschnittstellen und die Themen Transaktionen sowie Zugriffskontrolle behandelt. Dadurch entsteht ein ganzheitlicher Überblick über das einzusetzende System. Anhand dieser Informationen wird eine konkrete Implementierung ausgewählt. Die Auswahl ist die Folge eines zweistufigen Vergleichs, der aus einer grob definierten Menge zunächst einige Kandidaten herausgelöst. Durch einen produktiven Versuch, wird aus den übrigen Kandidaten die geeignete Implementierung bestimmt und anschließend genauer beschrieben. Weitestgehend unabhängig von dieser konkreten Auswahl werden Teile der Anwendung grundlegend umgestaltet. Dabei wird stets darauf geachtet, dass die untersuchten Konzepte von nachrichtenorientierten Middleware-Systemen betrachtet und einbezogen werden. Außerdem werden, falls angebracht, oft alternative Lösungswege berücksichtigt und beurteilt. Es wird außerdem ein Fokus auf die Realisierung unter Verwendung des Spring Frameworks gelegt. Das Ergebnis dieser Arbeit ist schließlich ein in weiten Teilen neu konzipiertes System, bei dem die Kommunikation beteiligter Komponenten sowie die Verteilung der einzelnen Teilberechnungen durch die Verwendung einer nachrichtenorientierten Middleware erfolgt.
Die in dieser Arbeit entstandene Webanwendung zur Projektverwaltung kombiniert verschiedene Technologien, um den steigenden Anforderungen gerecht zu werden. Die Geschäftsprozesse wurden zunächst analysiert und für die Ausführung als BPMN-Workflows präzisiert. Die Ausführung übernimmt die Java-basierte Workflow Engine Activiti. Die Geschäftslogik wird mithilfe des Spring Framework realisiert. Geschäftsprozesse und
Die Arbeit beschäftigt sich mit der prototypischen Implementierung eines Andon-Boards für die Meleghy Automotive Unternehmensgruppe.Dabei werden Anforderungen aus betriebswirtschaftlichen Gesichtspunkten wie auch auf Hinsicht der Qualitätssicherung zusammengeführt und analysiert. Aus betriebswirtschaftlicher Hinsicht handelt es sich bei der Anwendung um ein Visualisierungstool aktueller Produktionsstatus auf Basis der Produktionsdaten eines bestehenden SAP-Systems. Zusätzlich zu den Produktionsdaten werden Echtzeit-Daten mittels einer Anbindung an eine Anlagen-SPS angezeigt. Neben der Anzeige von Echtzeit-Daten befasst sich die Arbeit auch mit der Ermittlung und Aufbereitung von statistisch ermittelten Daten.
In dieser Arbeit wurde der DICOM Standard verwendet, um eine Kommunikationsstruktur, zwischen Software- und Hardwarekomponenten zu schaffen. Als Kommunikationspartner wurde ein PACS Server verwendet, zu dem sowohl eine Verbindung aufgebaut, als auch die gehaltenen Daten aus der Datenbank dieses Servers gelesen werden musste. Dabei musste sich an die Konformitäten von DICOM gehalten werden, um somit eine Wiederverwendbarkeit der Arbeitsergebnisse zu sichern.
Konzeption und Realisierung eines Expertensystems mit Unterstützung von generierten Formularen
(2015)
Ein Formular ist ein standardisiertes Mittel zur Erfassung von Daten, das entweder in Papier- oder elektronischer Form (z. B. Web-Formular) vorliegt. In der Regel geben Formulare kurze Textfelder (zum Beispiel "Nachname", "Vorname", "Adresse") und Einfach- (zum Beispiel "verheiratet: ja / nein") oder Mehrfachauswahlfelder vor. Formulare vereinfachen die Erhebung von Daten, sorgen für Vollständigkeit und schützen vor auffälligen Mehrdeutigkeiten, die bei freier Wortwahl oder z. B. einem formlosen Antrag auftreten können. Deshalb werden Formulare häufig von Unternehmen verwendet, um den Erfassungsvorgang zu externalisieren und rechtlich präziser zu machen. Formulare finden sich auch in HTML, Microsoft© Word- oder PDF-Dateien oder in Programmiersprachen. Aufgrund der kontinuierlichen Etablierung der elektronischen Signatur lösen immer mehr elektronische Formulare ihre gedruckten Versionen ab. Der Vorteil liegt insbesondere darin, dass Prozesse/Verwaltungsgänge komplett webbasiert abgewickelt werden können. Ferner können die Daten effizient in Fachverfahren übernommen werden, wodurch sich Kostenreduzierungen und Bearbeitungsbeschleunigungen erzielen lassen.
Die Konzeptstudie befasst sich mit der Evaluierung unterschiedlicher Konzepte von Avalanche Photodioden in einer 0,18 µm CMOS- Hochvolttechnologie. Die Anforderungen für die Avalanche Photodioden liegen bei einer Durchbruchspannung von 14 V in Sperrrichtung und haben eine maximale Quanteneffizienz von 850 nm/940 nm im nahen infraroten Bereich. In Betracht wurden fünf verschiedene Strukturen gezogen. Anhand von TCAD-Simulationen ließen sich unterschiedlichen Parameter der APDs untersuchen und Prozesseinflüsse definieren. Ein Abgleich der Simulationsmodelle erfolgt über die Messung mit einer Referenzdiode. Mit dieser Vergleichsmessung lässt sich die Gültigkeit der Simulation bestätigen oder widerlegen. Nur so können die Ergebnisse der APDs eingeordnet werden.
Der Halbleiterhersteller X-FAB bietet eine Reihe von Technologien (z.B. XH018) in denen CMOS-Photodioden hergestellt werden. Am Ende der Prozessierung werden die Halbleiterbauelemente auf Waferebene geprüft. Bislang konnten nur rein elektrische Parameter wie Kapazitäten oder Durchbruchsspannungen im Prozess Monitoring geprüft werden. Für optoelektronische Parameter, wie beispielsweise die Sensitivität von Photodioden, wird eine flexible Beleuchtung benötigt, die in das bestehende Testsystem integriert werden kann. Die homogene Beleuchtung soll dabei mit verschiedenen Wellenlängen erfolgen, welche das relevante Spektrum repräsentieren. Hauptziel ist die reproduzierbare Messung von Photoströmen, wodurch Prozessunterschiede in dielektrischen Schichten detektiert werden können, die mit rein elektrischen Messung nicht erfasst werden. Bei dem vorgestellten Konzept wird neben der Photodiode auch der umliegende Siliziumwafer beleuchtet. Dadurch entstehen laterale Ladungsträger, welche den Photostrom beeinflussen können. Zur Abschätzung dieses Einflusses wurden Teststrukturen entwickelt und ausgewertet.
Die vorliegende Arbeit umfasst die Übertragung eines patentierten Rolle"=zu"=Rolle"=Plasmaätzverfahrens auf das Polymer PMMA, sowie die Charakterisierung der modifizierten Folien. Der Plasmaätzprozess basiert auf einem Sauerstoffplasma mit einem Doppelmagnetronsystem als Plasmaquelle und wird zur Erzeugung von Nanostrukturen genutzt. Als Targetmaterialien für das Doppelmagnetronsystem werden Magnesium, Aluminium und Titan genutzt. Durch die erzeugten Nanostrukturen wird ein Gradientenverlauf der Brechzahl zwischen Folie und Umgebung erzeugt, wodurch eine breitbandige optische Entspiegelung erreicht wird. Durch die Verbesserung der optischen Eigenschaften der PMMA-Folie soll ein weiteres Material für die Frontseitenverkapselung von optischen Bauelementen untersucht werden. Zunächst werden die mechanischen und optischen Eigenschaften der PMMA-Folie charakterisiert. Die Ergebnisse zeigen, dass PMMA schon eine hohe Transparenz besitzt. Durch die erfolgreiche Übertragung des Prozesses konnte die optische Transmission um 2 % - 3 % für die untersuchten Targetmaterialien erhöht werden. Für die Titantargets ergaben sich die besten optischen Eigenschaften. Die Ergebnisse, sowie REM-Untersuchungen der Nanostrukturen werden vorgestellt. Um den Prozess zu optimieren wurde der Einfluss der Prozessparameter Geschwindigkeit, Leistung und Sauerstofffluss auf die Transmission untersucht. Die ermittelten Zusammenhänge werden gezeigt und diskutiert. Für eine beidseitig behandelte Folie ergab sich eine Restreflexion von unter 1 % pro Seite. Des Weiteren wurden Versuche mit einer Initialschicht durchgeführt, da sich diese auf anderen Polymeren als vorteilhaft erwiesen hat.
Im Laufe dieser Masterthesis sollen die Grundlagen für die Entwicklung eines Prototypen für eine Sprachsteuerung im Rahmen der Gebäudeautomatisierung ViciOne erarbeitet werden. Es wird gezeigt, wie sich die Prinzipien der Sprachsteuerung auf den Bereich des Smart Homes übertragen lassen und wo sie heute schon zum Einsatz kommen. Dabei werden alle theoretischen Grundlagen wie die Bedeutung der Sprache als primäres Kommunikationsmittel, so wie die Funktionsweise von Spracherkennung und -synthese ausführlich erläutert. Als Grundlage für das Projekt dient Microsofts Sprachassistent Cortana. Aus diesem Grund werden die zugrundeliegenden Technologien wie die UAP und Windows 10, welche für den Einsatz von Cortana benötigt werden, näher beschrieben. Da diese zum Zeitpunkt der Anfertigung der Arbeit nur als Vorabversion für Entwickler zur Verfügung standen, erfolgt eine weitreichende Analyse dieser Technologien. Die Untersuchung dieser Plattformen soll gleichzeitig auch als Grundlage für spätere Entwicklungen auf dieser Basis dienen. Außerdem werden die Versionen von Windows 10 IoT beschrieben und es wird auf deren Bedeutung für dieses und künftige Projekte eingegangen. Im praktischen Teil wird beschrieben, wie auf Basis der UAP und der neuen Windows 10 Plattform ein Prototyp einer Sprachverarbeitung umgesetzt wurde, der über einen selbst erstellten Treiber samt zugehörigem Funktionsblock von der ViciOne Engine verarbeitet werden kann. Das Ergebnis dieser Arbeit ist eine theoretisch fundierte Machbarkeitsstudie, die zeigt, wie eine Sprachsteuerung mit den neusten technischen Möglichkeiten umgesetzt werden kann, um den Nutzern eine einfache und benutzerfreundliche Schnittstelle für ihr Smart Home bieten zu können.
Die Doppelseitenpolitur (DSP) ist ein wichtiger Bearbeitungsschritt bei der Herstellung von Siliziumwafern, welcher zur Planarisierung der Waferoberfläche und Entfernung der Restdefekte der vorhergehenden Schritte benutzt wird. Im Rahmen dieser Arbeit wurden die Ursachen für die während der DSP-Politur auftretenden Geräusche im Bereich von ca. 850 Hz untersucht, die auf den Stick-Slip- (Haft-Gleit-) Effekt zurückzuführen sind. Die Geräusche wurden aufgenommen und mittels FFT-Analyse charakterisiert. Für den Wafer wurde ein FEM-Modell erstellt, mit dessen Hilfe eine Eigenfrequenzanalyse durchgeführt worden ist. Es wurde nachgewiesen, dass die Frequenz der untersuchten Geräusche der Eigenfrequenz des Wafers entspricht. Des Weiteren wurde festgestellt, dass die Poliermittelfilmdicke hauptsächlich für das Auftreten des Stick-Slips und damit für die Anregung des Wafers maßgebend ist. Abschließend wird ein Modell zur Entstehung des Stick-Slip Effektes bei DSP erstellt und beschrieben.
Die vorliegende Arbeit beschäftigt sich intensiv den Einfluss des Legierungselementes Chrom und der Wärmebehandlung auf die Eigenschaften von Mn-Ga Magnetmaterialien, speziell der Legierung Mn2.48Cr0.12Ga. Die magnetischen Messungen wurden durch Struktur und Gefügeuntersuchungen ergänzt. Die Herstellung der Proben erfolgte in einem Lichtbogenschmelzofen. Die entstandenen polykristallinen Proben wurden für 14 Tage in einem Labormuffelofen getempert. Für die Versuche zur Optimierung magnetischer Eigenschaften wurden verschiedene Temperaturen gewählt. Strukturuntersuchungen mittels Pulver-XRD zeigten kaum Unterschiede, was der schwierigen Präparation von Pulvern geschuldet ist. Die in der Arbeit erprobte XRD an dünnen, geschliffenen und polierten Plättchen ergab drastisch verbesserte Röntgenbeugungs-Diagramme.
Die vorliegende Masterarbeit beschäftigt sich mit dem Verfahren der thermischen Hochrateverdampfung zur Abscheidung von aluminiumbasierten Schichten auf Kleinteilen, die als Schüttgut behandelt werden. Realisiert wird dies mit der am Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik (FEP) entwickelten Versuchsanlage ALMA 1000. Die Anlage vereint zwei physikalische Dampfabscheidungs-prozesse (engl.: physical vapor deposition
Die stetig fortschreitende Miniaturisierung in der Herstellung elektronischer Schaltkreise führt zu immer geringeren Leitungsquerschnitten. Daraus folgt ein Anstieg der Stromdichte, welcher ein erhöhtes Ausfallrisiko des Schaltkreises durch Elektromigration zur Folge hat. Hierbei findet eine diffusionsgetriebene Umlagerung von Kupferatomen statt, wodurch Unterbrechungen der Leiterbahnen oder Kurzschlüsse zwischen benachbarten Leiterzügen entstehen können. Elektromigration kann durch die Abscheidung von Adhäsionsschichten effektiv verringert werden. Hierfür werden auch mittels MOCVD abgeschiedene Kobaltschichten in Betracht gezogen. Ziel dieser Arbeit war es, auf Basis der theoretisch zu erwartenden Einflüsse der ver-schiedenen Prozessparameter einen Versuchsplan zu erstellen und den MOCVD-Prozess zur Herstellung von Kobaltdeckschichten für die Kupfermetallisierung systematisch zu untersuchen. Um Kurzschlüsse zwischen benachbarten Leiterbahnen zu verhindern, musste ein materialselektiver Abscheidungsprozess entwickelt werden. Die Einflüsse der Prozess-parameter auf die Abscheidung wurden untersucht und Auswirkungen auf das Wachstumsverhalten und die Eigenschaften der Kobaltschichten diskutiert. Die Schicht-charakterisierung belegte, dass es gelungen war einen materialselektiven Abscheidungs-prozess zu entwickeln. Es konnte ein Beschichtungsprozess etabliert werden, welcher es ermöglicht Kobalt bevorzugt auf den Kupferleiterbahnen und nicht auf den umliegenden isolierenden Gebieten abzuscheiden. Für ein reproduzierbares Beschichtungsergebnis ist ein in-situ Vorbehandlungsprozess erforderlich. Sowohl für die Entfernung oberflächlicher Adsorbate als auch für die Reduktion von gebundenem Sauerstoff konnte ein effektives Vorgehen entwickelt werden.
Raritan Deutschland GmbH entwickelt und produziert Stromversorgungsgeraete, die kontinuierlich den Strom- und Energieverbrauch von Servern und anderen IT-Geraeten messen und Umgebungsparameter ueberwachen. Mithilfe von Sensoren wird unter anderem die Umgebungstemperatur, Luftfeuchtigkeit, sowie der Luftdruck innerhalb eines Serverraums ueberwacht und die Messwerte kontinuierlich abgespeichert. Die Datenerfassungsperiode liegt im Bereich von wenigen Sekunden bis Minuten, sodass fuer kleine Rechenzentren mit der Zeit große Datenmengen angesammelt werden, welche fuer nachtraegliche Auswertungen gespeichert werden muessen. Das Ziel dieser Masterarbeit ist es verschiedene effiziente Ansaetze fuer das Sammeln und das Speichern der Sensordaten von Raritan Deutschland GmbH zu untersuchen, zu vergleichen und eine prototypische Implementierung zu realisieren. Dabei sollen folgende Technologien analysiert werden: SQL-RDBMS, SQL-RDBMS mit Zeitreihenfunktion und NoSQL-Datenbanken. Zur Leistungsbestimmung der verschiedenen Technologien sollen Testreihen durchgefuehrt und ausgewertet werden. Fuer die verschiedenen Datenbanktechnologien soll die Abfrageperformance, der Speicherbedarf und die Geschwindigkeit beim Einfuegen der Daten untersucht werden. Folgende Optimierungen / Speichermodelle werden analysiert bzw. auf den Anwendungsfall der Raritan GmbH uebertragen: ein Rollup Mechanismus (von Raritan GmbH), die Verteilungskonzepte Partitionierung und Sharding, verwenden von Indizes sowie das Speichern der Sensordaten in einem denormalisierten Schema (Arrays), Row-Store, Column-Store, Dokumentenorientiert, Key/Value, Wide Column-Sore und In-Memory DB.