Refine
Year of publication
- 2011 (692) (remove)
Document Type
- Diploma Thesis (397)
- Bachelor Thesis (238)
- Master's Thesis (56)
- Article (1)
Institute
- Maschinenbau und Kraftfahrzeugtechnik (bis 2018) (271)
- Gesundheits- und Pflegewissenschaften (105)
- Wirtschaftswissenschaften (70)
- Physikalische Technik, Informatik (65)
- Architektur (55)
- Elektrotechnik (44)
- Sprachen (41)
- Angewandte Kunst (40)
Bei vielen Technologien in der Halbleiterfertigung ist es erforderlich, Germanium zu implantieren. Der Grund dafür, ist die Amorphisierung der Substratschichten. Da Germanium als reiner Stoff nur bei hohen Temperaturen verdampft werden kann, wird es in der Fertigung in Verbindung mit Fluor eingesetzt. Bei dieser Verbindung handelt es sich um Germaniumtetrafluorid. Da in jedem Gasmolekül vier Fluor-Atome enthalten sind, hat das stöchiometrische Verhältnis einen großen Einfluss auf die Ionenquellenlebenszeit. Diese ist im Vergleich zu anderen Hochstromprozessen, um ein Vielfaches niedriger. Der Grund für den hohen Verschleiß ist der Halogenkreisprozess. Dabei wird Material von der Quellenwandung abgetragen und lagert sich an den heißesten Stellen in der Quelle an. Um das Problem zu lösen, gibt es sehr viele Ansätze. Die Ionenquelle bietet in ihrem Aufbau viele Variationsmöglichkeiten. Aufgrund der unterschiedlichen, physikalischen Ansätze wurden folgende vier Schwerpunkte untersucht: - Einfluss Plasmakammervolumen - Plasmakammermaterialien
Bestimmung der interfraktionellen Beweglichkeit der Prostata-Untersuchungen an CT- Kontrollserien-
(2011)
Das Prostatakarzinom zählt zu den häufigsten Tumorerkrankungen des Mannes. Abhängig vom Tumorstadium kann die alleinige Strahlentherapie zur vollständigen Genesung führen. Studien zeigen, dass eine Dosiseskalation der Gesamtdosis diese Erfolgsquote weiter steigern kann. Um potentielle Organbewegungen sowie Positionierungsunsicherheiten zu berücksichtigen, wird bei der Bestrahlungsplanung ein Sicherheitssaum um das Zielvolumen gelegt. Dieser Sicherheitssaum kann nicht beliebig groß gewählt werden, da umgebendes Normalgewebe sowie Risikoorgane bestmöglich geschont werden müssen. Um den Sicherheitssaum optimal zu dimensionieren, soll in dieser Arbeit die interfraktionelle Beweglichkeit der Prostata anhand von CT-Serien untersucht werden.Grundlage für diese Arbeit stellen Planungs- als auch wöchentlich in Bestrahlungsposition durchgeführte Kontroll-CT-Serien der Beckenregion von insgesamt 24 Patienten mit Prostatakarzinom dar. In der vorliegenden Arbeit konnte die Prostatabewegung in drei Raumrichtungen relativ zu den knöchernen Strukturen nachgewiesen werden. Aus den ermittelten Verschiebungen konnte ein Sicherheitssaum für das Zielvolumen empfohlen werden.
Das Ziel dieser Arbeit ist es dem Leser einerseits einen Gesamtüberblick bzw. Eindruck über die Kampfmittelnachsuche in Deutschland zu vermitteln und andererseits einen tieferen Einblick in bestimmte Bereiche zu geben. Diese Diplomarbeit gliedert sich in hauptsächlich drei, in etwa gleich intensiv behandelte, Bereiche. Der erste Themenblock beinhaltet die Aufgabe und Organisation der Kampfmittelräumung. Hierzu gehören Ursachenforschung, geschichtliche Entwicklungen, die wichtigsten Rechtsbereiche sowie der organisatorische Aufbau der Kampfmittelräumdienste und der Ausführung. Im zweiten Schwerpunktthema werden die geläufigsten Methoden und (Sondier)Techniken dargelegt, die Wirkungsweise beschrieben und ihre Grenzen und Möglichkeiten im Bereich der Kampfmittelsondierung erläutert. Des Weiteren handelt der Abschnitt von Verortungsverfahren. Der dritte Themenblock stellt die praktische Anwendung der beschriebenen theoretischen Aufgaben und Organisationsstrukturen sowie der beschriebenen Methoden und Techniken anhand von bearbeiteten Projekten dar. Da bei beiden vorgestellten Bauvorhaben zwar der Bereich der Kampfmittelräumung bereits abgeschlossen werden konnten, die Bauarbeiten aber noch andauern, werden das Bauvorhaben und der Arbeitgeber nicht benannt. Als Abschluss wird neben einer kurzen Zusammenfassung, eine Diskussion über die Wahl der richtigen Sondiertechniken angeregt.
Die Reparatur und Reinigung von Fotomasken sind zwei entscheidende Arbeitsgebiete auf dem Weg zu einer defektfreien Maske. In der vorliegenden Arbeit wurden diese beiden Prozesse umfangreich charakterisiert und ihre Interaktion untersucht. Desweiteren konnten aus den gewonnen Erkenntnissen Ansätze zur Verbesserung abgeleitet werden.
Das Interesse an Organischen Solarzellen ist in den vergangenen Jahren rapide gestiegen. Optimierungen der Architekturen und Materialien haben die industrielle Produktion an die Grenze finanziell rentabler Serienfertiung gebracht. Zur weiteren Erhöhung der Wirkungsgrade steht besonders die Verbesserung der Absorptionsfähigkeit der Zellen im Fokus der Forschung. In dieser Arbeit werden pin-strukturierte Solarzellen mit dem Buckminsterfulleren C60 und Zinkphthalocyanin (ZnPc) als Absorbermaterialien durch Einbringen eines weiteren Moleküls in die Absorptionsschicht ergänzt. Die eingebrachten Farbstoffe Cumarin-6 und DCM wirken, wie ZnPc, als Elektronendonor. Durch Coverdampfen bei verschiedenen Raten werden die Volumenverhältnisse der Komponenten verändert und die Auswirkungen auf die elektrischen Parameter der Zellen beobachtet. Zusätzliche Messungen von optischen beziehungsweise elektrischen Eigenschaften erlauben Rückschlüsse auf die Prozesse innerhalb der Zellen. Eine Substrattemperierung während der Vakuumabscheidung ermöglicht Aussagen über die Veränderungen der Wirkungsgrade in Folge von Morphologieeffekten.
In dieser Arbeit werden die mechanischen, tribologischen und optischen Eigenschaften von Aluminiumnitridschichten untersucht, die mithilfe von PVD (Sputtern) abgeschieden wurden. Zunächst geht man auf die Eigenschaften ein, die von Aluminiumnitrid (-schichten) zu erwarten sind. Darunter zählen die strukturellen, mechanischen und die optischen Eigenschaften. Im darauf folgenden Teil wird auf die verwendeten Messverfahren eingegangen. Darunter zählen Wägemethode (Schichtdicke), Ellipsometrie (Schichtdicke und optische Konstanten), Röntgenreflektometrie (Schichtdicke), Deflexionsverfahren (mechanische Schichtspannungen), Ritztest (Tribologie, Haftfestigkeit), EDX- und XPS-Analyse (Zusammensetzung) und Röntgenphasenanalyse (Kristallstruktur). Der nächste Teil der Arbeit beschreibt den Sputterprozess. Danach folgt eine Übersicht über die Abscheidungen und die verwendeten Abscheideparameter (Druck, Stromstärke, Reaktivgasdruck, Gasflüsse, Spannung, Leistung, Beschichtungszeit). Im vorletzten Teil der Arbeit werden die, an den abgeschiedenen Schichten durchgeführten, Messungen interpretiert. Die daraus resultierenden Schichteigenschaften werden mit den erwarteten Eigenschaften verglichen. Als Letztes erfolgt eine Zusammenfassung
In der vorliegenden Arbeit wird die Entwicklung von silanbasierten PECVD-Prozessen zur Siliziumnitridabscheidung beschrieben. Ein Schwerpunkt der Untersuchungen liegt in der Bestimmung und Einstellung der Schichtspannung. Technologische Vorgabe an die Prozesse ist dabei die Abscheidung von spannungsfreien bzw. tensilen Schichten.Eine weitere Zielstellung ist ein bestimmter Siliziumanteil in der Siliziumnitridschicht, für dessen Ermittlung quantitative XPS-Analysen durchgeführt wurden. Die Bestimmung der optimalen Prozessparameter erfolgte in umfangreichen Versuchsreihen, in denen der Einfluss der Plasmaleistung, des Elektrodenabstands, der Prozessgasflüsse (Silan, Ammoniak, Stickstoff), der Temperatur und des Prozessdrucks auf die Schichteigenschaften festgestellt wurde. Im Ergebnis konnte ein Prozess zu Abscheidung von spannungsfreien Schichten entwickelt werden. Ferner konnten Möglichkeiten zur Erhöhung des Siliziumanteils im Siliziumnitrid erprobt und Ansätze zur weiteren Steigerung aufgezeigt werden. Untersuchungen zur Stabilität und Zuverlässigkeit der entwickelten Prozesse und Schichten runden das Ergebnis ab.
Diese Bachelorarbeit beschäftigt sich mit der Eignung des Level-AFM der Firma Anfatec Instruments für magnetische Messungen an Festplattenproben im Rahmen eines Praktikums. Eine Erweiterung der Ausbildungsmöglichkeiten stellt in einem Studium immer eine Bereicherung dar. Zu Beginn werden die Grundlagen der Atomkraftmikroskopie (AFM) und magnetischen Kraftmikroskopie (MFM) dargelegt. Des Weiteren werden der Aufbau sowie die Funktionsweise des AFM näher erläutert. Für die Untersuchungen wurden magnetische Proben aus dem Speicherbereich gewählt. Um die Tauglichkeit hinsichtlich Handhabung, Wartungsaufwand usw. beurteilen zu können, wurden verschiedene Kriterien zusammengestellt. Außerdem folgt eine Auseinandersetzung mit messtechnischen Problemen. Abschließend wird erläutert, warum das AFM erst nach einer Reparatur bzw. einem Austausch des Gerätkopfes für einen Praktikumseinsatz geeignet ist.
In der Halbleiterfertigung werden Run to Run Controler zur automatischen Nachregelung von Prozessdrifts eingesetzt. Zur Formulierung eines Regelgesetzes müssen die voneinander abhängigen Größen bekannt sein. Bei der Charakterisierung des Chemisch-Mechanischen Polierens (CMP) ist die Abtragsrate eine wichtige Kenngröße zur Berechnung einer optimalen Polierzeit. Für unterschiedliche Produkte gibt es unterschiedliche Abtragsraten. Durch den Einfluss von Verbrauchsmaterialien über deren Nutzungszeit ändert sich der Anlagenzustand. In dieser Diplomarbeit wurden Methoden zur Optimierung der Polierzeitberechnung für Oxid
Diese Arbeit beschreibt die Entwicklung eines Kommunikationsservers zum Abgleich von Datenhaltungssystemen unter Nutzung des .NET-Frameworks. Die Arbeit soll aufzeigen, welche Probleme bei der Entwicklung der Architektur zu lösen sind und worauf bei der Implementierung zu achten ist. An diversen Stellen werden alternative Umsetzungsmöglichkeiten aufgezeigt, sowie am Ende ein Ausblick gegeben, wie die Entwicklung fortzusetzen ist.
In der Diplomarbeit wird an einer Auswahl von Poliertüchern untersucht, inwieweit eine Reduktion der Anzahl an Defekten pro Wafer (Defektdichte) gegenüber einem Referenzprozess möglich ist. Das Hauptaugenmerk liegt dabei auf der Reduktion von Mikrokratzern. Dazu wird für jedes Poliertuch der jeweilig nutzbare Prozessraum ermittelt und ein geeigneter Arbeitsbereich für eine Defektdichteoptimierung definiert. Neben den Auswirkungen auf Mikrokratzer werden die auf die Poliertuchtypen optimierten Prozesse hinsichtlich weiterer Prozesskenngrößen untersucht. Dabei steht die Planarisierung als eines der wichtigsten Ziele des Chemisch-Mechanischen Polierens im Vordergrund.
Der Stationsalltag einer Fachkraft beinhaltet derzeit auch das manuelle Verteilen der Medikamente eines Patienten. Die Fachkraft sucht dabei für jeden Patienten die einzunehmenden Medikamente heraus und legt diese zur gewünschten Tageszeit in dessen persönliche Medikamentenbox. Diese Aufgabe erfordert ein hohes Maß an Konzentration und kostet viel Zeit. Zur Verbesserung dieser Situation kann ein Roboter, der die Medikamente automatisiert verteilt, beitragen. Dabei wird wertvolle Zeit gespart, die für die Pflege der Patienten aufgewendet werden kann. Ein Lösungsansatz zur automatischen Medikamentenverteilung wird in dieser Arbeit mit einem LEGO-Modell beschrieben. Dieses beinhaltet die Hardware-Konstruktion des Roboters und dessen Steuerung.
Die vorliegende Arbeit beschreibt die Migration des im Klinikum vorhandenen Monitoring-Systems Nagios zu der Open-Source-Software Icinga und führt eine Performance-Betrachtung dieser Systeme durch. Anhand mehrerer Vergleiche werden die beiden Systeme, unter anderem in Ihrer Installation, Architektur und Performance, miteinander verglichen. Dabei wird die Aufmerksamkeit auf die Verbesserung der Leistungsfähigkeit gelegt, da das Monitoring-System Nagios doch zwischenzeitlich recht stark ausgelastet ist und es zu Verzögerungen der Checks kommt. Die Auswirkungen verschiedener Konfigurationen auf die Performance werden diskutiert und die auf das Monitoring-System beschrieben. Es soll dabei gezeigt werden, dass selbst kleine Änderungen große Auswirkung auf die Performance haben können und dadurch Kosten gespart werden können. So muss es nicht immer gleich notwendig sein die Hardware des Monitoring-Systems zu wechseln.
Conceptual design of load balanced streaming of multimedia data within shared web applications
(2011)
In this master's thesis it has been researched the possibility of a network of shared web applications in a server-supported (hybrid) peer-to-peer network where peers retransmit specified parts of the progressively download (streamed) multimedia data, with focus on economically bandwidth usage. A conceptual design of a real-world peer-to-peer video-on-demand service, controlled by a central server, was developed, including a payment procedure for commercial use. Different network overlay scenarios were proposed and their advantages and disadvantages were discussed. Bandwidth calculations have supported those predications. Algorithms for dynamically handling changes in the network structure were developed. Communication protocols were conceptualized accordant to the needs of the proposed shared applications. Methods for keeping the quality of experience high were discussed. A zipper mode, higher-level slice structure for the data was proposed, and enhanced to a multiple-stream system for sending and receiving data. Error and data loss handling procedures were designed.
Im Rahmen dieser Masterarbeit wurde nach dem Softwareentwicklungsprozesses ein Framework entwickelt, dass eine verteilte Anwendung zum Bearbeiten von verschiedenen Aufgabenstellungen mit genetischen Algorithmen unterstützt. Zur der Bearbeitung des Themas wurden die Teilschritte in den einzelnen Kapiteln in einem iterativem Prozess dargestellt.
Entwurf von Lehrmaterialien für generische Suchverfahren am Beispiel einer Wegfindung in Webots
(2011)
In dieser Arbeit soll es um das Erstellen geeigneter Lehrmaterialien zum Thema generische Suchverfahren gehen. Dafür wird eine generische Suche entworfen und demonstriert, welche allgemein für verschiedenste Suchprobleme ausgelegt ist. Um die Nützlichkeit solch einer Suche zu zeigen, wird im Laufe dieser Arbeit eine Roboterwegfindung mit dem Simulationsprogramm Webots implementiert. Dies soll zeigen, wie ein abstraktes Suchverfahren mit realeren Problemen zusammenspielen kann.
Die vorliegende Arbeit stellt die Modellierung und Entwicklung einer mobilen Softwareanwendung für Wachdienste in sicherheitskritischen Bereichen vor. Die Software soll die strategische Evaluation von Qualitätsmanagement in großen Unternehmen mit Hilfe der Fragebogen-Methode unterstützen. Die Hauptanforderung dieser Arbeit ist die Entwicklung einer Webanwendung zur Erstelllung und Verwaltung von Fragebögen und Statistiken sowie auch zur Pflege und Verwaltung von Personaldaten von an der Evaluation beteiligten Mitarbeitern. Die Evaluierung mittels Fragebogen soll möglichst schnell und bequem für alle Beteiligten sein. Um dies zu erreichen, wird eine mobile Anwendung für die Fragebogenbeantwortung erstellt, Übermittlung, Bearbeitung und Speicherung der Ergebnisse automatisch durchgeführt wird. Die Softwareanwendung stellt eine Client-Server-Architektur dar, auf Server-Seite steht die Webanwendung und auf der Client-Seite die mobile Anwendung. Am Ende der Entwicklung soll ein Prototyp der Software zur Verfügung stehen.
Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der prototypischen Implementierung einer Software, welche die Kommunikation mit einem Bordnetzsteuergerät ermöglicht. Der Schwerpunkt liegt dabei auf der Erarbeitung eines Kommunikationsmodells, insbesondere einer Transportschicht und der Einordnung dieser in den Kommunikations
Die Arbeit beschreibt das Zusammenwirken der Android-Plattform mit einem Geoinformationssystem auf Basis der PostGIS-Datenbank. Die Arbeit ist in drei Kapitel unterteilt. Im ersten Kapitel wurden die Grundlagen der Technologien beschrieben, im zweiten Kapitel wurde das Design der Lösung dargestellt und im letzten Kapitel wurde die Implementierung der Prototyp-Applikation erklärt. Zum Schluss folgt eine Zusammenfassung.
Der öffentliche Gesundheitsdienst (ÖGD) untergliedert sich in viele verschiedene Fachgebiete. Diese Fachgebiete arbeiten und kommunizieren auf Basis von Gesetzen und Verordnungen. Die Kommunikationswege sind dabei vielgestaltig. Die kommunizierenden Handlungsträger sind aufgrund der föderalen Struktur des ÖGD nicht immer eindeutig. Es besteht die Absicht diese Kommunikationswege in naher Zukunft elektronisch zu gestalten. Hierfür soll ein einheitlicher Standard für den ÖGD in der Bundesrepublik Deutschland entwickelt werden. In dieser Bachelorthesis wurden Methoden erarbeitet, um die Kommunikationswege der Gesundheitsämter und anderer Behörden des ÖGD aus bestehenden Quellen und Befragungen zu erheben. Es wurde dabei auf Erkenntnisse aus dem Bereich Anforderungserhebung zurückgegriffen. Die Kommunikationswege des öffentlichen Gesundheitsdienstes wurden im Rahmen dieser Arbeit als Grundlage für die Entwicklung eines einheitlichen Standards erhoben. Das Vorgehen der Erhebung ist dargestellt. Es werden Methoden beschrieben, wie die Kommunikation im öffentlichen Gesundheitsdienst modelliert werden kann und welche Spezifika dabei zu beachten sind.
Durch Klangprojektion erzeugen wir in uns ein Vorgefühl der Sinneswahrnehmung, die durch das zukünftige, von unserem Instrument ausgehende, Schallereignis in uns erzeugt werden soll. Durch dieses Vorfühlen programmieren wir unsere Intuition dahingehend, dass sie uns beim Bau des Instrumentes diejenigen Arbeitsmöglichkeiten aus unserem Erfahrungsschatz aussuchen lässt, die uns dem projizierten Schallereignis mit unserer Arbeit näher bringen. So erhalten wir eine klangprojektionsprogrammierte Intuition. Ich habe mit meiner Arbeit nachgewiesen, dass diese Vorgehensweise bewusst oder unbewusst der Arbeit des Instrumentenbauers zugrunde liegt und dass sie die, unsere Arbeit auf ein Ziel ausrichtende, Komponente ist. Es hat sich durch die Quantenphysik und moderne Bewusstseinsforschung herausgestellt, dass die ganze Schöpfung in ihrer Evolution dadurch zielgerichtet wird, wie sie sich selber wahrnimmt; Schöpfer und Schöpfung sind Eins. Ich habe in meiner Arbeit die Wirkweise dieser Einheit von Schöpfung und Schöpfer auf Basis der Quantenphysik, der Morphischen Felder und eigenen Erfahrungen diskutiert, und bin zu dem Schluss gelangt, dass diese Einheit ohnehin das unserer Welt, und damit auch den Instrumenten, Formgebende ist. Der Entstehungsprozess der Musikinstrumente ist dadurch gekennzeichnet, wie wir sie als Menschheit vorgefühlt haben. Der Trichter des Horns und die Form der Geige sind durch die Erwartungshaltung zustande gekommen, die von unserem Bewusstsein ausgeht, indem es erkennen möchte. Die von der Schöpfung vorgefühlte Erwartungshaltung, wie sich die Welt im nächsten Moment ereignen wird, geht als "Sog" den Entstehungsprozessen voraus und richtet diese, und damit die Schöpfung, auf ein Ziel aus. Da wir es im Musikinstrumentenbau mit kreativen Entstehungsprozessen zu tun haben, bekommen wir die Möglichkeit, Bewusstsein für die, diesen Prozessen zugrunde liegenden, Vorgänge zu entwickeln, und den Entstehungsprozess unserer Instrumente durch eine Klangprojektion auf ein projiziertes Ziel auszurichten.
Die vorliegende Arbeit versucht im ersten Teil die Funktion und Aufgabe des Steges ausführlich zu beschreiben. Im zweiten Teil werden unterschiedliche Parameter bezüglich der Geometrie, Material und der Eigenfrequenz mehrerer Stege, an einem Versuchsinstrument untersucht. Das Ergebnis der Untersuchungen zeigt, dass der Steg einen gewissen Einfluss auf die Spieleigenschaften und die Klangfarbe des Instrumentes hat.
Im 19. und 20. Jahrhundert wurde in Markneukirchen und Umgebung eine sehr große Anzahl an Instrumenten von Instrumentenmachern und in der Zulieferungsindustrie tätigen Menschen für den überregionalen Bedarf gefertigt worden. Um diese Instrumente im Aus- und Inland anbieten zu können, wurden von den Händlern, damals auch "Fortschicker" oder Fabrikanten genannt, Kataloge und Preislisten angefertigt. Diese Kataloge sind für eine Rekonstruktion der historischen Entwicklung von Gitarrenmodellen im Vogtland eine wichtige Quelle. Des Weiteren geben sie Auskunft über die Modellbreite, Qualität und Ausführungen. Auch sind sie als wichtige Dokumente der Wirtschaftsgeschichte zu betrachten. In der vorliegenden Studie wurden 50 Kataloge von 32 Firmen mit insgesamt 584 Abbildungen von Gitarrenmodellen erfasst, geordnet und für eine bibliografische Nutzung aufbereitet und digitalisiert. Es ist nun möglich, konzentriert auf diese instrumentenkundlichen Quellen zuzugreifen..
Zielstellung dieser Arbeit ist es, festzustellen, wie stark sich vor allem die Sattelkompensation auf die Intonation der Gitarre auswirkt. Da bis jetzt die Sattelkompensation im Gegensatz zu Stegkompensation nur in seltenen Fällen von Herstellern angeboten, ja sogar von vielen ignoriert wird, soll sie in dieser Arbeit vorrangig bearbeitet werden. Aufgrund theoretischer Grundlagen soll die praktische Umsetzung der Sattelkompensation dargestellt, erprobt und messtechnisch überprüft werden.
Integrating Message-Based Load Distribution for Asynchronous Processes in an Enterprise Application
(2011)
With the ever-growing need for more scalable and fault-tolerant enterprise-level intranet and extranet solutions, application vendors are trying to prepare their products for multiple-machine environments. Apart from the traditional clustering approach of balancing and distributing user requests equally over several nodes, applications can be designed to handle greater loads by allowing designated background processes to run independently and be scaled separately from the main business logic and client request handling processes. Liferay Portal, a web-based enterprise-level portal and CMS solution developed by the company of the same name, already offers support for modeling a multi-node setup by utilizing well-known clustering paradigms in the manner of search index replication or cache invalidation as well as taking the application server's session replication mechanisms into account. Its upcoming release, however, will introduce long-running, CPU-bound features like creating document previews and encoding video or audio files , which will intensify the need for a concept that allows for queuing and equally distributing processor time
Mobile Banking Terminal
(2011)
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von Data Warehouses aus den Informationsdaten zwei verschiedener Krankenhaus-Informationssysteme. Diese Datenlager sollen als Grundlage für ein Management-Informationssystem dienen. Dabei stellen die entwickelten Data Warehouses die Basis für Analysen und Auswertungen im Akutkrankenhausbereich dar. Die zu untersuchenden Krankenhaus-Informationssysteme wurden von der Westsächsischen Hochschule in Zwickau bereitgestellt. Momentan arbeitet die Zwickauer Hochschule mit den Systemen
Bei dieser Arbeit geht es um den Entwurf und der Implementierung einer naturnahen Hangelbewegung eines humanoiden Roboters. Im Vordergrund steht hierbei insbesondere das Vorstellen der Herangehensweise, wozu sowohl die Hardware - wie der Bioloid Roboter - als auch der Bau eines Gerüstes gehört. Des Weiteren wird die Software näher erläutert, welche dem Roboter ermöglicht eine Hangelbewegung an dem Gerüst durchzuführen.
Diese Bachelor-Arbeit befasst sich mit der Weiterentwicklung der Roboter-Kalibriersoftware RobCal und deren Anpassung an neue Anforderungen und Kundenwünsche. Nach einer genauen Analyse der bestehenden Programmstruktur und der genutzten Hardware, werden zunächst die Kundenanforderungen der Firma Koike und die sich daraus ergebenden Aufgaben vorgestellt. Anschließend folgt der Hauptteil, in dem die erarbeiteten Konzepte die zur Lösung der Probleme, welche durch die Anforderungen aufgetreten sind, vorgestellt werden. Dies erstreckt sich von der Entwicklung neuer Kalibrieralgorithmen, über die Flexibilisierung des bisher relativ starren Kalibrierablaufs, bis hin zur Konzeption einer neuen Benutzeroberfläche. Den Kernpunkt der erarbeiteten Konzepte stellt dabei die Umgestaltung und Anpassung der bestehenden Klassenstruktur dar, was jeweils anhand von UML-Diagrammen deutlich gemacht wird. So steht am Ende dieser Bachelorarbeit eine Konzeption die es ermöglicht RobCal an derzeitige und zukünftige Anforderungen anzupassen und neue Komponenten, sowie Funktionalitäten ohne großen Aufwand zu integrieren. Einige der Konzepte wurden bereits umgesetzt, wohingegen andere Aufgrund des Umfangs erst in Zukunft umgesetzt werden sollen.
Analyse bergbautypischer Stoffemissionen/Wasserpfad aus dem Sanierungsbereich im unteren Borbachtal
(2011)
In den sanierten Gebieten wie Schlema-Alberoda, die durch den Uranerzbergbau geprägt waren, spielen der Wasserhaushalt und die Kenntnis über den wassergebundenen Stofftransport im Bereich von Halden bzw. Absetzbecken eine wichtige Rolle. Da aufwendige Objektuntersuchungen nicht immer möglich sind, wird auch auf Modellierungen der Wasserhaushaltsgrößen zurückgegriffen, um komplexe stoffliche Fragestellungen zu beant-worten. Zwecks der Verringerung von Schadstoffemissionen, vor allem des Urans über Sickerwässer müssen die wasserhaushaltlichen/stofflichen Verhältnisse im Untersuchungsgebiet hinreichend analysiert und charakterisiert werden.
Integrating the Healthcare Enterprise (IHE) ist ein aktueller Beitrag zu dem Thema Integration von Informationssystemen im Gesundheitswesen. Für die Firma MEIERHOFER als Hersteller des integrierten medizinischen Informationssystems MCC ist es wichtig, die aktuellen Entwicklungen auf diesem Gebiet zu verfolgen und in ihrem Produkt zu realisieren. Im Rahmen dieser Masterthesis wird das Informationssystem MCC bezüglich ausgewählter Aspekte der IHE-Domäne Radiology untersucht. Mit der Erläuterung einführender Begriffichkeiten und der Beschreibung ausgewählter Prozesse der Radiologie wird die Grundlage für das Verständnis der Problemdom äne geschaffen. Auf dieser Basis wird das MCC.RIS, die Radiologieinformationssystemkomponente von MCC, untersucht, um den aktuellen Stand der Unterstützung von Prozessen der Radiologie sowie den Aufbau der Daten und die Kommunikation mit externen Systemen zu evaluieren. Durch die Analyse der IHE-Domäne Radiology, im Speziellen den Profilen SWF, PIR sowie IRWF, wird ein Einblick in den Aufbau und die Funktionalität dieser Domäne gegeben. Aus diesen Erkenntnissen wird ein Anforderungskatalog für die IHE-Konformität verfasst und dessen Umsetzungsgrad in MCC evaluiert. Ausgehend von der Differenz zwischen den Anforderungen aus IHE und der Funktionalit ät von MCC.RIS wird ein Konzept für die IHE-konforme Integration der drei Profile SWF, PIR und IRWF in MCC.RIS entwickelt.
Im Mittelpunkt der Arbeit steht das Thema Raytracing. Dieser Algorithmus zur Verdeckungsberechnung und zum Rendering in der Computergrafik ist von theoretischer, ebenso wie von praktischer Seite näher beschrieben worden. Im Rahmen der Arbeit ist ein Raytracer in objektorientiertem C++ entstanden, der das phongsche Beleuchtungsmodell implementiert.
Die wachsende Globalisierung trägt dazu bei, dass die Bedeutung des Internets, nicht nur für global arbeitende Unternehmen, weiterhin an Bedeutung zunimmt. Die Konkurrenz von Ländern mit niedrigem Lohnniveau zwingt zur Reduzierung von Aufwand und Kosten. Unternehmen benötigen deshalb Software, die sie bei der Lösung dieser Herausforderung so gut wie möglich unterstützt. Das Ergebnis dieser Arbeit ist die Integration des neuen Programmiermodells der Java Context and Dependency Injection (CDI) aus Java EE 6 in neue Plattformen zur Erweiterung von GeneSEZ, als Code-Generierungssoftware. Zunächst werden dafür in dieser Arbeit die theoretischen Grundlagen geschaffen. Im Anschluss daran werden die Bestandteile und Eigenschaften von CDI und Weld, als Referenzimplementierung, erläutert. Daraufhin werden Plattformen für die Modell-zu-Modell- und die Modell-zu-Code-Transformationen erarbeitet. Im Besonderen widmet sich diese Arbeit der Generierung von Annotation Types und der Generierung des Home Patterns. Als praktische Anwendung wird die Verwendung der erarbeiteten Lösungen an einem Beispielprojekt erläutert.
Die Validierung ist ein entscheidendes Werkzeug zur Qualitätsoptimierung und -sicherung. Sie findet in jeder Phase des Entwicklungslebenszyklus statt. Gleich ob Software oder Hardware, die korrekte Funktionalität muss durch Testen überprüft und sicher gestellt werden. Besondere Anforderungen werden an computergestützte Systeme, z. B. Datenbanken in klinischen Studien, der pharmazeutischen Industrie gestellt. Diese sind durch nationale sowie internationale Regeln und Gesetze definiert. Während des Validierungsprozesses wird die Spezifikation des Produktes über geeignete Tests nachgewiesen und die gewonnenen Erkenntnisse dokumentiert. Ein möglicher Validierungsablauf wird in der vorliegenden Arbeit schematisch beschrieben und in Form einer Checkliste dargestellt.
Während einer Notfallrettung werden wichtige Informationen, die den Patienten und seine Verletzungen beschreiben, erfasst. Diese Rettungsdaten sollen nach der Erfassung schnellst möglich im Krankenhausinformationssystem zur Verfügung stehen. Um diesen speziellen Vorgang zu unterstützen, wurde eine Schnittstelle zwischen dem Informationssystem des Rettungswesens und dem Krankenhausinformationssystem geschaffen. Damit eine Kommunikation zwischen den beiden Informationssystemen gewährleistet werden kann, wurde ein auf Textnachrichten basierender Datenaustausch mittels eines Kommunikationsservers realisiert. Dieser Kommunikationsserver steuert dabei die Transformation der eingehenden Rettungsdaten und die Verteilung der Nachrichten. Eine Umsetzung der so entwickelten Schnittstelle, erfolgte mit dem Softwareprodukt Ensemble der Firma InterSystems.
Die vorliegende Arbeit beschäftigt sich mit den Problemen der Automation von Geoinformationssystemen für die maschinelle Kartenerstellung aus statistischen Daten. Dafür wurden zunächst die verschiedenen Datenquellen und Datenformate betrachtet und gegeneinander verglichen. Dabei stellte der \enquote{Staatsbetrieb Geobasisinformation und Vermessung Sachsen} eigens für die Untersuchungen dieser Arbeit Kartenmaterial zur Verfügung. Daraufhin wurden verschiedene Geoinformationssysteme auf ihre Tauglichkeit für das Automationsvorhaben und den Kostenumfang analysiert. Es wurde festgestellt, dass das kostenfrei Quantum GIS mit einer Python"=Schnittstelle für die Automation am geeignetsten ist. Die zweite Hälfte dieser Arbeit behandelt das schrittweise Vorgehen, um die Automation mit dieser Software erreichen. Dabei wurden aufgetretene Probleme diskutiert und Lösungen in Form von Python"=Skripten hergeleitet. Schließlich konnte so eine vollständige, flexibel einsetzbare Lösung entwickelt werden. Alle Maßnahmen für die Automation wurden an einem konkreten Beispiel dargestellt, um das Zusammenspiel der verschiedenen Komponenten nachvollziehbar zu gestalten.
Bei der Entwicklung von komplexen Systemarchitekturen ist eine Anforderungsanalyse notwendig. Da diese sehr umfangreich werden kann, wird eine Software benötigt die Prozesse in der Analyse simuliert. Um die Simulation verwenden zu können, wird eine grafische Benutzerinteraktion benötigt, die Zugriff auf diese ermöglicht. In dieser Arbeit wird die Konzeption und Realisierung der dafür notwendigen Oberfläche beschrieben. Die Vorgehensweise des Autors beginnt mit dem Verstehen der Simulationssoftware, wodurch Schlüsse auf die zu realisierende Oberfläche ermöglicht werden. Mit der Erstellung von konzeptionellen Oberflächenentwürfen und Abläufen der Software, werden Strategien für die Implementierung definiert. Die in Java entwickelte Anwendung folgt dem Model-View-Controller-Prinzip um eine strukturierte Software zu entwickeln, die eine Trennung zwischen Anzeige, Datenspeicherung und Steuerung vornimmt. Der Autor schaffte eine Oberfläche mit der es möglich ist, die zur Simulationssoftware gehörenden Daten verwalten und anzeigen zu können, sowie eine Schnittstelle zu dieser herstellen. Damit können sowohl aus externen Dateien Anforderungen importiert, als auch die konkreten Simulationen gestartet werden.
Lehrunterlagen, die in einem multilingualen Kontext eingesetzt werden, zeichnen sich dadurch aus, dass unterschiedliche Materialien mit gleichem Inhalt erstellt und in verschiedene Sprachversionen übersetzt werden müssen. Änderungen am Inhalt müssen getrennt in allen Materialien angepasst werden. Das Projekt Internationalisierung von Lehrunterlagen hat sich zum Ziel gesetzt eine Plattform zu schaffen, welche diesen Prozess weitestgehend unterstützt. Im Rahmen dieser Masterarbeit wird ein Editor entwickelt, der als Teilkomponente in dieser Plattform eingesetzt werden soll. Dabei werden die speziellen Anforderungen betrachtet, die an eine Bearbeitung solcher speziellen Inhalte gestellt werden. Anschließend wird gezeigt, wie eine Editor durch Nutzung geeigneter Technologien konzipiert werden kann. Dabei stehen die besonderen Eigenschaften von internationalisierbaren Lehrunterlagen im Mittelpunkt und es wird gezeigt wie diese bestmöglich unterstützt werden können.
Die Arbeit beschäftigt sich mit Linux, FreeBSD und MacOS X. Sie soll der Frage auf den Grund gehen, wie die Systeme typische Anforderungen an ein modernes Betriebssystem bewältigen. Es soll herausgefunden werden, ob und wie sich die Systeme maßgeblich unterscheiden. Dabei werden vor allem der Completely Fair Scheduler in Linux und der ULE-Scheduler in FreeBSD betrachtet. Außerdem wird unter anderem auf den Buddy-Allocator, den Slab Allocator, sowie den Zone Allocator eingegangen.