Refine
Year of publication
- 2010 (100) (remove)
Document Type
- Bachelor Thesis (59)
- Diploma Thesis (29)
- Master's Thesis (12)
Institute
- Physikalische Technik, Informatik (100) (remove)
Is part of the Bibliography
- no (100)
Die Arbeit beschäftigt sich mit der Abbildung eines pädiatrisch-onkologischen Dokumentations-und Managementsystems in einem KDMS. Das Klinische Dokumentations und Managementsystem (KDMS) ist MCC. Mit dieser Arbeit war zu beweisen, dass ein normeles KDMS für die pädiatrische Onkologie ausreicht. Es wurde eine pädiatrische Onkologie mittels Parametrierung erstellt. Mit der fertigen Paramierung kann nun ein Patientendurchlauf durchgeführt werden.
Die Inspiration zu der vorliegenden Diplomarbeit basiert auf einem klassischen lithografischen Belichtungsprozess, bei dem die Substratstrukturierung, mit einer UV-Lichtquelle, mittels einer Masken-Projektionsbelichtung stattfindet. Eine innovative OTFT (organic thin film transistor) Technologie zur Herstellung von flexiblen Displays nutzt das Masken-Projektionsbelichtung-Prinzip zur Strukturierung dünnen anorganischen und organischen Schichten durch Ablation. Mit den lithografischen Prozessmethoden durch Anwendung von unterschiedlichen Teststrukturen werden einige optische Eigenschaften des Belichtungssystems, wie: Fokuslage, Fokustiefe, Auflösungsgrenze und Astigmatismus, beschrieben. Es wurden zwei grundsätzlich verschiedene Materialien untersucht: ein halbleitender Polymer und Gold. Für die vorhandenen Schichtsysteme konnte gezeigt werden, auf welche Weise die Geometrie der Strukturen (Breite, Dichte, Größe, Form) sich auf ihre Abbildung auswirkt.
Das Sammeln, Organisieren und Verarbeiten von Informationen ist eines der Hauptaufgabengebiete der Informatik. Vielfältigste Informationen werden durch Personengruppen zusammengetragen, gemanagt und bei Bedarf wieder abgerufen. Aracube EIS ist ein Wissensmanagementsystem, welches diese Funktionen als Framework bereitstellt. Seine Aufgabe besteht darin, jegliche Informationen abbilden zu können, ohne sich auf ein bestimmtes Gebiet zu spezialisieren. Um unnötige Entwicklungsarbeit zu vermeiden, stellt es Grundfunktionen, wie z.B. eine Benutzerverwaltung mit Rechtesystem oder das automatische Erzeugen von Views anhand einer Datenbankstruktur, bereit. Diese Bachelorarbeit beschreibt die Vorgehensweise bei der Anwendungsentwicklung mit dem aracube EIS System. Begonnen von der Installation und Integration in die Entwicklungsumgebung, bis hin zur Programmierung von Datenstrukturen, wird systematisch die Herangehensweise erläutert.
Um den Dispersionsverlauf von Lichtwellenleitern mit hoher Genauigkeit zu bestimmen, wird ein zeitliches Weißlichtinterferometer auf Basis eines Mach-Zehnder-Interferometers vorgestellt. Es ermöglicht die Messung der wellenlängenabhängigen differentiellen Gruppenlaufzeit von Licht in konventionellen Fasern und photonischen Kristallfasern in einem Spektralbereich von 630 nm bis 1550 nm. Interferenzen werden durch die Überlagerung zweier Laserteilstrahlen erzeugt, von denen sich einer durch die Testfaser, der andere durch Luft ausbreitet. Messungen an einer Stufenindexfaser zeigen, dass die differentiellen Gruppenlaufzeiten mit ausreichender Genauigkeit ermittelt werden können. Zudem wird ein empirisches Berechnungsmodell beschrieben, mit dem das Modenverhalten photonischer Kristallfasern mit hexagonaler Gitterstruktur simuliert und analysiert werden kann. Dazu werden auch verschiedene mögliche Methoden diskutiert, um höhere Transversalmoden zu diskriminieren.
Die Thesis untersucht und veranschaulicht Augmented Reality Verfahren und ordnet diese ein. Neben theoretischen Aspekten zur Augmented Reality allgemein, wird ein besonderes Augenmerk auf Prinzipien der Objekterkennung, die genutzten Koordinatensystem, sowie markerbasierte Verfahren gelegt. Hier finden sich repräsentative Beispiele, welche mit Hilfe der Software "ARToolkit" angefertigt wurden und anhand von Codeauszügen erklärt werden. Abschließend wird ein Ausblick über mögliche künftige Verfahren gegeben.
Am Forschungszentrum Dresden-Rossendorf wird zur Zeit ein auf Laserstrahlung basierter Teststand für gasgefüllte Detektoren für kernphysikalische Anwendungen aufgebaut. Erstmals wurden Subpikosekunden-Laserpulse in einen Proportionalzähler hinein fokussiert, um laserinduzierte Elektronen nachzuweisen. Es werden erste Ergebnisse mit unterschiedlichen Energiedichten und einer Pulslänge von < 200 fs vorgestellt.
Autorenreferat So wie sich eine interne Unternehmenslandschaft ständig ändert, so ändern sich auch die gestellten Anforderungen an die verwendete Software. Wenn ein bestehendes System, auf Grund seiner Architektur und der verwendeten Technologie, nicht geändert oder erweitert werden kann, lässt es sich über kurz oder lang nicht vermeiden, sich grundsätzlich neu zu orientieren. Die Neuentwicklung des Technischen Berichtswesens (TBW) der OEWA ist ein solcher Fall. Der erste Schritt und gleichermaßen die Bewährungsprobe für die geplante Technologie, ist die Entwicklung des Betriebstagebuches für Kläranlagen als Web-Anwendung. Später sollen weitere Anwendungen aus anderen Teilen des Unternehmens folgen. Die Hauptaufgabe besteht darin, eine Softwarearchitektur zu entwickeln, welche beliebig für sonstige Teilanwendungen erweitert werden kann. Gleichzeitig sollen Kernfunktionalitäten geschaffen werden, die von allen Teilanwendungen genutzt werden können. Die Kernfunktionalitäten beinhalten unter anderem den wichtigen Punkt des Persistierens von Daten, sowie den Entwurf grundsätzlicher Objektmuster. Ein weiterer Teil der für die meisten Teilanwendungen relevant ist, ist eine einheitliche Benutzerverwaltung. Speziell für das TBW wird eine Topologie- und Anlagenverwaltung zu entwickeln sein. Die bisher getätigten Implementierungen zeigen, dass die gewählten Technologien, sowie die entwickelten Funktionalitäten allen Anforderungen gerecht werden. Die in den Entwicklungsprozess eingebundenen Endnutzer bestätigen dies für den Teil der entwickelten Grafischen Benutzeroberflächen.
Diese Arbeit beschreibt Grundgedanken und Entwicklung eines Anwendungsrahmens zur Replikation von Daten aus verschiedenen relationalen Datenbanken auf ein einheitliches Datenbanksystem. Der Hintergrund dafür ist die Vermeidung von Geschwindigkeitseinbußen und die Erhöhung der Laufzeitsicherheit von Anwendungen, welche entfernte Datenbanken nutzen. Dabei werden unterschiedliche Herangehensweisen und Lösungsmöglichkeiten für Teilprobleme, wie den Verbindungsaufbau und die Fehlerbehandlung unter unterschiedlichen Voraussetzungen betrachtet und bewertet. Zusätzlich werden die Vorteile der Nutzung bestehender Frameworks, wie Log4J, aber auch die Nutzung von eigenen Entwicklungen (Datenbankverbindung) aufgezeigt. Neben der Verwendung von Reflexion, wird hier auch die Nutzung Java-spezifischer Technologien, wie beispielsweise JDBC und Properties-Dateien behandelt.
The here presented work is about the development of an atom pair descriptor based virtual screening system. In the beginning the fundamentals are explained which are the base of the following chapters. The chemical data file formats, the term descriptor as well as the enrichment factor and the process of benchmarking is discussed. In the main part the development of the virtual screening system is explained and afterwards the results on the bcr-abl kinase target protein are interpreted. For the development of the virtual screening system the realization of the atom pair descriptor, the different similarity methods and their selection is discussed. Also the clustering and the functio-nality of the virtual screening system are explained. Afterwards the results of the bcr-abl kinase screening are discussed and the functionality of the virtual screening system is evaluated. Finally a conclusion is given where set goals and achieved outcomes are compared and an outlook for possible future projects is presented.
Diplomarbeit
(2010)
In der vorliegenden Diplomarbeit wird der Einfluss von Partikeln auf der Glasrückseite von Masken bei einer Belichtungswellenlänge von 193 nm untersucht. Es soll ermittelt werden, ab welcher Partikelgröße die auf dem Wafer abgebildeten Lackstrukturen durch Linienbreitenschwankungen beeinflusst werden, und welche Partikelgrößen nicht abbildungswirksam, d.h. tolerierbar sind.
Die Aufgabe der Diplomarbeit ist die Schwachstellen beim Einsatz des Mediums Druckluft in der Montage der Fertigung 2 herauszuarbeiten und für diese Optimierungspotentiale aufzuzeigen. Im Vorfeld wird eine Analyse des Druckluftverbrauchs und der Kosten in der Fertigung 2 durchgeführt. Dafür wird die Drucklufterzeugung und -verteilung im Volkswagen Werk Wolfsburg dargestellt und Anwendungsbeispiele von Druckluft in der Montage erläutert. Ein weiterer Teil dieser Arbeit ist die Erstellung eines Druckluftkatasters. Nach der Ist-Aufnahme erfolgt die Analyse des Druckluftverbrauchs und der
Mikrobielle Brennstoffzellen sind Bioreaktoren, welche in der Lage sind chemische Energie direkt in elektrische Energie umzuwandeln. Das Ziel der Arbeit war es eine Mikrobielle Brennstoffzelle (MFC) zu konstruieren. Dabei sollte es möglich sein einzelne Komponenten, wie die eingesetzten Membranen, schnell und einfach austauschen zu können, um eine Grundlage für zukünftige Untersuchungen zu schaffen. In folge der Arbeit wurden 2 dieser Brennstoffzellen gebaut. Bei beiden konnte eine Spannungsdifferenz zwischen Kathode und Anode nachgewiesen werden. Durch die kontinuierliche Überwachung des pH-Wertes, Leitfähigkeiten, Salzkonzentrationen und der Spannungspotentiale konnte gezeigt werden, dass die Spannung durch biologische Aktivität zustande gekommen ist. Dem Leser soll deutlich gemacht werden, wie Bakterien in der Lage sind, aus Nährstoffen des Klärwassers einer örtlichen Kläranlage Strom herzustellen. Ein Teil der Arbeit beschäftigt sich mit Eigenschaften von Ionenselektiven Membranen, welche in diesen Brennstoffzellen eingesetzt wurden. Dabei wurden Versuche vorgenommen, welche sich mit den Ionenleitenden Eigenschaften dieser Membranen auseinandersetzten. Als Resultat der Messungen konnte ein, durch die Membranen aufgebautes DONNAN-Potential nachgewiesen werden. Als Ergebnis der Arbeit konnte eine modular aufgebaute MFC mit Klärwasser betrieben werden. Die Kammervolumina und eingesetzte Membranen der Zelle können mit wenig Aufwand verändert werden, um weiterführende Forschungen zu vereinfachen.
Bei der Überprüfung der elektrischen Sicherheit an medizinischen Geräten gemäß DIN EN 62353 (08.2008) mit einem Messstrom von 200mA, wurde in der Praxis mehrfach beobachtet, das die geforderten Grenzwerte überschritten wurden, diese allerdings bei Verwendung der alternativ verfügbaren 10A Messstrom eingehalten wurden. Aufgrund dessen soll mittels Strom-Widerstands-Kennlinien mehrerer Prüfgeräte, ein idealer Prüfstrom ermittelt werden, welcher sich durch Wirtschaftlichkeit und Sicherheit auszeichnet. Gleichzeitig werden Unterschiede der Stromarten, der Einfluss der Umpolung, Einflussfaktoren wie Temperatur und Luftfeuchtigkeit auf den Schutzleiterwert, Zerstörungsfreiheit von Prüfströmen und die Messung des Schutzleiterwiderstandes unter Einsatzbedingen untersucht.
In der vorliegenden Arbeit wurde ein komplexes CAD-CAM-System für die Herstellung von benutzerdefinierten, dreidimensionalen 3-Komponenten-Strukturen mit dem am Fraunhofer-IWS entwickelten 3-Kanal-Dosiermodul konzeptioniert, umgesetzt, erfolgreich getestet und bei verschiedenen Anwendern etabliert. Dafür wurde ein Protokoll für die Kommunikation zwischen Dosiersteuerung und CNC-Maschine über multiple Schnittstellen erarbeitet. Auf dessen Basis wurde eine modular aufgebaute, universelle Dosiersteuerungsfirmware entwickelt. Zusätzlich wurde durch die Entwicklung und Integration eines Nadelsensorsystems die vollautomatisierte Herstellung von 3-Komponenten-Scaffolds mit CNC-basierten 3-D-Bearbeitungszentren ermöglicht. Weiterhin konnte auf Grundlage der plattformunabhängigen Programmiersprache PHP eine CAD-CAM-Software entwickelt und erfolgreich getestet werden. Das Programm erlaubt dem Nutzer die vollautomatisierte, computergestützte Generierung von CNC-Code zur Fertigung von dreidimensionalen 3-Komponenten-Strukturen aus Materialien mit unterschiedlichen Eigenschaften. Anhand von Teststrukturen konnte der überzeugende Funktionsnachweis des Gesamtsystems erbracht werden.
Die vorliegende Diplomarbeit beschäftigt sich mit der Entwicklung einer neuartigen Elektrode für die transkutane Elektrostimulation. Nach theoretischen Vorbetrachtungen bezüglich physikalischer und physiologischer Grundlagen sowie der Elektrostimulation, werden prinzipielle Anforderungen an die zu entwickelnde Elektrode ausgearbeitet. Es wird auf den grundlegenden Aufbau von medizinischen Stimulationselektroden eingegangen. Aufbauend darauf werden geeignete Verfahren vorgestellt, um die Elektrode hinsichtlich ihrer mechanischen und elektrischen Eigenschaften bewerten zu können. Es werden verschiedene Werkstoffe und Werkstoffkombinationen auf ihre Eignung geprüft. Im Rahmen der Diplomarbeit werden die Polymere Silikon und thermoplastisches Polyurethan in Kombination mit geeigneten elektrisch leitfähigen Additiven auf Einsetzbarkeit in der Elektrode bewertet. Als ionenleitfähige Schicht werden Hydrogele und ein Elektrospinvlies auf ihre Eignung untersucht. Die Elektrode als Gesamtsystem wird in Hinblick auf Kompatibilität zum Stimulationsgerät STIWELL med4 der Firma Otto Bock HealthCare GmbH entwickelt und abschließend in der Stimulationsanwendung getestet.
Cloud Computing has had an impact on the computer science in recent years. Instead of the traditional way, where the using and providing of hardware resources and software are inflexible, Cloud Computing represents a pool of scalable, on-demand and easily available Cloud Services. These are differentiated by infrastructure, platform or software and are provided by a Cloud Service provider. An example of a service provider is a business software provider. Due to this of business software customers are increasingly are interested in a shift to Cloud Computing. Customers want to appreciate the advantages of Cloud Computing, such as the reduction of business expenditures generally or make business more flexible. This Bachelor Thesis analyses Cloud Computing's possibilities and advantages, especially Cloud Services, to forming the basis of expanding business software providers' product portfolio. The analyses results the concept for providing existing software components as a Cloud Service, without radically altering component configuration. This is used by a number of actors types and points out the advantage of using Cloud Services in different ways. Finally, a prototype implementation analysis the technical feasibility of the concept and represents a basis for conclusion and outlook
Gegenstand dieser Bachelor-Thesis ist die Entwicklung eines Microchip Lasers. In Bezug auf diesen werden physikalische und technische Grundlagen diodengepumpter Festkörperlaser dargestellt. Zum Einsatz kam ein Nd:YAG-Laserkristall mit integriertem sättigbaren Absorber, welcher durch eine 3 W-Laserdiode optisch gepumpt wurde. Konstruktion und Erprobung eines Testaufbaus für erste Untersuchungen werden demonstriert. Die Laserparameter der Laserdiode und des gepumpten Nd:YAG-Kristalls werden ausführlich analysiert und die Einzeleffizienzen betrachtet. Mit dem ersten Testaufbau konnten 224 mW Laseremission bei einer differentiellen Effizienz von 13 % erreicht werden. Die erzeugte Pulslänge beträgt 1,4 ns mit einer Repetitionsrate von 5,1 kHz. Es wird die Kühlung der Laserdiode und des Laserkristalls, in Bezug auf die Ausbildung einer thermischen Linse, beschrieben. In diesem Zusammenhang wird das Verhalten des Lasersystems zum Einschaltzeitpunkt näher analysiert. Des Weiteren wird der Einfluss der Transferoptik diskutiert.
Die Optische Kohärenztomografie (engl. Optical Coherence Tomography, OCT) ist ein interferometrisches Bildgebungsverfahren, das in der Medizin für die Erzeugung von mehrdimensionalen Gewebeschnittbildern eingesetzt wird. Mit Hilfe dieser nicht invasiv und berührungslos arbeitenden Technik kann die arteria saphena, die Oberschenkelarterie der Maus, am in vivo Modell untersucht und dargestellt werden. Als Ergebnis erhofft man sich neue Erkenntnisse über die Entstehung von Herz-Kreislauf-Erkrankungen wie bspw. Arteriosklerose. Dazu müssen wichtige Gefäßparameter wie die Wandstärke oder der Gefäßradius ausgewertet werden. Die Zielstellung dieser Bachelorarbeit ist es, einen Segmentierungsalgorithmus in der grafischen Programmiersprache LabVIEW 8.6 zu entwickeln, mit dem die Gefäßdynamik am Mausmodell automatisch analysiert wird. Bisher erfolgte die Segmentierung halbautomatisch bzw. manuell und unter sehr viel Zeitaufwand. Dabei gestaltete sich die Abgrenzung des Gefäßes vom umliegenden Gewebe schwierig. Mit Hilfe der Software, die auf das mathematische Verfahren der Kreuzkorrelation zurückgreift, wird die Analyse der Gefäßparameter vereinfacht.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines Systems zur Regelung der Desinfektionsverhältnisse am KR 1000. Die Medizin & Service GmbH setzt dieses Desinfektionsgerät seit mehreren Jahren erfolgreich zur Inaktivierung von Bakterien und Pilzen, die sich in Beatmungsgeräten anlagern, ein. Aufgabe und Ziel dieser Arbeit ist es, durch gezielte Optimierung der Desinfektionsparameter die Zuverlässigkeit des KR 1000 Systems weiter zu verbessern. Außerdem soll durch geeignete Beeinflussung der Temperatur- und Feuchteverhältnisse im Desinfektionskreis die mikrobiologische Wirksamkeit gesteigert werden. Das bedeutet kürzere Einwirkzeiten der aktiven Substanzen und damit eine Verringerung der Materialbeeinflussung am zu desinfizierenden Objekt. Als Ausgangspunkt für diese Arbeit wurden zunächst die Desinfektionsverhältnisse im KR 1000 und die thermodynamischen Grundlagen für feuchte Luft festgelegt. Dabei wurden die Vor- und Nachteile einer prozessnotwendigen Befeuchtung abgewogen. Im weiteren Verlauf konnten erste Vorbetrachtungen für eine optimierte Parameterregelung durchgeführt und kritische Fehler für die Desinfektionswirkung beleuchtet werden. Durch theoretische und experimentelle Untersuchungen der bisherigen Prozessparameter relative Feuchtigkeit, Flow und Ozonkonzentration, mit deren vielen Beeinflussungsmöglichkeiten, konnten diese verbessert werden. Dadurch wurden neue Parameter, die eine effizientere Desinfektion möglich machen, ermittelt und in den Desinfektionskreislauf eingeführt. Weiterhin konnten durch diese Untersuchungen die (neuen) prozessnotwendigen Parameter mit deren Abhängigkeiten simuliert und neue Grenzen für deren Steuerung und Regelung festgelegt werden.
Inhalt dieser Arbeit ist, durch die Entwicklung einer neuen Systemkomponente die "KR1000"-Desinfektion für neue Applikationen nutzbar zu machen, Beatmungsgeräte im ausgeschalteten Zustand hygienisch aufzubereiten sowie auch defekte Beatmungstechnik vor einer Reparatur wirksam zu desinfizieren. Dabei wurden anfangs grundlegende Leistungsmerkmale festgelegt. Entsprechend den Leistungsmerkmalen wurden die einzelnen Komponenten des Volumenstromerzeugers ausgewählt. Es wurde ein Prototyp aufgebaut. Im Rahmen dieser Arbeit wurden weiterhin die Funktionseigenschaften getestet und die Beeinflussung des Volumenstromerzeugers durch das Desinfektionsmittel bei einer "KR1000"-Desinfektion untersucht. Für mögliche Gefährdungen wurde eine Risikobewertung durchgeführt.
Entwicklung und Umsetzung von Workflows zur Unterstützung der intersektoralen DICOM-Kommunikation
(2010)
Diese Arbeit beschäftigt sich mit der intersektoralen Kommunikation im Rahmen der integrierten Versorgung zwischen einem MVZ und einer im Krankenhaus angesiedelten Radiologie. Mittelpunkt dieser Arbeit ist die Problematik einer systemübergreifenden Kommunikation, dass heißt im speziellen die Überführung des ambulanten xDT-GDT-Nachrichtenstandards in ein verarbeitbares Nachrichtenformat des Radiologiestandards DICOM. Die Arbeit wurde von der DOCexpert Computer GmbH initiiert und dient dem Ziel einer direkten Kommunikation zwischen dem Softwareprodukt DOCconcept und einem Radiologieinformationssystem. Neben einer grundlegenden Einführung in den DICOM-Standard, in die xDT-Spezifikation, in die integrierte Versorgung und die Thematik MVZ, wird eine mögliche Kommunikationsstruktur schematisch entwickelt und dargestellt. Im zweiten Teil der Arbeit wird die prototypische Umsetzung des gewählten Szenarios mittels der Integrationsplattform Ensemble (Intersystems Corporation) dargestellt und erläutert.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von CVD-Prozessen mit geringer Abscheiderate. Ziel ist die Abscheidung von 5 nm dicken Schichten Siliziumdioxid auf Substraten. Die grundlegenden Schritte des Abscheidevorgangs werden analysiert und die Wirkung von Prozessparametern auf die erzeugte Schicht, insbesondere der Abscheiderate, erläutert. Die Entwicklung wird für drei typische Prozessvarianten zur Abscheidung von SiO2 durchgeführt: SACVD TEOS + O3, PECVD TEOS + O2 und PECVD SiH4 + N2O. Anhand von Versuchsreihen werden die Einflussstärke der Prozessparameter auf die Abscheiderate untersucht und daraus die Entwicklung neuer Abscheidungen gestartet. Die anschließende Charakterisierung der entstandenen CVD-Prozesse umfasst unter anderem die Gleichförmigkeit der Abscheidung, Partikelbelastung, Brechungsindex, Nassätzrate und eine Spektralanalyse im Infrarotbereich. Mit bekannten Schicht- und Prozesseigenschaften kann entschieden werden, welche Abscheidung am besten die Anforderungen der späteren Anwendung erfüllt.
Die vorliegende Arbeit beschäftigt sich mit der Erarbeitung der Möglichkeit eines in-situ Wiederherstellungsprozesses der dielektrischen Eigenschaften von plasmageschädigten, porösen low-k Materialien. Bei Plasmaätzprozessen tritt eine Kohlenstoffffverarmung und Verdichtung der Schichten auf. Damit steigt die Permittivität, die Leckstromdichte und die hydrophile Benetzung in den Oberächenbereichen. Das Ziel der Arbeit war es, mittels Plasmaunterstützung Reparaturprecursoren in Gasphase zu fragmentieren und deren Einfluss auf die Schichteigenschaften zu erproben. Dazu wurde Octamethylcyclotetrasiloxan (OMCTS) verdampft, in einem Mikrowellenreaktor zersetzt und über die Probe geleitet. Der Einfluss eines Methan-Plasmas auf einen möglichen Reparaturerfolg wurde in einer induktiv gekoppelten Plasmakammer untersucht. Die Proben wurden anschließend mit Fourier-transformierter Infrarot-Spektroskopie, Kontaktwinkel-Messung und Quecksilber-Sonden-Messung analysiert. Besonders mit plasmagestützter Fragmentierung des OMCTS konnten beachtliche Reparaturerfolge erzielt werden.
Die vorliegende Bachelorarbeit beschäftigt sich mit dem Umsetzten eines erarbeiteten Handlungskonzeptes zum Erstellen eines Katasters zur Abwasserwärmenutzung. Aus dem 700 km langen Kanalnetz der Westsächsischen Abwasserentsorgungs- und Dienstleistungsgesellschaft mbH konnten Schmutz- und Mischwasserkanäle mit jeweils einer Gesamtlänge von 14 km festgestellt werden, in denen eine Abwasserwärmenutzung möglich wäre. Für die Schmutzwasserhaltungen wurde eine Bewertung der hydraulischen Auslastung vorgenommen und ein Kataster mit potentiellen Abwasserwärmenutzern erstellt. In der vorliegenden Arbeit wird dargestellt wie durch Beachten der vorgegebenen Rahmenbedingungen der Wärmetauscherhersteller und des Kanalnetzbetreibers unter Anwendung des geografischen Informationssystems GIS geeignete Kanalabschnitte im Entsorgungsgebiet festgestellt werden konnten. Desweiteren wurde an einem Projektbeispiel in Glauchau im Ortsteil Niederlungwitz die Auslegung eines Abwasserwärmetauschers für zwei Auslastungsfälle betrachtet und ein Kostenvergleich zwischen einer konventionellen erdgasbetriebenen Energieversorgung und der bivalenten Energieversorgung, bestehend aus Wärmetauscher, Wärmepumpe und Heizkessel (Brennwertkessel) vorgenommen.
Diese Bachelorarbeit wurde für das Erreichen des Informatikabschlusses Bachelor of Science an der Westsächsischen Hochschule Zwickau erstellt. Im ersten Teil dieser Arbeit wird ein Überblick über den derzeitigen Kommunikationsstandard im stationären Bereich, die HL7 Version 2, erarbeitet. Desweiteren wird der zurzeit nur spärlich im Einsatz befindliche Standard, die HL7 Version 3, zur Kommunikation zwischen dem stationären und dem ambulanten Bereich erläutert. Zusätzlich wird die Generierung von Schemadateien für HL7 Version 3 anhand eines Beispielszenarios erörtert. Im zweiten Teil wird die Grundlage für die Erstellung der Transformationen von HL7 Version 2-Nachrichten in ein VHitG-Standardkonformes HL7 Version 3-Dokument geschaffen. Für eine HL7 Version 2-Nachricht wird in diesem Teil der Arbeit die Implementierung einer Transformation nach HL7 Version 3 in der Integrationsplattform Ensemble erläutert.
Erweiterung eines Energiemanagementsystems um ein Plugin zur Verwaltung von Z-Wave-Funksensorik
(2010)
Das Thema der Arbeit ist die Erstellung eines Plugins für ein bereits bestehendes Energiemanagementsystem. Derartige Software findet ihre Anwendung zum Beispiel in Rechenzentren und dient dazu, den Stromverbrauch der dort vorhandenen Geräte zu überwachen. Im Rahmen der Arbeit sollen die grundlegenden Überlegungen sowie die Vorgehensweise bei der Entwicklung dargestellt werden. Ebenso wird auf die dabei verwendeten Technologien Bezug genommen. Im Vordergrund stehen hierbei Methoden zur Kommunikation zwischen unterschiedlichen Bestandteilen des Plugins.
In der vorliegenden Arbeit wurde ein Perfusionssystem in Anlehnung an das Perfusionsprinzip nach Bancroft etabliert. Scaffolds aus mineralisiertem Kollagen, besiedelt mit humanen mesenchymalen Stammzellen (hMSC) wurden drei Wochen lang dynamisch kultiviert, wobei die Hälfte der Proben mit osteogenen Supplementen (oS) behandelt wurde. Die Auswirkungen der Perfusionskultur auf die Proliferation, Vitalität und osteogene Differenzierung der hMSC wurden bei zwei verschiedenen Flussraten und im Vergleich zur statischen Kultivierung untersucht. Die Bestimmung des DNA-Gehaltes und der LDH-Aktivität aus dem Zelllysat lieferten Aussagen über die Zellzahl. Zur Beurteilung der osteogenen Differenzierung wurde die ALP-Aktivität bestimmt. Außerdem wurden REM-Aufnahmen und MTT-Tests vorgenommen. Es zeigte sich, dass die Perfusionskultur im gewählten Versuchsaufbau keinen positiven Einfluss auf die Proliferation und Vitalität von hMSC in Scaffolds aus mineralisiertem Kollagen nimmt, jedoch die Verteilung der Zellen im Scaffold verbessert werden kann. Die osteogene Differenzierung wurde nicht unterstützt, jedoch wurden ohne oS kultivierte hMSC zur Differenzierung in Richtung Knochenzelle angeregt. Eine Aussage zum Einfluss der Flussrate auf die untersuchten Parameter konnte nicht getroffen werden, da die unabdingbare Verwendung verschiedener Scaffoldchargen höchstwahrscheinlich einen signifikanten Einfluss auf die Versuchsergebnisse genommen hat.
Solarzellen gelten als Lieferanten sauberen Stromes. Ob deren Herstellung jedoch auch diesem Motto gerecht wird, muss durch Betrachtung und Bewertung der Produktionsbedingungen, nach umweltkritischen Gesichtspunkten, geklärt werden. Ziel dieser Arbeit ist die Untersuchung, wie Emissionen einer PECVD-Anlage, zur Antireflexbeschichtung auf Si3N4 Basis, effizient behandelt werden können. In diesem Zusammenhang wurde die Eignung, eines neuentwickelten Abgasnachbehandlungssystems der Firma Edwards, überprüft. Es handelt sich dabei um ein DC-Plasmaabatement mit brennstofffreier Arbeitsweise. Ein FTIR-Spektrometer der Firma Bruker Optics lieferte die zur Bestimmung der Reinigungseffizienz notwendigen Daten. Unterschiedliche Belastungen, im Hinblick auf die eingeleiteten Schadgasmengen, wurden getestet mit dem Ergebnis, dass der Schadgasgehalt im Abgasstrom des Abatements unterhalb der Nachweisgrenze lag. Eine kurze Abschätzung der Betriebskosten zeigt, dass dieses System auch in finanzieller Hinsicht Vorteile gegenüber konventionellen Abgasbrennern mit sich bringt.
Evaluierung objektrelationaler Datenbankmapper für die SPARTACUS Facility Management Software
(2010)
Die N+P Informationssysteme GmbH aus Meerane ist mit annähernd 100 Mitarbeitern ein gut aufgestelltes mittelständisches Unternehmen. In allen Abteilungen wird der Systemintegrationsgedanke groß geschrieben. SPARTACUS Facility Management ist eine Software, die diesem Anspruch gerecht wird, indem sie ein umfassendes Immobilienmanagement ermöglicht und viele Schnittstellen zu verschiedensten anderen Systemen bietet. Standards in der Informatik können sehr kurzlebig sein. Die Entwicklung schreitet rasant voran. Softwaresysteme veralten und müssen daher gewartet werden. Die Datenbankschnittstelle des SPARTACUS basiert auf JDO. Die Limitierungen, die das Persistenzframework mit sich brachte, sind durch proprietäre selbstgeschriebene Lösungen umgangen worden. Diese Arbeit setzt sich mit den aktuellen Standards für Persistenz auseinander, die mit Java eingesetzt werden können. Es werden verschiedenste Frameworks mit der aktuell eingesetzten Lösung per Benchmark verglichen. Dabei kam es auf die Performance im Zusammenspiel mit verschiedenen DBMS genauso an, wie auf deren Handhabbarkeit. Ein Konfigurationsvorschlag wird dabei ebenfalls aufgebaut. Die herausgearbeitete Lösung führt zu einer Empfehlung und ersten Umsetzungsschritten auf dem Weg zu einer Datenbankschnittstelle auf dem aktuellen Stand der Technik und bietet neue Möglichkeiten. SPARTACUS kann damit zukünftig komfortabler weiterentwickelt werden und ist dabei um einiges performanter als vorher.
Der Prozess der Softwareentwicklung hat sich in den letzten Jahren enorm beschleunigt. Die Zeiten zwischen zwei Releases werden verkürzt, die Menge an neuen oder geänderten Funktionalitäten aber nicht verringert. Der erforderliche Testaufwand ist somit nicht mehr alleine durch manuelle Tests abdeckbar. Aus diesem Grund ist das Ziel dieser Arbeit die Automatisierung von Oberflächentests für die RCP-Anwendung XLINE. Diese Arbeit befasst sich im ersten Teil mit der Evaluierung von Testwerkzeugen zur Automatisierung von Frontend Tests für eine RCP-Anwendung. Dafür werden, anhand von theoretischen Grundlagen und der Analyse der zu testenden Anwendung XLINE, Kriterien definiert, mithilfe derer die evaluierten Testwerkzeuge bewertet werden. Den zweiten Teil bildet die Einführung des am Ende des ersten Teiles gewählten Testwerkzeuges in den Testprozess. Dabei wird ein Ansatz untersucht und realisiert, welcher sowohl die Testerstellung vereinfacht als auch die Wartbarkeit der Testfälle verbessert. Weiterhin wird noch die Erweiterbarkeit des gewählten Programmes untersucht, mit der spezielle Anforderungen der zu testenden Anwendung unterstützt werden soll. Der Abschluss dieses Teils behandelt die Automatisierung der Testdurchführung zur Einbindung in den Nightly Build Prozess.
In der vorliegenden Arbeit wurde versucht die Abscheidung aluminiumdotierter Zinkoxidschichten auf flexiblen Substraten hinsichtlich deren elektrischer Leitfähigkeit und optischer Transmission für den Einsatz auf Dünnschichtsolarzellen zu verbessern. Dazu wurde das normalerweise eingesetzte Verfahren des Gleichstromsputterns durch das HF-überlagerte Pulssputtern ersetzt. Das Hauptaugenmerk lag im Finden optimaler Leistungskombinationen und Pulsparameter. Der Zusammenhang zwischen den bei der Abscheidung herrschenden Bedingungen und den daraus resultierenden Schichteigenschaften wurde durch umfangreiche Analysemethoden, wie z.B. Röntgendiffraktometrie und Hall-Messungen sowie durch Plasmacharakterisierung mittels Langmuir-Sonde geklärt. Weiterhin wurde der Einfluss einer Abscheidung in reduzierender Wasserstoffatmosphäre auf die Schichteigenschaften untersucht.
The demands of metal working industry on cutting tools increase due to the emergence of new materials and a growing ratio of high speed and dry machining. For these requirements efficient cutting tools with specialized coatings or coating systems are necessary. Such coatings ought to be hard, have high oxidation stability and should adhere well to the underground. The adhesion is a fundamental property of hard coatings relating to tribological and mechanical demands. This work is focused to the adhesion of titanium based CVD coatings which is determined by means of a scratch tester. With respect to practice, the quantification of adhesion between coating and substrate is not easy to handle. Different procedures to determine this feature exist. However the scratch test is the best established and well discussed test method. This work evaluates the adhesion of approved TiN coatings in comparison to novel TiSiN nanocomposite coatings. Different sublayer systems are evaluated with the aim to achieve a better adhesion of TiSiN. TiSiN was chosen because it is a promising nanocomposite material with high hardness and oxidation stability.
Die optische Kohärenztomographie ist ein nichtinvasives optisches Bildgebungsverfahren zur Darstellung zwei- und dreidimensionaler Schnittbilder eines Objektes. Im Rahmen dieser Arbeit wurde in ein Fourier Domain OCT System ein 2-Achsen Galvanometer Scanner implementiert, um ein dreidimensionales Abtasten des Messobjektes zu realisieren. Das Vorgehen bei der Justage des Scannersystems und der Synchronisation mit dem Spektrometer, sowie der anschließenden Erfassung der Daten mit dem PC wurden dokumentiert und beschrieben. Am Ende der Arbeit wurde das System anhand eines Spiegels als Messobjekt getestet und ausgewertet.
Konstruktion und Aufbau eines Interferenzmikroskopes mit integriertem Verschiebeinterferometer
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Konstruktion und dem Aufbau eines speziellen Messgerätes, welches es ermöglicht Höhenwerte mit mehreren hundert µm Stufenhöhen interferometrisch rückgeführt und hochaufgelöst zu bestimmen. Dazu wurde ein neuer Ansatz gewählt und mehrere Messgeräte miteinander kombiniert. Zunächst wird kurz auf die Geschichte der Inteferomerie eingegangen und im Kapitel
Konzepte zur Integration einer Komponente zur Traceability von Anforderungen in ein MDA Framework
(2010)
Die Traceability von Anforderungen ist ein Aspekt, der mehr Transparenz bei der Entwicklung von Software verspricht und die Qualität dieser steigern soll. Ausgehend von einem MDA-Framework werden die technischen Möglichkeiten zur Realisierung einer Traceability untersucht und die notwendigen Aspekte prototypisch realisiert. Dabei entstehen für die Traceability Informationen sowie die Anforderungsbeschreibungen jeweils ein Metamodell, und es wird auf die Konsistenz von modellübergreifenden Beziehungen sowie der Navigation zwischen unabhängigen Modellen eingegangen. Neben dieser technischen Basis wird auf die Möglichkeiten zur Erstellung der Traceability Informationen eingegangen. Dabei werden anhand eines Beispielprojekts Traceability Informationen erstellt und drei Möglichkeiten zur Verwendung dieser aufgezeigt. Die Arbeit endet mit einem Ausblick, der auf eine tiefere und allgemeinere Integration der Traceability in ein MDA-Framework eingeht, sowie auch auf weitere Möglichkeiten zur Verwendung dieser Informationen hinweist.
Konzeption und Implementierung einer automatisierten Testinfrastruktur bei netzathleten.net GmbH.
(2010)
Zentral bei den modernen Ansätzen in Softwareentwicklung ist die frühe Integration der Testaktivitäten in dem Entwicklungsprozess. Die testbegleitende Entwicklung ver-spricht hohe Qualität bei den Software-Produkten. Im Gegensatz zu den traditionellen Entwicklungsmethoden dient dieser Ansatz zur inkrementellen Emergenz bei der Soft-ware und verspricht flexible Änderbarkeit. Diese Arbeit beschäftigt sich mit den testbegleitenden Entwicklungsprozessen und stellt deren Vorteile bei der Entwicklungsarbeiten und für die Endprodukte dar. Außerdem werden die Werkzeuge, die zur schnellen automatisierten Arbeit bei der Entwicklung dienen, vorgestellt. Die aus der Praxis zur besseren Unterstützung des Softwaretests empfohlenen Good Practices werden dabei erläutert.
Diese Arbeit befasst sich mit der Geometrie eines 2D-CAD-Programms. Bestandteil der Arbeit sind vor allem die geometrischen Grundlagen, die verschiedenen geometrischen Objekte und die Befehlsabläufe um grafische zweidimensionale Objekte mit verschiedenen Methoden zu modifizieren zu können. Um diese modifizierenden Befehle abarbeiten zu können ist ein bestimmtes Repertoire von Methoden notwendig. Diese Methoden beinhalten unter anderem Schnittpunktberechnungen und Winkelberechnungen und bilden in der Gesamtheit, mit den geometrischen Hilfsobjekten, die Geometrieengine. Als modifizierende Befehle werden hier, die von gängigen CAD-Systemen bekannten Befehle, abrunden, fasen, stutzen und dehnen behandelt und im weiterem in einem akademischen Beispielprogramm implementiert.
Der temporale Aspekt von Daten spielt in vielen Anwendungen eine Rolle. Dieser muss gesondert betrachtet werden, da er nicht ohne zusätzlichen Aufwand in bestehenden Datenbanksystemen verwaltet werden kann. In dieser Masterarbeit werden die Konzeption und die prototypische Entwicklung einer Softwarearchitektur zur Verwaltung temporaler Daten mit einem relationalen Datenbanksystem beschrieben. Durch die Softwarearchitektur soll die einfache Verwaltung temporaler Daten möglich sein, ohne dass der Nutzer die notwendigen Algorithmen kennen und anwenden muss. Dazu werden vorhandene Lösungen analysiert. Durch die Erweiterung einer bestehenden Anwendung wird die Nutzung der Softwarearchitektur gezeigt. In dieser sollen alte Datenstände erhalten und später eingesehen werden können. Dabei wird auf die grafische Darstellung temporaler Daten eingegangen. Um die Softwarearchitektur zu entwickeln, werden grundlegende Aspekte temporaler Daten und ihrer Speicherung in Datenbanken betrachtet. Dazu werden speziell die verschiedenen Arten der Zeitstempelung und ihre Umsetzung in Datenbanken untersucht. Außerdem werden vorhandene Konzepte für temporale Datenbanken beschrieben. Es werden Möglichkeiten zur Speicherung temporaler Daten im Microsoft SQL Server 2005 untersucht und implementiert. Ausgehend von diesen Algorithmen wird eine Softwarearchitektur mit dem .NET Framework erstellt, mit der temporale Daten in einer .NET-Anwendung verwaltet werden können.
Infolge der zunehmend notwendigen Effizienzsteigerung in Produktionsunternehmen sind CMMS-Applikationen (Computerized Maintenance Management System) ein wesentliches Werkzeug zum Gestalten des zugrundeliegenden Verbesserungsprozesses geworden. Oberstes Ziel dieser Systeme ist es, durch Erfassen, Verwalten, Visualisieren, Analysieren und Auswerten von produktionsrelevanten Daten sowie der Planung von Instandhaltungsprozessen Stör- und Ausfallzeiten zu minimieren. Die vorliegende Arbeit repräsentiert den ersten, iterativen Schritt der Verwirklichung einer solchen Anwendung. Als Teil einer evolutionär prototypischen Realisierung wird ein technologischer Entwicklungsrahmen mit der Programmiersprache Python geschaffen. Zentrales Augenmerk erhält dabei die Lösung der Integrationsproblematik in modernen Unternehmen, die Defizitbeseitigung einer vormaligen Implementierung sowie eine zweckdienliche Technologieauswahl. Der entwickelte Prototyp soll die Grundlage für eine prozessnahe Weiterentwicklung sein und dieser weitestmögliche Flexibilität bieten.
Gegenstand der hier vorgestellten Thesis ist die Arbeit mit Modellgetriebener Softwareentwicklung zur automatischen Erzeugung von lauffähiger Software aus formalen Modellen. Im Bereich der MDSD wurde an der Westsächsischen Hochschule Zwickau bereits ein Framework entwickelt, mit welchem es, zum Zeitpunkt dieser Thesis, möglich ist aus UML2 Modellen JAVA-, insbesondere EJB3, und PHP Quellcode zu erzeugen. Genau dieses Framework mit dem Namen GeneSEZ soll im Rahmen dieser Thesis um die Erzeugung von lauffähigen JSF 2 Anwendungen erweitert werden. Dabei wird der komplette Prozess von der Konzepterstellung bis hin zum finalen Ansatz dokumentiert.
Ziel dieser Arbeit ist es, ein Informationsportal zu einer speziellen Therapiemethode zu entwerfen und zu realisieren. Der Schwerpunkt dieser Arbeit liegt dabei auf der Erörterung der Möglichkeiten und Einschränkungen. Resultat dieser theoretischen Vorarbeiten ist ein optisch ansprechender und intuitiv zu bedienender Portalentwurf. Der spätere Seitenbetreiber soll ohne Kenntnisse aus dem Bereich Webdesign bestimmte Inhalte selbst administrieren können. Durch die Beachtung der Richtlinien für barrierefreie Webseiten soll das Webportal seine Inhalte einem breiten Nutzerkreis zugänglich machen. Bei Anwendung dieser Grundsätze wird zudem eine hohe Kompatibilität zu verschiedenartigen Anzeigesystemen und Ausgabemedien erreicht. Dies ist auch im Sinne von Nutzern, die keinen Einschränkungen unterliegen. Um eine gute Position in den Rankings der Suchmaschinen zu erhalten, wird analysiert, wie eine Suchmaschine Webseiten bewertet. Dieses Wissen wird anschließend bei der Erstellung des Entwurfes Anwendung finden. Technische Aspekte, wie die Wahl der verwendeten Programmiersprache und Möglichkeiten geeignete Web 2.0 Technologien in das Portal zu integrieren, werden ebenfalls beleuchtet.
Eine gut funktionierende Informationstechnik-Infrastruktur ist für den reibungslosen Betrieb eines Krankenhauses unabdingbar, da die administrativen und medizinischen Prozesse immer mehr auf Informationstechnologie basieren. Röntgenbilder, Diktate bis hin zur gesamten Patientenakte werden in einem modernen Krankenhaus digital erfasst und größtenteils auch elektronisch kommuniziert. Es ist klar, dass diese umfassende Durchdringung der Prozesse mit Informationstechnik (IT) einen Einfluss auf die IT-Dienstleistungen in Bezug auf Verfügbarkeit und Zuverlässigkeit hat. Hierbei gilt es in einem Krankenhaus stets zu bedenken, dass einige Prozesse dazu dienen, Menschenleben zu retten. Dies bedeutet, dass die IT, die diese Prozesse unterstützt, niemals ausfallen sollte und damit hochverfügbar sein muss. Schon eine geringfügige qualitative Verschlechterung der Prozesse kann für den Patienten schwere Folgen haben. Deshalb wird durch Maßnahmen, wie bspw. RAIDSysteme, doppelte Anbindung an Strom, Netzwerk und vieles mehr, versucht, die IT-Systeme so ausfallsicher wie möglich zu gestalten. Trotz aller Sicherungsmaßnahmen, die unternommen werden, um den Ausfall von IT zu verhindern, bleibt immer ein Restrisiko für einen Ausfall. Und nach Murphys Gesetz
Die vorliegende Arbeit beschreibt die Entwicklung einer Web-Applikation für die Vollstreckungssoftware der Firma DATA-team. Durch den Einsatz von Frameworks wird die Programmierarbeit auf Anwendungsentwicklungsebene und Datenbankebene vereinfacht und beschleunigt. Es wird gezeigt, mit welchen Bausteinen die Anforderungen optimal gelöst werden können.
Applikationen im Java Enterprise Umfeld sind meist groÿe und ständig wachsende Softwaresysteme. In vielen Fällen stellt sich nach Jahren der Entwicklung die Frage, was zu tun ist um aktuelle Anforderungen zu erfüllen. So ist es auch bei TOP, welches ein von der ISO Software Systeme GmbH entwickeltes System für Reiseveranstalter ist. Nach der Vorstellung von TOP selbst, werden in dieser Arbeit die Anforderungen erfasst und ausgewertet, welche seitens der ISO gestellt werden. Das Ergebnis davon ist es, dass eine Migration der derzeit verwendeten EJB2 Beans nach EJB3, sowie kleinere Refactoringaufgaben einige Vorteile mit sich bringen. Anschlieÿend wird gezeigt, welche generellen Vorteile sich aus der EJB3 Technologie gegenüber der älteren Version ergeben. Dazu werden die Artefakte der beiden Technologien verglichen. Im Weiteren wird auf die allgemeine Migration dieser Artefakte, sowie die Besonderheiten bei TOP eingegangen. Aufbauend darauf wird das Transaktionsverhalten von EJB ansich, sowie für TOP betrachtet, wobei die korrekte Funktionsweise durch bestehende Tests belegt wird. Alle bis zu diesem Punkt gewonnenen Informationen, werden mit in das am Ende der Arbeit vorgestellte Migrationskonzept aufgenommen. Dabei wird eine aus diesen Informationen erstellte Migrationsstrategie vorgestellt. Weiterhin ist in dem Migratioskonzept das Vorgehen während der Migration, sowie einige Schätzungen des Aufwandes dafür enthalten.
Modelle zur Ermittlung der Ganzkörperexposition sowie zur Organdosimetrie bei der Nuklidtherapie
(2010)
Die intratherapeutische Dosimetrie basiert auf patientenspezifischen Parametern, deren Erfassung sich trotz modernster Messverfahren, wie das SPECT/CT als problematisch erweist. Der für Jod- 131 SPECT/CT-Datensätze entwickelte Algorithmus zur Bestimmung des Volumens und der Aktivität mittels automatisierter ROI-Technik wurde auf die Radionuklide Y-90, Sm-153 und Lu-177 übertragen. Allerdings zeigten die Phantomexperimente, dass sich diese Methode nicht für Patientenstudien eignet. Da das Herdvolumen nicht sicher erfasst werden konnte, wurde ein Algorithmus zur Bestimmung der Aktivitätskonzentration in einem definierten Volumen entwickelt. Anhand des MIRD-Konzeptes gelang aus dem zeitlichen Verlauf der Aktivitätskonzentration, welcher sich aus zwei SPECT/CT-Aufnahmen ergab, eine Abschätzung der Herddosis. An einer Patientenstudie wurden verschiedene Varianten zur Berechnung der effektiven Dosis sowie den Organdosen getestet und mit der gegenwärtigen Methode zur Dosimetrie verglichen. Zur Verfügung standen dafür zwei Ganzkörperszintigrafifien und eine am Ganzkörperzähler aufgenommene Messreihe. Die Dosiswerte wurden mittels OLINDA/EXM berechnet und mit den berechneten Herddosen aus den SPECT/CT-Aufnahmen verglichen.
Die Metallisierung von Halbleiterchips wird zunehmend mit Kupfer hergestellt. Über der letzten Metallisierungsebene sind die Bondpads meistens aus Aluminium mit einer zusätzlichen Padverstärkung. Der Aufbau soll durch ein Bondpad aus Kupfer ersetzt werden, auf dem mit Kupferdraht gebondet werden kann. Unter dem Bondpad befinden sich eine Kupferstartschicht und eine Diffusionsbarriereschicht aus Titanium. Die vorliegende Diplomarbeit befasst sich mit Möglichkeiten des nasschemischen Ätzens von Kupfer und Titanium zum Entfernen der Schichten zwischen den Bondpads. Von besonderem Interesse sind dabei jeweils der Ätzabtrag über dem Wafer und die Unterätzung beim isotropen Ätzen. Durch Variation von Prozessparametern wird das Ätzverhalten charakterisiert und optimiert. Es erfolgen umfangreiche Analysen der Schichtdicke und der Elemente auf der Waferoberfläche.
Die Arbeit dient dazu, eine Grundlage zur Objektidentifikation und -lokalisation zu legen und damit die eventuelle Teilnahme am Robocup zu gewährleisten. Das Ziel war es, eine möglichst genaue und dabei schnelle Lokalisation von Objekten zu erreichen. Dabei wurden verschiedene Methoden auf ihre Vor- und Nachteile unter-sucht und eine geeignete Methode ausgesucht. Mithilfe eines stark vereinfachten Farbhistogramms werden die einzelnen Bildpunkte ausgewertet und mit dem Farbbereich des gesuchten Objektes verglichen. Um das Objekt zu lokalisieren, muss es im Bildzentrum sein. Um die Geschwindigkeit der Berechnung zu erhöhen, wird der benötigte Wert des Servomotors dafür berechnet. Der Nachteil an dieser Methode ist, dass sie ungenauer ist, als wenn der Wert des Servomotors solange geändert wird, bis das Objekt in der Mitte des Bildes ist. Die Berechnung geschieht dann über die Winkelsätze im rechtwinkligen Dreieck. Ein Test über 1000 Werten zeigt die Genauigkeit in verschiedenen Bereichen des Spielfeldes und bei unterschiedlichen Entfernungen.
Raytracing ist ein Renderverfahren der Computergrafik mit dem es möglich ist, aus einer dreidimensionalen Szene ein Bild zu berechnen, das einen hohen Grad an Realismus erreicht. Dabei kommen verschiedene physikalische Gesetze der Lichtausbreitung zum Einsatz. Die vorliegende Arbeit thematisiert die Realisierung eines objektorientierten Raytracers in OpenGL. Beleuchtet werden die mathematischen Grundlagen zur Berechnung sowie Optimierungsmöglichkeiten des Raytracings. OpenGL bietet nur im begrenzten Maße die Möglichkeit, Objekte realistisch darzustellen und keine Unterstützung für Schatten. Im Rahmen der Arbeit wurde ein lauffähiger Raytracer entwickelt, mit dem es möglich ist, statische Szenen zu erstellen. Dieses Programm nutzt OpenGL, um dem Nutzer Schatten und das Phong Beleuchtungsmodell bereitzustellen.
Das Ziel dieser Arbeit ist die Optimierung der elektrischen Eigenschaften von mittels PECVD abgeschiedenen SiON Schichten hinsichtlich ihrer Stabilität. Dazu wurden die Prozesstemperatur und die Schichtzusammensetzung variiert. Die Charakterisierung der so entstandenen Schichten erfolgte mittels Ellipsometrie, Augerelektronenspektroskopie und resonanter Kernreaktions-Analyse. Für die Beurteilung der elektrischen Stabilität wurden I-UMessungen und Durchbruchsmessungen durchgeführt. Es wurde festgestellt, dass mit steigender Prozesstemperatur die Wasserstoffkonzentration sinkt und durch eine Ausheilung der Wasserstoffanteil verringert werden kann, was mit einer Dickenabnahme und einem Anstieg im Brechungsindex einhergeht. Des Weiteren wurde gezeigt, dass die bisher verwendeten Schichten mit einem O/(O+N) Verhältnis von 0,48 bereits ein Optimum darstellen und durch die Erhöhung der Prozesstemperatur oder die Veränderung der Schichtzusammensetzung nicht verbessert werden konnten. Durch die Beschichtung mit SiON ist eine Verbesserung der Betriebsdauer von Lichtemittern um den Faktor 100 möglich.
Optoakustische Druck
(2010)
Die Photokoagulation ist eine bewährte Laserbehandlung des Augenhintergrundes zum Beispiel bei Diabetischer Retinopathie und drohender Netzhautablösung. Da die vom Arzt zu wählenden Behandlungsparameter abhängig von der Pigmentierung des retinalen Pigmentepithels und Transmission des dioptrischen Apparates sind, kann es leicht zu einer Unter- bzw. Überdosierung kommen. Um dies zu vermeiden, soll für die Bestimmung der Temperaturen die Optoakustik als Echtzeit
Pflanzenkläranlage in Malawi
(2010)
Thema der Diplomarbeit ist der Bau einer Pflanzenkläranlage in Malawi. Der Bau eine PKA unter tropischen Bedingungen verlangt andere Planungen und Verfahrensabläufe als in Europa. Die Bekämpfung der Malaria und der Cholera sind von größter Wichtigkeit und müssen beim Bau berücksichtigt werden. Bei diesem Konzept kommt eine neue Überlegung zum Einsatz. Da die wirtschaftlichen Verhältnisse in Malawi sehr schlecht sind sollen mit vorhandenen Mitteln Reinigungsprozesse gemacht werden dir Cholerabakterien aus dem Abwasser filtern und eine weiteren Verbreitung verhindern.
Im Rahmen der vorliegenden Arbeit werden mithilfe der objektorientierten Programmiersprache LabView Programmstrukturen eines Messstandes zur Kalibrierung von Gassensoren optimiert. Es werden Konzepte zur automatischen Ansteuerung des Sensors mittels der Messstandssoftware erarbeitet und implementiert.
Ziel der vorliegenden Arbeit ist die elektrochemische Erzeugung von reaktiven Multilagensystemen (RMS) basierend auf dem System Palladium/Zink. Es wurden Abscheidungen mittels der Einbad- (SBT) und der Zweibadtechnik (DBT) vorgenommen. Die Ergebnisse der SBT zeigen, dass es möglich ist Legierungsschichten variierender Zusammensetzung aus einem Elektrolyten abzuscheiden. Mittels der DBT kann die Reinheit der Schichten gesteigert werden. Das Stapeln dieser Einzelschichten ist nur möglich, wenn Palladium als Seed-Layer dient. Des Weiteren konnte der kornverfeinernde Einfluss des Pulse Platings (PP) auf die Zinkschichten nachgewiesen werden. Die Charakterisierung aller verwendeten Elektrolyte erfolgte an Hand von Stromdichte-Potential Kurven (SPK). Mittels dieser Messungen ist der Einfluss von Polyethylenglykol (PEG) und Zitronensäure auf die Abscheidungen nachgewiesen worden. In diesem Zusammenhang besitzt PEG einen stabilisierenden und Zitronensäure einen, in der starken Komplexbildung begründeten, hemmenden Effekt auf die Zinkabscheidung. Beide Additive inhibitieren die Palladiumabscheidung. Abschließend konnten mit der Chronoamperometrie und der rotierenden Scheibenelektrode (RDE) zwei einfach durchzuführende Experimente zur Badüberwachung vorgestellt werden. Diese beruhen auf der Bestimmung des Diffusionskoeffizienten und der Berechnung von typischen Elektrolytparametern, wie z.B. der Metallionenkonzentration oder der kinematischen Viskosität.
Qualification of tool to tool matching of a color image inspection system for wafer backsides
(2010)
This diploma thesis deals with the qualification of the color image inspection of a wafer backside inspection system as a means of defect detection. Currently, the color image is used to provide a quick overview and visual impression of the wafer backside. The goal of the diploma thesis is to qualify the color image inspection to comply with all requirements of tool to tool matching. As a given standard, the existing hardware design of the wafer backside inspection system can not be altered and has to be used in its current state. Potential causes of uncertainty introduced by this hardware design will be accounted for. The main focus of the diploma thesis will be the investigation of the three main factors influencing the color image inspection. These factors are the detected intensity, the contrast and the image sharpness. Their adjustability, repeatability, reproducibility and effect on the tool to tool matching are going to be quantified, necessary improvements will be formulated and the implementation of these improvements is going to be tested. Additionally, new and existing software factors influencing defect detection will be investigated with regard to their effect on the tool to tool matching. Lastly, based on the findings of the diploma thesis, a series of suggestions will be formulated. They will help to plan additional qualification steps, if necessary, and provide the basis for composing a guideline to achieve tool to tool matching for all systems in the field.
Diese Bachelorarbeit befasst sich mit der Langzeitarchivierung digitaler Daten am Beispiel der Kommunalverwaltung Zwickau. Dabei geht es nicht nur um die nötigen Rahmenbedingungen wie Normen und Standards, sondern insbesondere um mögliche Lösungsansätze. Dazu wird eine Analyse des aktuellen Standes bezüglich der Aktenordnung und Schriftgutverwaltung sowie ein Überblick über die Hard- und Software-Struktur der Stadtverwaltung gegeben. Ziel dieser Arbeit ist, die Grundlage für ein Konzept zur Einführung eines digitalen Langzeitarchives in der Kommunalverwaltung Zwickau zu liefern.
Die Funktion der kamerabasierten Fahrerbeobachtung ist in bestimmten Verkehrssituationen eingeschränkt. Um Systeme, die die Signale der Fahrerbeobachtung verwenden, bei Erreichen der Systemgrenzen über diesen Zustand zu informieren, wird ein Vorhersagemodell mittels Knowledge Discovery in Databases (KDD) erstellt. Probandenversuche im öffentlichen Straßenverkehr bilden die Datenbank für den KDD-Prozess. Die logistische Regression und die Entscheidungsbaumanalyse dienen der Mustererkennung und der Ableitung von Situationen, in denen das Fahrerbeobachtungssystem eine Fehlfunktion aufweist. Abschließend ist die Eignung des Systems dargestellt.
Diese Arbeit handelt von der röntgenografischen Dichtemessung mittels Röntgenreflektometrie an gesputterten AlN-Schichten am D8 Discover von Bruker und der Auswertung der Messergebnisse. Desweiteren geht es um röntgenografische Spannungsmessungen an ebenfalls gesputterten AlN-Schichten und deren Messergebnisse. Ebenso wurden Texturmessungen an im Vakuum aufgedampften Silberschichten durchgeführt.
Zur Sicherstellung der Funktionalität der Produktionsanlagen in einer Halbleiterfertigung werden regelmäßig Kontrollen auf blanken Substraten durchgeführt. Unter Anderem werden die erzielten Strukturbreiten auf den Kontrollsubstrat überprüft. Zur Ermittlung der Strukturbreite stehen zwei Messverfahren zur Verfügung. Konventionell werden Rasterelektronenmikroskope zur Strukturbreitenbestimmung genutzt, diese Arbeit vergleicht das Rasterelektronenmikroskopieverfahren mit einer Scatterometriemessung. Die Vergleichspunkte beinhalten den Vergleich der Messmittelfähigkeit, die Eignung der beiden Verfahren für eine Arbeitspunktbestimmung des Lithografieprozesses, den Vergleich einer Querschnittsanalyse mit den Scatterometriemodellen und die Anwendung beider Messungen in der statistischen Prozesskontrolle.
Im Rahmen dieser Arbeit wird Untersucht, ob sich die Methode der Röntgenfluoreszenzanalyse RFA zur berührungslosen Schichtdickenbestimmung von Kupferschichten in der Halbleiterfertigung eignet. Ziel ist es, eine Aussage darüber zu treffen, ob die RFA eine alternative Messmethode zur Metapulse-Messung werden kann. Es wird auf die Empfindlichkeit, die Genauigkeit und die Messzeit der RFA-Untersuchung anhand mehrer verschiedener Kupferschichtdicken eingegangen. Die Messergebnisse der Metapulse-Messung und der RFA-Messung werden miteinander verglichen. Weiterhin wird untersucht, ob mit der Röntgenfluoreszenzanalyse eine Aussage über die Schichtdicken von Kupferoxid möglich ist.
Diese Bachelorarbeit befasst sich mit der Virtualisierung von Serversystemen. Angefangen von der Art des zu benutzenden Hypervisors, über einen Vergleich der am Markt verfügbaren Hypervisoren, bis zur Virtualisierung der eigentlichen Serversysteme. Dabei wird genauer auf das verwendete Festplattensystem eingegangen. Außerdem werden die Vorteile eines Windows Update Servers dargestellt. Ein abschließender Vergleich zeigt die Vorteile der Servervirtualisierung. Die gefundene Lösung wird durch eine neue Backupstrategie abgesichert.
Gegenstand der hier vorgestellten Thesis ist die kontinuierliche Entwicklung eines Lern- und Lehrprogramms für Studenten und Professoren. Das Programm veranschaulicht die Vorgehensweise verschiedener Algorithmen, welche in der mobilen Vernetzung zur Anwendung kommen. Die Thesis behandelt das grundlegende Vorgehen vom Beginn der Recherche, über Konzeption bis zur Umsetzung und Testphase des Systems. Im Endzustand verfügt das Programm über sieben Algorithmen, welche in der Vorle-sung von Prof. Dr. Wolfgang Golubski behandelt werden. Das Programm soll es Lernenden und Lehrenden ermöglichen, anhand grafischer Darstellungen den Aufbau und die Verwendung der verschiedenen Algorithmen zu erlernen bzw. zu lehren. Die Netze können unabhängig voneinander erstellt und mit den verschiedenen Algorithmen durchlaufen werden. Die Umsetzung basiert auf der Programmiersprache Java in der Version 6, wodurch sichergestellt ist, dass das Programm an kein Betriebssystem gebunden ist und somit auf allen Java-unterstützenden Plattformen wiedergegeben werden kann. Entwickelt wurde das Programm Plugin-basiert, was bedeutet, dass die Algorithmen eigenständig entwickelt werden und anschließend in das Programm eingebunden werden können. Folglich ist sichergestellt, dass neue Algorithmen, welche im aktuellen Ist-Zustand nicht enthalten sind, zu jeder Zeit entwickelt und eingebunden werden können.
Diese Arbeit beschäftigt sich mit Schadensfällen an Photovoltaik-Modulen, welche nach Prüfungen der Normen IEC 61215 für Module mit kristallinen Solarzellen und IEC 61646 für Dünnschichtmodule entstehen. Die Schadensfälle werden dabei dokumentiert und hinsichtlich ihres Vorkommens nach bestimmten Belastungen statistisch ausgewertet. Die Daten stützen sich auf Auftragsinformationen und Prüfergebnisse des TestLab PV Modules am Fraunhofer Institut für Solare Energiesysteme in Freiburg. Es werden Verteilungen von Schäden und Versagensraten bestimmt, die einen Vergleich zwischen den einzelnen, belastenden Prüfungen und deren Auswirkung bei der Charakterisierung laut Norm erlauben. Entstandene Schadensbilder und Unterschreitungen von definierten Grenzwerten werden bezüglich ihrer Häufigkeit bzw. ihrer Ausmaße analysiert und den vorangegangenen Belastungen zugeordnet. Bekannte Ursachen von Defekten können somit bestätigt und neue Phänomene bzw. Korrelationen gefunden werden. Als Grundlage dienen Kenntnisse über die Solarzelle und deren Parameter, die Modulkomponenten und die von den Herstellern verwendeten Werkstoffe sowie die Bedingungen und der Ablauf der durchgeführten Prüfverfahren.
Diese Master Thesis befasst sich mit effektivem Rendering und dafür notwendigen Techniken des Szenenmanagements in der Computergrafik. Ausgehend vom Begriff Echtzeit-Rendering werden Messgrößen und Verfahren vorgestellt, die eine Einschätzung der Effektivität bei der Darstellung von Geometrie ermöglichen. Als Grundlage für einen modernen und effizienten Ansatz für die Visualisierung von Daten wird das Konzept eines Multithreaded-Crossplatform-Renderers vorgestellt. Anhand des Client-Server-Prinzips wird auf die Vorteile des Abstraktionsprozesses eingegangen. Aus dem Modell der Pipeline erfolgt die Einordnung des Szenenmanagements in den Optimierungsprozess. Dabei werden zunächst allgemeingültige Datenstrukturen analysiert. Anschließend werden Optimierungsmethoden für das Rendering und Aspekte der Kollisionserkennung untersucht. Im Speziellen sind das Techniken wie
Die Einführung der elektronischen Gesundheitskarte im deutschen Gesundheitswesen und damit auch bei den niedergelassenen Ärzten hat zur Folge, dass technische und organisatorische Voraussetzungen geschaffen werden müssen. Mit dem überwiegendem Teil der derzeit vorhandenen Kartenlesegeräte lassen sich die neuen elektronischen Gesundheitskarten nicht auslesen. Es ist nicht hinreichend bekannt, welcher Aufwand für die Umstellung und Anschaffung der benötigten soft- und hardwareseitigen Änderungen erforderlich sein wird. Dazu zählen auch die Vorbereitungen für die Anbindung des späteren Praxiskonnektors. Es ist weiterhin die Frage zu klären, inwieweit die vorhandene Infrastruktur in den Praxen der niedergelassenen Ärzte ausreichend ist, oder ob auch an dieser Stelle zusätzlich Handlungsbedarf besteht. Vielfältige Pressemitteilungen belegen, dass die Ärzteschaft über den Ablauf der Einführung nicht ausreichend informiert ist. Damit keine Spekulationen entstehen, besteht der Bedarf einer besseren Aufklärung der Zielgruppe der Ärzteschaft. Zu welchem Zeitpunkt die deutschlandweite Einführung stattfindet, ist heute noch unklar.
Die Nutzung großer Abwärmemengen im niedrigen Temperaturbereich ist meist nicht wirtschaftlich und wird somit von den wenigsten Betreibern energieintensiver Industrieanlagen in Betracht gezogen. Ein Hauptgrund sind die im Niedertemperaturbereich schlechten Wirkungsgrade der auf dem Markt befindlichen Systeme zur Energiegewinnung. Diese Arbeit beschäftigt sich mit dem Organic Rankine Cycle, welcher genau bei diesen Temperaturen optimal Wärme in Arbeit wandelt, aber noch selten Einsatz findet. Dazu wird eine chemische Anlage vorgestellt, deren Abwärme zur Stromgewinnung genutzt werden soll. Nach der Auseinandersetzung mit den thermodynamischen Grundlagen für den ORC, werden Diese zur Berechnung des konkreten Fallbeispieles herangezogen. Die idealen Bedingungen für das Funktionieren des Kreislaufes werden errechnet, was die Ermittlung eines geeigneten Kreislaufmediums mit einschließt. Schlussendlich wird noch ein Blick auf die energetische und wirtschaftliche Rentabilität geworfen. Mit dieser Arbeit sollen die Leser angesprochen werden, die sich mittels Anwendung der Grundlagen mit konkreten Anlagenbeispielen beschäftigen möchten.
Im Rahmen dieser Diplomarbeit wurden die Auswirkungen des demografischen Wandels- demografisch, wirtschaftlich, technisch und strukturell - auf die Wasserversorgung, am konkreten Beispiel der Stadt Meerane, dargestellt. Zur Analyse der Ausgangsdaten wurden Kennzahlen von Bevölkerungs- und Bebauungsstruktureigenschaften erhoben. Um zukünftigen Handlungsbedarf hinsichtlich der Wasserversorgung in den Stadtquartieren besser ableiten zu können wurden die Kennzahlen in einer Datenmatrix zusammengefasst. Kernstück der Diplomarbeit stellt die Analyse des Ist-Zustandes des Trinkwasserleitungsnetzes der Stadt Meerane dar, auf deren Basis das Fließgeschwindigkeitsverhalten und die Verweildauer des Wassers in den Prognosehorizonten für die Jahre 2015, 2020 und 2025 simuliert wurde.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Wärmeübertragung und dem Wärmetransportverhalten von CF-PEEK. CF-PEEK ist ein faserverstärkter Verbundwerkstoff, welcher sehr gute mechanische, thermische und auch chemische Eigenschaften besitzt. Er gewinnt heute immer mehr an Bedeutung und ist in der Automobil- und Flugzeugindustrie nicht mehr weg zudenken. Doch einige Fragen beschäftigen diejenigen, die dieses Material einsetzen und verarbeiten wollen. Wie wird dieses Material am besten bearbeitet? Welche Vor- und Nachteile haben die einzelnen Verfahren? Diese Arbeit beruht auf dem technischen Stand der heutigen Lasertechnik. Bei der Bearbeitung mit UV-Lasern ist aufgefallen, dass bei kleiner werdenden Flächen der Laserabtrag zunimmt. In dieser Arbeit soll dieses Phänomen beschrieben werden und es wird versucht die Ursache dafür zu finden.
Gegenstand dieser Bachelorarbeit ist der Wassergehalt im Dieselkraftstoff. Es wird ein Überblick über den Aufbau von Dieselkraftstoff gegeben und Kraftstoffkennwerte besprochen, die wichtig für Qualitäts- und Funktionalitätstests von Hochdruckpumpen und Injektoren für ein Common-Rail-Einspritzsystem sind. Es werden Wege aufgezeigt, wie Wasser in den Dieselkraftstoff gelangen kann und welche Auswirkungen auf den Kraftstoff und auf die Prüflinge dies hat. Als Methoden zur Bestimmung des Wassergehaltes werden die Karl-Fischer-Titration, zur Messung des absoluten Wassergehaltes, und ein Feuchtesensor, zur Bestimmung des relativen Wassergehaltes, erläutert. Weiterhin wird diskutiert wie man Wasser, welches in Kraftstoff nicht löslich ist, in den Dieselkraftstoff einbringen kann und wie man die Stabilität der entstehenden Emulsionen verbessert. Abschließend werden Vorschläge zur Verbesserung von Tests mit Wasser im Dieselkraftstoff gegeben.
Die vorliegende Diplomarbeit beschäftigt sich mit experimentellen Untersuchungen zur Ionenaustauschkapazität von chemisch modifizierten Naturmaterialien, vorzugsweise Ramie. In diskontinuierlichen Beladungsversuchen (Einrührverfahren) wurden sowohl physikalische Parameter, wie die Kontaktzeit, als auch chemische Parameter, wie die Konzentration, geprüft. Zur Charakterisierung der Materialien erfolgten Stabilitätsuntersuchungen in Form von Reißfestigkeitsmessungen, Untersuchungen der Faserstruktur mittels Rasterelektronenmikroskopie sowie die Bestimmung des Gehaltes an organischer Substanz durch Ermittlung von Trockensubstanz und Glühverlust. Im zweiten Teil erfolgte eine Optimierung der Phosphorylierungsparameter. Die Auswirkungen der chemischen Behandlung auf die Stoffeigenschaften der Naturfasern konnte durch Variation von Phosphorylierungsgrad und -zeit diskutiert werden. Die Analyse des Schwermetalls Nickel als Modellion der durchgeführten Experimente erfolgte mittels Flammen-Atomabsorptionsspektroskopie. Die gewonnenen Erkenntnisse lassen darauf schließen, dass die Bastfaser Ramie grundsätzlich zur chemischen Modifizierung mittels Phosphorylierung mit dem Ziel des Einsatzes zur Entwicklung einer Trenneinheit für die Reinigung von schwermetallhaltigen Abwässern geeignet ist.
Die vorliegende Arbeit sollte das Absorptionsverhalten von elektromagnetischer Strahlung an halbleitenden und metallischen Kohlenstoffnanoröhren untersuchen. Dabei war die Idee, die Nanoröhren selektiv aufzuheizen und damit nur bestimmte Nanoröhren durch Oxidation zu zerstören. Es sollte also ein Unterschied in der Absorption bei metallischen und halbleitenden Nanoröhren untersucht werden. Die Ergebnisse zeigen, bei Bestrahlung im Wellenlängenbereich von 200
Mittels hochauflösender spectral domain Optischer Kohärenztomografie (SD-OCT) ist eine inhomogene Intensitätsverteilung in den Gefäßen des in vivo Mausmodells und bei Phantommessungen festgestellt worden. Die Ausrichtung entlang des laminaren Flusses in Verbindung mit einem winkelabhängigen Streuquerschnitt der roten Blutkörperchen wird als Ursache für diesen Effekt angenommen. Zur Beschreibung der intravasalen harmonischen Intensitätsmodulation mit linearer tiefenabhängiger Signalabschwächung durch Absorption und Streuung, wurde ein einfaches Modell entwickelt. Für verschiedene Phantomgeometrien und charakteristische Herzflussstadien in der murinen Arteria Saphena konnte eine Gültigkeit des Modells gezeigt werden. Eine Geschwindigkeitsabhängigkeit sowie ein dynamisches Verhalten nach Flussstillstand konnte für das entdeckte Phänomen untersucht werden. Für die protektive Frühsorge Untersuchung wurde ein einzigartiges Stenosenphantom entwickelt, welches die Untersuchung von Blutströmungen an solchen Degenerationen ermöglicht. Ob diese taillierte doppelfächerförmige Intensitätsverteilung in den Blutgefäßen ihre Ursache in der Scherraten induzierten Erythrozyten Orientierung hat, soll folgende Arbeit liefern.
Mittels hochauflösender spectral domain Optischer Kohärenztomografie (SD-OCT) ist eine inhomogene Intensitätsverteilung in den Gefäßen des in vivo Mausmodells und bei Phantommessungen festgestellt worden. Die Ausrichtung entlang des laminaren Flusses in Verbindung mit einem winkelabhängigen Streuquerschnitt der roten Blutkörperchen wird als Ursache für diesen Effekt angenommen. Zur Beschreibung der intravasalen harmonischen Intensitätsmodulation mit linearer tiefenabhängiger Signalabschwächung durch Absorption und Streuung, wurde ein einfaches Modell entwickelt. Für verschiedene Phantomgeometrien und charakteristische Herzflussstadien in der murinen Arteria Saphena konnte eine Gültigkeit des Modells gezeigt werden. Eine Geschwindigkeitsabhängigkeit sowie ein dynamisches Verhalten nach Flussstillstand konnte für das entdeckte Phänomen untersucht werden. Für die protektive Frühsorge Untersuchung wurde ein einzigartiges Stenosenphantom entwickelt, welches die Untersuchung von Blutströmungen an solchen Degenerationen ermöglicht. Ob diese taillierte doppelfächerförmige Intensitätsverteilung in den Blutgefäßen ihre Ursache in der Scherraten induzierten Erythrozyten Orientierung hat, soll folgende Arbeit liefern.
Das Bioregulationssystem des Menschen passt den Organismus stets an veränderte innere und äußere Umstände an, und es ist für Gesundheti und Wohlbefinden verantwortlich. Dem vegetativen Nervensystem kommt dabei eine Leitfunktion zu. Über den Sympathikus und Parasympathikus werden die Organe des menschlichen Körpers innerviert und der Organismus ist so in der Lage auf Einflussfaktoren entsprechend zu reagieren. In der Arbeit wurden Probandenuntersuchungen zu den Einflussfaktoren Tageszeit, Nahrungsaufnahme, Farbeinflüsse sowie zu physischer und mentaler Belastung druchgeführt.Die Ergebnisse haben gezeigt, dass der Organismus in der Zeit zwischen 9.00 und 12.00 Uhr leistungsfähiger ist als nach 13.00 Uhr, dass Farben den Organismus beeinflussen, dass Verkehrsgeräusche einen störenden Einfluss haben und dass das Laufen bei 3,6 km/h die Entspannung fördert.
Die Grundidee der Arbeit war es, die von einem Mobiltelefon hervorgerufene elektromagnetische Strahlung im Bezug auf ihre Wirkung auf den menschlichen Organismus zu untersuchen. Im Zuge dieser Untersuchung sollten freiwillige Probanden in einem Fahrzeug einem elektromagnetischen Feld ausgesetzt werden, währenddessen die Parameter der vegetativen Regulation aufgenommen werden konnten. Zum Zwecke einer statistischen Auswertung wurden die drei unterschiedliche Versuchsabschnitte Entspannung, Stresstest und Erholung miteinander verglichen. Zur Erfassung der biologischen Parameter wurde während der gesamten Untersuchung die Respiration aufgezeichnet, der Blutdruck gemessen und ein EKG aufgenommen, aus denen sich spezielle kardiovaskuläre Parameter wie der RMSSD oder der Variationskoeffizient ermitteln ließen. Nach Auswertung aller Probanden ließ sich als Ergebnis formulieren, dass keine Reaktionen, die mit einer Einstrahlung eines Mobiltelefons überein gekommen wären, aufgetreten sind. Nach einem ausführlichen Vergleich mit einer vorangegangenen Diplomarbeit konnte der darin festgestellte natürliche Schwankungsbereich bestätigt werden.
Diese Masterarbeit untersucht die Möglichkeiten der virtuellen Simulation von Verkehr, in dem ein vom Menschen gesteuertes Fahrzeug aktiv beteiligt ist. Es wird dabei vor allem auf mikroskopische Verkehrsmodelle eingegangen, die Grundlage der Simulation sind. Modellierung und Implementierung eines Softwaremoduls, welches als Bestandteil eines Verteilten Systems auf der Basis vorgestellter Verkehrsmodelle den Verkehr simuliert, werden beschrieben. Dabei wird darauf eingegangen, wie die Abarbeitung parallelisiert erfolgen kann. Untersuchungsergebnisse zu den verschiedenen Verkehrsmodellen werden vorgestellt. Sie geben Aufschluss darüber, wie real Menschen das Fahren in Verkehrsströmen empfinden. Es ist das Anliegen dieser Arbeit, einen Einblick in die Verkehrssimulation zu geben und mit dem entwickelten Modul einen kleinen Beitrag für eine sichere Straßenplanung zu leisten. Mit dessen Hilfe ist es möglich, geplante Straßen unter realistischen Bedingungen virtuell abzufahren und riskante Stellen im Vorfeld der Bauung zu erkennen.
State Machines erweisen sich spätestens seit ihrer Definition in der UML als vielseitig einsetzbare Modellierungssprache, auch im Zuge der Objektorientierten Softwareentwicklung. Die vorliegende Bachelorthesis stellt die UML State Machines in den Mittelpunkt der Softwaremodellierung zur Nutzung durch den an der Westsächsischen Hochschule Zwickau entwickelten Codegenerator GeneSEZ Generator Framework. Sie schildert Recherchen, Konzepte und Vorgehensweisen bei der Validierung von UML State Machine Modellen, welche automatisiert in das GeneSEZ-spezifische State Machine Metamodell überführt werden, um im nächsten Schritt lauffähigen JAVA-Quellcode zu generieren. Ziel der Arbeit ist es, das UML-Modell vor seiner Umwandlung in ein Gcore-Modell auf Validität zu überprüfen, um den Benutzer auf eventuell auftretende Divergenzen noch vor Beginn der Generierung des Quellcodes aufmerksam zu machen, sodass der Workflow der eigentlichen Erzeugung transparenter und damit verständlicher wird. Mit Augenmerk auf die Zielstellung wurden umfangreiche Recherchen durchgeführt, die Workflows zur Umwandlung des Modells sowie zur Generierung des Quellcodes analysiert und die für das UML sowie das GeneSEZ-Metamodell gewonnenen Ergebnisse vergleichend gegenüber gestellt. Schließlich wurden die ergründeten Validierungsfälle in der Programmiersprache Check in die GeneSEZ Software integriert. Im Rahmen der gewonnenen Erkenntnisse entstand ebenfalls ein Referenzdokument zur Erstellung von State Machine Modellen mit GeneSEZ für das zugehörige Manual.
In dieser Arbeit werden die Temperaturen von elektrochemischen Gassensoren mittels drei verschiedener Temperaturmessverfahren experimentell bestimmt. Die Sensortem-peraturen sollen Widerstandsverhältnissen von Platinwiderständern zur Heizungsregelung zugeordnet werden. Eine Berechnung des Zusammenhanges wird mittels temperaturabhängigen elektrischen Widerstand sowie elektrochemischer Reaktionen ver-sucht. Als Messverfahren kommen die Thermographie, Mikrothermoelemente und die Messung mit Mantelthermoelemente im Ofen zum Einsatz. Es konnte gezeigt werden, dass die Messung im Ofen zu niedrige Temperaturmesswerte erzeugt. Thermographie und Mikrothermoelemente liefern annähernd gleiche Werte. Damit konnten der gesuchte Zusammenhang zwischen Widerstandsverhältnis und Sensortemperaturen bestimmt werden.
Für die Errichtung von Freiflächen-Photovoltaikanlagen gibt es mehrere Systeme, die angewandt werden können. Es bieten sich starre, 1-achsig und 2-achsig nachgeführte Anlagen an. Da durch das EEG eine feste Einspeisevergütung festgelegt ist, ist der wichtigste Investitionsaspekt die Wirtschaftlichkeit und somit die verbundenen Kosten zum Ertag. Eine nachgeführte Anlage hat eine höheren Ertrag an kWh pro installierter Leistung, jedoch auch höhere Investitionskosten (Tracker, Mechanik, Fundamente, etc.). Es wird mit Hilfe eines Simulationsprogrammes für eine Standardanlage bei Nürnberg jede dieser Anlagentypen berechnet und die Kosten dazu ins Verhältnis gesetzt. Wann lohnt sich welcher Anlagentyp in Mitteleuropa, welche Risiken bestehen, und welcher Anlagentyp ist zu favorisieren.
Vergleichende Betrachtung von thermischen Solaranlagen zur Heizungsunterstützung bei Fertighäusern
(2010)
Thermische Solaranlagen von Fertighausherstellern werden in den Vergleich mit dem freien Markt und einer eigenen geplanten Anlage gesetzt. Alle Anlagen werden umfangreich mit einem Simulationsprogramm (polysun von vela solaris) ausgewertet. Die eigene Anlage ist individuell mit innovativen Komponenten geplant.
Im Rahmen der Einführung klinischer Behandlungspfade in der Kreiskrankenhaus Greiz GmbH beschäftigt sich die vorliegende Arbeit mit der Visualisierung und Bearbeitung von Behandlungspfaden im Anwendungssystem NEXUS/KIS sowie mit der Aufbereitung und Auswertung der fallbezogenen Daten innerhalb der mit der Business Intelligence (BI) Software QlikView erstellten Anwendung Information Store.
Voice Analysing im Tk-Umfeld
(2010)
Die jährliche Wachstumsrate an Zahnimplantationen liegt bei ca. 18 %. Diese Tendenz erfordert die Entwicklung eines chirurgischen Trainingssystems für die Mund-, Kiefer- und Gesichtschirurgie (MKG). Bisherige MKG-Systeme sind nicht in der Lage, Verletzungen von Risikostrukturen objektiv zu bewerten. Die Entwicklung eines neuen Trainingssystems für die MKG wird somit notwendig, um objektive Aussagen über verletzte Risikostrukturen zu treffen, chirurgische Instrumente zu validieren und die Weiterqualifizierung von Chirurgen zu ermöglichen. Ein bereits auf Basis des 3D-Drucks entwickeltes, austauschbares Kiefermodul mit elektrischen Sensoren zur Registrierung von verletzten Risikostrukturen soll an einen Schädel, der als Basisstation dient, angekoppelt werden. Dazu wurden konstruktive Maßnahmen am Schädel angewendet, um einen sicheren elektrischen Kontakt zwischen Kiefer und Schädel zu gewährleisten und die Bewegungsfreiheitsgrade des Kiefers zu berücksichtigen. Weiterhin sind Halterungen im Schädel für eine Mikrocontrollerschaltung (MCS) und deren Anschlüsse konstruiert worden. Die Visualisierung des Systems erfolgte mit einer Simulationssoftware. Mit Hilfe von vorgefertigten Programmen der grafischen Programmierumgebung LabVIEW (National Instruments, Austin, Texas) ließen sich die segmentierten anatomischen Strukturen durch triangulierte Datensätze mittels XML-Dateien in die Software einpflegen. Ebenso fand die Definition der Kanäle der MCS bzgl. der Risikostrukturen statt. Weitere LabVIEW-Bausteine sorgen für die Steuerung des Programmablaufs und ermöglichen die Kommunikation zwischen dem USB-Controller der MCS und einem handelsüblichen PC. Die Simulationssoftware ist in der Lage, die gewonnenen Simulations-OP-Daten zu erfassen und auszuwerten. Die realistische haptische Wahrnehmung und der reale OP-Workflow des MKG-Systems sind durch frei wählbare chirurgische Instrumente garantiert. Auf der Grundlage eines entsprechenden CT-Datensatzes können patientenindividuelle Pathologien am System dargestellt werden. Objektive Bewertungen des chirurgischen Eingriffs sowie dessen Qualität sind durch das Simulationssystem gegeben. Aussagen über Verletzungen von Risikostrukturen lassen sich in Echtzeit treffen. Die Wirtschaftlichkeit des Systems ist durch den modularen Aufbau möglich, da das Operationsareal ausgetauscht werden kann. Ebenso sind einheitliche Studien über die Validierung von chirurgischen Instrumenten, die realitätsnahe Ausbildung und die Weiterqualifizierung von Chirurgen durchführbar.
Es wurde untersucht, ob mit der Methode laserinduzierter akustischer Oberflächen-wellen randschichtgehärtete Stähle hinsichtlich ihrer Härtetiefe und Oberflächen-härte charakterisiert werden können. Zur Randschichthärtung wurde das Laser-härten eingesetzt, mit dem Härtetiefen bis zu 2mm erzielt werden können. Für diesen Bereich gibt es noch kein zerstörungsfreies Verfahren zur Charakterisierung der Härtezone. Die Untersuchungen wurden an den Stahlmarken 42CrMo4, C45, X155CrMoV12.1, 90MnCrV8 und 17CrNiMo6 durchgeführt. Als Messgröße diente die Ausbreitungsgeschwindigkeit der akustischen Ober-flächenwellen, die in Abhängigkeit von der Frequenz gemessen wurde. Das Ergebnis nennt man Dispersionskurve. Wichtig ist dabei, dass die Eindringtiefe von der Frequenz abhängt, weshalb mit dieser Messung unterschiedliche Tiefen des Materials abgefragt werden können. Es wurde Frequenzen von 1 bis 10 MHz angewendet, für welche die Eindringtiefe in reziproker Abhängigkeit von 0,3 bis 3 mm variiert. Die metallphysikalische Grundlage für die Annahme der Möglichkeit, dieses akustische Verfahren anwenden zu können, besteht darin, dass die martensitische Härtung das Metallgitter aufweitet, wodurch sich Elastizitätsmodul und Dichte verringern. Beide Materialkennwerte bestimmen die Schallgeschwindigkeit. Es wurde an allen Stahlmarken nachgewiesen, dass die Schallgeschwindigkeit durch das martensitische Umwandlungshärten verringert wird. Durch Anlassen von drei Stählen wurde dieser Effekt rückgängig gemacht, da sich das Gitter entspannt. Der Messeffekt, der vom Laserhärten hervorgerufen wird, liegt im Bereich von 2-3 %. Dies erfordert eine ausreichend hohe Messgenauigkeit, um Unterschiede in Härte und Härtetiefe empfindlich genug nachweisen zu können. Dafür wurde eine Messanordnung entwickelt, die auf Laseranregung der Oberflächenwellen beruht. Im Gegensatz zu herkömmlichen ultraschallerzeugenden Wandlern lassen sich Schallimpulse ohne Koppelmedium reproduzierbar und in definiertem Abstand anregen. Durch eine Zeiterfassung der Signale mit 10 GSa/s Abtastrate wurde an ebenen Oberflächen eine Wiederholgenauigkeit von 0,05 % erreicht. Die Oberflächenhärte wurde durch unterschiedliche Laserhärtung und durch Anlassen der lasergehärteten Stahlprobe bis in den Bereich von 650 oC variiert. Es wurde in der Dispersionskurve eine Schallgeschwindigkeit bei einer möglichst hohen Frequenz (8MHz) und damit geringer Eindringtiefe ausgewählt und mit der Oberflächenhärte nach Vickers (Laststufe 20kp) korreliert. Es ergab sich für alle Stahlmarken eine negative Korrelation. Mit steigender Härte nahm die Schall-geschwindigkeit ab. Allerdings wurde die Oberflächenhärte des Anlieferungs-zustandes der Stähle nicht wieder erreicht, so dass die Korrelation nur für den gehärteten und angelassenen Stahl gilt. Die aus den Untersuchungen gewonnen Korrelationen zwischen Schallgeschwindigkeit und Härte ermöglichen es, die Oberflächenhärte durch Messung der Oberflächenwellengeschwindigkeit zu messen. Die Wiederholgenauigkeit betrug über 90%. Die Korrelation ist allerdings von der Stahlmarke abhängig. Für die Härtetiefe wurden Phasengeschwindigkeitswerte aus den niedrigen Frequenzen des Dispersionsspektrums ausgewählt,von 1,25 bis 2,5 Mhz. Diese Frequenzen besitzen eine ausreichende Eindringtiefe, um über die Härtezone hinaus auch in das Grundmaterial zu reichen. Um die Härtetiefe bestimmen zu können, wurde eine Dispersionskurve als Funktion der Schichtdicke zur Wellen-länge theoretisch berechnet, die als Generalkurve bezeichnet wird. Mit der Frequenz und der zugehörigen Schallgeschwindigkeit kann aus der Generalkurve die Härtungstiefe bestimmt werden. Zum Vergleich wurde die Härtungstiefe an den Schliffbildern ermittelt. Bis zu einer Härtetiefe von 1 mm ergab sich in guter Näherungen eine lineare Korrelation zwischen den Härtetiefenwerten, welche zerstörungsfrei und am Schliffbild bestimmt wurden. Für einzelne Stahlmarken wurden auch in tieferen Bereichen noch gute lineare Ergebnisse erzielt. Die Abweichungen lagen im Bereich bei weniger als 15 %. Es ist darauf zu verweisen, dass auch die Härtungstiefe am Querschliff nur punktuell und mit einiger Unsicher-heit bestimmt werden kann. Die Laserakustik liefert einen Mittelwert über das Messvolumen, das aus Messlänge (Abstand der Laserbrennpunkte) multipliziert mit der Breite des akustischen Empfangssensors besteht. Unter diesem Gesichtspunkt ist die Übereinstimmung ein akzeptables Ergebnis.