Refine
Year of publication
Document Type
- Diploma Thesis (825)
- Bachelor Thesis (629)
- Master's Thesis (353)
Institute
- Physikalische Technik, Informatik (1807) (remove)
Is part of the Bibliography
- no (1807) (remove)
In dieser Arbeit wurde Distributed Tracing mithilfe der OpenTracing API in eine Microservice-Architektur implementiert. Für die Implementierung wurde eine firmeninterne Bibliothek verwendet, die auf der OpenTracing API basiert. Zur Überwachung wurde eine Zeitreihendatenbank aufgesetzt, deren Datensätze in einem Grafana-Dashboard visualisiert sind.
Überwachung der technischen Parameter der Integrationsplattform Ensemble® mit Hilfe von Dashboards
(2011)
Datenaustausch spielt im Gesundheitswesen eine immer größere Rolle. Einerseits tauschen die Einrichtungen untereinander Patienten- und Abrechnungsdaten aus, andererseits kommunizieren Anwendungsbausteine eines Krankenhausinformationssystems nachrichtenbasiert untereinander. Es existiert eine Vielzahl verschiedener Kommunikationsstandards. Der wichtigste im Krankenhausumfeld ist heutzutage HL7. In dieser Arbeit wird am Beispiel einer simulierten Kommunikationsbeziehung zwischen zwei Teilsystemen eines Krankenhausinformationssystems die Überwachung des nachrichtenbasierten Datenaustauschs betrachtet. Es ist notwendig, den Informationsfluss zu überwachen, um beispielsweise fehlerhafte Nachrichten oder Kommunikationsstörungen schnell erkennen zu können. Eine Störung der Kommunikation kann im medizinischen Umfeld weitreichende Folgen bis hin zur Gefährdung des Patientenlebens haben.
In der vorliegenden Arbeit soll die Elektromyographie auf ihre Einsetzbarkeit und Eignung zur Beurteilung schwimmrelevanter Parameter im Behindertenschwimmen untersucht werden. Der bisherige Entwicklungsverlauf der Elektromyographie im Wasser wird anhand einer Literaturrecherche dokumentiert. Ein entsprechendes Equipment ist zu entwickeln und im Labor- und Feldtest zu untersuchen. Die Ergebnisse werden gegenüberstellend diskutiert und erläutert und auf ihre Aussagekraft geprüft. <!-- #h:dissdiplBehindertenschwimmen.doc# -->
In der heutigen Zeit werden viele Prozesse im Gesundheitswesen elektronisch unterstützt. Die Patientenbehandlung beginnt mit dem Auslesen der Gesundheitskarte und wird vom Transfer der verschiedenen Daten begleitet, wie z. B. Laborbefunde, Röntgenbilder, Arztbriefe usw. Die Probleme der Telemedizin machen sich immer häufiger bemerkbar. Die elektronische Datenübertragung im Gesundheitswesen ist eines der wichtigsten Themen unserer Zeit. Dies bezieht sich auf die Kommunikation zwischen unterschiedlichen Systemen. Obwohl schon viele Standards für den Datenaustausch in der Medizin existieren, fehlen noch oft die Standardverfahren dafür. In dieser Arbeit wurde die Datenübernahme aus dem Rettungsdienstinformationssystem in das Krankenhausinformationssystem analysiert und ein möglicher Verlauf prototypisch umgesetzt.
Die vorliegende Bachelorthesis analysiert den Sachverhalt des Typemappings in der modellgetriebenen Softwareentwicklung näher. Das Typemapping befasst sich hierbei mit dem Abbilden von UML-Typen auf programmiersprachenspezifische Datentypen. In dem Transformationsprozess, welcher als Resultat den generierten Quelltext aufweist, wird bei der Modell-zu-Quelltext-Transformation das Typemapping aufgerufen. Dieser Mechanismus ist bereits im vorliegenden GeneSEZ Projekt implementiert, genügt aber den aktuellen Anforderungen nicht mehr. Das Typemapping basiert auf XML-Dateien, welche verarbeitet werden. Ziel ist es, weitestgehend die Struktur zu überarbeiten und unter Verwendung einer besseren XML-Verarbeitungs-API, die Mechanismen, wie das Einbinden beziehungsweise referenzieren weiterer Typemapping Dateien um einen Multi-Include Mechanismus zu erweitern und kleinere Änderungen am Verhalten der bis dato eingesetzten Lösung vorzunehmen. Des Weiteren ist es notwendig, eine Validierung der XML-Dateien zu implementieren, mit der Folge dass ebenfalls eine dagegen zu validierende Definitionsdatei entwickelt werden muss. Die Verwendung aktueller Technologien und Entwicklungsprozesse ist weitestgehend Bestandteil, um eine zukunftssichere, sowie verständliche und leicht erweiterbare Lösung zur Verfügung zu stellen. Mögliche Anforderungen, welche nach Abschluss der Thesis anfallen, können so zeitnah und mit geringem Aufwand umgesetzt werden.
Zunehmend ersetzen Microservice-dominierte Architekturen monolithische oder starre SOA-Architekturen durch Infrastrukturlandschaften mit kleinen, der kontinuierlichen Anpassung unterworfenen Services eigenverantwortlicher Entwicklerteams. Das betrifft den Einbezug sowohl externer als auch unternehmensinterner Services. Die Arbeit gibt einen Überblick über das veränderte Vorgehen bei der Softwareentwicklung durch z.B. Container-Technologien und zeigt die Auswahl benötigter Werkzeuge, Qualitätssicherungs- und Auslieferungsprozesse auf. An einem konkreten Projektbeispiel wird deren Zusammenspiel nachgewiesen.
Zweiphotonenmikroskopie (2PLSM) an statisch und dynamisch kultivierten 3D-Chondrozytenkulturen
(2008)
Nichtinvasive laseroptische Visualisierungsverfahren gewinnen in der biologischen Analytik zunehmend an Bedeutung. Insbesondere die Analyse der Autofluoreszenz bietet die Möglichkeit, strukturelle Eigenschaften und zellbiologische Prozesse ohne biochemischen Eingriff in das biologische Milieu zu detektieren. Das Ziel der Diplomarbeit bestand in der Untersuchung des Einflusses verschiedener Scaffoldmaterialien, wie auch in der Untersuchung des Effektes der mechanischen Zellstimulation auf das Zellwachstum und die Zelldifferenzierung von Chondrozyten in 3D-Zellträgerkonstrukten. Dabei wurden mittels der Zweiphotonenmikroskopie (2PLSM) die Möglichkeiten der selektiven Visualisierung von Scaffolds, Zellen und zellsynthetisierten extrazellulären Matrixsubstanzen validiert. Im Ergebnis der Arbeit konnte gezeigt werden, dass die Anzahl und die Verteilung der Chondrozyten im 3D-Tissue Engineering-Konstrukt mittels 3D-Rendering sowohl visualisiert wie auch quantifiziert werden konnte. Dabei erfolgte die Quantifizierung auf der softwarebasierten Größenerkennung, sowie der Klassifizierung nach RGB-Signalanteilen. Weiterhin konnte gezeigt werden, dass die Dedifferenzierung primärer Chondrozyten durch die in vitro Kultivierung auf dem dreidimensionalen Scaffoldmaterial und durch die hydrostatische Stimulation verzögert wird. Im Vergleich der getesteten Materialien weist das Schwamm-Scaffoldmaterial mit kleinen Poren die günstigsten Effekte hinsichtlich einer Verzögerung dedifferenzierender Prozesse auf. Die erhaltenen Ergebnisse wurden abschließend mit biochemischen Daten und Ergebnissen einer Genexpressionsanalyse verglichen.
Die Bachelorarbeit beschäftigt sich mit einem PVD-Kombinationsverfahren in einer Drehtrommelanlage, zur Abscheidung von metallischen Schichten auf Kleinteilen, die als Schüttgut behandelt werden. Das Verfahren baut auf einer Technologieentwicklung zur plasmaaktivierten Hochratebedampfung plus Puls-Magnetron-Sputtern auf. Es dient dazu Korrosionsschutzschichten als Multilagen- bzw. Legierungsschicht abzuscheiden. Bei der etablierten Abscheidung mehrlagiger Korrosionsschutzschichten werden die PVD-Verfahren abwechselnd betrieben. Für die Erzeugung von Legierungsschichten wurden erstmals beide physikalischen Verdampfungsprozesse parallel gefahren, im Hinblick auf die gezielte Variation der Schichtzusammensetzung zur Verbesserung der Korrosionsbeständigkeit. Anhand der Ergebnisse der Einzelprozesse, Aluminiumbedampfung und Magnetronsputtern, wurden Prozessabläufe für die Abscheidung von Legierungsschichten etabliert und die Schichtdickenverteilung für die verschiedenen Legierungszusammensetzungen bestimmt.
Diese Aarbeit stellt die Erarbeitung des Risikomanagements nach DIN EN ISO 14971:2013-04 für ein neu entwickeltes Medizinprodukt, im Rahmen einer Eigenherstellung nach §3 (21) Medizinproduktegesetz vor. Bei dem betrachteten Medizinprodukt handelt es sich um einen Wellengeber (HeProVibe) mit dazugehöriger Ansteuerungseinheit (CKM EVA-02) für die Magnetresonanz-Elastographie. Die medizinische Elastographie stellt eine vielversprechende Methode zur Darstellung und Bewertung der viskoelastischen Eigenschaften von Organen und Weichteilgeweben dar, welche mittels Palpation nicht zugänglich sind. Im Rahmen dieser Arbeit wurde am Lehrstuhl für Computerunterstützte Klinische Medizin Medizinische Fakultät Mannheim Universität Heidelberg (CKM) für das Elastographie-Projekt ein Risikomanagement erstellt. Des Weiteren wurden Vorlagen für weitere Analysen der späteren Lebensphasen des Medizinproduktes angelegt. Beschrieben werden die Anforderungen an das Risikomangement im Rahmen der technischen Dokumentation und die verwendeten Methoden zur Erstellung eines vollständigen Risikomanagements. Mittels der Gefahrenanalyse wurden in Summe 30 Fehler erarbeitet, von denen 22 im Bereich mit akzeptablen Risiken liegen. Es wurden 8 Fehler identifiziert, bei denen das Risiko zwar vertretbar, jedoch eine Senkung des Risikos, zum Schutz vorgenommen wurde. Dabei zeigen Prüfungen und Berechnungen, dass ein risikoarmes Betreiben des Wellengebers bedenkenlos stattfinden kann. Das Ergebnis der Risikoanalyse, bei welcher Gefahren und Gefahrensituationen für Patienten, Anwender und Dritte einbezogen wurden, zeigt entsprechend, dass der Nutzen die Restrisiken bei der Anwendung des HeProVibe eindeutig übersteigt.
Es wurde untersucht, ob mit der Methode laserinduzierter akustischer Oberflächen-wellen randschichtgehärtete Stähle hinsichtlich ihrer Härtetiefe und Oberflächen-härte charakterisiert werden können. Zur Randschichthärtung wurde das Laser-härten eingesetzt, mit dem Härtetiefen bis zu 2mm erzielt werden können. Für diesen Bereich gibt es noch kein zerstörungsfreies Verfahren zur Charakterisierung der Härtezone. Die Untersuchungen wurden an den Stahlmarken 42CrMo4, C45, X155CrMoV12.1, 90MnCrV8 und 17CrNiMo6 durchgeführt. Als Messgröße diente die Ausbreitungsgeschwindigkeit der akustischen Ober-flächenwellen, die in Abhängigkeit von der Frequenz gemessen wurde. Das Ergebnis nennt man Dispersionskurve. Wichtig ist dabei, dass die Eindringtiefe von der Frequenz abhängt, weshalb mit dieser Messung unterschiedliche Tiefen des Materials abgefragt werden können. Es wurde Frequenzen von 1 bis 10 MHz angewendet, für welche die Eindringtiefe in reziproker Abhängigkeit von 0,3 bis 3 mm variiert. Die metallphysikalische Grundlage für die Annahme der Möglichkeit, dieses akustische Verfahren anwenden zu können, besteht darin, dass die martensitische Härtung das Metallgitter aufweitet, wodurch sich Elastizitätsmodul und Dichte verringern. Beide Materialkennwerte bestimmen die Schallgeschwindigkeit. Es wurde an allen Stahlmarken nachgewiesen, dass die Schallgeschwindigkeit durch das martensitische Umwandlungshärten verringert wird. Durch Anlassen von drei Stählen wurde dieser Effekt rückgängig gemacht, da sich das Gitter entspannt. Der Messeffekt, der vom Laserhärten hervorgerufen wird, liegt im Bereich von 2-3 %. Dies erfordert eine ausreichend hohe Messgenauigkeit, um Unterschiede in Härte und Härtetiefe empfindlich genug nachweisen zu können. Dafür wurde eine Messanordnung entwickelt, die auf Laseranregung der Oberflächenwellen beruht. Im Gegensatz zu herkömmlichen ultraschallerzeugenden Wandlern lassen sich Schallimpulse ohne Koppelmedium reproduzierbar und in definiertem Abstand anregen. Durch eine Zeiterfassung der Signale mit 10 GSa/s Abtastrate wurde an ebenen Oberflächen eine Wiederholgenauigkeit von 0,05 % erreicht. Die Oberflächenhärte wurde durch unterschiedliche Laserhärtung und durch Anlassen der lasergehärteten Stahlprobe bis in den Bereich von 650 oC variiert. Es wurde in der Dispersionskurve eine Schallgeschwindigkeit bei einer möglichst hohen Frequenz (8MHz) und damit geringer Eindringtiefe ausgewählt und mit der Oberflächenhärte nach Vickers (Laststufe 20kp) korreliert. Es ergab sich für alle Stahlmarken eine negative Korrelation. Mit steigender Härte nahm die Schall-geschwindigkeit ab. Allerdings wurde die Oberflächenhärte des Anlieferungs-zustandes der Stähle nicht wieder erreicht, so dass die Korrelation nur für den gehärteten und angelassenen Stahl gilt. Die aus den Untersuchungen gewonnen Korrelationen zwischen Schallgeschwindigkeit und Härte ermöglichen es, die Oberflächenhärte durch Messung der Oberflächenwellengeschwindigkeit zu messen. Die Wiederholgenauigkeit betrug über 90%. Die Korrelation ist allerdings von der Stahlmarke abhängig. Für die Härtetiefe wurden Phasengeschwindigkeitswerte aus den niedrigen Frequenzen des Dispersionsspektrums ausgewählt,von 1,25 bis 2,5 Mhz. Diese Frequenzen besitzen eine ausreichende Eindringtiefe, um über die Härtezone hinaus auch in das Grundmaterial zu reichen. Um die Härtetiefe bestimmen zu können, wurde eine Dispersionskurve als Funktion der Schichtdicke zur Wellen-länge theoretisch berechnet, die als Generalkurve bezeichnet wird. Mit der Frequenz und der zugehörigen Schallgeschwindigkeit kann aus der Generalkurve die Härtungstiefe bestimmt werden. Zum Vergleich wurde die Härtungstiefe an den Schliffbildern ermittelt. Bis zu einer Härtetiefe von 1 mm ergab sich in guter Näherungen eine lineare Korrelation zwischen den Härtetiefenwerten, welche zerstörungsfrei und am Schliffbild bestimmt wurden. Für einzelne Stahlmarken wurden auch in tieferen Bereichen noch gute lineare Ergebnisse erzielt. Die Abweichungen lagen im Bereich bei weniger als 15 %. Es ist darauf zu verweisen, dass auch die Härtungstiefe am Querschliff nur punktuell und mit einiger Unsicher-heit bestimmt werden kann. Die Laserakustik liefert einen Mittelwert über das Messvolumen, das aus Messlänge (Abstand der Laserbrennpunkte) multipliziert mit der Breite des akustischen Empfangssensors besteht. Unter diesem Gesichtspunkt ist die Übereinstimmung ein akzeptables Ergebnis.
Im E-Commerce dominieren verschiedene monolithische Middleware-Lösungen den Markt, so hilft z. B. SAP Commerce Cloud Unternehmen dabei, Kosten zu senken, Zeit zu sparen und Komplexität zu reduzieren, um ein hervorragendes Kundenerlebnis zu generieren.
Im praktischen Betrieb zeigt die monolithische Middleware jedoch Einschränkungen bei agiler Entwicklung und bei der Skalierung verschiedener Lastszenarien.
Ziel dieser Arbeit ist es, eine Strategie zu entwickeln, um eine monolithische E-Commerce-Lösung, die auf kommerzieller Middleware basiert, in einzelne Microservices zu zerlegen. Dabei stehen die Fragen im Vordergrund, welche Einschränkungen sich aus dem Einsatz ergeben und wie diese abgemildert werden können. Schließlich wird geklärt, ob ein solcher Ansatz überhaupt die gewünschten Vorteile gegenüber der bisherigen Architektur bietet.
Zellbiologische Untersuchungen an Knochenersatzwerkstoffen auf Kollagen- und Hydroxylapatitbasis
(2005)
Das Tissue Engineering ist ein interdisziplinäres Wissenschaftsgebiet, das Bio- und Ingenieurwissenschaften mit der klinischen Forschung vereinigt, um lebende Substitute für Gewebedefekte zu entwickeln. Dabei werden körpereigene Zellen auf geeigneten Trägermaterialien kultiviert, um diese Zell-Matrix-Konstrukte anschließend in den jeweiligen Defekt zu implantieren. In dieser Arbeit wurden verschiedene Modifikationen eines Kalziumphosphatknochenzements, ein in der Arbeitsgruppe Tissue Engineering und Biomineralisation am Max-Bergmann-Zentrum entwickeltes membranartiges Trägermaterial aus mineralisiertem Kollagen Typ I (Tape) sowie dessen Komponenten, Kollagen Typ I und Hydroxylapatit, untersucht. Für die Experimente wurden die Materialien mit humanen mesenehymalen Stammzellen (hMSC) besiedelt und über einen vorgegebenen Zeitraum kultiviert. Mithilfe verschiedener Mikroskopie- und quantitativer Analysemethoden konnten auf den Trägermaterialien die Adhäsion, Proliferation, Vitalität und die Differenzierung der hMSC zu Osteoblasten untersucht werden. Anhand dieser Ergebnisse wurde zum einen der Einfluss der verschiedenen Knochenzementmodifikationen auf das Verhalten von hMSC, zum anderen der Einfluss der Tape-Komponenten, Kollagen Typ I und Hydroxylapatit, auf die zeltbiologischen Eigenschaften des Tapes diskutiert. Die Durchführung der für diese Arbeit notwendigen Zeltversuche erfolgte am Max-Bergmann-Zentrum für Biomaterialien des Instituts für Werkstoffwissenschaft der Technischen Universität Dresden in der Arbeitsgruppe Tissue Engineering und Biomineralisation. Betreut wurde diese Arbeit von Dr. A. Lode, Dr. A. Bernhardt (Technische Universität Dresden) und Prof. Dr. J. Füssel (Westsächsische Hochschule Zwickau).
Diese Arbeit beschäftigt sich mit XPS Untersuchungen eines Schichtsystems, bestehend aus einer La0,6Sr0,4CoO3 Schicht, die auf YSZ Substrate aufgebracht wurden. Ziel ist es, Vorgänge die sich an Festoxidbrennstoffzellen dieses Typs abspielen, zu untersuchen. Es wurde zunächst die Zusammensetzung der Oberfläche und der Konzentrationsverlauf im Inneren der Probe mit SIMS und AES bestimmt. Anschließend wurde die Oberflächenveränderung durch Temperatureinwirkungen, wie sie bei Arbeitstemperaturen von SOFC's vorherrschen, beobachtet. Weiterhin wurde das Schichtsystem mit einer neu entwickelten Messmethode im laufenden Betrieb mittels XPS untersucht. Hierbei wurde versucht, Informationen über eine Umordnung der LSC-Schicht zu erhalten, welche die Reaktionskinetik beeinflusst. Um mögliche irreversible Veränderungen der Probe, die durch den geringen Sauerstoffpartialdruck im Vakuumsystem verursacht wurden, zu erkennen, wurden vor und nach den Messungen Untersuchungen mit XRD, AES und SEM vorgenommen.
Eine Untersuchung zur Eingung von Wirelaid Cool für das Wärmemangement. Nach einem kurzen Überblick über gängige, zu Wirelaid Cool konkurrierende Entwärmungsmethoden wird die drahtgeschriebene Leiterplatte vorgestellt. Anschließend wird die Entwärmung mittels Wirelaid Cool vorgestellt. Danach wird Wirelaid Cool mit Dickkupfer, Kupfer-Inlay und Thermal Vias verglichen. Zum Schluss werden die Anwendungsgebiete von Wirelaid Cool aufgezeigt.
Um dem Versorgungsauftrag nachzukommen setzen Krankenhäuser innerhalb ihrer Funkti-onsbereiche unterschiedliche medizinische Geräte zur Untersuchung von Patienten ein. Diese Geräte sind auf unterschiedliche Art und Weise an die Kommunikationsinfrastruktur des Hau-ses angebunden und in die entsprechenden Prozesse der Diagnostik integriert. Gründe hierfür finden sich unter anderem in der Größe der Geräte und damit ihren Fähigkeiten sowie der finanziellen Ausstattung der Einrichtung zur Abdeckung der erforderlichen Anbindungsszena-rien. Gerade bei Klein- und Kleinstgeräten ist das Untersuchungsmonitoring und
Mit dem Energiekonzept 2050 strebt die Bundesregierung eine umweltschonende, zuverlässige und bezahlbare Energieversorgung an. Vor allem im Bauwesen spielt die Einsparung von Energie eine immer größere Rolle, da durch die energetische Sanierung von Gebäuden ein großer Beitrag zur bundesweiten Reduktion der Kohlendioxid-Emissionen geleistet werden kann. Ein neuzeitlicher Aufschwung für die Dämmstoffe begann bereits mit der Ölkrise. Seit dem haben sich die Dämmstoffe stetig weiterentwickelt, so dass auch neue Einsatzgebiete erschlossen werden konnten. Betrachtet man die heutigen Marktanteile der verwendeten Dämmstoffe sowie die eigesetzten Volumina, stellt sich konsequenterweise die Frage, wie mit den hohen Abfallmengen an z.T. mit gesundheitsschädlichen Materialien belasteten EPS und Mineralwolle umgegangen werden soll und welche Herausforderungen für eine sekundäre Nutzung von EPS und Mineralwolle existieren.
Bereits 1972 wurde mit dem Gesetz über die Beseitigung von Abfall (Abfallbeseitigungsgesetz, AbfG) die erste bundeseinheitliche Regelung des Abfallrechts geschaffen. Über die Jahrzehnte wurden weitere Gesetze und Verordnungen, auch auf europäischer Ebene, ergänzt. Hierzu zählen u.a. KrWG, BauPVO, AVV, EBV sowie REACH und POP-Konvention.
Für den Einsatz der Dämmstoffe sind in der Vergangenheit vor allem deren physikalisch-technischen Eigenschaften, wie Wärmeschutz, Energieeinsparung, Brandverhalten, Schallschutz und Feuchteschutz- und
Als Ziel dieser Arbeit möchte der Autor der Frage nachgehen, ob eine PV-Anlage mit stationärem Speichersystem nach dem aktuellen Stand der Technik wirtschaftlich im nördlichen Umland von Berlin betrieben werden kann. Um belastbare Aussagen bei der Betrachtung zu erhalten, sollen neben möglichen Förderungen auch die steuerlichen Aspekte und die relevanten rechtlichen Rahmenbedingungen berücksichtigt werden.
Hierbei liegt der Fokus der vorliegenden Arbeit nicht auf einer technisch optimierten Konzeptionierung eines PV-Generators, sondern auf einem bewussten Aufbau von Komponenten einer Solaranlage und deren Auswirkungen im Rahmen der Simulation zur Ermittlung der sich hieraus ergebenen solaren und finanziellen Erträge. Diese Ergebnisse der Simulation werden die Grundlage für die abschließende wirtschaftliche Betrachtung darstellen.
Die Arbeit gliedert sich in fünf inhaltliche Bereiche, welche aufeinander aufbauen. Im Kapitel 2 soll die historische Entwicklung der Photovoltaik im Allgemeinen und deren physikalischen Grundlagen dargestellt sowie deren Einfluss auf die Photovoltaik erläutert werden. Der historische Abriss soll mit einem Überblick über die preisliche Entwicklung von Photovoltaikanlagen, der Entwicklung der Einspeisevergütung und den jährlichen Zuwachsraten der installierten Anlagenleistungen bis zum aktuellen Zeitpunkt enden.
Im dritten Bereich der Arbeit wird der Stand der Technik beleuchtet. Hierbei sollen kurz die zu unterscheidenden Betriebsarten von Photovoltaikanlagen und deren typischen Einsatzbereiche dargestellt werden. Im Nachgang sollen der allgemeine Aufbau eines Solarmoduls und deren typische Einflussfaktoren auf die Leistung skizziert werden. Abschließen sollen in diesem Kapitel die notwendigen Komponenten für eine PV-Anlage in ihren unterschiedlichen Ausprägungen vorgestellt und näher erläutert werden.
Kapitel 4 wird sich dem konzeptionellen Aufbau der Anlage widmen. Hier werden die standortspezifischen Einflussfaktoren erläutert und ein schematischer Aufbau wie er in der Arbeit zu Grunde gelegt wird erklärt. Im weiteren Verlauf werden die notwendigen Komponenten ausgewählt und plausibilisiert sowie die Simulationssoftware und die hierfür notwendigen Grundannahmen vorgestellt und die Ergebnisse der Simulation erläutert. Hierbei soll an typischen Kennzahlen geprüft werden, ob die simulierte Anlage von Ihrer Effizienz den aktuellen Stand der Technik entspricht.
Im letzten inhaltlichen Abschnitt wird eine Wirtschaftlichkeitsbetrachtung durchgeführt. Hierfür soll ein kurzer Überblick über die zur Verfügung stehenden staatlichen Anreizsysteme und deren inhaltliche Ausgestaltung gegeben werden.
Wirkung ionisierender Strahlung in Kombination mit Nanopartikeln auf verschiedene zelluläre Systeme
(2012)
Gerade in der Medizintechnik werden die neuesten Technologien eingebracht um der Menschheit wertvollstes Gut, die Gesundheit, zu wahren bzw. zu verbessern. Wie aktuell das Beispiel der Nanopartikel zeigt, kommt es dabei immer wieder zum Einsatz neuer Materialien. Diese versprechen ungeahnte Möglichkeiten im pharmazeutischen, diagnostischen und therapeutischen Bereich der Medizin. Als Kehrseite der Medaille besteht jedoch die Ungewissheit, welche genauen Risiken sich daraus für Mensch und Umwelt ergeben. Wichtig dabei ist auch die Betrachtung möglicher kombinatorischer Effekte, wie sie in Therapie und Diagnostik ausgelöst werden könnten. Aus diesem Grund wurde im Rahmen dieser Bachelorarbeit die kombinatorische Wirkung von Nanopartikeln und ionisierender Strahlung auf das freie intrazelluläre Kalzium von unterschiedlichen Zelltypen untersucht.
Die Wiederaufbereitung von Kathetern und Angioendoskopen, stellt eine für Deutschland weitestgehend neue Technologie dar. Ziel der Arbeit ist es, die Möglichkeiten der einzelnen Schritte des Wiederaufbereitungsprozesses aufzuzeigen, grundlegende Aussagen zu treffen und konkrete Vorschläge mit notwendigen Bedingungen zu nennen. <!-- #h:dissdiplWiederaufbereitung.doc# -->
Es besteht der Bedarf, die Themen NoSQL- und Cloud-Datenbanken in Praktika zu initigrieren. Das Ziel dieser Arbeit soll die Fragestellung beantworten, wie die Technologien NoSQL- und Cloud- Datenbanken in einem zeitlich begrenzten Praktikum gelehrt werden können. Hierfür muss festgestellt werden, welche spezifischen Technologien am besten geeignet sind und wie diese effizient in ein Praktikum integriert werden können.
Es konnten für verschiedene NoSQL-Datenbankmodelle Empfehlungen für Datenbanken erstellt werden. Die größten Cloud-Datenbanken wurden miteinander verglichen hinsichtlich der Nutzung in einem Praktikum. Des Weiteren wurden Virtualisierung, Container und Multi-Modell-Datenbanken auf die Anwendung in ein Praktikum geprüft.
Die vorliegende Bachelorarbeit befasst sich mit der Weiterentwicklung einer Software zur Berechnung und Simulation von Kolbenverdichtern. Durch die wachsenden Ansprüche an die Software war eine Portierung angestrebt, die zu Beginn der Arbeit vorlag. Für die Übernahme von vorhandenen Projekten wurde eine Schnittstelle entworfen, die es ermöglicht, auch zukünftig erstellte Datensätze von extern genutzten Programmen zu verwenden. Ein automatisierter Stapelimport spielt eine wichtige Rolle und ermöglicht es, komplette Projekte zu übernehmen. Für die Nachrechnung von Verdichtern soll eine Grundlage geschaffen werden, die es ermöglicht, verschiedene Regelfälle zu simulieren. Dies zieht eine Anpassung und Erweiterung des Algorithmus sowie der grafischen Oberfläche nach sich. Die Erstellung der Dialoge für Eingabedaten der Nachrechnung war ein Punkt in der Erweiterung der grafischen Oberfläche. Des Weiteren wurde der Arbeitsbereich auf die neuen Funktionalitäten angepasst und erweitert. Für die Bewertung vorhandener Berechnungsalgorithmen wurde ein Feldtest ermittelt, der Ergebnisse des alten Berechnungsprogramms mit den neu ermittelten Ergebnissen vergleicht und analysiert. Da die Regelfälle im zu übernehmenden Algorithmus stark voneinander abhängen, war die Realisierung eines Fahrfalles annähernd so umfangreich wie die Umsetzung aller Regelfälle. Die Arbeiten wurden so ausgeführt, dass das System einfach erweitert werden kann.
Die jährliche Wachstumsrate an Zahnimplantationen liegt bei ca. 18 %. Diese Tendenz erfordert die Entwicklung eines chirurgischen Trainingssystems für die Mund-, Kiefer- und Gesichtschirurgie (MKG). Bisherige MKG-Systeme sind nicht in der Lage, Verletzungen von Risikostrukturen objektiv zu bewerten. Die Entwicklung eines neuen Trainingssystems für die MKG wird somit notwendig, um objektive Aussagen über verletzte Risikostrukturen zu treffen, chirurgische Instrumente zu validieren und die Weiterqualifizierung von Chirurgen zu ermöglichen. Ein bereits auf Basis des 3D-Drucks entwickeltes, austauschbares Kiefermodul mit elektrischen Sensoren zur Registrierung von verletzten Risikostrukturen soll an einen Schädel, der als Basisstation dient, angekoppelt werden. Dazu wurden konstruktive Maßnahmen am Schädel angewendet, um einen sicheren elektrischen Kontakt zwischen Kiefer und Schädel zu gewährleisten und die Bewegungsfreiheitsgrade des Kiefers zu berücksichtigen. Weiterhin sind Halterungen im Schädel für eine Mikrocontrollerschaltung (MCS) und deren Anschlüsse konstruiert worden. Die Visualisierung des Systems erfolgte mit einer Simulationssoftware. Mit Hilfe von vorgefertigten Programmen der grafischen Programmierumgebung LabVIEW (National Instruments, Austin, Texas) ließen sich die segmentierten anatomischen Strukturen durch triangulierte Datensätze mittels XML-Dateien in die Software einpflegen. Ebenso fand die Definition der Kanäle der MCS bzgl. der Risikostrukturen statt. Weitere LabVIEW-Bausteine sorgen für die Steuerung des Programmablaufs und ermöglichen die Kommunikation zwischen dem USB-Controller der MCS und einem handelsüblichen PC. Die Simulationssoftware ist in der Lage, die gewonnenen Simulations-OP-Daten zu erfassen und auszuwerten. Die realistische haptische Wahrnehmung und der reale OP-Workflow des MKG-Systems sind durch frei wählbare chirurgische Instrumente garantiert. Auf der Grundlage eines entsprechenden CT-Datensatzes können patientenindividuelle Pathologien am System dargestellt werden. Objektive Bewertungen des chirurgischen Eingriffs sowie dessen Qualität sind durch das Simulationssystem gegeben. Aussagen über Verletzungen von Risikostrukturen lassen sich in Echtzeit treffen. Die Wirtschaftlichkeit des Systems ist durch den modularen Aufbau möglich, da das Operationsareal ausgetauscht werden kann. Ebenso sind einheitliche Studien über die Validierung von chirurgischen Instrumenten, die realitätsnahe Ausbildung und die Weiterqualifizierung von Chirurgen durchführbar.
Weiterentwicklung und Bereitstellung einer Lehrprogrammverwaltung im Intranet der WHZ Zwickau FH
(1999)
Ausgangspunkt dieser Arbeit ist das Ergebnis der Diplomarbeit von Mario Helget (Ma. 94). Hauptaufgabe meiner Arbeit war dabei die Weiterentwicklung und anschließende Bereitstellung im Intra-/Extranet, das von Frank Pleitz (Ma. 94) an der WHZ implementiert wurde. Die Probleme, auf die ich während meiner Arbeit stieß, resultieren vornehmlich aus den Zusammenhängen, die aus einer Arbeit der Weiterentwicklung einer vorhandenen Software entstehen und dem allgemeinen Problem der Portabilität. So musste ich sehr viel Zeit investieren, um das Vorgehen von Mario Helget nachvollziehen zu können. Trotz alledem reizte mich gerade dieses Thema, da es genau die Entwicklung widerspiegelt, die allgemein sichtbar wird. Voranschreitende Globalisierung auf Basis des Internet, weltweite Vernetzung, das muss auch oder gerade im Bildungsbereich Auswirkungen zeigen. Vergleicht man die Entwicklung im Bereich der Berufsaus- bzw. -weiterbildung so lässt sich leicht erahnen, was auf die Informatik und Pädagogik in den nächsten Jahren zukommen wird. Wichtig erscheint mir dabei, frühzeitig die Zeichen der Zeiten zu erkennen und dem allgemeinen Trend folgend, die eigene Forschung und Entwicklung auszurichten. Sobald die Weichen seitens der Politik gestellt wurden, ist es sicher von Vorteil bereits Lösungen anbieten zu können. Die WHZ Zwickau FH aus meiner Sicht in die richtige Richtung und ich bin glücklich einen Beitrag dazu leisten zu können. Jürgen Ott 1999 <!-- #h:dissdiplLehrprogrammverwaltung.doc# -->
Im Rahmen dieser Bachelorarbeit wurde eine bereits bestehende Implementation eines XML-Schema-basierten XML-Editors weiterentwickelt. Nachdem die theoretischen Grundlagen erschlossen wurden, wurde der bereits existierende Quelltext analysiert. Anschlie- ÿend wurden Konzepte entwickelt und implementiert, die die geplanten Funkionalitäten bewältigen können. Diese Arbeit dokumentiert die Methoden, welche bei der Weiterentwicklung dieses XMLEditors angewendet wurden und gibt einen Überblick über die damit erzielten Ergebnisse. Während der Arbeit wurde groÿer Wert auf eine ordentliche Refaktorisierung des bestehenden Quelltextes gelegt, um neue Funktionen wohlstrukturiert integrieren zu können. Während der Entwicklung wurde die Absicht verfolgt den XML-Editor so stark wie möglich nutzerorientiert zu gestalten, um dem Nutzer gröÿtmöglichen Komfort bei der Entwicklung von XML-Dokumenten zu bieten.
In vorliegender Arbeit geht es um die Stabilitätskontrolle von Backendstrukuren mit ULK-Materialien. Weil die Strukturen bei der Mikrochipherstellung immer kleiner werden, müssen neuartige Materialien für die Isolierung der Leiterbahnen entwickelt werden. Diese Materialien nennt man ultra-low-k-Materialien, kurz ULK. Sie besitzen einer niedrige Dieelektrizitätszahl k. Diese Materialien kommen in den Verdrahtungsebenen im Mikrochip zum Einsatz und dienen dort als Isolator zwischen den Leitungsbahnen. Ulk beeinflusst jedoch die Stabilität des Backend negativ. Aus diesem Grund müssen schon in der Entwicklungsphase eines Mikrochips Tests durchgeführt werde. Der hier verwendete Test nennt sich Bump Assisted Backend of Line Stability Indentation Test (kurz BABSI-Test. Dieser Test ist durch GLOBALFOUNDRIES Dresden patentiert.Hierbei wird mit einer Nanoindenternadel in den Bump indentiert und anschließend ein Ritztest durchgeführt. Dabei kommt es durch die Lateralkraft, welche über dem Bump in das Backend ein gekoppelt wird, zu einer Schädigung im Backend. Die Lateralkraft bei der das Backend geschädigt wird dient als Stabilitätskennzahl. Somit können verschiedene Backendvarianten bzw. verschiedene Fertigungsprozesse miteinerander verglichen werden. In der Arbeit werden verschiedene Versuche durchgeführt, um den BABSI-Test zu verbessern. So kommen zum Beispiel verschiedene Indenterspitzen zum Einsatz.
In dieser Bachelorarbeit wird ein bestehendes datenbankfähiges Programm an die Anwendungssysteme AD und SAP angebunden.Folgende Implementierungen wurden vorgenommen: - Weiterentwicklung einer übersichtlichen Step-by-Step-Ansicht - Anbindungs an das AD mit Anlege-, Bearbeitungs- und Löschmethoden für User und AD-Gruppen - Erstellen von Exchange Server Mailbox-Postfächern mit E-Mail-Adresse - Anbindungs an das SAP mit Anlege-, Bearbeitungs- und Löschmethoden für User - Realisierung von Sicherheitskonzepten - Selektierungsmethode aus einer XML-Datei - Umsetzung von Zusatzfunktionen
Während einer Notfallrettung werden wichtige Informationen, die den Patienten und seine Verletzungen beschreiben, erfasst. Diese Rettungsdaten sollen nach der Erfassung schnellst möglich im Krankenhausinformationssystem zur Verfügung stehen. Um diesen speziellen Vorgang zu unterstützen, wurde eine Schnittstelle zwischen dem Informationssystem des Rettungswesens und dem Krankenhausinformationssystem geschaffen. Damit eine Kommunikation zwischen den beiden Informationssystemen gewährleistet werden kann, wurde ein auf Textnachrichten basierender Datenaustausch mittels eines Kommunikationsservers realisiert. Dieser Kommunikationsserver steuert dabei die Transformation der eingehenden Rettungsdaten und die Verteilung der Nachrichten. Eine Umsetzung der so entwickelten Schnittstelle, erfolgte mit dem Softwareprodukt Ensemble der Firma InterSystems.
Diese Bachelorarbeit befasst sich mit der Weiterentwicklung der Webanwendung zur Spanungskraftberechnung. Im Rahmen dieser Arbeit wird die Software auf Basis der erarbeiteten Anforderungen entworfen und dann bewertet.
Spanungskraftberechnung in dem Maschinenbau für Werkzeugproduktion ist durch die Genauigkeit mit einem hohen Zeitaufwand verbunden. Die Software soll die Berechnungen explizit und verständlich machen. Neben der Genauigkeit bei den Berechnungen setzt sich mit der vorherigen Anwendung weitere Faktoren wie fehlerhafte Aktualisierbarkeit, Ortsabhängigkeit und keine Erweiterungsmöglichkeiten.
Die solche Anwendung zu entwickeln ist eine Möglichkeit, diesen Herausforderungen bei einem solchen Systemdesign zu begegnen. Hierfür werden zunächst die Zerspanungskraftkomponenten und deren Formeln analysiert. Dahingehend wird eine Architektur in der Form eines Klassendiagramms entworfen. Für die Umsetzung wird ein aussagekräftiges Framework Spring Boot mit der Programmiersprache Java gewählt und darauf aufbauend werden Entitäten, Funktionalität für Entitäten und einer der wichtigsten Funktionalitäten Kraftberechnung ermittelt. Die Entwicklung findet unter Berücksichtigung, dass die wichtigste Funktion der Applikation stellt die Bearbeitung der mathematischen Ausdrücke mittels exp4j und beinhalteten Logik mittels Nashorn Engine dar.
Die Bestimmung der Pulswellengeschwindigkeit aus oszillometrischer Blutdruckmessung ist eine vielversprechende Methode zur routinierten Gefäßsteifigkeitsuntersuchung. Dabei wird der Pulskurvenverlauf bei übersystolischen Manschettendruck an der Arteria brachialis aufgezeichnet und ausgewertet. Ziel der Bachelorarbeit war es für dieses Verfahren einen Algorithmus zur automatisierten Pulskurvenauswertung zu optimieren und diesen in Echtzeit mit Hilfe eines Microcontrollers auf einer Embedded System Plattform zu testen. Für die Umsetzung musste eine radikale Einsparung von Speicherplatz und Rechenaufwand erfolgen. Dazu wurden die Abtastfrequenz von 1000 Hz auf 500 Hz und die Messzeit von 30 s auf 16 s reduziert. Weiterhin wurde die Qualität der Messung durch Veränderung der Ableitungs- und Glättungsfilter auf 11 bzw. 9 Werte, Bestimmung von Ersatzpunkten aus der Mittelwertkurve für bisher nicht auswertbare Messungen, Aussortieren störsignalbehafteter Daten sowie Beseitung bestehender Schwachstellen verbessert. Der Algorithmus wurde für die Realisierung von Echtzeitmessungen in die Programmiersprache C portiert, in einem Versuch mit 15 Probanden erfolgreich getestet und gegenüber dem Referenzgerät Arteriograph mit einem Korrelationskoeffizienten von R = 0,85 validiert.
Die Bestimmung der Pulswellengeschwindigkeit aus oszillometrischer Blutdruckmessung ist eine vielversprechende Methode zur routinierten Gefäßsteifigkeitsuntersuchung. Dabei wird der Pulskurvenverlauf bei übersystolischen Manschettendruck an der Arteria brachialis aufgezeichnet und ausgewertet. Ziel der Bachelorarbeit war es für dieses Verfahren einen Algorithmus zur automatisierten Pulskurvenauswertung zu optimieren und diesen in Echtzeit mit Hilfe eines Microcontrollers auf einer Embedded System Plattform zu testen. Für die Umsetzung musste eine radikale Einsparung von Speicherplatz und Rechenaufwand erfolgen. Dazu wurden die Abtastfrequenz von 1000 Hz auf 500 Hz und die Messzeit von 30 s auf 16 s reduziert. Weiterhin wurde die Qualität der Messung durch Veränderung der Ableitungs- und Glättungsfilter auf 11 bzw. 9 Werte, Bestimmung von Ersatzpunkten aus der Mittelwertkurve für bisher nicht auswertbare Messungen, Aussortieren störsignalbehafteter Daten sowie Beseitung bestehender Schwachstellen verbessert. Der Algorithmus wurde für die Realisierung von Echtzeitmessungen in die Programmiersprache C portiert, in einem Versuch mit 15 Probanden erfolgreich getestet und gegenüber dem Referenzgerät Arteriograph mit einem Korrelationskoeffizienten von R = 0,85 validiert.
Die Diplomarbeit führt die Arbeiten an der Systemkomponente, deren Aufgabe die Abarbeitung von Fehlerbäumen ist, fort. Insbesondere wird dabei auf den Inferenzmechanismus eingegangen, d.h. den Teil des Programms, der einen geeigneten Weg durch einen Fehlerbaum findet und so zu einer Diagnose gelangt. Eine wichtige Rolle spielt dabei die Arbeit mit unsicherem Wissen. Weiterhin beschäftigt sich die Arbeit mit den Möglichkeiten der Nutzung mehrerer Teildiagnosebäume und der Realisierung der Kommunikation mit dem Endnutzer während einer Diagnosesitzung. <!-- #h:dissdiplDiagnosegraph.doc# -->
In der Landwirtschaft wird die digitale Vernetzung von Geräten immer bedeutender. Eine zentrale Rolle spielen dabei landwirtschaftliche Bedien-Displays (Terminals), welche verschiedene Aufgaben an einem Traktor übernehmen. Da die Anwendungen auf diesen Terminals komplex sind, ist es eine große Hilfe für den Anwender, schnell und unkompliziert Support anzufordern. Deshalb wurde ein Prototyp für eine Remote-Support-Lösung entwickelt. Die Kommunikation der Lösung erfolgt über das Internet. Daher müssen zwingend Sicherheitsmaßnahmen zur Verhinderung von Missbrauch der Lösung durch Unbefugte existieren. Unzureichend abgesicherte IT-Systeme sorgen immer wieder für Schäden in Milliardenhöhe.
In dieser Arbeit wird der Ist-Zustand der Remote-Support-Lösung erläutert. Es werden Schutzziele bestimmt, die erfüllt werden sollen. Beispielhaft werden mögliche Angriffe und theoretische Grundlagen zur Abwehr dieser Angriffe erklärt. Außerdem wird erläutert, wie diese Angriffe im praktischen Projekt abgewehrt werden. Abschließend werden die definierten Schutzziele auf ihren Erfüllungsgrad untersucht.
Die Lösung lanschaftlichsökologischer Fragestellungen erfolgt häufig mittels Flächenrasterdaten, zu deren Auswertung sich zunehmend objektorientierte Ansätze durchsetzen. Es gibt jedoch nur wenige marktreife Produkte, um den Bedarf an Auswertungswerkzeugen zu decken. Diese Arbeit befasst sich daher mit der Weiterentwicklung eines regionen-basierten Segmentierungsverfahrens. Das ausgewählte Verfahren "Iteratives Vereinigen homogener Gebiete", kurz IVHG, steht als Open Source Programm zur Verfügung und bietet somit einen angemessenen Ausgangspunkt. Im Verlauf der Untersuchung wird es mit dem aktuellen Stand der Forschung hinsichtlich der Verbesserungsmöglichkeiten verglichen und an Hand eines ausgewählten Kriteriums weiterentwickelt. Dabei wird das Programm auf zwei verschiedene Rasterdatensätze (AKTIS - DGM und QuickBird Satellitenbild) angewendet, um die Ergebnisse zu verdeutlichen. Da in dieser Untersuchung nicht alle Schwächen des Programms beseitigt werden können, werden diese im Augenblick aufgeführt und einige Anregungen zu deren Lösung gegeben.
Diese Bachelorarbeit beschäftigt sich mit der Weiterentwicklung eines bestehenden Trainingssystems für die Chirurgie der Lendenwirbelsäule. Das Produkt ist nicht nur für die Ausbildung von Ärzten von Bedeutung, sondern findet auch in der Wirtschaft Anwendung für die Präsentation neuer chirurgischer Instrumente und anderer Medizinprodukte. Dem momentanen Modell werden weitere anatomische Strukturen hinzugefügt, um die Durchführung von Operationen mit interlaminären Zugang simulieren zu können. Eine der neuen Strukturen wird mit einem CAD-Programm konstruiert und auf dieser Grundlage wird die für die Produktion nötige Gussform erstellt. Außerdem werden verschiedene Ansätze präsentiert wie man die Halterung der Lendenwirbelsäule verändern könnte. Das Ergebnis dieser Arbeit ist ein neues Trainingssystem, dessen Anwendungsbereiche sich auf andere Gebiete als das Ausgangsmodell konzentrieren.
Im modernen Gesundheitswesen ist für die Patientenversorgung heute eine einrichtungsübergreifende Kooperation und Datenaustausch notwendig, damit kein Missverständnis entstehe und Tests, Verfahren der Diagnosen, Behandlungen, Dokumentationen usw. nicht unnötig wiederholt werden. HL7 ist ein internationaler Standard für den Austausch und die Integration der medizinischen, administrativen und finanziellen Daten zwischen Informationssystemen im Gesundheitswesen, welcher zurzeit über 50 Ländern benutzt wird. Ziel dieser Bachelorarbeit war die Weiterentwicklung der im ehealth-Labor der Westsächsischen Hochschule vorhandenen Software (Nachrichteneditor), welches grundsätzlich zum Verständnis für Nachrichtenstandards beim Datenaustausch im Gesundheitswesen dienen soll. Zunächst sind dafür die Strukturen der HL7-Nachrichten analysiert worden. Anschließend ist eine Konzeption entstanden, welche zur Implementierung der Erstellung sowie Einlesen und Interpretierung der verschiedene HL7 Version 2.x Nachrichten- und Entitätstypen dient. In diesem Bericht sind die Analyse (wie oben), Konzeption, Implementierung des Nachrichteneditors sowie Weiterentwicklungsmöglichkeiten und Ausblicke erklärt worden.
Die Weiterentwicklung der Eclipse-Integration ist ein wichtiger Aspekt bei der Entwicklung des GeneSEZ Generator Framework. Dadurch kann die Software von den Nutzern besser bedient werden. In dieser Arbeit geht es insbesondere um die Erstellung von grafischen Elementen zur Bedienung von GeneSEZ. Zu Beginn wird kurz auf die Grundlagen der Arbeit eingegangen. Danach wird die Reimplementierung des bereits existierenden Wizards auf der Basis vom Eclipse 4 Applikationsmodell beschrieben. Dabei erhält der Wizard mehr Funktionalität und nutzt eine neue Architektur. Nachfolgend wird der implementierte Workfloweditor vorgestellt und dessen Konzepte erläutert. Insbesondere wird dabei auf die Verwendung des Modeling Workflow Engine 2-Modells eingegangen, sowie auf die Darstellung der einzelnen Workflow Komponenten. Anschließend werden Möglichkeiten und Ansätze aufgezeigt, wie die Arbeit fortgeführt werden kann. Abschließend wird die Arbeit zusammengefasst und das Ergebnis evaluiert.
Striktere Regularien sowie die verbindliche Pflicht zur Phosphorrückgewinnung werden eine signifikante Veränderung in der Klärschlammentsorgung hervorrufen. Diese Entwicklung wird aufgrund der begrenzten Entsorgungsmöglichkeiten jedoch zu einem Engpass führen. Entgegengewirkt werden soll diesem durch die Erforschung alternativer Verwertungswege.
Eine Möglichkeit, und der zentrale Gegenstand dieser Arbeit, stellt die Herstellung aktivierter Kohlen aus Klärschlamm und deren Anwendung als Adsorbens dar.
Eine von zwei klärschlammbasierten Hydrokohlen, welche als Ausgangsmaterial dienten, wurde vor der Karbonisierung zum Zweck des Phosphorrecyclings mit Schwefelsäure versetzt. Sie wies eine homogenere Zusammensetzung sowie einen geringeren Asche- und höheren Kohlenstoffgehalt auf. Beide Kohlen wurden einer Wasserdampfaktivierung unterzogen, wodurch maximale spezifische Oberflächen von 116 m2/g für die Kohle ohne und 217 m2/g für die Kohle mit Schwefelsäureeinsatz erreicht wurden. Im Praxistest sollten die aktivierten Kohlen Methylenblau aus dem Wasser adsorbieren. Hierfür wurde ein Teil der aktivierten Kohlen mit deionisiertem Wasser bzw. Salzsäure gewaschen. Die höchste Adsorptionskapazität erzielte mit 35 mg/g die Kohle, welche nicht mit Schwefelsäure behandelt, jedoch mit Salzsäure gewaschen wurde.
Der Bereich der Abfallwirtschaft der Stadt Zwickau hat derzeit hohe Kostenunterdeckungen zu verzeichnen. Zur Verringerung dieser werden Vorschläge zur Änderung der Abfallsatzung/Abfallgebührensatzung erbracht. Die Einführung einer Grundgebühr, die jährlich an das Abfallaufkommen angepasst wird, ist zwingend erforderlich, um anfallende Fixkosten zumindest teilweise kontinuierlich zu decken. Die Einführung computerintegrierter Abfallentsorgungssysteme, der Eigentumsübergang der Abfalltonnen vom Entsorgungsunternehmen auf die anschlusspflichtigen Personen und die Umlegung der Müllschleusenkosten auf die tatsächlichen Benutzer sind zur flexiblen Gestaltung der Abfallwirtschaft zwingend nötig und rechtlich vertretbar. Die nachträgliche Umlegung versäumter Kosten für Nachsorge- und Rekultivierungsmaßnahmen von Deponien auf die benutzungspflichtigen Abfallgebührenzahler wird von der Rechtsprechung für nicht möglich erachtet. Dafür aufzukommen haben die das Versäumnis verschuldet habenden verantwortlichen Personen. Ab 2005 wird eine bloße Deponierung von Abfall ohne vorherige thermische Behandlung gemäß TA Siedlungsabfall nicht mehr möglich sein. Aufgrund dieser gesetzlichen Bestimmung entstehen Abfallbehandlungskosten, die über derzeitigen Deponiekosten liegen und so die Abfallgebühren in Zukunft erhöhen werden. #<!-- #h:dissdiplAbfallgebührensatzung.doc# -->
Diese Bachelorthesis befasst sich mit den Vor- und Nachteilen des Einsatzes von NoSQL-Systemen. Es wird der Begriff NoSQL und die Technologien, mit denen NoSQL-Systeme arbeiten, geklärt. Es werden die Typen von NoSQL-Systemen vorgestellt und ein Einblick in die so genannte 2Speed-IT gegeben. Am Ende der Thesis gibt es einen praktischen Vergleich zwischen einem SQL-System mit einem NoSQL-System. Es wird untersucht, welche Vor- und Nachteile die Benutzung der NoSQL-Systeme hat. Abschließend wird auf Grundlage der gewonnen Erkenntnisse geklärt, wie sich NoSQL-Systeme gegenüber SQL-Systemen positionieren.
In dieser Arbeit wird ein statistisch anlernbares Modell vorgestellt, das in der Lage ist die komplexwertige Übertragungsfunktion einer optischen Multimodefaser auf Basis ebenfalls komplexwertiger Datensätze zu approximieren.
Zu diesem Zweck werden komplexwertige Schichten eines neuronalen Netzes implementiert und ein deterministisch inspiriertes Modell des zugrundeliegenden Systems aufgebaut. Die Konvergenz des Modells beim Training
für verschiedene, durch Simulation erhaltene, Datensätze wird gezeigt. Die Interpretierbarkeit des Modells in dem Sinne, dass aus dem antrainierten Modell die Eigenlösungen der zugrundeliegenden Differentialgleichungen, also die Moden der Faser gewonnen werden können, wird ebenfalls überprüft.
Zudem wird gezeigt, dass ein effizientes Umlernen des Modells auf sich kontinuierlich verändernde Faserzustände möglich ist, solange die eingeführten Perturbationen nicht zu stark vom jeweils vorherigen Zustand abweichen.
Die Diplomarbeit behandelt das Thema 'Voice over IP'. Ziel ist sowohl eine Marktanalyse als auch eine Studie über technische und ökonomische Auswirkungen und Vor- und Nachteile der IP-Sprachkommunikation über das firmeneigene Datennetz und zu externen Partnern . Dabei ist die multimediale Gesamtkommunikation heute als auch in Zukunft zu berücksichtigen. <!-- #h:dissdiplvoice.docdiplKonzern.doc# -->
Voice Analysing im Tk-Umfeld
(2010)
Aufbauend auf einer Arbeit, die sich mit der OpenCV mithilfe des Themas Bildverarbeitung befasst hat, beschäftigt sich diese Arbeit mit der Umsetzung, um die OpenCV-Funktionen zu erweitern. Sie liefert eine visuelle Detektion der Geometrieerfassung sowie unerwartete Ergebnisse. Die Fehlersuche ist oft aufwendig und unübersichtlich. Zur Vereinfachung dieses Prozesses hat der Lehrstuhl für Bildverarbeitung der Westsächsische Hochschule Zwickau die verschiedenen Möglichkeiten wie Kantendetektion, Hough-Transformation und andere Funktionen weiterentwickelt und vorgestellt. Dies liefert Ergebnisse von Teilaufgaben der inkorrekten Detektion und Geometrieerfassung, welche bei der Lokalisierung des Fehlers helfen.
Diese Arbeit beschreibt die Entwicklung einer visuellen Benutzeroberfläche für die Nutzung der Detektion und Geometrieerfassung.
Im Rahmen der Einführung klinischer Behandlungspfade in der Kreiskrankenhaus Greiz GmbH beschäftigt sich die vorliegende Arbeit mit der Visualisierung und Bearbeitung von Behandlungspfaden im Anwendungssystem NEXUS/KIS sowie mit der Aufbereitung und Auswertung der fallbezogenen Daten innerhalb der mit der Business Intelligence (BI) Software QlikView erstellten Anwendung Information Store.
Die Bachelorarbeit befasst sich mit der Entwicklung der Visualisierungskomponente von anwendungsbezogenen Standorte und Route für Fuhrparkmanagement Software - comm.fleet von Community4you AG. Bei der Arbeit mit den geographischen Daten werden verschiedene APIs von Google und OpensStreetMap verwendet. Für die Entwicklung der Anwendung wurden folgende Technologien, wie Bootstrap JS Framework, Javascript Prototyping verwendet.Im Rahmen dieser Bachelorarbeit soll analysiert werden, die Verwendung von Kartendiensten von Google Maps und Openstreetmap - Projekt für die Visualisierung von Standorte und Route in comm.fleet. Zudem soll es eine prototypische clientseitige Anwendung entstehen, die in der Zukunft als internes Tool in comm.fleet integriert werden kann. Dadurch erlaubt die neue prototypische Visualisierungskomponente mittels eines Kartenmaterials die Darstellung von Standorte des Objektes und Route anhand der geographischen Koordinaten.
Die Darstellung von Volumendaten in der Medizin reicht vom einfachen Anzeigen einzelner zweidimensionaler Schnittbilder bis hin zur komplexen Analyse dreidimensionaler Datenwolken. Dabei stellen das Direct Volume Rendering und Indirect Volume Rendering zwei wesentliche Methoden der Visualisierung von dreidimensionalen Daten dar.
In der Kieferorthopädie und -chirurgie spielen Darstellungen von DVT-Daten (Digital Volume Tomography) in der Diagnostik oder bei der digitalen Behandlungs-und Operationsplanung eine zentrale Rolle. Da die Volumenvisualisierung immer mehr an Bedeutung gewinnt, entwickeln sich die Rendering-Methoden stetig weiter. Insbesondere für Implementierungsaufgaben in eigene Systeme müssen aktuelle Entwicklungs- und Forschungsarbeiten stets verfolgt und analysiert werden. Ziel dieser Arbeit ist die Darstellung und Auswertung aktueller Methoden des Direct Volume Rendering, sowie der Extraktion von Objektoberflächen mittels des Indirect Volume
Rendering. Ein weiteres Ziel ist die Erstellung eines umfangreichen Überblickes über bereits praktisch, implementierte Rendering-Methoden. Auf Grundlage der Ergebnisse können Software-Funktionen in OnyxCeph realisiert werden. Sowohl für das direkte, als auch indirekte Volumen-Rendering wurde eine theoretische Literaturrecherche und eine Übersicht der praktischen Anwendung der untersuchten Verfahren erarbeitet. Anhand der Recherche und Analyse wissenschaftlicher Arbeiten konnten Kenntnisse über theoretische Ansätze sowie aktuelle Forschungsergebnisse im Bereich der Visualisierung von Volumendaten gewonnen werden. Weiterhin wurden ausgewählte Software-Produkte genutzt, um bereits eingesetzte Rendering-Verfahren auf Funktionalität und Leistungsfähigkeit zu analysieren.
Im Bereich des Direct Volume Rendering konnten erweiterte Interpolations-, Klassifikations-, Schattierungs- und Visualisierungsmethoden des Ray Casting-Algorithmus untersucht werden. Die 1D Gauß-Transferfunktion stellte sich als
eine einfache und nützliche Alternative zu konventionellen stückweise-linearen Übertragungsfunktion heraus. Für eine detaillierte Darstellung kann der Verarbeitungsprozess durch Shading-Methoden erweitert werden. So sind in der Praxis überwiegend gradientenbasierte Shading-Modelle eingesetzt. Deep Shadow Maps stellen dabei eine nützliche Ergänzung dar. Weiterhin konnten erweiterte Rendering-Methoden untersucht werden.
Neben der Maximum Intensity Projection kann die Minimum Intensity Projection für die Darstellung von Wurzelkanälen eingesetzt werden. Die Depth-enhanced Maximum Intensity Projection und Maximum Intensity Difference Accumulation bieten zwei vereinfachte Alternativen zum Ray Casting an, um eine nahezu korrekte dreidimensionale Darstellung erstellen zu können. Die Maximum Intensity Difference Accumulation erwies sich im Rahmen dieser Arbeit als eine besonders effektive Erweiterung zu bereits vorhandenen
Rendering-Verfahren. Auf Grundlage der gewonnenen Erkenntnisse während Recherchearbeit konnte Maximum Intensity Difference Accumulation in das Software-Produkt OnyxCeph implementiert werden. Die generierten Visualisierungen ermöglichten eine verbesserte Tiefenwahrnehmung, die dem klassischen Direct Volume Rendering ähnelt. In Kombination mit Beleuchtungsmethoden können zudem Oberflächenstrukturen analysiert werden.
Im Indirect Volume Rendering spielte die Segmentierung einzelner Volumenstrukturen durch das Iso-Surface Rendering eine besondere Rolle. Zur Generierung einer Oberfläche können verschiedene Methoden, wie der klassische Marching Cube-Algorithmus, die Level-Set-Methode und Surface-Nets eingesetzt werden. Die Literaturrecherche zeigte, dass Bestrebungen unternommen wurden, um alternative Algorithmen zum konventionellen Marching Cube-Verfahren zu entwickeln. So besteht die Möglichkeit den Rechenaufwand durch einen Simplified Pattern Marching Cube- oder Marching Tetrahedra-Algorithmus zu reduzieren. Weiterhin wurden Erweiterungen zur verbesserten Darstellung betrachtet.
So kann durch den Laplace-Filter oder Mittelwertfilter eine Weichzeichnung der Oberflächennetze erzeugt werden. Für eine erhöhte Auflösung besteht die Möglichkeit, die konventionelle Catmull-Clark -Methode oder die 4-8 Subdivision anzuwenden. In diesem Projekt konnte ein umfangreicher Überblick über aktuelle Methoden der Visualisierung von Volumendaten in der Zahnmedizin erstellt werden. Dabei repräsentieren sowohl die theoretischen, wissenschaftlichen Ansätze, als auch die praktische Lösungsansätze den aktuellen Stand der Technik und Forschung. Die Erkenntnisse können die Grundlage für Implementierungen darstellen.
Diese Arbeit beschäftigt sich mit der Entwicklung eines dynamischen Schemas, welches innerhalb einer Webanwendung automatisiert erzeugt und visualisiert wird. Dynamisch beschreibt dabei die Fähigkeit des Schemas, sich an variierende Datenbasen anpassen zu können. Diese Datenbasen bestehen aus den Konfigurationsdaten eines Manufacturing Execution Systems kurz MES, wobei das Schema ein bestimmtes Teilsystem des MES visualisieren wird. Dadurch soll die Betreuung und Optimierung dieses Teilsystems zukünftig erleichtert werden. Der Fokus dieser Arbeit liegt dabei auf der Entwicklung des dynamischen Schemas. Dazu werden zu Beginn Informationen über die Entwicklung und Gestaltung von Informations-Visualisierungen ermittelt. Diese werden durch Informationen aus dem Gebiet
des User-Interface-Designs ergänzt. Zusätzlich werden durch die Auswertung bisher verwendeter, manuell erstellter Schemata Gestaltungsideen für das dynamische Schema gesammelt. Anhand der ermittelten Informationen wird schlussendlich das dynamische Schema entwickelt und ein Konzept aufgezeigt, wie dieses Schema innerhalb einer Webanwendung automatisiert erzeugt und visualisiert werden kann.
Bioabfälle besitzen ein enormes Potential, wenn es um Ressourcenschonung und regionale Wertschöpfung im Sinne eines nachhaltigen Umweltschutzes geht. Besonders im Hinblick auf zukünftige Entwicklungen, bei denen durch das geforderte Getrennthaltegebotes des Kreislaufwirtschaftsgesetzes mit einem vermehrten Bioabfallaufkommen zu rechnen ist, soll die Verwertung dieser organischen Abfälle betrachtet und diskutiert werden. Maßgebend ist dabei der Status quo des Düngemitteleintrages, welcher exemplarisch anhand der kreisfreien Stadt Gera für das Kalenderjahr 2013 ausgewiesen wird. Dass trotz zahlreicher Vorteile, die eine Düngung mit biologischen Abfällen besitzt, nur auf circa 12 % der Ackerflächen Bioabfälle verwertet werden, ist unterschiedlichen Aspekten geschuldet. Diese gründen zumeist auf Bedenken seitens eines möglichen Schadstoffeintrages, der komplexen Rechtslage und wirtschaftlichen Nachteilen. Daraus können zahlreiche Vorschläge abgeleitet werden, die sowohl allgemeine Hinweise als auch spezifische Ratschläge für Behörden beinhalten, um das Bioabfallpotential besser auszuschöpfen.
Im Zentrum der Arbeit steht die Optimierung von Maschinenbelegungsplänen zur unterstützenden Planung des Produktionsablaufs. Für die Lösungsermittlung werden Genetische Algorithmen im Umfeld eines bestehenden ERP-Systems in ihrer Anwendbarkeit untersucht. Nach einer Einleitung und Zielsetzung der Arbeit werden theoretische Grundlagen der Produktionsplanung und
Für die unterschiedlichsten Themengebiete gibt es Entwicklungswerkzeuge. Diese dienen zum Beispiel dazu komplexe Strukturen in verschiedenen Ansichten darzustellen, Teilautomatisiert Daten aufzubereiten und zuverarbeiten. Hierfür werden Programme wie Photoshop für Grafiken und Bilder, Eclipse für Java und QT für C++ genutzt. Office Anwendungen gehören ebenso dazu wie große Design und Berechnungstools aus dem Ingeneuerwesen, zu diesen Instrumenten zählen Pro/ Engineer und Catia sowie Mathlab. In dieser Bachelorarbeit wird für die Entwicklung und Änderung von grafischen Nutzerschnittstellen für Handheld Geräte ein Werkzeugkasten geplant und implementiert. Dieser Editor soll Projekte für die weitere Verarbeitung aufbereiten, nötige Daten von einem Server laden, die voreingestellten Eingabemasken in gewählter Auflösung anzeigen. Zusätzlich sollte die Applikation auf Wunsch das gesamte Projekt, oder teile davon, exportieren können. Eine spätere Implementierung für die Bearbeitung von einzelnen grafischen Elementen ist ebenso angedacht sowie die Erweiterung des Exports durch die Generierung von Mockups mit Probedaten für Präsentationszwecke.
Die vorliegende Bachelorarbeit handelt über das Verschleißverhalten von Diamond Like Carbon Schutzschichten an Düsennadeln im Piezo Common Rail Dieseleinspritzsystem. Nach ausführlichen Informationen zu der Continental AG und reichlicher Grundlagenbetrachtung, werden 2 Prüfstände miteinander verglichen um heraus zu finden ob der neu angewendete Kuppenfestigkeitsprüfstand für das Hervorbringen eines beschleunigten Verschleißes geeignet ist. Dazu werden verschiedene Referenz Proben getestet und durch unterschiedliche Untersuchungsmethoden betrachtet. Die ausgewählten Untersuchungsverfahren sind das Lichtmikroskop, das Rasterelektronenmikroskop, der Nadelöffnungsdruckprüfstand und das Fouriertransformations - Infrarot - Spektrometer. Nachdem der Prüfstand festgelegt wird, beginnt die Betrachtung der unterschiedlichen Verschleissschutzschichten von der Firma Hauzer und der Firma Balzer. Hier dienten die balzerbeschichteten Düsennadeln als Referenz. Ziel ist es heraus zu finden ob die neuen hauzerbeschichteten Düsennadeln ein gleiches Verschleißverhalten aufweisen wie die derzeit in der Produktion verwendeten Balzer Düsennadeln. Die Ergebnisse werden ausführlich und deutlich dargestellt, um eine Entscheidung am Ende der Bachelorarbeit treffen zu können.
Beim Produktionsprozess in einem Erdölraffinerie-Betrieb fällt ammonium- und sulfidhaltiges Abwasser an. Es wird zur ersten Reinigung über eine Strippkolonne, den Faulwasserstripper, geleitet. Sulfid wurde bisher durch Ausstrippung als Schwefelwasserstoff ausreichend abgereichert. Die Abreicherung von Ammonium durch Ausstrippung als Ammoniak genügt trotz hohen Stripdampfeinsatzes häufig nicht den Anforderungen an die anschließende biologische Reinigung mit dem Ziel der Nutzung als Kühlturmzusatzwasser. Nach einem Überblick über die Prozesse der Entstehung, Reinigung und Nutzung des Faulwassers werden aus Untersuchungen von Betriebsmessdaten und Laborversuchen verfahrenstechnische Verbesserungsvorschläge entwickelt. Mit relativ geringem Aufwand lässt sich die Ammonium-Konzentration Ablaufstrom der Strippkolonne durch moderate ph-Wert-Anhebung im Zulaufstrom mittels Natronlaugezumischung verringern und Vergleichmäßigen, ohne dass die Schwefelwasserstoffausstrippung spürbar beeinträchtigt wird. Nach Umsetzung des Vorschlages kann der Strippdampfeinsatz gegenüber dem derzeitigen Niveau gesenkt und somit Energie gespart werden.
Im Rahmen dieser Diplomarbeit werden die Möglichkeiten zur Reduzierung der Eiseneinträge und der damit verbundenen Verockerung des Elligastbaches betrachtet.
Ziel ist es, durch bauliche Maßnahmen die einströmenden Einträge so weit zu verringern, dass ein guter ökologischer und chemischer Zustand des Berichtsgewässers Elligastbach erreicht werden kann. Um die Rückkehr von Lebewesen und Pflanzen in ein Gewässer zu ermöglichen, ist ein guter Gewässerzustand von elementarer Wichtigkeit.
Alle erforderlichen Schritte, die zur Vorbereitung der Wiederherstellung des guten Zustandes notwendig sind, zu denen die baulichen Maßnahmen und Eingriffe in das Gewässer im Wesentlichen zählen, werden in der vorliegenden Arbeit erläutert. Neben der Historie des Standortes und den rechtlichen Grundlagen, werden die Schwerpunkte wie die Probenahme zur Erfassung der anfallenden Menge an Eiseneinträgen, sowie die möglichen Auswirkungen auf das Gewässer beschrieben und daraus resultierend eine Vorstellung verschiedener Varianten bzw. Ausführungen von Maßnahmen zur Ockerreduzierung dargestellt. Die nützliche Verwertung des anfallenden Ockerschlamms ist ein weiterer Punkt in der vorliegenden Arbeit.
Vermessung von hinterlüfteten Fassadenmodulen mit transparenter Wärmedämmung-Aiswetung der Messdaten
(1999)
In Freiburg wurde 1998 ein neuer Fassadenteststand neben dem Solarhaus errichtet. Der Teststand stellt ein für Forschung und Entwicklung wichtiges Instrument dar, dass als Bindeglied zwischen Labor (Prüfung von Bauteilen unter Standardbedingungen) und den Simulationswerkzeugen (theoretische Berechnung der zusammengesetzten Fassade) wirkt. Im praktischen Betrieb wird das Testmodul Wind und Wetter ausgesetzt. So werden auch erste Hinweise zur Beständigkeit und Alltagstauglichkeit gewonnen. Das Produkt macht einen weiteren Schritt zur Serienreife ohne dass Bauherren oder Bewohner belastet werden. Im Rahmen eines Projektes werden an diesem Teststand drei Prototypen von hinterlüfteten Modulen mit transparenter Wärmedämmung vermessen. Die Messdaten umfassen neben den meteorologischen Randbedingungen Temperaturen und Wärmeströme in den Modulen bzw. am Mauerwerk. Der Mittelpunkt der vorliegenden Arbeit ist die Auswertung umfangreicher Messdaten . Durch die grafische Auftragung der Messdaten, Aufstellung von Energiebilanzen, Ermittlung effektiver Kennwerte sowie ausgewählte Simulationen konnte ein sehr guter Vergleich der verschiedenen Module erfolgen. Der Absorptions- und rückseitige Emissionsgrad der Absorber bestimmt dabei maßgebend das thermische Verhalten der Module. Es sind aber noch viele weitere Untersuchungen für anwendungsspezifische Optimierungen der Module erforderlich. <!-- #h:dissdiplFassadenmodule.doc# -->
Die Diplomarbeit untersucht Methoden zur elektrischen und physikalischen Markierung von Flash-Speicher-Zellen in CMOS-Logik-Produkten. Ziel ist der Nachweis der korrekten Umrechnung von logischen Flashzellenadressen in deren physikalische Chip - Koordinaten (Descrambling). Dieser Nachweis ist ein notwendiger vorbereitender Schritt vor Fehleranalysen am eingebetteten Flash-Speicher. Bisherige Methoden zur Überprüfung der Descrambling-Routine für Flash-Speicher sind weder schnell noch effektiv. Eine Optimierung vorhandener und die Einführung weiterer Methoden sollen zur Effizienzsteigerung der Fehleranalyse beitragen. Neben der Untersuchung bereits genutzter physikalischer Effekte, beispielsweise der Thermografie, wurde im Rahmen der Diplomarbeit eine neue Methode entwickelt. Sie beruht auf einer durch Laserbestrahlung hervorgerufenen Zellprogrammierung. Da die Laserprogrammierung sowohl schnelle als auch genaue Ergebnisse erbracht hat, fokussiert die Diplomarbeit auf die Weiterentwicklung und das Verständnis dieser Methode. Die bisherigen Forschungsergebnisse weisen darauf hin, dass es sich bei dem beobachteten physikalischen Effekt um eine durch den Laser Induzierte Heiße Elektronen Injektion (LIHEI) handelt. Die Einsetzbarkeit der LIHEI ist bisher durch eine minimal erforderliche Leistung der integrierten Spannungspumpen limitiert. Daher bleibt eine Methodenauswahl weiterhin erforderlich. Die Zusammenfassung dieser Arbeit beinhaltet eine Übersicht über alle unter-suchten Methoden, sowie ergänzend eine Methodenübersicht für SRAM-Speicher. Mit Hilfe der aufgeführten Tabellen kann in Zukunft vor einer Bitmap-Verifikation eine geeignete Vorgehensweise ausgewählt werden.
Ziel dieser Diplomarbeit ist es, Modellschichten auf der Basis von Chromnitrid die bei unterschiedlichen Beschichtungsparametern in der Westsächsischen Hochschule Zwickau hergestellt wurden mittels EDX- und XPS-Analyse zu untersuchen. Anhand einer repräsentativen mehrfach zu messende Probe sollen die XPS Ergebnisse mit denen der standardfreien und standardbezogenen EDX-Analyse kritisch betrachtet und verglichen werden. Weiterhin soll überprüft werden in wie weit die Ergebnisse der drei analytischen Verfahren vergleichbare und vertrauenswürdige Ergebnisse liefern können. Nach Möglichkeit sollen die Randbedingungen die für vertrauenswürdige Ergebnisse nötig sind genannt werden. Es lassen sich eine Reihe von Teilaufgaben formulieren: In einem ersten Schritt soll sich mit den analytischen Methoden und ihrer Leistungsfähigkeit hinsichtlich der Schichtcharakterisierung der Elektronenstrahl-Mikroanalyse und der Photoelektronenspektroskopie vertraut gemacht werden. Anschließend soll bei den zur Verfügung stehenden Systemeinstellungen für jede zu untersuchende Probe eine qualitative Elektronenstrahl- Mikroanalyse erfolgen und das dazugehörige EDX-Spektrum aufgezeichnet werden. Danach werden die EDX-Spektren mittels standardfreier- und standardbezogener Elementanalyse ausgewertet. Diese Ergebnisse der beiden Mikroanalyseverfahren sollen miteinander kritisch verglichen werden. Anhand der repräsentativen Probe sollen mögliche Randbedingungen für vertrauenswürdige Ergebnisse aufgezeigt werden. Ein weiterer Schritt ist die Photoelektronenspektroskopie in Verbindung mit einer qualitativen und quantitativen Analyse. Anschließend soll eine Tiefenprofilanalyse für ausgewählte Proben und der relevanten Probe erfolgen. Die erhaltenen Daten sollen mit denen der EDX-Analysen verglichen werden und anhand der repräsentablen Probe sollen Randbedingungen für eine vergleichbarkeit der drei Analyseverfahren aufgezeigt werden.
Mit einem modifizierten Pendelfurcher wurden vergleichende Untersuchungen zwischen quasistatischen und dynamischen Furchungen am C45 im normalisierten und vergüteten Zustand durchgeführt. Nach Auswertung der Furchen zeichnet sich ein linearer Zusammenhang zwischen dem Furchenvolumen V und der Furchungsenergie WT ab. Die Furchungsenergie WT steigt mit zunehmender Furchungsgeschwindigkeit v an, d.h. es ist eine Zunahme des Eintrags der Furchungsenergie WT zwischen quasistatischer und dynamischer Furchung zu verzeichnen. Es kann die Aussage, dass die Furchungsenergiedichte eF eine werkstoffspezifische Kenngröße ist, bestätigt werden. Weiterhin wurde eine Abhängigkeit zwischen der Furchungsgeschwindigkeit v und der Furchungsenergiedichte eF festgestellt, d. h. es wurde für die jeweils eingestellte Furchungsgeschwindigkeit ein spezieller Wert für die Furchungsenergiedichte eF ermittelt, der unabhängig vom Volumen V ist. Die beim dynamischen Furchen ermittelten Verfestigungskoeffizienten v sind kritisch zu bewerten, da durch die eingesetzte Messtechnik die realen Erscheinungen des Wallprofils, wie z. B. 'Buchten' auf der Wallunterseite, nicht erfasst werden können. Trotz dieser Unzulänglichkeiten ist eine Differenzierung des Verfestigungskoeffizienten v zwischen C45- normalisiert und C45- vergütet gegeben. <!-- #h:dissdiplPendelfurcher.doc# -->
Im Rahmen der vorliegenden Arbeit wurde ein fermentativer Prozesses im Labormaßstab entwickelt und aufgebaut . Dabei wurde der Effekt der Desintegration auf die Vergärung von Gerstenstroh untersucht. Vor der Vergärung wurde das Stroh mechanisch zerkleinert. Ein Teil des Strohs wurde zusätzlich bei einer Temperatur von 40 °C über einen Zeitraum von 24 h hydrolytisch vorbehandelt, um anschließend fermentiert zu werden. Es wurden dafür vier Laborreaktoren über einen Zeitraum von 162 Tagen täglich mit einem Substratgemisch aus Gerstenstroh und Rindergülle bis zum stabilen Prozessverlauf der Reaktoren beschickt. In der zweiten Versuchsphase über 23 Tage wurde die Beschickung von zwei der Reaktoren auf hydrolytisch vorbehandleltes Stroh umgestellt. Die beiden anderen Reaktoren dienten als Referenz. Danach wurde der Effekt von hydrolytisch vorbehandeltem Gerstenstroh auf die kontinuierliche Vergärung in Bezug auf die Prozessparameter z. B. Temperatur, pH-Wert, flüchtige organische Säuren diskutiert. Die experimentellen Untersuchungen der vorliegenden Arbeit, gaben Auskunft über die Vergärung von hydrolytisch vorbehandeltem Gerstenstroh. Hierbei war zu erkennen, dass hydrolysiertes Gerstenstroh zu einer Senkung der spezifischen Gasproduktion führte. Der Unterschied zu den Referenzreaktoren betrug am Ende der zweiten Versuchsphase 100 mlN/gvs pro Tag. Gründe Grund dafür köonnte die Wirkung des niedrigen pH-Wert des Gerstenstrohs, der durch die Vorbehandlung erreicht wurde, auf die empfindlichen Methanogenen sein. Eine mögliche Adaption der Mikroorganismen an die neuen Substrateigenschaften kann noch über einen Zeitraum der dreifachen Verweilzeit erreicht werden und sollte weiter untersucht werden. Weiterhin sollte durch die Hydrolyse-Vorbehandlung die Angriffsfläche für Mikroorganismen vergrößert werden und die darin befindlichen Enzyme freigesetzt werden. Es war zu befürchten, dass durch die zu niedrigen Temperaturen, die nötige Angriffsfläche für die Mikroorganismen nicht geschaffen wurde. Die durch die Hydrolyse frei werdenden Enzyme verblieben möglicherweise im Wasser und fehlten somit bei der Vergärung in den Reaktoren, was die spezifische Gasproduktion erniedrigte. Es konnte aber festgestellt werden, dass das Vergären von Stroh prinzipiell möglich ist. Um kostengünstige und effizientere Möglichkeiten zu finden, wurden mehrere erfolgreiche Untersuchungen zur Fermentation von Stroh (Gerstenstroh) wie Thermo-Druck- Hydrolyse und der Einsatz von Enzymen durchgeführt . In weiteren Versuchen kann die Vergärung von Gerstenstroh durch verschiedene Maßnahmen optimiert werden. Zu nennen sind beispielsweise die unterschiedliche Vorbehandlung des Strohs durch. chemische-, biologische/biochemische Vorbehandlungen, die Verwendung anderer Substrate als Co-Substrate wie Schweinegülle, Mist usw. Das vorhandene Potential wird weiter ausgenutzt.
Vergleichende Untersuchungen zum Laserstrahlschweißen mit Bifokal-, Scanner- und Drehspiegeloptik
(1998)
Beim Laserstrahlschweißen von Blechen im Stumpfstoß können stoßartbedingte Probleme auftreten. Die Überbrückung des Fügespaltes wird mit zunehmender Spaltweite unvollständig, während sich die Entgasungsbedingungen der Schweißnaht verbessern und umgekehrt. Dabei stellt der Fügespalt des Hauptproblem dar, da die Einhaltung der erforderlichen Spaltweiten im 1/10 Millimeterbereich unter realen Fertigungsbedingungen sehr schwierig ist. Neben dem aufwendigen Laserstahlschweißen mit Zusatzdraht bieten auch spezielle Optiksysteme die Möglichkeit, bei größeren Fügespalten qualitätsgerecht zu schweißen. Das sind z. B. bifokale Optiken und Optiken mit dynamischer Strahlformung (Schwing- und Drehspiegel). Im Rahmen dieser Arbeit werden diese Optiken vergleichend und Einsatzmöglichkeiten dieser Systeme aufgezeigt. <!-- #h:dissdiplBifokale Optiken.doc# -->
Die Einsatzbehörden der Polizei sehen sich zunehmend mit illegalen Besitz von Waffen und Waffenteilen konfrontiert. Eine digitale Identifikation dieser Bauteile vor Ort erhöht die Detektionsrate von Straftaten. Dieser Arbeit untersucht, inwieweit Deep Learning Verfahren diesen Prozess unterstützen können. Basis dieser Untersuchung sind die Erhebung von Bilddaten, die von Waffen und Waffenteilen stammen. Anschließend werden Deep Learning Verfahren ausgewählt und mit den Datensätzen trainiert. Eine Evaluation mit realen Testdaten zeigt, inwieweit eine Einsatzfähigkeit unter Realbedingungen gegeben ist.
Vergleichende Untersuchung zur Dosimetrie in kleinen Strahlenfeldern mit verschiedenen Detektoren
(2006)
Moderne Technik in der heutigen Strahlentherapie (z.B. IMRT, Stereotoxie) gewährleisten eine tumorkonforme Behandlung bei gleichzeitiger Schonung des unterliegenden Gewebes. Sie beruhen auf das Anwenden sehr kleiner Strahlenfelder mit Seitenlängen und Durchmessern bis zu wenigen Millimetern und steilen Dosisgradienten an den Feldrändern der Photonenstrahlen. Für die Dosirutrie solch kleiner Strahlenfelder werden spezielle Detektoren benötigt, welche ein sehr hohes räumliches Auflösungsvermögen besitzen sollten. Der Querschnitt des empfindlichen Detektorvolumens sollte deutlich kleiner gegenüber dem Querschnitt des Strahlenfeldes sein. Weiterhin wird davon ausgegangen, dass bei sehr kleinen Feldgrößen dosimetrische Grundprinzipien (SEG, Bragg-Gray-Prinzip) verletzt werden. Im Rahmen der Diplomarbeit wurden Messungen mit den Halbleiterdetektor, Diamantdetektor, PinPoint-Ionisationskammer (TLD) durchgeführt.
Nach einer kurzen Vorstellung des Xwindows Systems erfolgt eine Klassifizierung von User Interface Elementen. Daran schließen sich Kapitel über die Toolhits Xview, Motif, Xforms on. Jedes dieser 3 Toolhits wird kurz vorgestellt und die Struktur und der Aufbau dargelegt. Abschließend erfolgt ein Vergleich der Bestandteile der Toolhits hinsichtlich der Eingangs aufgestellten Klassifizierung. <!-- #h:dissdiplUNIX.doc# -->
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Systems zur Pulsformanalyse kurze Pulse eines Excimerlaser. Mit diesem System soll eine Echtzeitmessung umgesetzt werden um die Betriebsparameter des Lasers während des Prozesses anpassen zu können. Dazu wurden verschiedene Detektoren und Detektormaterialen miteinander verglichen. Außerdem wurde ein schneller Silizium-Carbid Fotodetektor entwickelt, der für den UV-Bereich hervorragende spektrale Eigenschaften besitzt. Des Weiteren wurden die Pulse des Excimerlasers ausgewertet und ein darauf abgestimmtes Messsystem zusammengestellt.
Die vorliegende Arbeit untersucht verschiedene wärmeschutz- und anlagentechnische Sanierungsszenarien und deren Kombinationsmöglichkeiten. Die erzielten Ergebnisse lassen eine klare Tendenz erkennen und im Hinblick auf mit dem Modellgebäude vergleichbare Gebäude Rückschlüsse bezüglich Sanierungsempfehlungen zu. Die Sanierung des Modellgebäudes mit Dämmmaterialien der gängigen Wärmeleitfähigkeitsgruppe 040 in
Vergleichende Betrachtungen von Varianten der Wärmeenergiebereitstellung in einem Sanierungsobjekt
(2007)
Für ein zu sanierendes Wohngebäude wurde mit Hilfe der DIN V 18599 der Energiebedarf ermittelt. Für 7 Heizungsvarianten wurde anhand der Energiebedarfe ein Vergleich der Wirtschaftlichkeit durchgeführt. Dabei zeigte sich, dass die Sole/Wasser-Wärmepumpe die wirtschafltich vorteilhafteste Heizvariante für dieses Gebäude ist.
Vergleichende Betrachtung von thermischen Solaranlagen zur Heizungsunterstützung bei Fertighäusern
(2010)
Thermische Solaranlagen von Fertighausherstellern werden in den Vergleich mit dem freien Markt und einer eigenen geplanten Anlage gesetzt. Alle Anlagen werden umfangreich mit einem Simulationsprogramm (polysun von vela solaris) ausgewertet. Die eigene Anlage ist individuell mit innovativen Komponenten geplant.
Die Umstellung unserer Energieversorgung von fossilen Energieträgern auf erneuerbare Energien lässt den Photovoltaiksektor auch weiterhin wachsen. Durch diese Entwicklung sinken die Preise für Photovoltaikmodule stetig. Da eine Photovoltaikanlage (PV-Anlage) die Möglichkeit bietet, sowohl einen Teil des Elektroenergiebedarfes zu decken, als auch überschüssigen Strom einzuspeisen und die Preise für Elektroenergie beständig steigen, gibt es eine hohe Zubaurate für diese Anlagen. Im Jahr 2011 wurden 7,5 GWel Leistung in Form von PV-Analgen aber nur 0,9 GWth als solarthermische Kollektoren installiert. Es wird allerdings davon ausgegangen, dass 300 bis 400 GWth im Wärmebereich notwendig sind, um einen wirksamen Klimaschutz zu erzielen. Dies würde einem Anteil an Solarenergie von etwa 15% entsprechen. Eine Möglichkeit diese Entwicklung zu kompensieren, besteht darin einen Teil der erzeugten Elektroenergie zur Heizungsunterstützung und zum Bereiten von Warmwasser zu nutzen. Derzeitig ist das wirtschaftlich noch nicht interessant. Der Hauptgrund ist darin zu sehen, dass Erdgas und Heizöl derzeitig zu günstig sind, um sie durch Elektroenergie aus einer PV-Anlage zu ersetzen, wenn diese selbst verbraucht bzw. eingespeist werden kann. Die Netzparität für Strom aus Photovoltaikanlagen wurde bereits 2012 erreicht, aufgrund der großen Nachfrage von Photovoltaiksystemen fallen bei diesen Anlagen die Stromgestehungskosten stetig, während gleichzeitig die Bezugskosten für Öl und Gas steigen. Daher wird es bereits in naher Zukunft wirtschaftlich interessant sein, einen Teil des PV-Stroms zum Bereiten von Warmwasser und zur Heizungsunterstützung zu verwenden und so überschüssige Energie zu nutzen. In der vorliegenden Arbeit wurden verschiedene PV-Anlagen mit und ohne partieller Deckung des Wärmebedarfes unter den derzeitigen und zukünftigen preislichen Entwicklungen in Bezug auf Ihre Wirtschaftlichkeit verglichen. Des Weiteren wird der wirtschaftliche Nutzen der Verwendung von Akku-Systemen für PV-Anlagen zur Erhöhung des solaren Deckungsgrades (SD) im Vergleich zum Decken des Wärmebedarfes durch überschüssige Elektroenergie betrachtet. Diese verschiedenen PV-Anlagensysteme werden weiterhin solarthermischen Anlagen gegenübergestellt, um die Wirtschaftlichkeit im Vergleich zu einem System mit ausschließlicher Wärmegewinnung beurteilen zu können. Abschließend wird der Fall betrachtet, dass bereits eine Wärmepumpe zur Bereitung von Warmwasser und als Raumheizung vorhanden ist und ein Teil der notwendigen Elektroenergie für diese Anlage durch Verwendung einer PV-Anlage gedeckt wird. Ziel ist die Klärung der Frage, welche der betrachteten Anlagen über den Betrachtungszeitraum von 20 Jahren am wirtschaftlichsten arbeitet. Dazu werden die Anschaffungskosten, die Amortisation und die Stromkosteneinsparung je Anlage ermittelt und innerhalb dieses Zeitraums verglichen. Der Betrachtungszeitraum erstreckt sich zum einen ab dem Jahr 2013 und zum andern ab dem Jahr 2030, wobei hier die jeweils geltenden Rahmenbedingungen berücksichtigt wurden. So soll geklärt werden, wie sich die Wirtschaftlichkeit der einzelnen Anlagen in Zukunft verändert und eine Empfehlung zur Wahl eines Anlagentyps gegeben werden.
Die vorliegende Diplomarbeit beschäftigt sich mit dem ökonomischen und ökologischen Vergleich ausgewählter Heizsysteme unter Berücksichtigung eines Mikro-Blockheizkraftwerkes. Einleitend erfolgt die Darstellung wesentlicher Merkmale der Technologien. Der Vergleich der Heizanlagen zur Bereitstellung von Raumwärme und Warmwasser basiert auf der Annahme zweier Versorgungsaufgaben, einem Ein-familienhaus und einem Reihenmittelhaus. Als Versorgungssysteme dienen die Gas-brennwerttechnik, Wärmepumpen mit den Wärmequellen Luft, Sole und Wasser sowie ein Holzpelletkessel und ein Mikro-Blockheizkraftwerk. Heizkosten sind eine sich stetig verändernde Größe. Die Wirtschaftlichkeitsberechnungen beruhen daher auf einem dynamischen Verfahren, nämlich der Annuitätenmethode. Die ökologische Betrachtung erfolgt auf Basis des Primärenergiebedarfs und der CO2-Äqivalent-Emissionen.
Für die Errichtung von Freiflächen-Photovoltaikanlagen gibt es mehrere Systeme, die angewandt werden können. Es bieten sich starre, 1-achsig und 2-achsig nachgeführte Anlagen an. Da durch das EEG eine feste Einspeisevergütung festgelegt ist, ist der wichtigste Investitionsaspekt die Wirtschaftlichkeit und somit die verbundenen Kosten zum Ertag. Eine nachgeführte Anlage hat eine höheren Ertrag an kWh pro installierter Leistung, jedoch auch höhere Investitionskosten (Tracker, Mechanik, Fundamente, etc.). Es wird mit Hilfe eines Simulationsprogrammes für eine Standardanlage bei Nürnberg jede dieser Anlagentypen berechnet und die Kosten dazu ins Verhältnis gesetzt. Wann lohnt sich welcher Anlagentyp in Mitteleuropa, welche Risiken bestehen, und welcher Anlagentyp ist zu favorisieren.
In dieser Arbeit wird ein Vergleich von subjektiven und physikalischen Verfahren zur Bewertung von Lärm durchgeführt, mit dem Ziel, das Verfahren zu finden, das dem menschlichen Hörvermögen am besten entspricht. Dazu wurde die Belastung, die von einem vorbeifahrenden Bus auf einer angrenzenden Straße ausgeht, ausgewählt und nach dem A-bewerteten Schalldruckspiegel und nach der Lauthaut untersucht. Die Ergebnisse zeigen, dass die Lautheit das realitätsnähere Bewertungsverfahren ist und in Zukunft sollten dementsprechende Grenzwerte festgelegt werden.
Nutzererwartungen an IT-Systeme haben sich in den letzten Jahren verändert. Online-Dienste müssen ständig verfügbar sein und im Millisekunden-Bereich Anfragen bearbeiten. Traditionelle IT-Systeme haben Probleme, die Erwartungen nachhaltig zu erfüllen. Reaktive und asynchrone Systeme erfüllen mit modernen Konzepten die Erwartungen besser.
In dieser Arbeit werden die Grundlagen von Asynchronität und reaktiven Systemen dargestellt. Dazu zählen Konzepte, wie Streaming oder Actor Model. Verteilung und Skalierung von reaktiven Systemen werden betrachtet.
Im Hauptteil der Arbeit wird ein Vergleich von Werkzeugen für die Implementierung reaktiver Systeme durchgeführt. Die Werkzeuge Project Reactor, vlingo XOOM und Akka werden verglichen. Die Vergleichskriterien betrachten u. A. den Funktionsumfang, die Einstiegshürde für Entwickler und die Leistungsfähigkeit der Werkzeuge. Die Bewertung der Kriterien wird durch die Implementierung eines Prototypen mit den drei Werkzeugen unterstützt.
Aus den Bewertungen der Kriterien entstehen Rangfolgen, die durch die Ermittlung der Durchschnittsplatzierungen zu einer Gesamtbewertung der Werkzeuge führen. Aus der Gesamtbewertung und den in dieser Arbeit gewonnenen Eindrücken werden unterschiedliche Einsatzgebiete für die Werkzeuge definiert.
In dieser Arbeit werden die Temperaturen von elektrochemischen Gassensoren mittels drei verschiedener Temperaturmessverfahren experimentell bestimmt. Die Sensortem-peraturen sollen Widerstandsverhältnissen von Platinwiderständern zur Heizungsregelung zugeordnet werden. Eine Berechnung des Zusammenhanges wird mittels temperaturabhängigen elektrischen Widerstand sowie elektrochemischer Reaktionen ver-sucht. Als Messverfahren kommen die Thermographie, Mikrothermoelemente und die Messung mit Mantelthermoelemente im Ofen zum Einsatz. Es konnte gezeigt werden, dass die Messung im Ofen zu niedrige Temperaturmesswerte erzeugt. Thermographie und Mikrothermoelemente liefern annähernd gleiche Werte. Damit konnten der gesuchte Zusammenhang zwischen Widerstandsverhältnis und Sensortemperaturen bestimmt werden.
Die Bundesregierung um Olaf Scholz plant, den Marktanteil der erneuerbaren Energien bis 2030 auf bis zu 80 % zu erhöhen, um den Klimawandel zu bekämpfen. Dies erfordert nicht nur den Bau von mehr Anlagen, sondern es ist auch wichtig, deren Effizienz zu verbessern. Daher ist es entscheidend, die Bedeutung von "Effizienz" zu verstärken. Eine Anlage muss nicht nur mit möglichst wenig elektrischen Verlusten arbeiten, sondern auch kostengünstig sein. So hat ein Entwickler von Photovoltaikanlagen wie die Leipziger Energie die Aufgabe, Komponenten einzusetzen, die einen hohen Energieerzeugung und geringe Verluste aufweisen und zu einem vernünftigen Preis erworben werden können. Eine dieser Komponenten sind die Kabel, die die Wechselrichter mit dem Transformator verbinden, die unterschiedliche Mengen an Spannungen leiten können. In dieser Arbeit will ich verschiedene Formationen von PV-Anlagen mit variablen Spannungsebenen untersuchen, die sich auf die technische Realisierung, die wirtschaftliche Machbarkeit und die Nachhaltigkeit beziehen. Dazu habe ich drei verschiedene Formationen der gleichen Größe, aber mit unterschiedlichen Abmessungen geplant. Die besten Ergebnisse wurden durch die quadratische Formation mit der höchsten Spannung von 690 V erzielt. Die geringstmöglichen Kosten für den Entwickler sind mit einem Kernquerschnitt von 95 mm² gegeben, wobei die höchste Reduzierung der Kohlendioxidemissionen bei einer Spannungsebenen von 800 V mit einem Kernquerschnitt von 300 mm² erzielt wurde. Obwohl die Preise mit einem höheren Querschnitt und einer höheren Spannungsebene steigen, würde ich sie persönlich empfehlen, da sie zu einem immer noch vernünftigen Preis nachhaltiger sind.
Medizinische Leitlinien zu modellieren und zu formalisieren, sodass sie computergestützt verarbeitet und ausgewertet werden können ist eine komplexe aber wichtige Arbeit. Nur eine solche Ausführbarkeit ermöglicht die beste Patientenversorgung ohne diese aufzuhalten. Dazu werden verschiedene Modellierungssprachen eingesetzt, die domänenspezifische Besonderheiten und Einschränkungen aufweisen. In dieser Arbeit sollen Sprachen die im klinischen Umfeld Verwendung finden evaluiert werden. Dazu sollen in dieser Arbeit klinische Modellierungssprachen für Prozesse und standardisierte Modellierungssprachen wie UML und BPMN formal verglichen werden. Heutzutage ist die Computergestützte Ausführung von medizinischen Leitlinien eines der interessantesten Themen der Informatik. Medizinische Leitlinien enthalten Prinzipien und Richtlinien, die Praktiker bei der Diagnose, Therapie oder anderen spezifischen klinischen Behandlungspfaden unterstützten. Im Rahmen dessen wurde eine umfangreiche Literaturrecherche durchgeführt.
Die Aussagekraft der flüchtigen Fettsäuren als Zustandsparameter in Anaerobprozessen ist allgemein anerkannt. Viele der bekannten Messmethoden sind allerdings sehr teuer, mit erheblichem Aufwand verbunden oder in aktiven Schlämmen sehr unpräzise oder instabil. In dieser Arbeit wurden die Stabilität und die Präzision von drei Messmethoden für flüchtige Fettsäuren in aktiven Faulschlämmen untersucht, einem GC-FID (HP 5890 Serie II der Fa. Hewlett Packard), einem FTIR-Spektrometer (Spectrum One der Fa. Perkin Elmer) sowie einem Photometer (LASA 50 der Fa. Dr. Lange). Die Präzision der Messwerte nahm bei allen Methoden mit steigender Konzentration an Fettsäuren zu. Es konnte eine starke Abhängigkeit des FTIR-Spektrometers und des Photometers vom pH-Wert und der Fettsäuren-Zusammensetzung der Proben gezeigt werden. Die Messwerte am GC-FID wurden vom Trockensubstanzgehalt der Proben beeinflusst. Zusätzlich wurde die Anwendbarkeit der FTIR-Spektrometrie und der photometrischen Methode in privaten Biogasanlagen diskutiert. Eine ökonomische Gegenüberstellung der Biogasgewinnung mit und ohne Prozessüberwachung ergab für den Eisatz der untersuchten Methoden eine erhebliche Mehrproduktion an Biogas und eine Zunahme der Jahresgewinne um das dreifache.
Der erste Teil beinhaltet die Analyse und den Vergleich verschiedener mathematischer Modelle zur Deponiegasprognose. Der zweite Teil beschäftigt sich mit einem Beitrag zur Entwicklung eines Verfahrens zur Bestimmung des biologisch abbaubaren organischen Kohlenstoffgehaltes in Abfallproben. Dabei wird ein bereits bestehendes Verfahren überprüft, modifiziert und optimiert. <!-- #h:dissdiplDeponiegasprognosemodelle.doc# -->
Die Bachelorarbeit stellt die klassischen und die In-Memory Datenbanktechnologien vor und zieht einen Vergleich zwischen diesen. Nach eingehenden Betrachtungen eines Datenbankeinsatzes werden die technologischen Grundlagen erläutert. Weiterhin erfolgt die Analyse verschiedener klassischer Datenbanktechnologien. Anschließend werden In-Memory Technologien betrachtet und aufgezeigt, wie der Arbeitsspeicher als Datenspeicher genutzt wird. Neben dem direkten Vergleich der einzelnen Technologien wird auf Vor- und Nachteile in der Speichertechnik eingegangen. Näher werden Komprimierungstechniken bei der In Memory Speicherung betrachtet und miteinander verglichen. Des Weiteren erfolgt eine Gegenüberstellung unterschiedlicher Speichermedien hinsichtlich Einkaufspreis und Verar-beitungsgeschwindigkeit.
Die formale Begriffsanalyse ist eine mathematische Theorie aus dem Bereich der Algebra für binäre Relationen. Dabei stellt sie eine Methode zur Datenanalyse dar. In der Masterarbeit bildet die formale Begriffsanalyse die Grundlage zum Vergleich der Modulbeschreibungen von Studiengängen. Der Hauptteil der Arbeit befasst sich mit der Entwicklung der Software FCA-Modul-Tool. Sie wendet die formale Begriffsanalyse auf Modulbeschreibungen an. Generierte Begriffsverbände und Diagramme dienen der Erkennung von Gemeinsamkeiten und Unterschieden in den Studiengängen. Dabei kommen verschiedene Vergleichskriterien zum Einsatz. Die Bewertung der entwickelten Software, die Auswertung der erhaltenen Ergebnisse basierend auf den Vergleichen sowie mögliche Anwendungsbereiche der Software schließen die Arbeit ab.
In der vorliegenden Diplomarbeit werden Lasersysteme, welche im Wellenlängenbereich um 2 µm Strahlung emittieren, für Anwendungen in der Urologie miteinander verglichen. Dabei werden Zusammenhänge zwischen technischen Spezifikationen der Lasersysteme und Ergebnissen aus in vitro durchgeführten Modellversuchen untersucht. Auf der einen Seite werden zwei bereits klinisch etablierte blitzlampengepumpte gepulste Ho-Festkörperlasersysteme unterschiedlicher Hersteller miteinander verglichen. Auf der anderen Seite erfolgt ein Vergleich zweier diodengepumpter Dauerstrich-Lasersysteme ebenfalls verschiedener Hersteller. Dabei handelt es sich um eine industriell eingesetzte Version eines baugleichen klinisch etablierten Tm-Festkörperlasersystems sowie um ein für eine klinische Prüfung zugelassenes Tm-Faserlasersystem. In der Urologie werden diese Lasersysteme je nach Betriebsart zur Koagulation, Dissektion oder Vaporisation von Gewebe bzw. zur Lithotripsie von sich im Harntrakt befindlichen Steine angewendet. Damit abgeschätzt werden kann, welches Lasersystem für verschiedene klinische Anwendungen geeigneter sein könnte, werden mit Hilfe aller Lasersysteme Schnittversuche an Nierenparenchym durchgeführt. Weiterhin erfolgen eine Lithotripsie künstlicher Steine mittels gepulster Lasersysteme und eine Vaporisation von Muskelgewebe mit Hilfe von Dauerstrich-Lasersystemen. Anhand von Ergebnissen aus Analysen technischer Spezifikationen werden die Resultate der Modellversuche interpretiert. Zur Applikation der Strahlung dienen flexible Quarzglasfasern.
In den letzten Jahren wurde es durch leistungsfähigere Geräte und bessere Internet-Abdeckung ermöglicht, neben statischen Webseiten auch komplexe Anwendungen im Web anzubieten. Dazu zählen Dienste wie Shopping, Banking, Lehre, soziale Medien oder Unterhaltung. Die steigende Komplexität der Anwendungen führte dabei im Entwicklungsprozess zu neuen Anforderungen. Einige davon werden durch die Nutzung von komponentenbasierten Frontend-Frameworks befriedigt, die die Darstellung und Logik komplexer Seiten in Komponenten unterteilen und stark an Beliebtheit gewonnen haben.
Durch die steigende Relevanz der Webentwicklung ist auch die Integration dieser in Informatik-Studiengänge in Betracht zu ziehen. Komponentenbasierte Frontend-Frameworks könnten dabei durch Abstraktion redundanter und aufwendiger Prozesse einen motivierten Einstieg in die Webentwicklung im Rahmen der Hochschulbildung bieten. Dazu wird in Vergleich zwischen den Konzepten einer Teilmenge der Frameworks, namentlich Angular und Vue.js, mit Blickpunkt auf die Bildung vorgenommen. Zusätzlich werden vorlesungsbegleitende Praktikumsaufgaben aufgestellt, die der Erprobung und Vertiefung des durch die Studenten erlangten Wissens dienen. Die Praktikumsaufgaben stützen sich dabei auf ein Projekt, welches sowohl in Vue.js, als auch in Angular implementiert wurde, um diese unabhängig von der Wahl nutzen zu können.
In dieser Arbeit werden verschiedene Open Source Web-Content-Management-Systeme miteinander verglichen. Diese Systeme kommen als neue Grundlage für das Sytem einer Firmen-Website in Betracht. Mit dem Relaunch der Website soll auf einen Content-Management basierenten Veröffentlichungszyklus umgestellt werden. Sie beginnt mit einer Erklärung von verschiedene Begriffen des Web Publishing und einer Gegenüberstellung des Publishing mit und ohne Web-Content-Managment-System. Daran schließt sich eine grobe Klassifizierung der verschiedenen Arten von Content-Management-Systemen an und ein kurzer Überblick über die verschiedenen Generationen von Content-Management-Systemen. Im Folgenen wird erklärt welchen Nutzen und welche Leistungen Content-Management-Systeme haben und aus welchen Komponenten ein CMS besteht, und welche Funktionen sie haben. Eine kurze Auflistung der Quellen für Inhalte, vervollständigt den Teil. Im Anschluß ist die Bewertung der 6 getesteten Systeme und am Ende ein Zusammenfassung zu dem gesamten Vergleich.