Refine
Year of publication
Document Type
- Diploma Thesis (825)
- Bachelor Thesis (629)
- Master's Thesis (353)
Institute
- Physikalische Technik, Informatik (1807) (remove)
Is part of the Bibliography
- no (1807) (remove)
In dieser Arbeit wurde Distributed Tracing mithilfe der OpenTracing API in eine Microservice-Architektur implementiert. Für die Implementierung wurde eine firmeninterne Bibliothek verwendet, die auf der OpenTracing API basiert. Zur Überwachung wurde eine Zeitreihendatenbank aufgesetzt, deren Datensätze in einem Grafana-Dashboard visualisiert sind.
Überwachung der technischen Parameter der Integrationsplattform Ensemble® mit Hilfe von Dashboards
(2011)
Datenaustausch spielt im Gesundheitswesen eine immer größere Rolle. Einerseits tauschen die Einrichtungen untereinander Patienten- und Abrechnungsdaten aus, andererseits kommunizieren Anwendungsbausteine eines Krankenhausinformationssystems nachrichtenbasiert untereinander. Es existiert eine Vielzahl verschiedener Kommunikationsstandards. Der wichtigste im Krankenhausumfeld ist heutzutage HL7. In dieser Arbeit wird am Beispiel einer simulierten Kommunikationsbeziehung zwischen zwei Teilsystemen eines Krankenhausinformationssystems die Überwachung des nachrichtenbasierten Datenaustauschs betrachtet. Es ist notwendig, den Informationsfluss zu überwachen, um beispielsweise fehlerhafte Nachrichten oder Kommunikationsstörungen schnell erkennen zu können. Eine Störung der Kommunikation kann im medizinischen Umfeld weitreichende Folgen bis hin zur Gefährdung des Patientenlebens haben.
In der vorliegenden Arbeit soll die Elektromyographie auf ihre Einsetzbarkeit und Eignung zur Beurteilung schwimmrelevanter Parameter im Behindertenschwimmen untersucht werden. Der bisherige Entwicklungsverlauf der Elektromyographie im Wasser wird anhand einer Literaturrecherche dokumentiert. Ein entsprechendes Equipment ist zu entwickeln und im Labor- und Feldtest zu untersuchen. Die Ergebnisse werden gegenüberstellend diskutiert und erläutert und auf ihre Aussagekraft geprüft. <!-- #h:dissdiplBehindertenschwimmen.doc# -->
In der heutigen Zeit werden viele Prozesse im Gesundheitswesen elektronisch unterstützt. Die Patientenbehandlung beginnt mit dem Auslesen der Gesundheitskarte und wird vom Transfer der verschiedenen Daten begleitet, wie z. B. Laborbefunde, Röntgenbilder, Arztbriefe usw. Die Probleme der Telemedizin machen sich immer häufiger bemerkbar. Die elektronische Datenübertragung im Gesundheitswesen ist eines der wichtigsten Themen unserer Zeit. Dies bezieht sich auf die Kommunikation zwischen unterschiedlichen Systemen. Obwohl schon viele Standards für den Datenaustausch in der Medizin existieren, fehlen noch oft die Standardverfahren dafür. In dieser Arbeit wurde die Datenübernahme aus dem Rettungsdienstinformationssystem in das Krankenhausinformationssystem analysiert und ein möglicher Verlauf prototypisch umgesetzt.
Die vorliegende Bachelorthesis analysiert den Sachverhalt des Typemappings in der modellgetriebenen Softwareentwicklung näher. Das Typemapping befasst sich hierbei mit dem Abbilden von UML-Typen auf programmiersprachenspezifische Datentypen. In dem Transformationsprozess, welcher als Resultat den generierten Quelltext aufweist, wird bei der Modell-zu-Quelltext-Transformation das Typemapping aufgerufen. Dieser Mechanismus ist bereits im vorliegenden GeneSEZ Projekt implementiert, genügt aber den aktuellen Anforderungen nicht mehr. Das Typemapping basiert auf XML-Dateien, welche verarbeitet werden. Ziel ist es, weitestgehend die Struktur zu überarbeiten und unter Verwendung einer besseren XML-Verarbeitungs-API, die Mechanismen, wie das Einbinden beziehungsweise referenzieren weiterer Typemapping Dateien um einen Multi-Include Mechanismus zu erweitern und kleinere Änderungen am Verhalten der bis dato eingesetzten Lösung vorzunehmen. Des Weiteren ist es notwendig, eine Validierung der XML-Dateien zu implementieren, mit der Folge dass ebenfalls eine dagegen zu validierende Definitionsdatei entwickelt werden muss. Die Verwendung aktueller Technologien und Entwicklungsprozesse ist weitestgehend Bestandteil, um eine zukunftssichere, sowie verständliche und leicht erweiterbare Lösung zur Verfügung zu stellen. Mögliche Anforderungen, welche nach Abschluss der Thesis anfallen, können so zeitnah und mit geringem Aufwand umgesetzt werden.
Zunehmend ersetzen Microservice-dominierte Architekturen monolithische oder starre SOA-Architekturen durch Infrastrukturlandschaften mit kleinen, der kontinuierlichen Anpassung unterworfenen Services eigenverantwortlicher Entwicklerteams. Das betrifft den Einbezug sowohl externer als auch unternehmensinterner Services. Die Arbeit gibt einen Überblick über das veränderte Vorgehen bei der Softwareentwicklung durch z.B. Container-Technologien und zeigt die Auswahl benötigter Werkzeuge, Qualitätssicherungs- und Auslieferungsprozesse auf. An einem konkreten Projektbeispiel wird deren Zusammenspiel nachgewiesen.
Zweiphotonenmikroskopie (2PLSM) an statisch und dynamisch kultivierten 3D-Chondrozytenkulturen
(2008)
Nichtinvasive laseroptische Visualisierungsverfahren gewinnen in der biologischen Analytik zunehmend an Bedeutung. Insbesondere die Analyse der Autofluoreszenz bietet die Möglichkeit, strukturelle Eigenschaften und zellbiologische Prozesse ohne biochemischen Eingriff in das biologische Milieu zu detektieren. Das Ziel der Diplomarbeit bestand in der Untersuchung des Einflusses verschiedener Scaffoldmaterialien, wie auch in der Untersuchung des Effektes der mechanischen Zellstimulation auf das Zellwachstum und die Zelldifferenzierung von Chondrozyten in 3D-Zellträgerkonstrukten. Dabei wurden mittels der Zweiphotonenmikroskopie (2PLSM) die Möglichkeiten der selektiven Visualisierung von Scaffolds, Zellen und zellsynthetisierten extrazellulären Matrixsubstanzen validiert. Im Ergebnis der Arbeit konnte gezeigt werden, dass die Anzahl und die Verteilung der Chondrozyten im 3D-Tissue Engineering-Konstrukt mittels 3D-Rendering sowohl visualisiert wie auch quantifiziert werden konnte. Dabei erfolgte die Quantifizierung auf der softwarebasierten Größenerkennung, sowie der Klassifizierung nach RGB-Signalanteilen. Weiterhin konnte gezeigt werden, dass die Dedifferenzierung primärer Chondrozyten durch die in vitro Kultivierung auf dem dreidimensionalen Scaffoldmaterial und durch die hydrostatische Stimulation verzögert wird. Im Vergleich der getesteten Materialien weist das Schwamm-Scaffoldmaterial mit kleinen Poren die günstigsten Effekte hinsichtlich einer Verzögerung dedifferenzierender Prozesse auf. Die erhaltenen Ergebnisse wurden abschließend mit biochemischen Daten und Ergebnissen einer Genexpressionsanalyse verglichen.
Die Bachelorarbeit beschäftigt sich mit einem PVD-Kombinationsverfahren in einer Drehtrommelanlage, zur Abscheidung von metallischen Schichten auf Kleinteilen, die als Schüttgut behandelt werden. Das Verfahren baut auf einer Technologieentwicklung zur plasmaaktivierten Hochratebedampfung plus Puls-Magnetron-Sputtern auf. Es dient dazu Korrosionsschutzschichten als Multilagen- bzw. Legierungsschicht abzuscheiden. Bei der etablierten Abscheidung mehrlagiger Korrosionsschutzschichten werden die PVD-Verfahren abwechselnd betrieben. Für die Erzeugung von Legierungsschichten wurden erstmals beide physikalischen Verdampfungsprozesse parallel gefahren, im Hinblick auf die gezielte Variation der Schichtzusammensetzung zur Verbesserung der Korrosionsbeständigkeit. Anhand der Ergebnisse der Einzelprozesse, Aluminiumbedampfung und Magnetronsputtern, wurden Prozessabläufe für die Abscheidung von Legierungsschichten etabliert und die Schichtdickenverteilung für die verschiedenen Legierungszusammensetzungen bestimmt.
Diese Aarbeit stellt die Erarbeitung des Risikomanagements nach DIN EN ISO 14971:2013-04 für ein neu entwickeltes Medizinprodukt, im Rahmen einer Eigenherstellung nach §3 (21) Medizinproduktegesetz vor. Bei dem betrachteten Medizinprodukt handelt es sich um einen Wellengeber (HeProVibe) mit dazugehöriger Ansteuerungseinheit (CKM EVA-02) für die Magnetresonanz-Elastographie. Die medizinische Elastographie stellt eine vielversprechende Methode zur Darstellung und Bewertung der viskoelastischen Eigenschaften von Organen und Weichteilgeweben dar, welche mittels Palpation nicht zugänglich sind. Im Rahmen dieser Arbeit wurde am Lehrstuhl für Computerunterstützte Klinische Medizin Medizinische Fakultät Mannheim Universität Heidelberg (CKM) für das Elastographie-Projekt ein Risikomanagement erstellt. Des Weiteren wurden Vorlagen für weitere Analysen der späteren Lebensphasen des Medizinproduktes angelegt. Beschrieben werden die Anforderungen an das Risikomangement im Rahmen der technischen Dokumentation und die verwendeten Methoden zur Erstellung eines vollständigen Risikomanagements. Mittels der Gefahrenanalyse wurden in Summe 30 Fehler erarbeitet, von denen 22 im Bereich mit akzeptablen Risiken liegen. Es wurden 8 Fehler identifiziert, bei denen das Risiko zwar vertretbar, jedoch eine Senkung des Risikos, zum Schutz vorgenommen wurde. Dabei zeigen Prüfungen und Berechnungen, dass ein risikoarmes Betreiben des Wellengebers bedenkenlos stattfinden kann. Das Ergebnis der Risikoanalyse, bei welcher Gefahren und Gefahrensituationen für Patienten, Anwender und Dritte einbezogen wurden, zeigt entsprechend, dass der Nutzen die Restrisiken bei der Anwendung des HeProVibe eindeutig übersteigt.
Es wurde untersucht, ob mit der Methode laserinduzierter akustischer Oberflächen-wellen randschichtgehärtete Stähle hinsichtlich ihrer Härtetiefe und Oberflächen-härte charakterisiert werden können. Zur Randschichthärtung wurde das Laser-härten eingesetzt, mit dem Härtetiefen bis zu 2mm erzielt werden können. Für diesen Bereich gibt es noch kein zerstörungsfreies Verfahren zur Charakterisierung der Härtezone. Die Untersuchungen wurden an den Stahlmarken 42CrMo4, C45, X155CrMoV12.1, 90MnCrV8 und 17CrNiMo6 durchgeführt. Als Messgröße diente die Ausbreitungsgeschwindigkeit der akustischen Ober-flächenwellen, die in Abhängigkeit von der Frequenz gemessen wurde. Das Ergebnis nennt man Dispersionskurve. Wichtig ist dabei, dass die Eindringtiefe von der Frequenz abhängt, weshalb mit dieser Messung unterschiedliche Tiefen des Materials abgefragt werden können. Es wurde Frequenzen von 1 bis 10 MHz angewendet, für welche die Eindringtiefe in reziproker Abhängigkeit von 0,3 bis 3 mm variiert. Die metallphysikalische Grundlage für die Annahme der Möglichkeit, dieses akustische Verfahren anwenden zu können, besteht darin, dass die martensitische Härtung das Metallgitter aufweitet, wodurch sich Elastizitätsmodul und Dichte verringern. Beide Materialkennwerte bestimmen die Schallgeschwindigkeit. Es wurde an allen Stahlmarken nachgewiesen, dass die Schallgeschwindigkeit durch das martensitische Umwandlungshärten verringert wird. Durch Anlassen von drei Stählen wurde dieser Effekt rückgängig gemacht, da sich das Gitter entspannt. Der Messeffekt, der vom Laserhärten hervorgerufen wird, liegt im Bereich von 2-3 %. Dies erfordert eine ausreichend hohe Messgenauigkeit, um Unterschiede in Härte und Härtetiefe empfindlich genug nachweisen zu können. Dafür wurde eine Messanordnung entwickelt, die auf Laseranregung der Oberflächenwellen beruht. Im Gegensatz zu herkömmlichen ultraschallerzeugenden Wandlern lassen sich Schallimpulse ohne Koppelmedium reproduzierbar und in definiertem Abstand anregen. Durch eine Zeiterfassung der Signale mit 10 GSa/s Abtastrate wurde an ebenen Oberflächen eine Wiederholgenauigkeit von 0,05 % erreicht. Die Oberflächenhärte wurde durch unterschiedliche Laserhärtung und durch Anlassen der lasergehärteten Stahlprobe bis in den Bereich von 650 oC variiert. Es wurde in der Dispersionskurve eine Schallgeschwindigkeit bei einer möglichst hohen Frequenz (8MHz) und damit geringer Eindringtiefe ausgewählt und mit der Oberflächenhärte nach Vickers (Laststufe 20kp) korreliert. Es ergab sich für alle Stahlmarken eine negative Korrelation. Mit steigender Härte nahm die Schall-geschwindigkeit ab. Allerdings wurde die Oberflächenhärte des Anlieferungs-zustandes der Stähle nicht wieder erreicht, so dass die Korrelation nur für den gehärteten und angelassenen Stahl gilt. Die aus den Untersuchungen gewonnen Korrelationen zwischen Schallgeschwindigkeit und Härte ermöglichen es, die Oberflächenhärte durch Messung der Oberflächenwellengeschwindigkeit zu messen. Die Wiederholgenauigkeit betrug über 90%. Die Korrelation ist allerdings von der Stahlmarke abhängig. Für die Härtetiefe wurden Phasengeschwindigkeitswerte aus den niedrigen Frequenzen des Dispersionsspektrums ausgewählt,von 1,25 bis 2,5 Mhz. Diese Frequenzen besitzen eine ausreichende Eindringtiefe, um über die Härtezone hinaus auch in das Grundmaterial zu reichen. Um die Härtetiefe bestimmen zu können, wurde eine Dispersionskurve als Funktion der Schichtdicke zur Wellen-länge theoretisch berechnet, die als Generalkurve bezeichnet wird. Mit der Frequenz und der zugehörigen Schallgeschwindigkeit kann aus der Generalkurve die Härtungstiefe bestimmt werden. Zum Vergleich wurde die Härtungstiefe an den Schliffbildern ermittelt. Bis zu einer Härtetiefe von 1 mm ergab sich in guter Näherungen eine lineare Korrelation zwischen den Härtetiefenwerten, welche zerstörungsfrei und am Schliffbild bestimmt wurden. Für einzelne Stahlmarken wurden auch in tieferen Bereichen noch gute lineare Ergebnisse erzielt. Die Abweichungen lagen im Bereich bei weniger als 15 %. Es ist darauf zu verweisen, dass auch die Härtungstiefe am Querschliff nur punktuell und mit einiger Unsicher-heit bestimmt werden kann. Die Laserakustik liefert einen Mittelwert über das Messvolumen, das aus Messlänge (Abstand der Laserbrennpunkte) multipliziert mit der Breite des akustischen Empfangssensors besteht. Unter diesem Gesichtspunkt ist die Übereinstimmung ein akzeptables Ergebnis.
Im E-Commerce dominieren verschiedene monolithische Middleware-Lösungen den Markt, so hilft z. B. SAP Commerce Cloud Unternehmen dabei, Kosten zu senken, Zeit zu sparen und Komplexität zu reduzieren, um ein hervorragendes Kundenerlebnis zu generieren.
Im praktischen Betrieb zeigt die monolithische Middleware jedoch Einschränkungen bei agiler Entwicklung und bei der Skalierung verschiedener Lastszenarien.
Ziel dieser Arbeit ist es, eine Strategie zu entwickeln, um eine monolithische E-Commerce-Lösung, die auf kommerzieller Middleware basiert, in einzelne Microservices zu zerlegen. Dabei stehen die Fragen im Vordergrund, welche Einschränkungen sich aus dem Einsatz ergeben und wie diese abgemildert werden können. Schließlich wird geklärt, ob ein solcher Ansatz überhaupt die gewünschten Vorteile gegenüber der bisherigen Architektur bietet.
Zellbiologische Untersuchungen an Knochenersatzwerkstoffen auf Kollagen- und Hydroxylapatitbasis
(2005)
Das Tissue Engineering ist ein interdisziplinäres Wissenschaftsgebiet, das Bio- und Ingenieurwissenschaften mit der klinischen Forschung vereinigt, um lebende Substitute für Gewebedefekte zu entwickeln. Dabei werden körpereigene Zellen auf geeigneten Trägermaterialien kultiviert, um diese Zell-Matrix-Konstrukte anschließend in den jeweiligen Defekt zu implantieren. In dieser Arbeit wurden verschiedene Modifikationen eines Kalziumphosphatknochenzements, ein in der Arbeitsgruppe Tissue Engineering und Biomineralisation am Max-Bergmann-Zentrum entwickeltes membranartiges Trägermaterial aus mineralisiertem Kollagen Typ I (Tape) sowie dessen Komponenten, Kollagen Typ I und Hydroxylapatit, untersucht. Für die Experimente wurden die Materialien mit humanen mesenehymalen Stammzellen (hMSC) besiedelt und über einen vorgegebenen Zeitraum kultiviert. Mithilfe verschiedener Mikroskopie- und quantitativer Analysemethoden konnten auf den Trägermaterialien die Adhäsion, Proliferation, Vitalität und die Differenzierung der hMSC zu Osteoblasten untersucht werden. Anhand dieser Ergebnisse wurde zum einen der Einfluss der verschiedenen Knochenzementmodifikationen auf das Verhalten von hMSC, zum anderen der Einfluss der Tape-Komponenten, Kollagen Typ I und Hydroxylapatit, auf die zeltbiologischen Eigenschaften des Tapes diskutiert. Die Durchführung der für diese Arbeit notwendigen Zeltversuche erfolgte am Max-Bergmann-Zentrum für Biomaterialien des Instituts für Werkstoffwissenschaft der Technischen Universität Dresden in der Arbeitsgruppe Tissue Engineering und Biomineralisation. Betreut wurde diese Arbeit von Dr. A. Lode, Dr. A. Bernhardt (Technische Universität Dresden) und Prof. Dr. J. Füssel (Westsächsische Hochschule Zwickau).
Diese Arbeit beschäftigt sich mit XPS Untersuchungen eines Schichtsystems, bestehend aus einer La0,6Sr0,4CoO3 Schicht, die auf YSZ Substrate aufgebracht wurden. Ziel ist es, Vorgänge die sich an Festoxidbrennstoffzellen dieses Typs abspielen, zu untersuchen. Es wurde zunächst die Zusammensetzung der Oberfläche und der Konzentrationsverlauf im Inneren der Probe mit SIMS und AES bestimmt. Anschließend wurde die Oberflächenveränderung durch Temperatureinwirkungen, wie sie bei Arbeitstemperaturen von SOFC's vorherrschen, beobachtet. Weiterhin wurde das Schichtsystem mit einer neu entwickelten Messmethode im laufenden Betrieb mittels XPS untersucht. Hierbei wurde versucht, Informationen über eine Umordnung der LSC-Schicht zu erhalten, welche die Reaktionskinetik beeinflusst. Um mögliche irreversible Veränderungen der Probe, die durch den geringen Sauerstoffpartialdruck im Vakuumsystem verursacht wurden, zu erkennen, wurden vor und nach den Messungen Untersuchungen mit XRD, AES und SEM vorgenommen.
Eine Untersuchung zur Eingung von Wirelaid Cool für das Wärmemangement. Nach einem kurzen Überblick über gängige, zu Wirelaid Cool konkurrierende Entwärmungsmethoden wird die drahtgeschriebene Leiterplatte vorgestellt. Anschließend wird die Entwärmung mittels Wirelaid Cool vorgestellt. Danach wird Wirelaid Cool mit Dickkupfer, Kupfer-Inlay und Thermal Vias verglichen. Zum Schluss werden die Anwendungsgebiete von Wirelaid Cool aufgezeigt.
Um dem Versorgungsauftrag nachzukommen setzen Krankenhäuser innerhalb ihrer Funkti-onsbereiche unterschiedliche medizinische Geräte zur Untersuchung von Patienten ein. Diese Geräte sind auf unterschiedliche Art und Weise an die Kommunikationsinfrastruktur des Hau-ses angebunden und in die entsprechenden Prozesse der Diagnostik integriert. Gründe hierfür finden sich unter anderem in der Größe der Geräte und damit ihren Fähigkeiten sowie der finanziellen Ausstattung der Einrichtung zur Abdeckung der erforderlichen Anbindungsszena-rien. Gerade bei Klein- und Kleinstgeräten ist das Untersuchungsmonitoring und
Mit dem Energiekonzept 2050 strebt die Bundesregierung eine umweltschonende, zuverlässige und bezahlbare Energieversorgung an. Vor allem im Bauwesen spielt die Einsparung von Energie eine immer größere Rolle, da durch die energetische Sanierung von Gebäuden ein großer Beitrag zur bundesweiten Reduktion der Kohlendioxid-Emissionen geleistet werden kann. Ein neuzeitlicher Aufschwung für die Dämmstoffe begann bereits mit der Ölkrise. Seit dem haben sich die Dämmstoffe stetig weiterentwickelt, so dass auch neue Einsatzgebiete erschlossen werden konnten. Betrachtet man die heutigen Marktanteile der verwendeten Dämmstoffe sowie die eigesetzten Volumina, stellt sich konsequenterweise die Frage, wie mit den hohen Abfallmengen an z.T. mit gesundheitsschädlichen Materialien belasteten EPS und Mineralwolle umgegangen werden soll und welche Herausforderungen für eine sekundäre Nutzung von EPS und Mineralwolle existieren.
Bereits 1972 wurde mit dem Gesetz über die Beseitigung von Abfall (Abfallbeseitigungsgesetz, AbfG) die erste bundeseinheitliche Regelung des Abfallrechts geschaffen. Über die Jahrzehnte wurden weitere Gesetze und Verordnungen, auch auf europäischer Ebene, ergänzt. Hierzu zählen u.a. KrWG, BauPVO, AVV, EBV sowie REACH und POP-Konvention.
Für den Einsatz der Dämmstoffe sind in der Vergangenheit vor allem deren physikalisch-technischen Eigenschaften, wie Wärmeschutz, Energieeinsparung, Brandverhalten, Schallschutz und Feuchteschutz- und
Als Ziel dieser Arbeit möchte der Autor der Frage nachgehen, ob eine PV-Anlage mit stationärem Speichersystem nach dem aktuellen Stand der Technik wirtschaftlich im nördlichen Umland von Berlin betrieben werden kann. Um belastbare Aussagen bei der Betrachtung zu erhalten, sollen neben möglichen Förderungen auch die steuerlichen Aspekte und die relevanten rechtlichen Rahmenbedingungen berücksichtigt werden.
Hierbei liegt der Fokus der vorliegenden Arbeit nicht auf einer technisch optimierten Konzeptionierung eines PV-Generators, sondern auf einem bewussten Aufbau von Komponenten einer Solaranlage und deren Auswirkungen im Rahmen der Simulation zur Ermittlung der sich hieraus ergebenen solaren und finanziellen Erträge. Diese Ergebnisse der Simulation werden die Grundlage für die abschließende wirtschaftliche Betrachtung darstellen.
Die Arbeit gliedert sich in fünf inhaltliche Bereiche, welche aufeinander aufbauen. Im Kapitel 2 soll die historische Entwicklung der Photovoltaik im Allgemeinen und deren physikalischen Grundlagen dargestellt sowie deren Einfluss auf die Photovoltaik erläutert werden. Der historische Abriss soll mit einem Überblick über die preisliche Entwicklung von Photovoltaikanlagen, der Entwicklung der Einspeisevergütung und den jährlichen Zuwachsraten der installierten Anlagenleistungen bis zum aktuellen Zeitpunkt enden.
Im dritten Bereich der Arbeit wird der Stand der Technik beleuchtet. Hierbei sollen kurz die zu unterscheidenden Betriebsarten von Photovoltaikanlagen und deren typischen Einsatzbereiche dargestellt werden. Im Nachgang sollen der allgemeine Aufbau eines Solarmoduls und deren typische Einflussfaktoren auf die Leistung skizziert werden. Abschließen sollen in diesem Kapitel die notwendigen Komponenten für eine PV-Anlage in ihren unterschiedlichen Ausprägungen vorgestellt und näher erläutert werden.
Kapitel 4 wird sich dem konzeptionellen Aufbau der Anlage widmen. Hier werden die standortspezifischen Einflussfaktoren erläutert und ein schematischer Aufbau wie er in der Arbeit zu Grunde gelegt wird erklärt. Im weiteren Verlauf werden die notwendigen Komponenten ausgewählt und plausibilisiert sowie die Simulationssoftware und die hierfür notwendigen Grundannahmen vorgestellt und die Ergebnisse der Simulation erläutert. Hierbei soll an typischen Kennzahlen geprüft werden, ob die simulierte Anlage von Ihrer Effizienz den aktuellen Stand der Technik entspricht.
Im letzten inhaltlichen Abschnitt wird eine Wirtschaftlichkeitsbetrachtung durchgeführt. Hierfür soll ein kurzer Überblick über die zur Verfügung stehenden staatlichen Anreizsysteme und deren inhaltliche Ausgestaltung gegeben werden.
Wirkung ionisierender Strahlung in Kombination mit Nanopartikeln auf verschiedene zelluläre Systeme
(2012)
Gerade in der Medizintechnik werden die neuesten Technologien eingebracht um der Menschheit wertvollstes Gut, die Gesundheit, zu wahren bzw. zu verbessern. Wie aktuell das Beispiel der Nanopartikel zeigt, kommt es dabei immer wieder zum Einsatz neuer Materialien. Diese versprechen ungeahnte Möglichkeiten im pharmazeutischen, diagnostischen und therapeutischen Bereich der Medizin. Als Kehrseite der Medaille besteht jedoch die Ungewissheit, welche genauen Risiken sich daraus für Mensch und Umwelt ergeben. Wichtig dabei ist auch die Betrachtung möglicher kombinatorischer Effekte, wie sie in Therapie und Diagnostik ausgelöst werden könnten. Aus diesem Grund wurde im Rahmen dieser Bachelorarbeit die kombinatorische Wirkung von Nanopartikeln und ionisierender Strahlung auf das freie intrazelluläre Kalzium von unterschiedlichen Zelltypen untersucht.
Die Wiederaufbereitung von Kathetern und Angioendoskopen, stellt eine für Deutschland weitestgehend neue Technologie dar. Ziel der Arbeit ist es, die Möglichkeiten der einzelnen Schritte des Wiederaufbereitungsprozesses aufzuzeigen, grundlegende Aussagen zu treffen und konkrete Vorschläge mit notwendigen Bedingungen zu nennen. <!-- #h:dissdiplWiederaufbereitung.doc# -->
Es besteht der Bedarf, die Themen NoSQL- und Cloud-Datenbanken in Praktika zu initigrieren. Das Ziel dieser Arbeit soll die Fragestellung beantworten, wie die Technologien NoSQL- und Cloud- Datenbanken in einem zeitlich begrenzten Praktikum gelehrt werden können. Hierfür muss festgestellt werden, welche spezifischen Technologien am besten geeignet sind und wie diese effizient in ein Praktikum integriert werden können.
Es konnten für verschiedene NoSQL-Datenbankmodelle Empfehlungen für Datenbanken erstellt werden. Die größten Cloud-Datenbanken wurden miteinander verglichen hinsichtlich der Nutzung in einem Praktikum. Des Weiteren wurden Virtualisierung, Container und Multi-Modell-Datenbanken auf die Anwendung in ein Praktikum geprüft.
Die vorliegende Bachelorarbeit befasst sich mit der Weiterentwicklung einer Software zur Berechnung und Simulation von Kolbenverdichtern. Durch die wachsenden Ansprüche an die Software war eine Portierung angestrebt, die zu Beginn der Arbeit vorlag. Für die Übernahme von vorhandenen Projekten wurde eine Schnittstelle entworfen, die es ermöglicht, auch zukünftig erstellte Datensätze von extern genutzten Programmen zu verwenden. Ein automatisierter Stapelimport spielt eine wichtige Rolle und ermöglicht es, komplette Projekte zu übernehmen. Für die Nachrechnung von Verdichtern soll eine Grundlage geschaffen werden, die es ermöglicht, verschiedene Regelfälle zu simulieren. Dies zieht eine Anpassung und Erweiterung des Algorithmus sowie der grafischen Oberfläche nach sich. Die Erstellung der Dialoge für Eingabedaten der Nachrechnung war ein Punkt in der Erweiterung der grafischen Oberfläche. Des Weiteren wurde der Arbeitsbereich auf die neuen Funktionalitäten angepasst und erweitert. Für die Bewertung vorhandener Berechnungsalgorithmen wurde ein Feldtest ermittelt, der Ergebnisse des alten Berechnungsprogramms mit den neu ermittelten Ergebnissen vergleicht und analysiert. Da die Regelfälle im zu übernehmenden Algorithmus stark voneinander abhängen, war die Realisierung eines Fahrfalles annähernd so umfangreich wie die Umsetzung aller Regelfälle. Die Arbeiten wurden so ausgeführt, dass das System einfach erweitert werden kann.
Die jährliche Wachstumsrate an Zahnimplantationen liegt bei ca. 18 %. Diese Tendenz erfordert die Entwicklung eines chirurgischen Trainingssystems für die Mund-, Kiefer- und Gesichtschirurgie (MKG). Bisherige MKG-Systeme sind nicht in der Lage, Verletzungen von Risikostrukturen objektiv zu bewerten. Die Entwicklung eines neuen Trainingssystems für die MKG wird somit notwendig, um objektive Aussagen über verletzte Risikostrukturen zu treffen, chirurgische Instrumente zu validieren und die Weiterqualifizierung von Chirurgen zu ermöglichen. Ein bereits auf Basis des 3D-Drucks entwickeltes, austauschbares Kiefermodul mit elektrischen Sensoren zur Registrierung von verletzten Risikostrukturen soll an einen Schädel, der als Basisstation dient, angekoppelt werden. Dazu wurden konstruktive Maßnahmen am Schädel angewendet, um einen sicheren elektrischen Kontakt zwischen Kiefer und Schädel zu gewährleisten und die Bewegungsfreiheitsgrade des Kiefers zu berücksichtigen. Weiterhin sind Halterungen im Schädel für eine Mikrocontrollerschaltung (MCS) und deren Anschlüsse konstruiert worden. Die Visualisierung des Systems erfolgte mit einer Simulationssoftware. Mit Hilfe von vorgefertigten Programmen der grafischen Programmierumgebung LabVIEW (National Instruments, Austin, Texas) ließen sich die segmentierten anatomischen Strukturen durch triangulierte Datensätze mittels XML-Dateien in die Software einpflegen. Ebenso fand die Definition der Kanäle der MCS bzgl. der Risikostrukturen statt. Weitere LabVIEW-Bausteine sorgen für die Steuerung des Programmablaufs und ermöglichen die Kommunikation zwischen dem USB-Controller der MCS und einem handelsüblichen PC. Die Simulationssoftware ist in der Lage, die gewonnenen Simulations-OP-Daten zu erfassen und auszuwerten. Die realistische haptische Wahrnehmung und der reale OP-Workflow des MKG-Systems sind durch frei wählbare chirurgische Instrumente garantiert. Auf der Grundlage eines entsprechenden CT-Datensatzes können patientenindividuelle Pathologien am System dargestellt werden. Objektive Bewertungen des chirurgischen Eingriffs sowie dessen Qualität sind durch das Simulationssystem gegeben. Aussagen über Verletzungen von Risikostrukturen lassen sich in Echtzeit treffen. Die Wirtschaftlichkeit des Systems ist durch den modularen Aufbau möglich, da das Operationsareal ausgetauscht werden kann. Ebenso sind einheitliche Studien über die Validierung von chirurgischen Instrumenten, die realitätsnahe Ausbildung und die Weiterqualifizierung von Chirurgen durchführbar.
Weiterentwicklung und Bereitstellung einer Lehrprogrammverwaltung im Intranet der WHZ Zwickau FH
(1999)
Ausgangspunkt dieser Arbeit ist das Ergebnis der Diplomarbeit von Mario Helget (Ma. 94). Hauptaufgabe meiner Arbeit war dabei die Weiterentwicklung und anschließende Bereitstellung im Intra-/Extranet, das von Frank Pleitz (Ma. 94) an der WHZ implementiert wurde. Die Probleme, auf die ich während meiner Arbeit stieß, resultieren vornehmlich aus den Zusammenhängen, die aus einer Arbeit der Weiterentwicklung einer vorhandenen Software entstehen und dem allgemeinen Problem der Portabilität. So musste ich sehr viel Zeit investieren, um das Vorgehen von Mario Helget nachvollziehen zu können. Trotz alledem reizte mich gerade dieses Thema, da es genau die Entwicklung widerspiegelt, die allgemein sichtbar wird. Voranschreitende Globalisierung auf Basis des Internet, weltweite Vernetzung, das muss auch oder gerade im Bildungsbereich Auswirkungen zeigen. Vergleicht man die Entwicklung im Bereich der Berufsaus- bzw. -weiterbildung so lässt sich leicht erahnen, was auf die Informatik und Pädagogik in den nächsten Jahren zukommen wird. Wichtig erscheint mir dabei, frühzeitig die Zeichen der Zeiten zu erkennen und dem allgemeinen Trend folgend, die eigene Forschung und Entwicklung auszurichten. Sobald die Weichen seitens der Politik gestellt wurden, ist es sicher von Vorteil bereits Lösungen anbieten zu können. Die WHZ Zwickau FH aus meiner Sicht in die richtige Richtung und ich bin glücklich einen Beitrag dazu leisten zu können. Jürgen Ott 1999 <!-- #h:dissdiplLehrprogrammverwaltung.doc# -->
Im Rahmen dieser Bachelorarbeit wurde eine bereits bestehende Implementation eines XML-Schema-basierten XML-Editors weiterentwickelt. Nachdem die theoretischen Grundlagen erschlossen wurden, wurde der bereits existierende Quelltext analysiert. Anschlie- ÿend wurden Konzepte entwickelt und implementiert, die die geplanten Funkionalitäten bewältigen können. Diese Arbeit dokumentiert die Methoden, welche bei der Weiterentwicklung dieses XMLEditors angewendet wurden und gibt einen Überblick über die damit erzielten Ergebnisse. Während der Arbeit wurde groÿer Wert auf eine ordentliche Refaktorisierung des bestehenden Quelltextes gelegt, um neue Funktionen wohlstrukturiert integrieren zu können. Während der Entwicklung wurde die Absicht verfolgt den XML-Editor so stark wie möglich nutzerorientiert zu gestalten, um dem Nutzer gröÿtmöglichen Komfort bei der Entwicklung von XML-Dokumenten zu bieten.
In vorliegender Arbeit geht es um die Stabilitätskontrolle von Backendstrukuren mit ULK-Materialien. Weil die Strukturen bei der Mikrochipherstellung immer kleiner werden, müssen neuartige Materialien für die Isolierung der Leiterbahnen entwickelt werden. Diese Materialien nennt man ultra-low-k-Materialien, kurz ULK. Sie besitzen einer niedrige Dieelektrizitätszahl k. Diese Materialien kommen in den Verdrahtungsebenen im Mikrochip zum Einsatz und dienen dort als Isolator zwischen den Leitungsbahnen. Ulk beeinflusst jedoch die Stabilität des Backend negativ. Aus diesem Grund müssen schon in der Entwicklungsphase eines Mikrochips Tests durchgeführt werde. Der hier verwendete Test nennt sich Bump Assisted Backend of Line Stability Indentation Test (kurz BABSI-Test. Dieser Test ist durch GLOBALFOUNDRIES Dresden patentiert.Hierbei wird mit einer Nanoindenternadel in den Bump indentiert und anschließend ein Ritztest durchgeführt. Dabei kommt es durch die Lateralkraft, welche über dem Bump in das Backend ein gekoppelt wird, zu einer Schädigung im Backend. Die Lateralkraft bei der das Backend geschädigt wird dient als Stabilitätskennzahl. Somit können verschiedene Backendvarianten bzw. verschiedene Fertigungsprozesse miteinerander verglichen werden. In der Arbeit werden verschiedene Versuche durchgeführt, um den BABSI-Test zu verbessern. So kommen zum Beispiel verschiedene Indenterspitzen zum Einsatz.
In dieser Bachelorarbeit wird ein bestehendes datenbankfähiges Programm an die Anwendungssysteme AD und SAP angebunden.Folgende Implementierungen wurden vorgenommen: - Weiterentwicklung einer übersichtlichen Step-by-Step-Ansicht - Anbindungs an das AD mit Anlege-, Bearbeitungs- und Löschmethoden für User und AD-Gruppen - Erstellen von Exchange Server Mailbox-Postfächern mit E-Mail-Adresse - Anbindungs an das SAP mit Anlege-, Bearbeitungs- und Löschmethoden für User - Realisierung von Sicherheitskonzepten - Selektierungsmethode aus einer XML-Datei - Umsetzung von Zusatzfunktionen
Während einer Notfallrettung werden wichtige Informationen, die den Patienten und seine Verletzungen beschreiben, erfasst. Diese Rettungsdaten sollen nach der Erfassung schnellst möglich im Krankenhausinformationssystem zur Verfügung stehen. Um diesen speziellen Vorgang zu unterstützen, wurde eine Schnittstelle zwischen dem Informationssystem des Rettungswesens und dem Krankenhausinformationssystem geschaffen. Damit eine Kommunikation zwischen den beiden Informationssystemen gewährleistet werden kann, wurde ein auf Textnachrichten basierender Datenaustausch mittels eines Kommunikationsservers realisiert. Dieser Kommunikationsserver steuert dabei die Transformation der eingehenden Rettungsdaten und die Verteilung der Nachrichten. Eine Umsetzung der so entwickelten Schnittstelle, erfolgte mit dem Softwareprodukt Ensemble der Firma InterSystems.
Diese Bachelorarbeit befasst sich mit der Weiterentwicklung der Webanwendung zur Spanungskraftberechnung. Im Rahmen dieser Arbeit wird die Software auf Basis der erarbeiteten Anforderungen entworfen und dann bewertet.
Spanungskraftberechnung in dem Maschinenbau für Werkzeugproduktion ist durch die Genauigkeit mit einem hohen Zeitaufwand verbunden. Die Software soll die Berechnungen explizit und verständlich machen. Neben der Genauigkeit bei den Berechnungen setzt sich mit der vorherigen Anwendung weitere Faktoren wie fehlerhafte Aktualisierbarkeit, Ortsabhängigkeit und keine Erweiterungsmöglichkeiten.
Die solche Anwendung zu entwickeln ist eine Möglichkeit, diesen Herausforderungen bei einem solchen Systemdesign zu begegnen. Hierfür werden zunächst die Zerspanungskraftkomponenten und deren Formeln analysiert. Dahingehend wird eine Architektur in der Form eines Klassendiagramms entworfen. Für die Umsetzung wird ein aussagekräftiges Framework Spring Boot mit der Programmiersprache Java gewählt und darauf aufbauend werden Entitäten, Funktionalität für Entitäten und einer der wichtigsten Funktionalitäten Kraftberechnung ermittelt. Die Entwicklung findet unter Berücksichtigung, dass die wichtigste Funktion der Applikation stellt die Bearbeitung der mathematischen Ausdrücke mittels exp4j und beinhalteten Logik mittels Nashorn Engine dar.
Die Bestimmung der Pulswellengeschwindigkeit aus oszillometrischer Blutdruckmessung ist eine vielversprechende Methode zur routinierten Gefäßsteifigkeitsuntersuchung. Dabei wird der Pulskurvenverlauf bei übersystolischen Manschettendruck an der Arteria brachialis aufgezeichnet und ausgewertet. Ziel der Bachelorarbeit war es für dieses Verfahren einen Algorithmus zur automatisierten Pulskurvenauswertung zu optimieren und diesen in Echtzeit mit Hilfe eines Microcontrollers auf einer Embedded System Plattform zu testen. Für die Umsetzung musste eine radikale Einsparung von Speicherplatz und Rechenaufwand erfolgen. Dazu wurden die Abtastfrequenz von 1000 Hz auf 500 Hz und die Messzeit von 30 s auf 16 s reduziert. Weiterhin wurde die Qualität der Messung durch Veränderung der Ableitungs- und Glättungsfilter auf 11 bzw. 9 Werte, Bestimmung von Ersatzpunkten aus der Mittelwertkurve für bisher nicht auswertbare Messungen, Aussortieren störsignalbehafteter Daten sowie Beseitung bestehender Schwachstellen verbessert. Der Algorithmus wurde für die Realisierung von Echtzeitmessungen in die Programmiersprache C portiert, in einem Versuch mit 15 Probanden erfolgreich getestet und gegenüber dem Referenzgerät Arteriograph mit einem Korrelationskoeffizienten von R = 0,85 validiert.
Die Bestimmung der Pulswellengeschwindigkeit aus oszillometrischer Blutdruckmessung ist eine vielversprechende Methode zur routinierten Gefäßsteifigkeitsuntersuchung. Dabei wird der Pulskurvenverlauf bei übersystolischen Manschettendruck an der Arteria brachialis aufgezeichnet und ausgewertet. Ziel der Bachelorarbeit war es für dieses Verfahren einen Algorithmus zur automatisierten Pulskurvenauswertung zu optimieren und diesen in Echtzeit mit Hilfe eines Microcontrollers auf einer Embedded System Plattform zu testen. Für die Umsetzung musste eine radikale Einsparung von Speicherplatz und Rechenaufwand erfolgen. Dazu wurden die Abtastfrequenz von 1000 Hz auf 500 Hz und die Messzeit von 30 s auf 16 s reduziert. Weiterhin wurde die Qualität der Messung durch Veränderung der Ableitungs- und Glättungsfilter auf 11 bzw. 9 Werte, Bestimmung von Ersatzpunkten aus der Mittelwertkurve für bisher nicht auswertbare Messungen, Aussortieren störsignalbehafteter Daten sowie Beseitung bestehender Schwachstellen verbessert. Der Algorithmus wurde für die Realisierung von Echtzeitmessungen in die Programmiersprache C portiert, in einem Versuch mit 15 Probanden erfolgreich getestet und gegenüber dem Referenzgerät Arteriograph mit einem Korrelationskoeffizienten von R = 0,85 validiert.
Die Diplomarbeit führt die Arbeiten an der Systemkomponente, deren Aufgabe die Abarbeitung von Fehlerbäumen ist, fort. Insbesondere wird dabei auf den Inferenzmechanismus eingegangen, d.h. den Teil des Programms, der einen geeigneten Weg durch einen Fehlerbaum findet und so zu einer Diagnose gelangt. Eine wichtige Rolle spielt dabei die Arbeit mit unsicherem Wissen. Weiterhin beschäftigt sich die Arbeit mit den Möglichkeiten der Nutzung mehrerer Teildiagnosebäume und der Realisierung der Kommunikation mit dem Endnutzer während einer Diagnosesitzung. <!-- #h:dissdiplDiagnosegraph.doc# -->
In der Landwirtschaft wird die digitale Vernetzung von Geräten immer bedeutender. Eine zentrale Rolle spielen dabei landwirtschaftliche Bedien-Displays (Terminals), welche verschiedene Aufgaben an einem Traktor übernehmen. Da die Anwendungen auf diesen Terminals komplex sind, ist es eine große Hilfe für den Anwender, schnell und unkompliziert Support anzufordern. Deshalb wurde ein Prototyp für eine Remote-Support-Lösung entwickelt. Die Kommunikation der Lösung erfolgt über das Internet. Daher müssen zwingend Sicherheitsmaßnahmen zur Verhinderung von Missbrauch der Lösung durch Unbefugte existieren. Unzureichend abgesicherte IT-Systeme sorgen immer wieder für Schäden in Milliardenhöhe.
In dieser Arbeit wird der Ist-Zustand der Remote-Support-Lösung erläutert. Es werden Schutzziele bestimmt, die erfüllt werden sollen. Beispielhaft werden mögliche Angriffe und theoretische Grundlagen zur Abwehr dieser Angriffe erklärt. Außerdem wird erläutert, wie diese Angriffe im praktischen Projekt abgewehrt werden. Abschließend werden die definierten Schutzziele auf ihren Erfüllungsgrad untersucht.
Die Lösung lanschaftlichsökologischer Fragestellungen erfolgt häufig mittels Flächenrasterdaten, zu deren Auswertung sich zunehmend objektorientierte Ansätze durchsetzen. Es gibt jedoch nur wenige marktreife Produkte, um den Bedarf an Auswertungswerkzeugen zu decken. Diese Arbeit befasst sich daher mit der Weiterentwicklung eines regionen-basierten Segmentierungsverfahrens. Das ausgewählte Verfahren "Iteratives Vereinigen homogener Gebiete", kurz IVHG, steht als Open Source Programm zur Verfügung und bietet somit einen angemessenen Ausgangspunkt. Im Verlauf der Untersuchung wird es mit dem aktuellen Stand der Forschung hinsichtlich der Verbesserungsmöglichkeiten verglichen und an Hand eines ausgewählten Kriteriums weiterentwickelt. Dabei wird das Programm auf zwei verschiedene Rasterdatensätze (AKTIS - DGM und QuickBird Satellitenbild) angewendet, um die Ergebnisse zu verdeutlichen. Da in dieser Untersuchung nicht alle Schwächen des Programms beseitigt werden können, werden diese im Augenblick aufgeführt und einige Anregungen zu deren Lösung gegeben.
Diese Bachelorarbeit beschäftigt sich mit der Weiterentwicklung eines bestehenden Trainingssystems für die Chirurgie der Lendenwirbelsäule. Das Produkt ist nicht nur für die Ausbildung von Ärzten von Bedeutung, sondern findet auch in der Wirtschaft Anwendung für die Präsentation neuer chirurgischer Instrumente und anderer Medizinprodukte. Dem momentanen Modell werden weitere anatomische Strukturen hinzugefügt, um die Durchführung von Operationen mit interlaminären Zugang simulieren zu können. Eine der neuen Strukturen wird mit einem CAD-Programm konstruiert und auf dieser Grundlage wird die für die Produktion nötige Gussform erstellt. Außerdem werden verschiedene Ansätze präsentiert wie man die Halterung der Lendenwirbelsäule verändern könnte. Das Ergebnis dieser Arbeit ist ein neues Trainingssystem, dessen Anwendungsbereiche sich auf andere Gebiete als das Ausgangsmodell konzentrieren.
Im modernen Gesundheitswesen ist für die Patientenversorgung heute eine einrichtungsübergreifende Kooperation und Datenaustausch notwendig, damit kein Missverständnis entstehe und Tests, Verfahren der Diagnosen, Behandlungen, Dokumentationen usw. nicht unnötig wiederholt werden. HL7 ist ein internationaler Standard für den Austausch und die Integration der medizinischen, administrativen und finanziellen Daten zwischen Informationssystemen im Gesundheitswesen, welcher zurzeit über 50 Ländern benutzt wird. Ziel dieser Bachelorarbeit war die Weiterentwicklung der im ehealth-Labor der Westsächsischen Hochschule vorhandenen Software (Nachrichteneditor), welches grundsätzlich zum Verständnis für Nachrichtenstandards beim Datenaustausch im Gesundheitswesen dienen soll. Zunächst sind dafür die Strukturen der HL7-Nachrichten analysiert worden. Anschließend ist eine Konzeption entstanden, welche zur Implementierung der Erstellung sowie Einlesen und Interpretierung der verschiedene HL7 Version 2.x Nachrichten- und Entitätstypen dient. In diesem Bericht sind die Analyse (wie oben), Konzeption, Implementierung des Nachrichteneditors sowie Weiterentwicklungsmöglichkeiten und Ausblicke erklärt worden.
Die Weiterentwicklung der Eclipse-Integration ist ein wichtiger Aspekt bei der Entwicklung des GeneSEZ Generator Framework. Dadurch kann die Software von den Nutzern besser bedient werden. In dieser Arbeit geht es insbesondere um die Erstellung von grafischen Elementen zur Bedienung von GeneSEZ. Zu Beginn wird kurz auf die Grundlagen der Arbeit eingegangen. Danach wird die Reimplementierung des bereits existierenden Wizards auf der Basis vom Eclipse 4 Applikationsmodell beschrieben. Dabei erhält der Wizard mehr Funktionalität und nutzt eine neue Architektur. Nachfolgend wird der implementierte Workfloweditor vorgestellt und dessen Konzepte erläutert. Insbesondere wird dabei auf die Verwendung des Modeling Workflow Engine 2-Modells eingegangen, sowie auf die Darstellung der einzelnen Workflow Komponenten. Anschließend werden Möglichkeiten und Ansätze aufgezeigt, wie die Arbeit fortgeführt werden kann. Abschließend wird die Arbeit zusammengefasst und das Ergebnis evaluiert.
Striktere Regularien sowie die verbindliche Pflicht zur Phosphorrückgewinnung werden eine signifikante Veränderung in der Klärschlammentsorgung hervorrufen. Diese Entwicklung wird aufgrund der begrenzten Entsorgungsmöglichkeiten jedoch zu einem Engpass führen. Entgegengewirkt werden soll diesem durch die Erforschung alternativer Verwertungswege.
Eine Möglichkeit, und der zentrale Gegenstand dieser Arbeit, stellt die Herstellung aktivierter Kohlen aus Klärschlamm und deren Anwendung als Adsorbens dar.
Eine von zwei klärschlammbasierten Hydrokohlen, welche als Ausgangsmaterial dienten, wurde vor der Karbonisierung zum Zweck des Phosphorrecyclings mit Schwefelsäure versetzt. Sie wies eine homogenere Zusammensetzung sowie einen geringeren Asche- und höheren Kohlenstoffgehalt auf. Beide Kohlen wurden einer Wasserdampfaktivierung unterzogen, wodurch maximale spezifische Oberflächen von 116 m2/g für die Kohle ohne und 217 m2/g für die Kohle mit Schwefelsäureeinsatz erreicht wurden. Im Praxistest sollten die aktivierten Kohlen Methylenblau aus dem Wasser adsorbieren. Hierfür wurde ein Teil der aktivierten Kohlen mit deionisiertem Wasser bzw. Salzsäure gewaschen. Die höchste Adsorptionskapazität erzielte mit 35 mg/g die Kohle, welche nicht mit Schwefelsäure behandelt, jedoch mit Salzsäure gewaschen wurde.
Der Bereich der Abfallwirtschaft der Stadt Zwickau hat derzeit hohe Kostenunterdeckungen zu verzeichnen. Zur Verringerung dieser werden Vorschläge zur Änderung der Abfallsatzung/Abfallgebührensatzung erbracht. Die Einführung einer Grundgebühr, die jährlich an das Abfallaufkommen angepasst wird, ist zwingend erforderlich, um anfallende Fixkosten zumindest teilweise kontinuierlich zu decken. Die Einführung computerintegrierter Abfallentsorgungssysteme, der Eigentumsübergang der Abfalltonnen vom Entsorgungsunternehmen auf die anschlusspflichtigen Personen und die Umlegung der Müllschleusenkosten auf die tatsächlichen Benutzer sind zur flexiblen Gestaltung der Abfallwirtschaft zwingend nötig und rechtlich vertretbar. Die nachträgliche Umlegung versäumter Kosten für Nachsorge- und Rekultivierungsmaßnahmen von Deponien auf die benutzungspflichtigen Abfallgebührenzahler wird von der Rechtsprechung für nicht möglich erachtet. Dafür aufzukommen haben die das Versäumnis verschuldet habenden verantwortlichen Personen. Ab 2005 wird eine bloße Deponierung von Abfall ohne vorherige thermische Behandlung gemäß TA Siedlungsabfall nicht mehr möglich sein. Aufgrund dieser gesetzlichen Bestimmung entstehen Abfallbehandlungskosten, die über derzeitigen Deponiekosten liegen und so die Abfallgebühren in Zukunft erhöhen werden. #<!-- #h:dissdiplAbfallgebührensatzung.doc# -->
Diese Bachelorthesis befasst sich mit den Vor- und Nachteilen des Einsatzes von NoSQL-Systemen. Es wird der Begriff NoSQL und die Technologien, mit denen NoSQL-Systeme arbeiten, geklärt. Es werden die Typen von NoSQL-Systemen vorgestellt und ein Einblick in die so genannte 2Speed-IT gegeben. Am Ende der Thesis gibt es einen praktischen Vergleich zwischen einem SQL-System mit einem NoSQL-System. Es wird untersucht, welche Vor- und Nachteile die Benutzung der NoSQL-Systeme hat. Abschließend wird auf Grundlage der gewonnen Erkenntnisse geklärt, wie sich NoSQL-Systeme gegenüber SQL-Systemen positionieren.