Refine
Has Fulltext
- yes (186) (remove)
Year of publication
Document Type
- Bachelor Thesis (88)
- Master's Thesis (56)
- Diploma Thesis (34)
- Book (4)
- Report (4)
Institute
- Physikalische Technik, Informatik (186) (remove)
Um Mitarbeitern des Heinrich-Braun-Klinikums den Zugriff auf die rechentechnische Infrastruktur auch außerhalb des Standortes Zwickau zu ermöglichen, wird auf eine VPN Verbindung und das Remote Desktop Protocol gesetzt. Durch das starke Wachstum der letzten Jahre fanden Fusionierungen medizinischer Einrichtungen statt, um die Wirtschaftlichkeit des Krankenhauses zu erhöhen. Für eine effektivere Arbeitsweise muss die Anbindung der Außenstellen schneller und damit besser skalierbar gelingen. Nur mit der Einführung einer neuen Virtualisierungstechnologie, der Desktopvirtualisierung, kann auch im HBK dieser Trend wunschgemäß verlaufen. Um die Desktopvirtualisierung optimal zu nutzen, ist eine Integration mit den anderen bereits im HBK eingesetzten Produkten notwendig. Zum Hauptaugenmerk zählen vor allem die Softwareverteilung baramundi und die Servervirtualisierungsplattform VMware vSphere. Die Verbesserung der Verzahnung erfolgte zusätzlich durch Skripte, welche aus speziellen Anforderungen des Krankenhauses entstanden sind. Künftig ist mit einer größeren Zahl virtueller Arbeitsplätze durch zusätzliche Standorte zu rechnen. Daher war eine Überprüfung der Hardware notwendig, um den künftigen Einsatz zu realisieren. Entscheidend sind hier die Flaschenhälse Datenspeicher, Hostarbeitsspeicher und Übertragungsraten des WANs zu den Außenstellen. Zusätzlich wurde durch eine Lösung zur externen Abfrage von E-Mails mit Exchange die Quantität der Desktops gesenkt. Dies führt zu einer Kostenersparnis.
Masterarbeit beschäftigt sich damit, wie man für ein bereits existierendes Softwareprojekt ein eigenständiges Modul entwickelt, das eine bestimmte Funktionalität dieser Anwendung realisiert. Es wird dabei in die Entwicklungsphasen des Softwareprojektes eingegangen beginnend mit Planungsphase und abschließend mit Entwurfsphase. Dabei werden die Besonderheiten jeder Entwicklungsphase und die dabei verwendete Technologien beschrieben. Zum Schluss werden die Sicherheitsmaßnahmen für die Web Anwendungen betrachtet und die im Projekt berücksichtigte Sicherheitsmaßnahmen erläutert.
Die Arbeit nutzt das Requirements Engineering zum Erheben funktionaler und nicht-funktionaler Anforderungen an eine Bedienoberfläche. Zielgruppe sind ältere multimorbide Menschen. Die zu entwickelnde App soll die Möglichkeit einer Videosprechstunde und das Übertragen von Vitaldaten, die von medizinischen Kleingeräten gewonnen wurden, an die elektronische Patientenakte ermöglichen.
Aufbau einer generischen Schnittstelle zur Anbindung und Verwaltung von High-Performance-Clustern
(2020)
Mit der wachsenden Nachfrage nach rechenintensiven Simulationen und der gleichzeitig stagnierenden Entwicklungen im CPU-Markt werden größere Ressourcen für High Performance Computing benötigt. Neben den groß angelegten Serversysteme werden werden auch immer mehr Cloud Ressourcen für HPC angeboten. Bedingt durch die große Anzahl verschiedener Plattformen und Arten der Interaktionkann es zu Schwierigkeiten in der Anwendung von HPC für Nutzer kommen.
In dieser Arbeit wird eine Architektur für eine Anwendung entwickelt, die den Zugriff auf HPC Ressourcen für Anwender erleichtert. Anhand dieser Architektur wird ein Produkt entwickelt mit dem die Jobeinreichung und Jobübersicht über eine Weboberfläche und eine REST-Schnittstelle ermöglicht werden.
In den letzten Jahren ist die Rechenleistung von Computern und zugleich die Auflösung der zum anzeigen von Hologrammen benötigten Spatial Light Modulaturen stark angestiegen. Dadurch erfährt das Themengebiet der synthetisch erzeugten Hologramme einen enormen Aufschwung. Es soll daher eine Plattform aufgebaut werden, mit welcher synthetische Hologramme erzeugt und evaluiert werden können. Zudem sollen die Inhalte als Grundlage für einen Versuch zum Einstieg in dieses Themengebiet dienen.
Es wurde mittels eines Transmissions Spatial Light Modulatrs ein inline Versuchsaufbau zum anzeigen von Phasenhologrammen realisiert. Als Methoden zum generieren der Phasenhologramme wurden die Fourier Optik und der Gerchberg-Saxton Algorithmus gewählt. Aus didaktischen Gründen wurde der Versuchsteil in mehrere Teilgebiete unterteilt um ein Gefühl für die verschiedenen Aspekte der digitalen Holografie zu vermitteln. Die so erzeugten rekonstruierten Bilder wurden hinsichtlich ihrer Qualität mittels SSIM bewertet und Effekte welche auftreten erläutert. Zudem wurde der gesamte Pythoncode so angelegt, dass dieser parallel zu dieser Arbeit als eine Versuchsanleitung dienen kann.
Die vorliegende Diplomarbeit beschäftigt sich mit der Konzeption, dem Aufbau und der Charakterisierung eines regenerativen Verstärkers. Mit ytterbiumdotiertem Fluorid- Phosphatglas (Yb:FP-Glas) als Lasermedium konnten Lichtimpulse aus einem Nd:YAG Laser von 20 nJ auf 100 μJ verstärkt werden. In der vorliegenden Arbeit wird nach der Darstellung des Laserprozesses der regenerative Verstärker beschrieben. Die Auswertung der Simulation der Strahlform führt zu einem gefalteten Resonator mit gekrümmten Spiegeln. Durch diese Anordnung konnte die Auswirkung des auftretenden Astigmatismus minimiert und die gewünschte Strahlform ermittelt werden. Im weiteren wurde der Seedlaser und die Pumpanordung charakterisiert. Zusätzlich wurde noch auf das als Lasermedium verwendete Yb:FP-Glass eingegangen. Beim Aufbau des Verstärkers wurde zuerst der cw-Betrieb des Resonators realisiert und charakterisiert, zusätzlich wird der Resonator im
Um die Möglichkeiten effizienter parametrischer Konversion zu demonstrieren und zur Untersuchung verschiedenster nichtlinearer Kristalle und Konversionsprozesse wurde in dieser Diplomarbeit die Erzeugung von rotem, grünem und blauem Laserlicht aus monochromatischer Strahlung realisiert. Gütegeschaltete Lasersysteme bieten aufgrund hoher Pulsenergien die Möglichkeit der parametrischen Konversion in diverse Wellenlängenbereiche mit hoher Effizienz. Auf dieser Basis wurden die zweite und dritte Harmonische mit 10\,ns-Pulsen mit einer Pulsenergie von 0,3\,mJ (40\,kHz) und einer Wellenlänge von 1064\,nm erzeugt. Durch die Verwendung periodisch gepolter Kristalle in Kombination mit einem signal-resonanten optisch- parametrischen Oszillator konnte mit dem übrigen fundamentalen Laserlicht von 100\,\textmu J für die Konversion zu 1,6\,\textmu m eine Effizienz von über 32\,\% erreicht werden. Diese hohe Effizienz ermöglicht die anschließende Konversion zu Blau und Rot mit der zuvor generierten dritten Harmonischen und der restlichen Fundamentalen. Numerische Simulationen ergaben eine zu erwartende Laserleistung zwischen 0,5 und 1\,W pro Farbe. Aufgrund der durch einen Materialfehlers hervorgerufenen Zerstörung der Faser der Pumpdiode, welches die Beeinträchtigung weiterer optischer Bauteile des Pumplasers zur Folge hatte, konnten die hohen theoretisch vorhergesagten Werte praktisch nicht erreicht werden. Trotzdem konnte gezeigt werden, dass eine effiziente Konversion mit einem eher unüblich signal-resonanten OPO und der anschließenden gezielten Konversion zu Wellenlängen im sichtbaren Spektralbereich auch direkt aus einem gütegeschalteten Laseroszillator ohne kostenintensive Verstärkersysteme realisierbar ist.
In der Halbleiterindustrie spielen vor allem zwei Größen eine herausragende Rolle, Geschwindigkeit und Zuverlässigkeit. Mit fortschreitender Miniaturisierung der Struk-turgrößen bei gleichzeitiger Erhöhung der Funktionalität von mikroelektronischen Bauteilen wird es immer wichtiger, dass genaue Modelle hinsichtlich der Lebens-dauer und deren Einflussgrößen zur Verfügung stehen. Vorhersagen zur Zuverläs-sigkeit eines Bauelementes müssen präzise, kostensparend und schnell getroffen werden um am Markt zu bestehen. Ziel dieser Diplomarbeit ist es eine Messmethode zur zeitabhängigen Durchbruchs-bestimmung (Time Dependent Dielectric Breakdown
Die vorliegende Arbeit beschäftigt sich mit dem Aufbau und der Charakterisierung einer fasergekoppelten Laser-Weißlichtquelle für die Endoskopie. Ziel war es, eine effektive Beleuchtung des Gewebes zu ermöglichen, um eine genaue Diagnose und eine effektive Therapie durchführen zu können. Um das Ziel zu erreichen, wurde die LaserLight SMD als Lichtquelle gewählt, da sie eine hohe Lichtleitung sowie eine hohe Leuchtdichte aufweist.
Im Rahmen der Arbeit wurde zunächst versucht, die Lichtstrahlen zu kollimieren, um das Strahlparameterprodukt (SSP) und die Beugungsmaßzahl M2 zu bestimmen, die für eine optimale Faserkopplung notwendig sind. Allerdings erwies sich dieses Vorgehen als nicht ausreichend. Daher wurde ein zusätzlicher Versuch durchgeführt, bei dem die Laserstrahlen fokussiert wurden. Durch Fokussierung konnte die Beugungsmaßzahl für die geplante Anwendung verbessert werden, was zu einer höheren Bildqualität oder Tiefenschärfe führen kann. Die Messungen zeigen, dass der Laserstrahl optimal fokussiert wurde und eine konsistente Qualität aufweist. Die berechnete Beugungsmaßzahl des Laserlichts ist hoch, was in Endoskopie-Anwendungen jedoch von Vorteil sein kann, da eine gleichmäßige flächige Ausleuchtung gewährleistet werden kann.
Anschließend wurden die Lichtstrahlen in eine Faser eingekoppelt, was zu einer effektiven und optimalen eingekoppelten Lichtstrahlung führte. Die Ergebnisse zeigen jedoch, dass die Transmission der Faser bei einigen Wellenlängen niedriger war als theoretisch erwartet. Es ist daher empfohlen, weitere Untersuchungen durchzuführen, um die Verluste in der Faser genauer zu bestimmen und zu optimieren.
Des weiteren wurde die spektrale Verteilung der Lichtquelle vor und nach der Faserkopplung untersucht, wobei festgestellt wurde, dass die spektrale Leistungsdichte nach der Faserkopplung im Vergleich zur Messung vor der Kopplung deutlich reduziert ist. Dies kann auf Verluste im Fasersystem zurückzuführen sein, die mehrere Peaks in der spektralen Verteilung nach der Faserkopplung verursacht haben.
Insgesamt hat diese Arbeit gezeigt, dass eine fasergekoppelte Laser-Weißlichtquelle für die Endoskopie mit der LaserLight SMD als Lichtquelle eine vielversprechende Option darstellt. Durch die optimale Faserkopplung und Fokussierung des Laserstrahls konnten eine höhere Bildqualität oder Tiefenschärfe und eine effektive Beleuchtung des Gewebes erreicht werden. Es ist jedoch notwendig, weitere Untersuchungen durchzuführen, um die Verluste in der Faser zu minimieren und die spektrale Verteilung zu optimieren.
Autorenreferat
Diese Arbeit befasst sich mit der Untersuchung und Bestimmung von Raumwinkeln, insbesondere von ophthalmologischen Geräten wie der Spaltlampe. Dazu wird eine Messvorrichtung entwickelt und charakterisiert, die aus einer Blende, einem Schirm und einer Kamera besteht.
Mit der Kamera wird ein Bild von der Lichtverteilung einer entsprechenden Strahlungsquelle aufgenommen. Dazu wird hier eine Spaltlampe verwendet. Deren Fläche wird mit einer Bildverarbeitungssoftware bestimmt und liefert damit den zur Bestimmung des Raumwinkels relevanten Wert.
Dabei ist der Blendendurchmesser und der Abstand der Blende zum Schirm variabel. Durch Variation dieser zwei Parameter ergeben sich zwei Messmethoden, die Blendenvariation und die Abstandsvariation. Davon eignet sich erstere für einen größeren Einstellbereich der variablen Parameter und ist demzufolge die empfohlene Herangehensweise.
Die Diagnosefindung für Hautkrebserkrankungen kann mit neuronalen Netzen erleichtert werden. Diese benötigen jedoch eine große Anzahl an Trainingsdaten, die im medizinischen Kontext häufig nicht vorhanden sind.
In dieser Arbeit wird ein Cycle-GAN genutzt, um Bilddaten zur Erweiterung begrenzter, medizinischer Datensätze zu erzeugen. Ein öffentlich zugänglicher, dermatologischer Bilddatensatz dient als Grundlage des Trainings. Die gewählte Architektur erlaubt es, Daten der Klasse Naevi in Daten der Klasse Melanome umzuwandeln. Der Einfluss verschiedener Parameter wurde untersucht.
Ein Großteil der durchgeführten Versuche konzentriert sich auf die Gewichtung der vier Lossfunktionen, anhand derer das Netz seinen Trainingsprozess optimiert. Wobei der adversariale Loss die Klassenzugehörigkeit bewertet, der Identitätsloss zur Qualitätserhaltung dient und die beiden Cycle-Loss den mathematischen Identitätsfunktionen der Datenverteilungen entsprechen.
Weiterhin wurde die Wirkung der Datenstandardisierung und -vorbereitung geprüft. Auch die Folgen einer Mehrfachnutzung ausgewählter Daten wurden betrachtet. Die Diskriminatoren des Cycle-GAN wurden hinsichtlich ihres Nutzens als Klassifikatoren für reale Daten getestet. Um die Nutzbarkeit der generierten Daten in Trainingsprozessen zu prüfen, wurde ein Klassifikator auf realen und anschließend auf generierten Daten trainiert.
Die erzielte Genauigkeit für Melanome stimmte in beiden Trainingsprozessen überein.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Die vorliegende Arbeit beschäftigt sich mit den Problemen der Automation von Geoinformationssystemen für die maschinelle Kartenerstellung aus statistischen Daten. Dafür wurden zunächst die verschiedenen Datenquellen und Datenformate betrachtet und gegeneinander verglichen. Dabei stellte der \enquote{Staatsbetrieb Geobasisinformation und Vermessung Sachsen} eigens für die Untersuchungen dieser Arbeit Kartenmaterial zur Verfügung. Daraufhin wurden verschiedene Geoinformationssysteme auf ihre Tauglichkeit für das Automationsvorhaben und den Kostenumfang analysiert. Es wurde festgestellt, dass das kostenfrei Quantum GIS mit einer Python"=Schnittstelle für die Automation am geeignetsten ist. Die zweite Hälfte dieser Arbeit behandelt das schrittweise Vorgehen, um die Automation mit dieser Software erreichen. Dabei wurden aufgetretene Probleme diskutiert und Lösungen in Form von Python"=Skripten hergeleitet. Schließlich konnte so eine vollständige, flexibel einsetzbare Lösung entwickelt werden. Alle Maßnahmen für die Automation wurden an einem konkreten Beispiel dargestellt, um das Zusammenspiel der verschiedenen Komponenten nachvollziehbar zu gestalten.
Diese Bachelorarbeit untersucht die Hintergründe und Motivation für die automatische Ausführung und Protokollierung von Tests auf Basis von Gherkin und Godog mit Hilfe von Xray Test Management für Jira.
Das Hauptziel ist die Steigerung der Effizienz bei der Testprotokollierung und -reporting. Durch die Automatisierung können manuelle Aufgaben reduziert werden, was zu einer verbesserten Effizienz und Zeitersparnis führt. Die Ergebnisse dieser Arbeit dienen als Grundlage für Unternehmen, um die Effizienz und Qualität ihrer Testprozesse zu steigern und einen Mehrwert zu schaffen.
Die verwendeten Technologien, Gherkin, Godog, Cucumber für Golang und Xray Test Management für Jira, werden vorgestellt und ihre Funktionen erläutert. Zusammenfassend ermöglichen diese Technologien eine effizientere Zusammenarbeit von Entwicklungs- und Testteams und verbessern die Softwarequalität.
Automatische Codegenerierung für Domain-Driven Design-Implementierungen auf Basis von Event Modeling
(2022)
In dieser Arbeit wird das „ONoteReader“-Projekt vorgestellt.
Hierbei handelt es sich um eine frei verfügbare und nicht kommerzielle Software, die auf Basis eines „Event Models“ [Dym19] wiederverwendbaren Programmcode generiert. Event Modeling ist eine Methode, Systeme ausführlich zu modellieren und deren Verhalten zu beschreiben, bevor diese implementiert werden. Dabei wird der Fokus auf eine ereignisgesteuerte Systemarchitektur gelegt. Die für den Vorgang benötigten Event Models werden von „oNote“ (onote.com) bereitgestellt. oNote ist ein Online-Tool, mit dessen Hilfe man ereignisgesteuerte Informationssysteme designen kann [oNo21]. ONoteReader ist eine Desktop-Anwendung, die ein in oNote entworfenes Event Model in Form einer JSON-Datei entgegennimmt.
Dieses Modell wird in Java-Quellcode umwandelt und anschließend im gewählten Dateiverzeichnis des Nutzers abspeichert.
Ziel der Software ist es, die fachlichen und technischen Bestandteile des Event Models so wiederzuverwenden, wie sie zuvor definiert wurden. Dadurch kann aus dem vorliegenden Modell direkt und ohne Aufwand Code generiert werden, ohne diesen selbst implementieren zu müssen. Der hierbei generierte Java-Code spiegelt das Event Model detailgetreu wider und orientiert sich dabei an der Vorgabe von „Domain-Driven Design“ (DDD). Einem Ansatz, bei dem das Software-Entwurfsmodell der Fachlichkeit des zugrundeliegenden Systems entsprechen soll [Ver13]. ONoteReader richtet sich an jene, die vorhaben, ein oNote Event Model in Java umzusetzen und dabei Zeit und Aufwand sparen möchten.
Automatisierte Datenanalyse von Klimadaten am Beispiel der Klimaveränderung in Deutschland bis 2070
(2018)
Durch den Menschen werden seit Beginn der Industrialisierung zunehmend Treibhausgase freigesetzt. Diese Treibhausgase verursachen einen großen Teil des anthropogenen Klimawandels und verstärken den natürlichen Treibhauseffekt. Der anthropogene Klimawandel hat bereits heute deutliche Auswirkungen auf unseren Planeten. Die Auswirkungen auf den Menschen, natürliche Ökosysteme, die Landwirtschaft und auf andere Wirtschaftsbereiche stehen momentan im Fokus der Forschung. Die zukünftige Entwicklung des Klimas ist dabei von besonderer Bedeutung, da die Anpassung an Klimaveränderungen Zeit benötigt und eine Abschätzung der Risiken zu starker Klimaänderungen für viele Bereiche bereits heute von entscheidender Bedeutung ist. Zukunftsszenarien können dabei genutzt werden um aufzuzeigen welche Risiken entstehen und zu entscheiden, wie Anpassungsstrategien genutzt werden können um zu negative Auswirkungen zu vermeiden. Ziel der vorliegenden Projektarbeit war es ein Verfahren zu entwickeln, mit dem Daten aus den Klimadaten (genauer: Daten des CORDEX-Projekts) ausgelesen und zusammengefasst werden können. In der vorliegenden Arbeit wird zunächst eine selbst entwickelte skriptbasierte Methode vorgestellt, die zehn Klimavariablen aus dem Datensatz direkt ausliest oder berechnet (direkt ausgelesen: mittlere Tagestemperatur, Tageshöchsttemperatur, Tagesminimumtemperatur, Niederschlag, Windgeschwindigkeit und kurzwellige Solarstrahlung am Boden; berechnet: Hitzetage, Kältetage, die Länge der Vegetationsperiode sowie die Häufigkeit von Starkregenereignissen). Diese Klimavariablen können mit dem Skript für variable Zeiträume (das ganze Jahr, einzelne Monate, für bestimmte Wachstumsphasen) zusammengefasst werden. Es werden anhand der Klimaveränderungen bis 2070 in Deutschland drei Anwendungsbeispiele für diese Methode vorgestellt. Die vorgestellte skriptbasierte Methode ist dazu in der Lage, im Raum Europa für variable Zeiträume und definierte geographische Räume Daten für 10 Klimavariablen auszulesen und die Ergebnisse von bis zu fünf Klimamodellen zusammenzufassen. Weitere Klimavariablen oder Klimamodelle lassen sich jederzeit in die vorliegenden Skripte mit einarbeiten. Die hier vorgestellte Methode wurde bereits erfolgreich dazu genutzt, die Klimaentwicklung in der Ukraine vorherzusagen und als Grundlage zur Berechnung künftiger Ernteerträge zu nutzen.
Die vorliegende Bachelorarbeit untersucht die Machbarkeit der Anwendung resistiver Sensoren auf textilen Materialien zur Messung des Auflagedrucks auf kompressiblen Untergründen. Die Recherche hat gezeigt, dass es bereits Anwendungen im medizinischen und
weiteren Sektoren, wie zum Beispiel im Sport, gibt. Die Arbeit konzentriert sich auf die Möglichkeit der direkten Herstellung von Sensoren auf Textilien.
Zwei Herstellungsverfahren für leitfähige Strukturen auf textilen Substraten werden untersucht. Die verwendeten Verfahren zur Herstellung leitf¨ahiger Strukturen auf Textilien umfassen das Pulverdruckverfahren und die Stickerei. Die Stickerei ermöglicht die Platzierung von leitfähigen Fäden bzw. Kabeln auf Textilien, während der Pulverdruck mit funktionalen Pulvern leitfähige Strukturen auf Textilien erzeugt.
Obwohl es bereits eine Vielzahl von Messsystemen für die Erfassung des Auflagedrucks gibt, zielt diese Arbeit darauf ab, Sensoren auf einem textilen Substrat speziell für den Einsatz in einer Auflagedruck-Messmatte im Reitsport zu entwickeln.
Die experimentelle Untersuchung umfasst Zugversuche und Druckbelastungstests. Zunächst werden Zugversuche durchgeführt, um die Dehnungseigenschaften der Textilien zu bestimmen, sowie die Änderung des elektrischen Widerstandes von aufgebrachten Pulverstrukturen bei Dehnung. Darüber hinaus werden zyklische Zugversuche durchgeführt, um die Stabilität der aufgetragenen leitfähigen Strukturen zu überprüfen. Mithilfe dieser Informationen wurde ein Trägermaterial aus mehreren textilen Substraten für weitere Versuche gewählt.
Des Weiteren wird die Änderung des elektrischen Widerstands von aufgebrachten Stick- und Pulverstrukturen während zyklischen Druckbelastungstests auf kompressiblen Untergrund untersucht und verglichen.
Die Ergebnisse der Druckbelastungstests deuten darauf hin, dass die Stick- und Pulverstrukturen eine Veränderung des elektrischen Widerstands während zyklischer Druckbelastung aufweisen. Es wurde beobachtet, dass der elektrische Widerstand während der Belastung
der Pulverstrukturen abnimmt und nach der Entlastung ansteigt. Die gestickten Strukturen weisen gegenteiliges Verhalten auf. Dies eröffnet interessante Möglichkeiten für die Entwicklung von textilen Sensorlösungen zur Erfassung von Auflagedruck auf kompressiblen Untergründen.
Die Bachelorarbeit zeigt die Komplexität und Herausforderungen bei der Entwicklung von resistiven Sensoren auf textilen Materialien für medizinische und sportliche Anwendungen.
OpenStreetMap (OSM) is a large open database for geographic data created and maintained by volunteers. OSM's main data use is rendering an extremely detailed map of the world. Data quality is an important issue for applications like routing of pedestrians to public transport facilities. In this report we describe different schemes for mapping bus stops in OSM and we provide statistics on usage of those schemes, the good ones and the not so good ones.
Ein Indoor Navigationssystem ist keine Neuheit. Vielverbreitet sind diese in Terminals einprogrammiert. Diese werden in großen Einkaufsläden, Kranken-häuser, Flughäfen und an einigen Universitäten verwendet. Allgemein finden Indoor Navigationssysteme in großen Gebäudekomplexen Verwendung. Terminals haben einen statischen Standort und müssen vom Besucher der jeweiligen Ortschafft aufgesucht werden. Mobile Endgeräte helfen dabei, sich von einem festen Standort zu entkoppeln. Zwei große Konzerne - Nokia und Google - sind dabei, Indoor Navigationssys-teme für Mobileendgeräte zu entwickeln. Der Campus-Navigationsservice übernimmt dabei die Idee, sich mobil in einem Gebäude zu navigieren. Der zu navigierende Bereich beschränkt sich dabei auf den Innenstadt Campus der Westsächsischen Hochschule Zwickau. Im Rahmen dieser Arbeit wurde eine Webanwendung entwickelt, die zur Orientierung auf dem Campus beiträgt. Durch Routen und Gebäudeplan anzeige, wird sich in Zukunft keiner mehr so schnell verlaufen.
This work aimed to apply the Floating Film Transfer Method (FTM), developed by Kaneto et.al., as a new way of coating planar and nonplanar substrates with photoresist. Focus laid on the creation of a workflow to coat the substrate and process it by UV-Lithography and Nanoimprint lithography. Conventional coating methods like spin-, spray- or dip coating are well established in today’s industry but are limited in their capabilities to coat curved and structured surfaces. FTM offers the possibility to overcome these limitations. Therefore, two negative resists AR N 4400 and AR N 4600 10 as well as two positive resists AR P 3110 and AZ MIR 701 were drop cast on deionized water. The resist spreads into a thin film that can be transferred to a planar or curved substrate. Profilometric and ellipsometric measurements were conducted to evaluate the topography of the resist. A non-uniform thickness distribution was found depending on the resist and parameters like solid content, water temperature, and the amount of surfactant. UV-Lithography and Nanoimprintl ithography were successfully performed with these films. Resolutions as low as 2,3±0,4 µm were achieved by UV-Lithography of AR P 3110. A periodic pattern with a pitch of 1,51 µm was transferred by thermal nanoimprint lithography to AR N 4400 10. As proof of concept Laser Direct Writing was performed to structure AZ MIR 701coated on a glass vial.
In dieser Bachelorarbeit wird ein Nd:Glas Faserlaser vorgestellt, der aufgebaut und anschließend charaketerisiert wurde. Folgende Charaketerisierungen wurden vorgenommen: -Charakterisierung der Pumpquelle (Laserdiode) -Absorptionswellenlänge des Neodyms -Emissionswellenlänge des Neodyms -differentieller Wirkungsgrad unterschiedlicher Faserwicklungen bzw. Faserlängen -Laserstrahlprofil -Strahlqualität
Gegenstand dieser Arbeit ist eine Methode, mit der sich relativ einfach und Substrat-schonend eine photokatalytisch reinigende Oberfläche herstellen läßt. Prinzip: Aufbringen entsprechender Eigenschaftsträger (hoch aktive TiO2 P25 -Partikel) zusammen mit einem Bindemittel (SiO2-Sol-Gel). In der resultierenden Komposit-Schicht müssen die P25-Partikel partiell freiliegen aber auch ausreichend in der Matrix stecken. Es wurden Beschichtungs-Sole mit unterschiedlichen Feststoffgehalten (w(SiO2), w(TiO2)) auf Glas- und Acrylglasscheiben angewandt (Tauchbeschichtung). Durchgeführte Untersuchungen: Methylenblau-Abbautest (photokatalytische Aktivität), Naß-Scheuertest (Abriebbeständigkeit), Profilometrie (Schichtdicke), UV/Vis-Spektroskopie (Transmissionsgrad), REM-EDX-Untersuchung (Partikelmenge und -verteilung; Ti-Gehalt). Ergebnis: geeignete Schichten auf Glas erhalten; Verbesserungspotential bei PMMA; Schichten ganz leicht milchig (auf Grund der Größe der P25-Partikel).
In der heutigen Zeit wird es immer wichtiger, die Schichtparameter von abgeschiedenen Schichten zu erfassen, ohne dabei die funktionellen Schichten zu beschädigen und somit die Ausbeute zu verringern. Dafür wird immer häufiger auf Analyseverfahren zurückgegriffen, die auf Röntgenstrahlung basieren. Diese haben die Vorteile, dass es eine breite Auswahl an gut beherrschten Verfahren gibt. In dieser Arbeit wird die Auswirkung der Variation von ALD - Prozessparametern auf die entstehenden Wolfram - ALD - Schichten untersucht. Diese Schichten sollen später Röntgenoptiken verwendet werden. Dies wird über innseitig beschichtete Glaskapillare erfolgen. Um eine möglichst hohe Reflektivität zu erzielen, werden die Schichten mit Hilfe der Röntgenreflektometrie untersucht. Für eine bessere Interpretation werden zudem noch weitere Charakterisierungsverfahren hinzugezogen. Es gelang einige Tendenzen zwischen den ALD - Prozessparametern und den entstandenen Schichten festzustellen. Des Weiteren wurden noch Experimente zur Oberflächenbehandlung und verschiedene Schichtaufbauten durchgeführt welche gute Ergebnisse erzielten.
The book is the first of four volumes on data science and artificial intelligence. This first volume covers fundamentals of data science: an introduction to Python programming, software libraries for data management, techniques for working with big data. It contains many exercises and projects with real-world data.
The book is the second of four volumes on data science and artificial intelligence. This second volume covers data visualization tool and techniques as well as fundamentals of supervised machine learning: linear regression, artificial neural networks, support-vector machines, decision trees, ensemble methods and more.
Natural Language Processing (NLP) is a wide area in computer science and software engineering that finds its application not only in such fields as machine learning or artificial intelligence, but also has very quickly become a very popular solution to various questions and issues raised in the academic field. Those issues include information classification, text analysis, performing a so-called “smart search”, information grouping, providing feedback to academic papers, and many more. The application designed and implemented for this thesis targets solving a similar problem, which is described in details below.
The faculty of Physical Engineering and Informatics at the Westsächsische Hochschule Zwickau uses a software tool called “Quest”. The “Quest” serves as an online platform that enables students to ask questions regarding the module material introduced by the teaching professors. The professors can use these questions in order to keep track of the topics rising the most amount of uncertainty, as well as to clarify those questions during the lectures. Since the modules repeat over time, similar or identical questions are frequently asked by students.
The current functionality of the “Quest” tool, however, does not provide grouping or clustering questions with a similar content into one category. The reason why this is important is because in the future phases of the improvement of the functionality of the “Quest”, professors want to be able to link similar questions with a learning material or online resources that the students can benefit from. This, however, is only possible when each incoming question is labeled with a certain category, and all previously inputted questions associated with this category become visible through the UI of the tool. That would allow students to review the questions referring to the same category that were previously asked by others, as well as to get access to the study materials or resources associated with that category.
The functionality described above would significantly improve the study process and therefore a solution to this problem is needed. One way to solve this issue would be to perform a manual classification of existing questions into associated categories, which given the large size of the question database would be quite time- and effort-consuming. Another option would be to build an application that would be able to analyze the existing dataset of questions and, with the help of the NLP techniques, classify new questions asked by students and identify the similar ones from an existing database.
The tool implemented for the above-mentioned purposes aims to serve as text analytics and classification application that would be able to find and categorize similar text and questions provided by students and/or professors at the Westsächsische Hochschule Zwickau.
This bachelor thesis demonstrates the process of building a software tool using certain NLP techniques, such as tokenization, model training, categorization, NER (Named Entity Recognition), and POS (Parts of Speech tagging), which are defined and described in Chapter 2: “Literature Overview”. The relevance of these techniques in terms of the classification tool built in the context of this thesis is discussed in the section “Selection of NLP tools and techniques” of the “Methodology” chapter.
The aim of this thesis is to describe the methods and software tools used to develop a restful API for text classification, as well as to compare and analyze the effectiveness of two common NLP classifiers – the Naïve Bayes and Logistic Regression (Entropy Model) algorithms.
Ziel der Arbeit war es, das Ätzverhalten des reaktiven Ionenstrahlätzens anhand von Siliziumdioxid, Silizium und dem Photoresist AZ1505 zu untersuchen. Für die Ätzraten der drei Materialien sowie für die Selektivitäten Siliziumdioxid/AZ1505 und Silizium/AZ1505 sollten Modelle erstellt und mit dem bekannten Prozesswissen validiert werden. Um dies zu erreichen, wurde die Methode des Design of Experiment genutzt, welche versucht, mit einer optimalen Anzahl an Versuchen auszukommen. Zu Beginn wurden Waferschnipsel der drei Materialien erzeugt. Die Siliziumdioxid- und Silizium-Proben besaßen ein binäres Resistgitter mit einer Periode von 3 μm, während die Photoresist-Proben unstrukturiert blieben. Die Proben wurden auf Facettenhalter geklebt und geätzt. Nach den Ätzungen wurden die Ätzabträge mit dem AFM (strukturierte Proben) und der Dünnschichtreflektometrie (flächiger Photoresist) ermittelt. Aus Vorversuchen wurde der grundlegende Versuchsaufbau bestimmt.
Im Screening wurden die drei Faktoren Beamspannung, Ätzgasmischung (bestehend aus CHF3 und O2) und Ioneneinfallswinkel untersucht. Die Faktoren wurden bei ihren zwei extremen Einstellungen getestet, wobei die wichtigsten Faktoren herausgefiltert wurden. In dem anschließenden Response Surface Methodology-Design wurden die wichtigsten Faktoren auf mehreren Stufen untersucht und anhand der Daten die Modelle erstellt. Für jede Zielgröße wurde ein Modell fünfter und vierter Ordnung sowie ein kubisches Modell erzeugt. Es folgten Kontrollversuche zur Überprüfung der Vorhersagequalitäten. Danach wurden die einzelnen Modelle untereinander verglichen und mit dem bekannten Prozesswissen überprüft.
Schlussendlich wurde für jede Zielgröße das Modell gewählt, welches die besten statistischen Eigenschaften, die höchsten Vorhersagequalitäten und den sinnvollsten Verlauf besaß. Im Endeffekt konnte für jede Zielgröße ein Modell erstellt werden.
Aufgrund der fehlenden Klarheit über potentiell nachteilige Auswirkungen langwelliger elektromagnetischer Strahlung des Radiofrequenzbereiches auf die gesundheitliche Unversehrtheit des Individuums und mangelndes Vertrauen in die von staatlicher Seite festgelegten Grenzwerte, erhebt sich die Frage, in wie weit Schritte zur signifikanten Reduktion von elektromagnetischen Wechselfeldern als Präventivmaßnahmen am effektivsten ergriffen werden können. Im Rahmen der Immissionsverminderung im häuslichen Bereich, wird daher verstärkt der Einsatz von Abschimrmaterialien als ein Mittel zur Erzeugung von quasi feldfreien Bedingungen postuliert. Um beurteilen zu können, mit welchen Mitteln sich eine adäquate Abschirmung erreichen läßt, ist eine vorherige Messung der Immissionen, sowohl in qualitativer, wie auch in quantitativer Hinsicht, unerläßlich. Ein im Rahmen der Arbeit entwickeltes Programm ermöglicht dabei die exakte Analyse der Meßdaten sowie die Extrapolation der auf diese Weise gewonnenen Momentaufnahme des Belastungszustandes auf den Worst-Case maximaler Immissionen. Des weiteren gestattet das Programm eine Simulation des erzielbaren Erfolges nach Durchführung einer immissionsvermindernden Sanierungsmaß- nahme. Da insbesondere die auf Laborwerten basierenden Ergebnisse der Simulation ein unerreichbares Optimum darstellen, wurde anhand einer unter realistischen Bedingungen vorgenommenen Untersuchung des Schirmdämpfungsverhaltens verschiedener Materialien festgestellt, dass Verlegefehler als Ursache für diese Differenz weitgehend ausgeschlossen werden können, jedoch Refl exionen der transmittierten Strahlungsanteile nicht vernachlässigbar sind, was bei einer Raumabschirmung unbedingt Beachtung finden sollte, so dass eine geeignete Materialauswahl erfolgen kann.
Development and Characterization of a Dispersion-Encoded Method for Low-Coherence Interferometry
(2022)
This Open Access book discusses an extension to low-coherence interferometry by dispersion-encoding. The approach is theoretically designed and implemented for applications such as surface profilometry, polymeric cross-linking estimation and the determination of thin-film layer thicknesses. During a characterization, it was shown that an axial measurement range of 79.91 µm with an axial resolution of 0.1 nm is achievable. Simultaneously, profiles of up to 1.5 mm in length were obtained in a scan-free manner. This marked a significant improvement in relation to the state-of-the-art in terms of dynamic range. Also, the axial and lateral measurement range were decoupled partially while functional parameters such as surface roughness were estimated. The characterization of the degree of polymeric cross-linking was performed as a function of the refractive index. It was acquired in a spatially-resolved manner with a resolution of 3.36 x 10-5. This was achieved by the development of a novel mathematical analysis approach.
This bachelor thesis is about the development and design of the suture-based HeartStitch MR device for functional restoration of the mitral valve when a mitral regurgitation is present. The mitral valve is one of the four existing heart valves and due to their load, the mitral valve is most commonly affected by valve defects. In case of a mitral regurgitation, the leaflets of the mitral valve are not closing tight enough, which causes a reflux of the oxygenated blood from the left ventricle into the left atrium. As consequence, the human body won't be sufficiently supplied with oxygen anymore, which results in a disproportionate cardiac output. Untreated, this can lead to respiratory dis-tress, cardiac arrhythmias and stroke or even to death. In this case, a heart surgery is essential to improve the patient
Im Mittelpunkt des Artikels steht die Frage, welche Eingabemethoden sich für die Eingabe längerer Texte auf Mobiltelefonen eignen. Der Grund dafür ist, dass Artikel über Eilmeldungen in der Regel lang sind und die Verwendung einer Handytastatur zur Eingabe langer Texte sowohl ineffizient als auch mühsam ist.
Daher änderte ich meine Zielsetzung in
1. eine geeignete Eingabemethode für das Schreiben langer Texte auf Mobiltelefonen auf der Grundlage der Literatur zu finden.
2. eine geeignete Eingabemethode für die Erfassung von kritischen Ereignissen zu finden.
3. schließlich die Bewertung dieser Eingabemethoden in Bezug auf Komfort und Effizienz.
Durch die bodenbezogene Verwertung von Klärschlamm werden synthetische Polymere in die Umwelt ausgebracht. Die Umweltverträglichkeit synthetischer
Polymere ist noch nicht abschließend geklärt ist. Zum Schutz von Mensch und Umwelt wurde das Ausbringen von synthetischen Polymeren durch die
Novellierung des Düngerechts beschränkt. Allerdings gehört ihr Einsatz als Flockungs- und Konditionierungsmittel in der Abwasserbehandlung zum Stand
der Technik. Diese Arbeit beschäftigt sich mit der Auswirkung der Novellierung des Düngerechtes mit dem Ziel Erkenntnisse darüber zu erlangen, ob alternative
Flockungsmittel auf Basis nachwachender Rohstoffe eine Alternative in der Abwasserbehandlung in Deutschland darstellen. Um dies herauszufinden wurden die Ergebnisse verschiedener Untersuchungsprojekte herangezogen sowie die Möglichkeit der Modifizierung alternativer Flockungsmittel zur Effizienzsteigerung bei der Schlammentwässerung betrachtet.
In den Untersuchungsprojekten konnte nachgewiesen werden, dass alternative Polymere grundsätzlich synthetische Polymere ersetzen können. Der erhöhte
Flockungsmittelbedarf stellte sich allerdings als problematisch heraus und stellte die Anlagenbetreiber vor neue Herausforderungen. Dies zeigt, dass die Steigerung der Effizienz alternativer Flockungsmittel für den praktischen Einsatz von Bedeutung ist. Um eine Aussage treffen zu können, ob sich in Deutschland eine Investition in die Weiterentwicklung alternativer Flockungsmittel und in die Durchführung großtechnischer Untersuchungen lohnt, sollte geprüft werden, wie viele Kläranlagen in Zukunft ihren Klärschlamm noch bodenbezogen verwerten dürfen.
Die vorliegende Arbeit befasst sich mit der Frage nach der sozio-ökologischen Bedeutung, Verantwortung und Zukunft von Städten und untersucht darüber hinaus mögliche theoretische und praktische Lösungsansätze zu dringenden umweltpolitischen Problemen im Zuge der Urbanisierung.
Die Erörterung beginnt in Kapitel 1 mit einer Bestandsaufnahme aktueller Umbruchprozesse der natürlichen Umwelt, die sich global als Symptome des Klimawandels ausdrücken, wobei in einem zweiten Schritt der Mensch als Initiator identifiziert wird und die ihm zuzuschreibenden, massiv zunehmenden, störenden Eingriffe als Hauptauslöser der Negativtrends hergeleitet werden. Weiterhin wird unter Zugrundelegung des Analysekriteriums Ressourcenmanagement die Leitthese formuliert, dass die globale Urbanisierung einer der wichtigsten und ernstzunehmendsten Treiber des weltweiten Ressourcenverbrauchs ist und unter Beibehaltung derzeitig angewandter Modelle für Stadtentwicklung die globalen Bereitstellungskapazitäten für neue Materialien sprengen wird.
Basierend auf den Feststellungen und Prognosen des ersten Teils, widmet sich Kapitel 2 anschließend möglichen Lösungsansätzen für nachhaltige Stadtentwicklung, die im Einzelnen jeweils auf unterschiedlich gelagerten Ebenen des Gesamtkonstruktes ‚Stadt‘ ansetzen. Auch hier werden zunächst wiederum erst das Ausmaß und die drohenden Konsequenzen der bevorstehenden Aufgaben beziffert, wie z.B. Zeiträume und Flächenbedarf zu erwartender Urbanisierungswellen oder auch Verlustmengen fruchtbarer Böden, Wälder und Naturhabitate. Die in der Folge vorgestellten Konzepte sind nach ihrer wissenschaftlichen Bedeutung ausgewählt und werden jeweils kritisch vor dem Hintergrund ihrer Umsetzbarkeit reflektiert, wodurch z.B. auf die Diskussion von strategischer Dichte einerseits ein Exkurs zum geschichtlichen Abriss städtebaulicher Ideale in der Vergangenheit und andererseits ein Abschnitt zu sozialer Integration und Rehabilitierung von Slums folgt. Denn beides liefert relevante Einsichten in die Realität städtischer Gebilde, die für ein holistisches Verständnis von Urbanisierungsfragen elementar sind. Schließlich werden Beitragspotenziale auf der Ebene individueller Akteure und Baueinheiten präsentiert, die z.B. durch grüne Technologien, architektonische Formgebung und Zukunftsvision oder auch Verhaltensänderungen der Bevölkerung erreicht werden können. Ein Zwischenfazit zum multiplikativen Effekt der Maßnahmenmodelle sowie ein Ausblick auf vielversprechende Umsetzungsinstrumente in politischer Hinsicht runden die in Kapitel 2 diskutierte Thematik theoretischer Lösungsansätze nachhaltiger Stadtentwicklung ab.
Kapitel 3 stellt eine Reihe ausgewählter Fallstudien vor, die als praktische Adaptionen der in Kapitel 2 präsentierten Ansätze bereits international Anwendung finden und lokal den materiellen Fußabdruck der betrachteten Städte verbessern. Die Selektion der Fallstudien ist nach ökologischen Sektoren gegliedert – betrachtet werden Beispiele aus den Bereichen Energie, Abfallmanagement, Wasser- und Luftreinhaltung.
Ziel dieser Arbeit ist es, die Bedeutungsschwere von Städten für die zukünftige Entwicklung globalen Ressourcenmanagements festzustellen, auszuformulieren und nach aktuellen Quellen zu beziffern. Darauf basierend sollen die wichtigsten Ansatzpunkte zur Implementierung nachhaltiger Systeme und urbaner Umweltneutralität vorgestellt, kritisch reflektiert und hinsichtlich ihres Potenzials bewertet werden. Das Ziel der Fallstudienpräsentation im dritten Teil ist die Veranschaulichung der zuvor diskutierten Theorie an konkreten Beispielen, die als Pionierprojekte eventuell auch von anderen Städten in ähnlicher Weise umgesetzt werden könnten. Zukünftige Stadtplanung muss aus den Entwicklungen von Vergangenheit und Gegenwart alle Lehren ziehen, um die bevorstehende Urbanisierung im 21. Jahrhundert als Chance nutzen zu können. Welche Problemstellungen sich pro Betrachtungsebene ergeben, welche theoretischen Lösungsmodelle existieren und durch welche Störfaktoren diese Ansätze in der Realität beeinträchtigt werden, wird im Rahmen eines schichtweise erarbeiteten Fazits nocheinmal zusammenfassend dargelegt, wobei zusätzlich pragmatische Gegensteuerungselemente benannt werden und pro Bezugsdimension einige abschließende Sätze zum Status Quo ausformuliert werden.
Es wird ein neuartiges, interferometrisches Verfahren zur Analyse dünner Filme beschrieben.
Die Arbeit beschäftigt sich mit der domänenübergreifenden Sentiment Analysis.
Es soll überprüft werden, ob ein trainiertes Modell auf Review-Daten für die Klassifikation von Twitter-Nachrichten verwendet werden kann. Dazu werden die Verfahren Transformer und Ensemble-Methoden genutzt.
Das Ergebnis der Arbeit zeigt, dass die Transformer die besten Ergebnisse liefern, jedoch für den praktischen Einsatz die Werte verbessert werden müssen.
In dieser Arbeit wird die Norm für Funktionale Sicherheit (ISO 26262) bezüglich den Anforderungen für die Konzeption eines sicheren Systems betrachtet. Anschließend werden vor allem die Anforderungen an die Software sowie dem Betriebssystem analysiert. Auf dieses Wissen aufbauend wird die Herangehensweise beschrieben, um ein prototypisches Testsystem zu erstellen. Anhand des Testsystems sollen Linux spezifische Mechaniken und Architekturkonzepte verwendet und anschließend die Eignung im Sinne der Norm ISO 26262 bewertet werden. Dadurch sollen Grenzen und Möglichkeiten von Linux beispielhaft dargestellt werden.
Ziel der Arbeit ist es, eine Liste von Standard-Testfällen zur Unterstützung von App-Entwicklern zu erstellen. Die Liste soll komponentenbasiert (z.B. Login, Transaktionen, Penetration, etc.) kategorisiert werden. Des Weiteren soll ein Prototyp erstellt werden, der manche Testfälle enthält und gegen den man beliebige Apps testen kann.
Gegenstand der vorliegenden Arbeit ist es, die mechanischen Eigenschaften additiver Fertigungsverfahren unter Berücksichtigung der Bauraumausrichtung während der Herstellung zu untersuchen. Daraus soll eine optimale Ausrichtung für 3D gedruckte Schädelimplantate bezogen auf deren Festigkeit resultieren. Für die Durchführung dieser Versuche werden standardisierte Prüfverfahren in Form von Zugversuch und Kerbschlagbiegeversuch gewählt. Die Defizitanalyse konzentriert sich dabei auf die werkstofftechnischen Aspekte. Hierbei sollen verschiedene Prozessparameter für die additive Fertigung eingestellt werden, wodurch eine Einflussbeurteilung am gedruckten Bauteil erfolgen kann. Des Weiteren sollen bestehende Fertigungsverfahren patientenspezifischer Schädelimplantate auf deren Materialeigenschaften sowie Biokompatibilität aufgelistet und untersucht werden. Daraus ergibt sich ein selbst zu konstruierender Versuchsstand, welcher das Verhalten von Schädelimplantaten in einem Schädelmodell bei externer Krafteinwirkung untersucht.
Im Modul "Spezifikations- und Verifikationsmethoden" wird im Rahmen der Praktika ein System spezifiziert. Tools zum Abbilden, Erstellen und Management kommen nicht zum Einsatz. Aufgabe der Arbeit ist es, die Durchführung effizienter zu gestalten. D.h., dass durch den gezielten Tooleinsatz das Arbeiten unterstützt wird und die Studenten dazu angehalten werden, Requirements richtig zu erfassen und zu verwalten. Im Rahmen der Praktika werden verschiedene Diagrammtypen der UML verwendet sowie atomare textliche Anforderungen definiert und mehrmals überarbeitet. Die Erfassung, Verwaltung und die Überarbeitung der Anforderungen erfolgt aktuell formlos. Mit fortschreitenden Praktika werden verschiedene Reviewtechniken angewendet, wodurch ebenfalls teilweise Formalien eingeführt werden und Techniken aus dem Bereich des RE vermittelt werden. Den Studierenden soll, unter Berücksichtigung der durch das Studium vorgegebenen Randbedingungen, erlebbar ein Eindruck der Tätigkeiten im Rahmen des RE vermittelt werden. Außerdem sollen die Möglichkeiten und Grenzen bei der Durchführung mittels Textverarbeitung veranschaulicht werden sowie darauf basierend mögliche Auswege aufgezeigt werden.
Lithiumtitanat-Elektroden finden in schnellladefähigen Lithiumionen-Akkumulatoren Anwendung. Aus der hohen Potenziallage gegenüber den herkömmlichen Graphitelektroden resultiert eine höhere Toleranz für Überspannungen und eine bessere Effizienz auch bei hohen Ladeströmen. Mit einer entsprechenden Gegenelektrode hergestellte Akkumulatorzellen können damit häufig in weniger als 20 Minuten geladen werden und gelten als Hochleistungszellen. Zusätzlich haben diese Zellen eine besonders hohe Lebensdauer von über 10 000 Zyklen. Herstellungsparamter wie Pastenzusammensetzung, Schichtdicke und Verdichtung nehmen auf die Hochstromfähigkeit der Lithiumtitanat-Elektrode Einfluss. Um diese zu quantifizieren sind Parameter gezielt ausgehend von einer Referenzkonfiguration variiert worden. Für die Charakterisierung sind hauptsächlich der Innenwiderstand und die nutzbare Entladekapazität bei höheren Stromraten betrachtet worden. Es konnte herausgestellt werden, dass die elektronische Leitfähigkeit des halbleitenden Lithiumtitanat den Innenwiderstand der Elektrode maßgeblich bestimmt, woraus eine exponentielle Temperaturabhängigkeit resultiert. Der Transport der Lithiumionen innerhalb der Elektrode, aber auch im Elektrolyten findet ausreichend schnell statt, sodass bei den durchgeführten Messungen keine transportlimitierten Effekte beobachtet werden konnten. Durch Verdichtung der Elektroden wurde die elektrische Leitfähigkeit der Elektroden weiter verbessert, ohne sich negativ auf die Ionenleitfähigkeit innerhalb des Kristalls auszuwirken. Eine weitere Leistungssteigerung konnte durch Erhöhung des Kohlenstoff-Binder-Verhältnisses und Verringerung der Schichtdicke erzielt werden. Eine Stabilitätsmessung über 500 Zyklen wurde durchgeführt und Alterungseffekte gezielt provoziert. Damit konnten Erkenntnisse über den sicheren Betrieb und Arbeitsbereich von Lithiumtitanat-Elektroden gewonnen werden.
Das Ziel der vorliegenden Bachelorarbeit war es, die Wirkung und Effizienz von EMS- Training an Adipositas-Patienten zu untersuchen. Dafür wurde eine eigens angefertigte Studie im Klinikum Chemnitz am Standort Flemmingstraße durchgeführt. Als Zielgruppe waren übergewichtige bzw. adipöse Menschen festgelegt. Die Teilnahme eines Schmerzpatienten erweiterte die Studie auf die Untersuchung des Wirkungsgrades der Trainingsmethode an Patienten mit chronischen Rückenbeschwerden. Insgesamt umfasste die Studie 5 auswertbare Adipositas-Patienten, 2 freiwillige Probanden aus dem Klinikum sowie einen Schmerzpatienten. Die Studie deckte durchaus positive Tendenzen auf, die auch für Interessenten ohne Übergewicht ansprechend sind.
Thema dieser Bachelorarbeit ist die Entwicklung einer mobilen Anwendung mit einer Verbindung zu Salesforce. Die Anwendung bietet unterstützende Funktionen für Arbeiter, deren Aufgabe darin besteht, Artikel anhand von Arbeitsabläufen herzustellen. Es soll für jeden Arbeitsschritt eine Anleitung hinterlegt werden können und nach Abschluss des jeweiligen Schrittes soll ein Beleg im System gespeichert werden können. Diese beiden Funktionen beinhalten auch die Einbindung von Bildern und Videos. Daher muss eine weitere Einbindung eines Dienstes erfolgen, in dem die Medien synchronisiert gespeichert werden. In der Arbeit wird zunächst auf die bereits vorhandenen Teile des Systems eingegangen, dann eine Lösung für die Speicherung der Medien gefunden und die Entwicklung und der Aufbau der fertigen Anwendung beschrieben. Zum Schluss wird das Ergebnis ausgewertet und ein Ausblick auf zukünftig mögliche Erweiterungen gegeben.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
In dieser Bachelorarbeit wird die Entwicklung einer Service-Struktur zur Suche, Filterung und Abfrage von ETF- und Fondsdaten vorgestellt. Der Fokus liegt auf der Modernisierung einer bestehenden Anwendung, ursprünglich in Go entwickelt, durch die Überführung in das moderne Quarkus-Framework. Ziel ist es, die Datenverarbeitung und -bereitstellung zu optimieren und manuelle Prozesse, durch die Verwendung von Schnittstellen, zu automatisieren.
Es werden die Herausforderungen und Einschränkungen des bestehenden Services analysiert und eine Lösung zur Verbesserung der Effizienz und Performance durch die Anwendung von Quarkus, Hibernate und anderen Technologien vorgeschlagen. Die Arbeit beleuchtet die Implementierung und Bewertung der neuen Service-Struktur, die eine effektivere Handhabung und Analyse von ETF- und Fondsdaten ermöglicht.
Diese Masterthesis untersucht die Möglichkeit, Context Mapping mit Hilfe von JetBrains MPS modellieren zu können und dabei auch Fachlogik in Form von Code in die Modelle einfließen zu lassen.
Das Ziel besteht darin, eine DSL zu entwickeln, welche von Anwendern genutzt werden kann, um Bounded Context, die Beziehungen zwischen den Bounded Contexts und Fachlogik zu modellieren.
Die motorische Steuerung von Sprache und Kommunikation basiert in weiten Teilen auf einem auditiven Feedback. Bei gehörgeschädigten Menschen ist diese Möglichkeit eingeschränkt. Alternativ dazu kann ein Feedback durch Vibrationen an den Schleimhäuten im inneren des Vokaltraktes staatfinden. Zur Entwicklung einer darauf basierenden Trainingsmöglichkeit, ist es interessant, die Vibrationseigenschaften des Vokaltraktes zu untersuchen. In dieser Arbeit wird ein 3D Modell des Vokaltraktes erstellt und akustisch sowie vibrometrisch in Bezug auf die sich ergebenden Resonanzfrequenzen, untersucht.
Im Jahr 2022 hat die Warema Renkhoff SE entschieden den Energieträger Wasserstoff (H2) als eine Erdgasalternative für die Beheizung der Pulverlacköfen im Rahmen von zwei Abschluss- arbeiten untersuchen zu lassen. Eine andere Arbeit befasste sich mit den unterschiedlichen Möglichkeiten der Versorgung mit H2. In der hier vorliegenden Arbeit wurden die unterschied- lichen Aspekte für den Einsatz des neuen Energieträgers in der Fertigung betrachtet.
Recherchen zu einem möglichen H2-System zeigten, dass alle Komponenten bereits heute verfügbar sind. Manche, wie z.B. ein 100%-H2 Brenner, befinden sich aber noch im Proto- typenstadium. Zurzeit existieren noch keine Regelwerke für die Installation und Betrieb von H2-Sytemen, die den Stand der Technik abbilden. Die Erarbeitung solcher Regelwerke wurde in 2023 begonnen und wird einige Zeit in Anspruch nehmen.
Um unterschiedliche Konfigurationen von H2-Systemen untereinander und mit dem existie- renden Erdgassystem vergleichen zu können, wurde in dieser Arbeit ein Tool entwickelt. Dieses Bewertungs- und Entscheidungstool erlaubt es das System zu konfigurieren und nach Kosten, Risiken und CO2-Emissionen zu bewerten. Die Bewertung erfolgt nach dem Prinzip einer um- gekehrten Nutzwertanalyse. Im Tool wurde beispielhaft die Pulverbeschichtungsanlage 1 am Standort Marktheidenfeld abgebildet.
Wasserstoff gilt aufgrund seiner physikalischen Eigenschaften als besonders schwierig in der Handhabung und gefährlicher als z.B. Erdgas. Die Risikobewertung bildet auch deshalb den Hauptteil des Tools. Die Risikobewertung wurde so gestaltet, dass sie wissenschaftlich fundiert und dennoch einfach anzuwenden ist.
Im fertigen Tool wurden einige Konfigurationen miteinader verglichen. Es zeigt sich, dass das derzeitige Erdgassystem sowohl bei den Kosten als auch bei den Risiken von keinem H2- System erreicht werden kann. Ohne zusätzliche Sicherheitsvorrichtungen bzw. -maßnahmen beim H2-System ist das Risiko bei manchen Risikoszenarien zu hoch. Ein großes Risiko beim H2-System geht aber auch von der fehlenden Erfahrung und Komponenten, welche sich noch in Entwicklung befinden, aus.
Zum Abschluss wurde die Rentabilität eines H2-Systems betrachtet. Dazu wurden die im Tool ermittelten Investitionskosten für ein H2-System verwendet. Für unterschiedliche Erdgas- preise und Amortisationszeiträume wurde der H2 Preis berechnet, ab dem sich die Investition amortisiert. Zum Beispiel müsste der H2 Preis unter 5 €/kg liegen (heute ca. 10 €/kg), damit sich das System beim heutigen Erdgaspreis von 0,15 €/kWh nach 5 Jahren amortisieren kann.
Aus dieser Arbeit können direkte Handlungsempfehlungen für Warema abgeleitet werden. So scheint es aus mehreren Gründen sinnvoll mit der Installation eines H2-Systems noch 2–3 Jahre zu warten. In dieser Zeit werden z.B. die Normen für H2-Installationen fertiggestellt. Wenn ein H2-System installiert wird, sollte man zuerst nur einen Brenner auf H2 umstellen. So fallen die Anfangsinvestitionen deutlich niedriger aus und die Reduktion der CO2-Emissionen ist dennoch beträchtlich (bis zu 50%!). Gleichzeitig kann Erfahrung mit H2 im Unternehmen gesammelt werden.
In der vorliegenden Diplomarbeit wird ein Konzept zur hochverfügbaren Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erarbeitet und getestet. Dafür wurde im Vorfeld eine Anforderungsanalyse zur Ermittlung der Anforderungen an diese hochverfügbaren Anbindungen durchgeführt. Im Folgenden wurden Technologien zur Erfüllung der Anforderungen ermittelt, kombiniert und auf Nutzwerte verglichen. Die Kombination der Technologien mit dem höchsten Nutzwert wurde in einem Prototyp umgesetzt und in einer Testumgebung auf die Erfüllung der Anforderungen getestet. Ziel dieser Arbeit war es dabei ein herstellerneutrales, infrastrukturunabhängiges und in verschiedenen Anwendungsfällen nutzbares Konzept zu entwickeln. Diese Unabhängigkeit und Offenheit soll es ermöglichen, dieses Konzept in verschiedenen Szenarien, welche eine Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erfordern, einsetzen zu können. Dadurch soll die Zeit zur Konzeption einer Lösung in der Praxis erheblich gesenkt werden.
Die Therapiemöglichkeiten zum Zeitpunkt eines auftretenden Glioblastoma multiforme sind oft begrenzt. Der hyperthermische Effekt stellte sich als wirksame Form der Behandlung heraus. In der Arbeit wird ein Ansatz beschrieben, welcher magnetische Nanopartikel als Energiewandler verwendet. Bei dem Verfahren verbleiben die Partikel während der derzeitigen Behandlung als Implantat im menschlichen Organismus und bedingen den Verzicht auf postoperative MRT-Diagnostik. Die vorliegende Arbeit beschäftigt sich mit der Überprüfung eines Konzepts der rückstandsfreien Behandlung durch die Verwendung eines Ballonkatheters. Grundlegend wird das thermische und physikalische Verhalten von Ballonkathetern im Kontext der NanoTherm®-Therapie untersucht. Ebenfalls wird der Entwicklungs- und Konstruktionsprozess von zwei Messaufbauten zur Überprüfung des Konzepts beschrieben. Die Bestimmung des Wärmeverhaltens von magnetischen Nanopartikeln in einem Ballonkatheter wird an einem Aufbau grundlegend untersucht.
Entwicklung eines Messmoduls zur Beurteilung von Haltung, Bewegung und Aktivität im Arbeitsumfeld
(2020)
Ziel der Arbeit ist die Konzeption eines Messystems zur Erfassung von Haltung und Bewegung im Arbeitsumfeld als Teilmodul des Forschungsprojektes midasKMU. Dazu werden die Möglichkeiten der messtechnischen Erfassung von Bewegung und Position am Körper dargestellt sowie die anatomischen Besonderheiten der bewegten Gelenke. Zusammen mit den bisherigen Ergebnissen aus dem Forschungsprojekt und der Betrachtung der arbeitswissenschaftlichen Methoden sowie aktuell verfügbaren Systemen wird ein Anforderungskatalog nach MoSCoW - Kriterien aufgestellt. Auf Grundlage des Kataloges wird ein theoretisches Konzept für die messtechnische Erfassung relevanter Größen mithilfe am Körper getragener Sensoren vorgestellt. Im praktischen Teil der Arbeit wird das Konzept für die unteren Extremitäten prototypisch umgesetzt. Das entstandene Modul wird mithilfe eines Testaufbaus geprüft und mit dem theoretischen Anforderungskatalog verglichen. Die Auswertung der Messergebnisse wird zur Verbesserung und Erweiterung des theoretischen Konzeptes verwendet. Im Ausblick der Arbeit werden nächste Schritte vorgestellt um den Prototypen genauer, stabiler und benutzerfreundlicher zu gestalten mit dem Ziel eine Anwendung im Arbeitsumfeld zu ermöglichen.
Diese Bachelorarbeit präsentiert hergeleitete Optimierungsmaßnahmen zur Verbesserung der Derotationsbandage, speziell für die beidseitige Anwendung bei Kindern. Hintergrund dessen sind die bei Kindern mehrfach aufgetretenen Probleme beim Handling der Bandage. Die Optimierung basiert dabei auf den Ergebnissen einer Umfrage, welche mit mehreren Orthopädietechnikern der Firma Kajamed durchgeführt wurde sowie dem Vergleich vorliegender Bandagen von verschiedenen Herstellern.
Anhand dieser Erkenntnisse ist es anschließend möglich, eine Reihe von Prototypen zu entwickeln. Die Ergebnisse zeigen, dass die vorgeschlagenen Optimierungsmaßnahmen den Alltag der betroffenen Kinder erheblich erleichtern können und die Selbstständigkeit gewährleistet bleibt, jedoch ebenso das Therapieziel nicht verfehlt wird. Folglich müssen die Bandagen besser auf das soziale Umfeld der Patienten abgestimmt werden um die Einschränkungen so gering wie möglich zu gestalten.
Die Erkenntnisse dieser Bachelorarbeit dienen somit als gute Grundlage für zukünftige Optimierungen solch einer Derotationsbandage für Kinder.
Die Phytoplanktonanalyse ist ein wichtiger Indikatorparameter zur Qualitätsbestimmung und -überwachung von Rohwasser aus Oberflächengewässern. Aus der Verordnung zum Schutz der Oberflächengewässer und den Europäischen Normen DIN EN ISO/EC 17025, DIN EN 14996 sowie DIN EN 15204 für die Phytoplanktonanalyse leiten sich zwingend Maßnahmen zur Qualitätssicherung (QS) ab. Die DIN-Normen geben jedoch nur Vorschläge zur QS. Ziel dieser Arbeit ist die Entwicklung eines Qualitätssicherungssystems für die Phytoplanktonanalyse, das über die DIN EN 15204 hinaus geht und alle Aspekte der Qualitätssicherung integriert. Aus dem Vergleich des prinzipiellen Aufbaus von QS-Systemen mit dem IST-Zustand in der Phytoplanktonanalyse sowie potenziellen Fehlerquellen wird der konkrete Bedarf an weiteren QS-Bausteinen ermittelt. Dabei wird unter Berücksichtigung der Besonderheiten biologischer Verfahren im Allgemeinen und der Phytoplanktonanalyse im Speziellen die mögliche Verwendung von Referenzmaterialien untersucht. Diese fehlen bisher fast vollständig. Weitere QS-Werkzeuge wie interne Audits und Ringversuche werden beschrieben und gezielt für die Phytoplanktonanalyse entwickelt und angepasst. Als Ergebnis werden die neu entwickelten Referenzzählkammern als geeignete Referenzmaterialien ausgewählt und Shewhart-Kontrollkarten entwickelt. Mit diesen können die Referenzzählkammern in der Praxis zur Fehlerminimierung beitragen. Das in dieser Arbeit entwickelte interne Audit mit Auditplan, Fragenkatalog und Maßnahmeplan ermöglicht eine Fehlerüberwachung sämtlicher Verfahrensschritte. In Kombination mit den Referenzzählkammern und dem von der Landestalsperrenverwaltung Sachsen, Untersuchungsstelle Plauen ausgerichteten Ringversuch EQAT Phytoplankton trägt das Audit zu einem umfangreichen QS-System bei. Zusammenfassend lässt sich sagen, dass die vorliegende Arbeit eine wesentliche Erweiterung des Qualitätssicherungssystems für die Phytoplanktonanalyse um essentielle Bausteine erreicht hat. Kleinere Defizite bleiben aber bestehen. Ganz im Sinne der Qualitätssicherung wird auch in Zukunft eine stetige Überprüfung und Verbesserung nötig und sinnvoll sein.
Diese Arbeit befasst sich mit dem Risikomanagementprozess von Herstellern für Medizinprodukte, die der Risikoklasse 1 zuzuordnen sind. Dabei werden zu Beginn einige gesetzliche Grundlagen behandelt und im Anschluss daran der Aufbau einer erarbeiteten Organisationsstruktur, zur Dokumentation der einzelnen Risikomanagementprozesse, in der Form einer Produktakte erläutert. Der Aufbau dieser entwickelten Struktur ist an das bestehende Qualitätsmanagementsystem der Firma Medizintechnik St. Egidien GmbH für deren Einbindung angelehnt wurden. Anschließend folgt die Anwendung des erstellten Risikomanagements an einem speziellen Entwicklungsbeispiel. Die Grundlagen für diese Arbeit basieren auf dem Medizinproduktegesetz (MPG), der DIN EN 60601-1 3rd. Edition, sowie der DIN EN ISO 14971:2012 und der letzten Fassung der Richtlinie 93/42/EWG des Rates über Medizinprodukte vom 05. September 2007.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Entwicklung einer geeigneten Schnittstelle, welche die Kommunikationsmöglichkeiten zwischen der firmeneigenen Software OnyxCeph3TM und verschiedenen, von anderen Firmen entwickelten dentalen Webportalen erweitert. Dazu wird eine prototypische Software konzipiert und umgesetzt, welche den Frontends der verschiedenen Webportale ein Interface zur Nutzung von verschiedenen Funktionen bereitstellt. Zum Testen der Schnittstelle wird eine einfache Dummywebsite aufgesetzt.
Das Ziel dieser Masterarbeit ist es, eine Methode zu entwickeln, um Bench-markaussagen für medizinische Geräteparks bewerten zu können. Dazu werden Bewertungskriterien definiert, die dazu dienen einen Benchmark zu bewerten. Die-se Bewertungskriterien beinhalten krankenhauspezifische Kriterien und ein geräte-spezifisches Kriterium.
Mithilfe der Bewertungskriterien wird ein Score-System ent-wickelt, um die Anwendbarkeit eines Benchmarks auf das betrachtete Krankenhaus zu beurteilen. Das Score-System soll aussagen, ob ein Benchmark anwendbar, teilweise anwendbar oder nicht auf das betrachtete Krankenhaus anwendbar ist. Dabei erhalten die Bewertungskriterien einen Score, der mit einer individuellen Wichtung verrechnet wird.
Die Bewertungskriterien und die Wichtung dieser wird dabei mithilfe von Literaturrecherchen bestimmt. Die ermittelten Bewertungskrite-rien mit dem Score-System sollen am Beispiel des Geräteparks des Universitätskli-nikums Regensburg angewandt werden. Unter Verwendung von zwei unterschiedli-chen Benchmarks, von einem externen Dienstleister und von anderen Universitäts-kliniken, wird getestet, ob diese auf das Universitätsklinikum Regensburg anwend-bar sind.
Das Score-System bestimmt zum Schluss, ob diese beiden Benchmarks auf das Universitätsklinikum Regensburg anwendbar sind.
In der AG Biomateriallabor wurde ein Projekt gestartet, das sich mit der Schwingungsanalyse zur Beurteilung der Osseointegration von Implantaten beschäftigt. Dazu wurde zunächst eine Bachelorarbeit [19] in Kooperation mit dem Frauenhofer Institut ENAS Chemnitz gemacht. Darauf aufbauend wurde im Labor der AG im Rahmen einer eigenen Arbeit [20] eine Messtrecke konzipiert und realisiert.
Zudem wurde ein stabiles und schweres Implantatgehäuse entwickelt, das mit Hilfe eines Piezoaktors zum Schwingen gebracht wurde. Die Resonanzfrequenzen wurden dann mit einem Beschleunigungssensor gemessen und mit einem USB-Oszilloskop aufgezeichnet.
Mit der selbst entwickelten Messtrecke konnte zusätzlich an Gehäuse Materialblöcke (Stahl, Kunstholz, Kunstknochen) angekoppelt werden, die Knochengewebe simulieren sollten. Doch durch die schwere und kompakte Bauweise des Gehäuses konnte nur eine Veränderung des Schwingungsverhalten mit angekoppelten Stahlblöcken beobachtet werden. Zusätzlich konnte das Gehäuse mit angekoppelten Materialien mit reproduzierbaren Einspannkräften in der Messstrecke verspannt werden.
Diese Messtrecke wurde als Grundlage der vorliegenden Arbeit genommen und sollte im Rahmen dieser verbessert werden.
Dazu sollte zu einem ein neues Gehäusemodell konzipiert und realisiert werden. Das neuentwickelte Gehäuse sollte im Gegensatz zu seinem Vorgänger vor allem im Gewicht reduziert werden, damit leichter angekoppelte Materialien eine Auswirkung auf das Schwingverhalten des Gehäuses hätten. Außerdem sollte ein neues Aktorsystem zur Schwingungsanregung getestet und mit dem Piezoaktor verglichen werden. Des Weiteren sollte ein Auswertungsprogramm in Matlab realisiert werden, das das Aktor- und Beschleunigungssensorsignal mit Hilfe einer FFT auf ihre Frequenzspektrum untersucht.
Im Rahmen der Arbeit wurde ein neues Implantatgehäuse entwickelt, das um 36,4 g leichter war als sein Vorgängermodell. Durch die starke Gewichtsreduzierung konnte auch ein verändertes Schwingverhalten bei leichter angekoppelten Materialblöcken beobachtet werden. Zudem wurde ein Unwuchtmotor als neues Aktorsystem für Schwingungsanregung des neuentwickelten Gehäusemodells getestet.
Doch im Vergleich zum Piezoaktor ist das Größe-Leistungs-Verhältnis wesentlich schlechter. So gab der Piezoaktor Spannungen im Volt-Bereich und der Unwuchtmotor nur in mV-Bereich aus. Jedoch konnten auch mit dem Unwuchtmotor Veränderungen der Spannung, je nach angekoppeltem Material gemessen werden. Als letztes wurde eine Software in Matlab implementiert, dass die aufgenommenen Daten einliest und die Signale mit Hilfe einer FFT auf ihre Frequenzspektrum analysiert. Jedoch lief das Programm nicht optimal für die aufgenommenen Messdaten, was aber aufgrund der Zeit im Rahmen dieser Arbeit nicht behoben werden konnte.
Diese Arbeit soll mit als Grundlage für weitere Messungen und Verbesserungen für die Evaluierung der Schwingungsanalyse zur Beurteilung der Osseointegration von Implantaten dienen und vorantreiben.
Diese Bachelorarbeit befasst sich mit dem Entwurf und der prototypischen Implementierung einer Softwareanwendung für die Fertigungsverwaltung. Nach einer genauen Analyse des bisherigen Arbeitsablaufes der Firma ZIS Industrietechnik werden zunächst die Anforderungen und die sich daraus ergebenden Aufgaben vorgestellt. Im Anschluss daran wird ein Gesamtkonzept vorgestellt, wie die zukünftige Fertigungsverwaltung ganzheitlich gestaltet werden sollte. Im eigentlichen Hauptteil wird dann die Konzeptionierung und prototypische Umsetzung für die Softwareanwendung beschrieben. So wird beispielsweise die Vorgehensweise zur Anbindung an eine Datenbank erarbeitet und ein passendes Datenbankschema erstellt. Die Benutzeroberfläche wird konzeptioniert und ihr Aufbau beschrieben. Auch die implementierte Datenverarbeitung von XML-Daten ist im Hauptteil beschrieben. Es werden die ausgewählten Technologien für die Implementierung näher erläutert. Somit ist diese Bachelorarbeit der Grundstein für eine Softwareanwendung, die in Zukunft den kompletten Projektablauf digitalisiert widerspiegeln kann und die Produktivität in der Projektabwicklung fördert.
Die vorliegende Arbeit beschäftigt sich mit der Erarbeitung der Möglichkeit eines in-situ Wiederherstellungsprozesses der dielektrischen Eigenschaften von plasmageschädigten, porösen low-k Materialien. Bei Plasmaätzprozessen tritt eine Kohlenstoffffverarmung und Verdichtung der Schichten auf. Damit steigt die Permittivität, die Leckstromdichte und die hydrophile Benetzung in den Oberächenbereichen. Das Ziel der Arbeit war es, mittels Plasmaunterstützung Reparaturprecursoren in Gasphase zu fragmentieren und deren Einfluss auf die Schichteigenschaften zu erproben. Dazu wurde Octamethylcyclotetrasiloxan (OMCTS) verdampft, in einem Mikrowellenreaktor zersetzt und über die Probe geleitet. Der Einfluss eines Methan-Plasmas auf einen möglichen Reparaturerfolg wurde in einer induktiv gekoppelten Plasmakammer untersucht. Die Proben wurden anschließend mit Fourier-transformierter Infrarot-Spektroskopie, Kontaktwinkel-Messung und Quecksilber-Sonden-Messung analysiert. Besonders mit plasmagestützter Fragmentierung des OMCTS konnten beachtliche Reparaturerfolge erzielt werden.
Eine Vielzahl bekannter neuroorthopädischen Erkrankungen wirkt sich beträchtlich auf die kognitiven und motorischen Fähigkeiten des Betroffenen aus und verursacht teils massive pathologische Gangmuster. Für die erforderliche Symptombehandlung gewinnen Laufbandtherapien in der medizinischen Rehabilitation immer mehr an Bedeutung.
Während der Erarbeitung der vorliegenden Bachelorarbeit konnten zahlreiche Informationen vom interdisziplinären Team (Arzt, Orthopädietechniker, Therapeuten, Patientin) eingeholt werden, woraus der tatsächliche Umfang und die Wirkungsweise eines auf eine Beispielpatientin mit Hereditärer Spastischer Spinalparalyse angewandten Therapiekonzepts erweitert werden konnte. Auf der Grundlage einer Laufbandtherapie, der Zuhilfenahme einer Knöchel-Fuß-Orthese und des Behandlungskonzeptes (Dehnung des Musculus iliopsoas, kognitive Schulung des Gehens) wurde zusätzlich der interdisziplinäre Erfolg mit den gewonnenen Erkenntnissen betrachtet und auf eine Eignung des Konzeptes zur weiterführenden Validierung verwiesen. Daraus folgend ergab sich die Anfertigung eines möglichen Therapieleitfadens.
Es ließ sich zudem eine potentielle Wirksamkeit der Therapie anhand der Beispielpatientin weitestgehend feststellen, jedoch erwies sich der zeitliche und der inhaltliche Umfang des vom Arzt eingangs angenommen Behandlungskonzeptes als unzureichend.
Erfolgsfaktoren eines Entwicklungsprozesses fuer Medizinprodukte nach dem Design Control CFR 820
(2016)
Innerhalb der Arbeit wird aufgezeigt, welche Erfolgsfaktoren innerhalb des Entwicklungsprozesses auf Basis des Design Control eine Rolle spielen. Diese werden mittels einer ausgiebigen Literaturrecherche unter Berücksichtigung verschiedener Blickwinkel zusammengetragen. Insgesamt werden 43 Erfolgsfaktoren dem Entwicklungsprozess zugeordnet, welche den Entwicklungsprozess beeinflussen. Diese Erfolgsfaktoren unterscheiden sich dabei zum einen in der örtlichen Wirkung innerhalb der Produktentwicklung, zum anderen lassen sich aber auch Unterschiede in deren Wahrnehmung bei unterschiedlichen Anwender feststellen. Innerhalb der Arbeit wird ein beispielhafter Entwicklungsprozess abgebildet werden, welcher es ermöglicht, kritische Stellen innerhalb des Workflows im Design Control CFR 820 zu erkennen. Dies wird mit Hilfe einer Anwenderbefragung eine Bewertung der Erfolgsfaktoren auf ihren Einfluss im Entwicklungsprozesses vorgenommen. Schlussendlich werden die wichtigsten Erfolgsfaktoren genauer betrachtet und Maßnahmen empfohlen, welche zu einer Risikominimierung bei Entwicklungsprojekten führen.
Ermittlung und Reduktionsmöglichkeiten von Formaldehydemissionen an einem biogasbetrieben BHKW
(2012)
Im Abgasstrom eines Blockheizkraftwerkes (BHKW) entsteht durch den Verbrennungspro-zess von Biogas Formaldehyd. Dessen Emission unterliegt dem Minimierungsgebot und soll weitestgehend reduziert werden. Trotz der Tatsache, dass die Formaldehydemission mit einem Grenzwert in der TA Luft geregelt und aus einigen Formaldehydemissionsmessungen bekannt ist, besteht noch Forschungsbedarf für deren Minimierung. Aufgabe dieser Arbeit war es, anhand unterschiedlicher Motoreinstellungen und Einstellungen der Anlage, die den reibungslosen Ablauf der Biogasanlage nicht beeinflussten, Ursachen und mögliche Redu-zierung der Formaldehydemission zu untersuchen. Aufgrund der ermittelten Ergebnisse wird eine Empfehlung zum optimalen Betrieb eines BHKW gegeben.
Eine intratherapeutische Dosimetrie wird auf Basis verschiedenster patientenspezifischer Parameter durchgeführt. Die Bestimmung der Parameter Volumen und Uptake zeigen große Unsicherheiten auf. Die Aktivität wird überbewertet, da nicht nur die Herdaktivität, sondern auch die im Körper zirkulierende Aktivität in den Messwert interpretiert wird. Vorherige Arbeiten haben gezeigt, dass eine sicherere Bestimmung dieser Parameter nicht möglich ist. Mittels eines neu entwickelten, von diesem Parameter unabhängigen Verfahrens kann eine intratherapeutische Dosimetrie erfolgen. Hierbei wird in einer SPECT/CT-Aufnahme ein definiertes Volumen von 1 ml ausgetanzt. Mittels dieses Volumens kann die Aktivitätskonzentration bestimmt werden. Eine auftretende Unterbewertung von Objekten mit einer fiktiven Abmessung von unter 40 mm müssen mithilfe einer Korrekturfunktion überarbeitet werden. Dank einer MIRD basierten Berechnungsformel können mittels zweier Aufnahmen eine Halbwertszeit sowie eine Herddosis bestimmt werden. Die neue Methodik ermöglicht die Dosimetrie kritischer Bereiche. Weiterhin können mehrere Herdgebiete getrennt voneinander ausgewertet werden. So können anhand von Patientenstudien Grenz - und Schwellwerte festgelegt werden.
Die strahlentherapeutische Behandlung mit Protonen von bestimmten Tumorentitäten, welche sich zum Beispiel in der Lunge, dem zentralen Nervensystem oder der Prostata befinden, stellt eine vielversprechende Alternative zu der konventionellen Photonentherapie dar. Zur Bestrahlungsplanung für die Bestrahlung mit Protonen werden Computertomographien (CT) verwendet.
Da es keinen direkten mathematischen Zusammenhang zwischen den Wechselwirkungen von Photonen bei der CT-Bildgebung und Protonen bei der Bestrahlung gibt, müssen heuristische Kalibrierkurven (HLUT) für jedes CT-Gerät individuell angefertigt werden. Die Motivation der Arbeit war es, das Kleintierbestrahlungsgerät Small Animal Radiation Treatment integrated beamline (SmART+ IB) für die Strahlenforschung mit Protonen vorzubereiten, das heißt die Voraussetzungsen für die Bestrahlungsplanung im Protonenstrahl zu schaffen.
Diese Masterarbeit beschäftigt sich mit der Erstellung von HLUT’s für das SmART+ IB zur zukünftigen Bestrahlungsplanung für Protonen-Kleintierbestrahlung. Im Rahmen dieser Arbeit wurden die Bildqualität und die Strahlendosen von vier Aufnahmeprotokollen des SmART+ IB’s ermittelt, bewertet und mit dem Präzisionbestrahlungsgerät für Kleintiere (SAIGRT) verglichen. Das SAIGRT wird aktuell zur Bestrahlungsplanung mit Protonen am „OncoRay - Nationales Zentrum für Strahlenforschung in der Onkologie“ verwendet. Die Ergebnisse zeigen eine gleichwertige Bildqualität und Strahlendosis der CT-Aufnahmen der beiden Geräte. Jedoch entstehen durch Strahlaufhärtungsartefakte Abweichungen von bis zu 50 HU von der tatsächlichen CT-Zahl eines zylinderförmigen Phantoms mit einem Durchmesser von 30 mm.
Zusätzlich wurden im Rahmen der Arbeit HLUT’s nach der empirischen Methode und nach der stöchiometischen Methode erstellt. Mithilfe von unbekannten Materialien konnte die Genauigkeit der erstellten HLUT’s validiert werden. Der wichtigste Teil der Bestrahlungsplanung ist die Reichweitenvorhersage und mittels dem Bildgebungsprotokoll Mouse Bone Low Dose (60 kV; 0,5 mA) und der empirischen HLUT kann bei einer Strahlendosis von 22 mGy die Reichweite auf 0,5 mm genau bestimmt werden.
Diese Bachelorarbeit wurde für das Erreichen des Informatikabschlusses Bachelor of Science an der Westsächsischen Hochschule Zwickau erstellt. Im ersten Teil dieser Arbeit wird ein Überblick über den derzeitigen Kommunikationsstandard im stationären Bereich, die HL7 Version 2, erarbeitet. Desweiteren wird der zurzeit nur spärlich im Einsatz befindliche Standard, die HL7 Version 3, zur Kommunikation zwischen dem stationären und dem ambulanten Bereich erläutert. Zusätzlich wird die Generierung von Schemadateien für HL7 Version 3 anhand eines Beispielszenarios erörtert. Im zweiten Teil wird die Grundlage für die Erstellung der Transformationen von HL7 Version 2-Nachrichten in ein VHitG-Standardkonformes HL7 Version 3-Dokument geschaffen. Für eine HL7 Version 2-Nachricht wird in diesem Teil der Arbeit die Implementierung einer Transformation nach HL7 Version 3 in der Integrationsplattform Ensemble erläutert.
Ziel dieser Arbeit war es, verschiedene Membranarten auf Ihre Trenneigenschaften bezüglich der Abtrennung von Ethylacetat aus einen Strippgasvolumenstrom von Stickstoff zu testen.
Zur Durchführung wurde ein Stripping-Prozess mit nachgeschaltetem Membranprozess verwendet, wobei die praktischen Versuche an einer Anlage im Labormaßstab durchgeführt wurden. Als Membranen fanden drei verschiedene Arten Anwendung. Dies waren absorptionsselektive Silikonmembranen sowie Kompositmembranen aus einer Silikonmatrix, in der entweder ZIF-8-Partikel oder MFI-Zeolith-Partikel eingebracht wurden.
Im ersten Schritt wurde mit den drei Membranarten ein Screening durchgeführt, um herauszufinden, welcher Membrantyp sich am besten für weitere Untersuchungen eignet. Dabei fanden alle Messungen bei selben Bedingungen statt, nur beim Permeatdruck gab es eine Variation. Es wurde aufgrund der limitierende Saugleistung der Membranpumpe immer der niedrigste mögliche Druck eingestellt.
Im Ergebnis zeigte sich, dass die MFI-Kompositmembranen von der Trennleistung und dem Fluss den ZIF-8-Kompositmembranen leicht überlegen waren. Die Silikonmembranen zeigten, bis auf zwei, auch einen Permeatfluss auf, allerdings war dieser geringer und die Trennleistung bis auf eine Ausnahme ebenso schlechter. Aus diesem Grund wurde eine durchschnittliche MFI-Kompositmembranen für die weiteren Messungen ausgewählt.
In den folgenden Schritten wurden mit der Membran MFI-4 eine Vielzahl von Prozessvariationen durchgeführt. Es erfolgte im ersten Schritt eine Variation des Strippgasvolumenstromes, um festzustellen, inwieweit dieser einen Einfluss auf die Trennleistung und den Permeatfluss der Membran hat. Es stellte sich heraus, dass dieser nur Einfluss auf den Permeatfluss und nicht auf die Trennleistung der Membran hat. Als nächstes erfolgte die Variation des Permeatdruckes, wobei hier auch Augenmerk auf die Massebilanzen gelegt wurde. Der eingestellte Permeatdruck betrug bei den Versuchen immer 100 mbar, 200 mbar und 300 mbar. Allerdings wurde zum einen mit zwei und zum anderen mit drei Permeatkühlfallen gemessen. Es wurde festgestellt, dass bei den Messungen mit drei Permeatkühlfallen eine geringere Differenz an Ethylacetat zwischen der Einwaage und der Summe aller entnommenen Proben, sowie dem Feedende festgestellt werden konnte. Zwei Kühlfallen waren somit nicht genug für eine hinreichende Kondensation des Ethylacetats. Im letzten Schritt erfolgte noch ein Vergleich zwischen N2 und CO2 als Strippgas. Es zeigte sich, dass der Permeatfluss unter Verwendung von Stickstoff leicht erhöht scheint, im Vergleich zum Kohlenstoffdioxid.
Weiterhin sollten wiederholte Versuche unternommen werden, wie sich die Membranen beim Einsatz von CO2 als Strippgas verhalten. In Zukunft sollte der Einsatz der Membranen an dem Reaktor mit der Fermentationsbrühe erfolgen. Es treten dort andere verfahrensspezifische Bedingungen als an der Laboranlage auf. So werden sich unter diesen realen Bedingungen noch andere Stoffe wie Aceton oder Ethanol im Strippgas lösen. Es sollte dementsprechend untersucht werden, wie sich die Trennleistung der Membranen sowie der Permeatfluss verhalten. Auch sollten die ZIF-8-Kompositmembranen hier nochmals charakterisiert werden, da noch unbekannt ist, wie sich diese bei Kontakt mit Ethanol oder Aceton verhalten. Ebenso ist ein weiteres Augenmerk bei den zukünftigen Versuchen an dem Bioreaktor auf die mechanische und chemische Stabilität der Membranen zu legen, um den geeignetsten Typ bei Langzeitversuchen festzustellen.
Experimentelle Anbindung von React, TypeScript und Webpack an eine bestehende J2EE-Web-Anwendung
(2022)
Diese Studie befasst sich mit der Integration des React UI-Frameworks in das bestehende System einer der größten Broker-Plattformen in Europa.
Die Integration muss sicher und sanft verlaufen, so dass das System wie zuvor funktioniert, aber zusammen mit dem neuen Framework.
Das Ziel ist es, die Leistung und Effizienz des Systems zu optimieren. Um dieses Problem zu lösen, führte der Autor eine Reihe von Experimenten durch, um das neue Framework sicher in das bestehende System zu integrieren.
Als Ergebnis entwickelte er ein Proof of Concept und beschrieb dessen schrittweise Umsetzung.
Faserbasierte Repetitionsratenstabilisierung eines diodengepumpten Ultrakurzpulserbiumfaserlasers
(2009)
In dieser Arbeit wurde die fasergestützte Repetitionsratenstabilisierung eines Ultrakurzpulserbiumfaserlasers ohne zusätzliche Temperaturstabilisierung demonstriert. Die Repetitionsrate eines passiv modengekoppelten Erbiumfaserlasers hängt von der Resonatorlänge und der Gruppengeschwindigkeit des Pulses ab. Die Temperatureinflüsse auf die Resonatorlänge und den Brechungsindex wurden vollständig ausgeregelt. Die Repetitionsrate wurde mit einem Piezoaktuator verändert, der in einer mechanischen Konstruktion eingespannt war, die die Faser dehnt. Mit dem Faserstrecker konnte die Repetitionsrate vom 47,66 MHz um 1,1 kHz verändert werden. Der Einfluss der Faserstreckung auf die Polarisation durch spannungsinduzierte Doppelbrechung wurde untersucht und konnte als unwesentlich eingestuft werden. Die Ausgangsparameter des Lasers variierten bei der Repetitionsratenänderung ebenfalls nur leicht, z.B. änderte sich die Pulsdauer um 2,4 % und die Ausgangsleistung um 4 %. Die Repetitionsrate wurde mit einer Phasenregelschleife auf eine elektronische Referenz stabilisiert. Dazu wurde die 97ste Harmonische der Repetitionsrate verwendet, um die Sensitivität zu erhöhen. Zur Stabilisierung wurden zwei Referenzquellen miteinander verglichen. Das beste Ergebnis wurde mit einem PSG-Signalgenerator erzielt. Die Standardabweichung der Repetitionsrate sank von 14 Hz im unstabilisierten Zustand auf 7,9 mHz im stabilisierten. Die Stabilisierung konnte über mehrere Stunden aufrecht erhalten werden.
Die Reduzierung von unerwünschten Mantelmoden in Glasfasern stellt in der Faseroptik nach wie vor ein herausforderndes Problem dar. Durch Mantelmoden wird nicht nur die Funktionalität von Glasfasersystemen begrenzt, sondern auch die Strahlqualität negativ beeinträchtigt. Weiterhin kann die unkontrollierte Ausbreitung von Mantelmoden in der Zerstörung von Fasersystemen resultieren und muss besonders bei Hochleistungsanwendungen im Kilowattbereich berücksichtigt werden. Ziel dieser Arbeit war die Untersuchung einer neuen Methode zur Entfernung von Mantelmoden aus Glasfasern mit Mantelmodenabstreifern. In dieser Bachelorarbeit wird das Verfahren zur Herstellung der Mantelmodenabstreifer vorgestellt. Das Verfahren basiert auf der Mikrostrukturierung von Glasfaser durch einen CO2 - Laser. Weiterhin wird auf die Messtechnik zur Charakterisierung der Mantelmodenabstreifer eingegangen. Darüber hinaus werden experimentelle Ergebnisse mit den erzeugten Mantelmodenabstreifern gezeigt. Dabei wurde speziell die Dämpfung und der Einfluss auf die numerische Apertur von Signalen untersucht. Zudem werden Resultate gezeigt, bei denen mehr als 98 % der Leistung auf einer strukturierten Länge von 30 mm entfernt werden konnten.
Das Fracking-Verfahren erlaubt es heute, Erdgas-Ressourcen zu nutzen, die zwar schon längere Zeit bekannt sind, die bisher aber nur schwer zugänglich oder wirtschaftlich nicht rentabel waren. Diese sogenannten unkonventionellen Erdgaslagerstätten könnten weltweit eine immer größere Rolle bei der Deckung unseres Energiebedarfs spielen. Ihre Förderung würde den bisher bekannten Umfang der global nachgewiesenen Ressourcen sehr stark erhöhen. Unter dem Eindruck des stetigen Klimawandels besteht heute eine allgemeine Übereinstimmung darin, dass der Nutzung regenerativer Energien die Zukunft gehört. Andererseits besteht aber auch kein Zweifel daran, dass für eine Übergangszeit die weitere Nutzung fossiler Energien zur Deckung des Energiebedarfs der Weltwirtschaft noch notwendig ist. Das Fracking-Verfahren bietet hier die Chance diese Reserven zu fördern. Sie birgt aber auch nicht unerhebliche Risiken für Umwelt und Gesundheit. Chancen und Risiken des Frackings sowie dessen Auswirkung auf Wirtschaft und Umwelt werden von der Bevölkerung, der Politik, der Wirtschaft und in Fachkreisen sehr unterschiedlich beurteilt. Sie teilen Betroffene und Außenstehende in Befürworter und Gegner des Verfahrens und seiner Anwendung ein. Während Umweltschützer Fracking verdammen, weil in ihren Augen damit unvorhersehbare Risiken für Mensch und Natur verbunden sind,
This work analyzes and evaluates different approaches to translate UML state machines into C++ code. The first part of this thesis covers the ground of transforming information of a source language to a target language. It addresses the basics of language theory and different approaches of language transformation. The second part examines the properties and formalisms of state machines to value their characteristics for further reuse in the development cycle. The third part disassembles the programming language C++ with all its quirks and oddities. The last part puts all mentioned pieces together. Beyond this approach the thesis tries to point out several concepts of language engineering to ease the use of software languages for the language user as well as the language engineer. It scrutinizes diverging solutions with the resulting consequences.
Haltungsanalysen spielen in vielen Bereichen eine Rolle. Die vielfache Nutzung von digitalen Medien in allen Altersgruppen, als auch die Zunahme von Tätigkeiten am Schreibtisch in schlechter Sitzhaltung führen zu einer Zunahme von Rückenbeschwerden. Weitere Einflussfaktoren sind der damit häufig verbundene Bewegungsmangel und die steigende Anzahl von adipösen Menschen. Um langfristige Schäden am Achsenskelett zu vermeiden ist es notwendig Fehlstellungen frühzeitig zu erkennen und zu behandeln. Durch die hohe Anzahl an Patienten ist es notwendig einfache, schnelle und kostengünstige Diagnoseverfahren und Behandlungsmethoden zu verwenden.
Ein bildgebendes Verfahren ist die Rasterstereografie. Kombiniert man diese mit einer Fußdruckmessplatte, lassen sich neben Aussagen über die Stellung des Achsenskeletts auch die Druckbelastungen unter der Fußsohle bestimmen.
Derzeit beschränkt sich dieses Verfahren auf die Aufnahme aus dorsaler Sicht. Diese Arbeit beschäftigt sich mit den Grundlagen der Erstellung von Haltungsanalysen mit einem 360 Grad Scan. Es werden Parameter und Fehlstellungen betrachtet, welche sich durch die 360 Grad Analyse erfassen lassen.
Die vorliegende Arbeit beschäftigt sich mit den grundlegenden Techniken moderner Angriffe auf IT-Systeme. Sie ist unterteilt in die Grundlagen eines Exploits, Angriffe auf Netzwerke, die Funktionsweise von Shellcode, Maßnahmen zur Verhinderung von Exploits, Angriffe auf kryptographische Verfahren und zuletzt Angriffe auf Web-Applikationen.
The demands of metal working industry on cutting tools increase due to the emergence of new materials and a growing ratio of high speed and dry machining. For these requirements efficient cutting tools with specialized coatings or coating systems are necessary. Such coatings ought to be hard, have high oxidation stability and should adhere well to the underground. The adhesion is a fundamental property of hard coatings relating to tribological and mechanical demands. This work is focused to the adhesion of titanium based CVD coatings which is determined by means of a scratch tester. With respect to practice, the quantification of adhesion between coating and substrate is not easy to handle. Different procedures to determine this feature exist. However the scratch test is the best established and well discussed test method. This work evaluates the adhesion of approved TiN coatings in comparison to novel TiSiN nanocomposite coatings. Different sublayer systems are evaluated with the aim to achieve a better adhesion of TiSiN. TiSiN was chosen because it is a promising nanocomposite material with high hardness and oxidation stability.
Berliner Blau wurde mittels potentiostatischer elektrochemischer Abscheidung auf Gold und ITO synthetisiert.
Eine Untersuchung der Morphologie und der Zusammensetzung wurde in Abhängigkeit von ausgewählten thermodynamischen Eigenschaften durchgeführt. Diese wurden zusammen mit hergestellten Schichten von Natriumhexacyanoferrat und Cobalthexacyanoferrat mithilfe ausgewählter spektroskoskopischen Untersuchungsmethoden (REM, XPS, EDX, XRD, Raman) analysiert. Kubische Kristalle unterschiedlicher Gitterparameter und Zusammensetzung konnten ermittelt werden. Elektrische Messungen konnten ein resistives Schaltverhalten in den untersuchten Schichten zeigen.
LEGO robotics sets are a well established tool for teaching programming in undergraduate courses. Starting with the now outdated EV3 set LEGO provided a Python programming interface and (inofficial) Linux support. The current LEGO Spike Prime set still provides Python programming, but no direct support for Linux.
In this report we collect and extend information on controlling Spike Prime robots from Linux hosts. We cover access to a robot's Python interpreter and code transfer as well as bidirectional robot-to-host communication via USB and Bluetooth. Results may be extended to robot-to-robot communication via Bluetooth.
Im Rahmen der vorliegenden Bachelorthesis wurde eine Dokumentationsplattform für GeneSEZ (Generative Softwareentwicklung Zwickau) Generatorskripte implementiert. Darüber hinaus kann Diese problemlos auch in anderen openArchitectureWare-Projekten als Dokumentationswerkzeug zum Einsatz kommen. Das primäre Ziel der Plattform ist es, eine externe Programmdokumentation im Hypertext-Format automatisch, anhand von bestehenden oAW-Quelltexten, zu generieren. Zu diesem Zweck wurden die Grundlagen der Arbeit erläutert, die heterogene Syntax und Struktur der openArchitectureWare-Sprachen analysiert und ein Ansatz zum Parsen aller benötigten Informationen aus den differierenden Skriptarten vorgestellt. Weiterhin wurde der zur Dokumentationsgenerierung ausgeführte Workflow, die Architektur der Lösung, sowie das Ergebnis der Arbeit detailliert beschrieben.
In dieser Bachelorarbeit geht es um die Entwicklung einer Webbasierten Anwendung zum Zugriff auf hyperspektrale Daten. Die Daten entstehen im Zusammenhang mit bildgebenden medizinischen Verfahren (Hyperspektral Bildgebung). Sie werden in einer relationalen Datenbank gehalten und können mit der Anwendung visualisiert werden.
Die optische Kohärenztomographie ist ein nichtinvasives optisches Bildgebungsverfahren zur Darstellung zwei- und dreidimensionaler Schnittbilder eines Objektes. Im Rahmen dieser Arbeit wurde in ein Fourier Domain OCT System ein 2-Achsen Galvanometer Scanner implementiert, um ein dreidimensionales Abtasten des Messobjektes zu realisieren. Das Vorgehen bei der Justage des Scannersystems und der Synchronisation mit dem Spektrometer, sowie der anschließenden Erfassung der Daten mit dem PC wurden dokumentiert und beschrieben. Am Ende der Arbeit wurde das System anhand eines Spiegels als Messobjekt getestet und ausgewertet.
Die Arbeit befasst sich mit der Integration von zwei Software-Komponenten für das Anforderungsmanagement und die Validierung von Datenmodellen. Die Integration erfolgte dabei auf Basis der von ScopeSET entwickelten Architektur für einen Daten Model Editor. Für die Integration wurden Eclipse-Technologien wie zum Beispiel EMF und JFace verwendet. Betrachtet wird dabei auch der Prozess des Anforderungsmanagements und der Prozess zu Validierung des Datenmodells unter Verwendung der integrierten Software-Komponenten
Diese Arbeit befasst sich mit der Analyse der von Visual Studio vorgegebenen Schnittstellen, um einen externen Debugger zu integrieren. Im Anschluss wird exemplarisch eine Integration am Trace32 durchgeführt. Auftretende Schwierigkeiten und theoretische Aspekte, die für diese Integration gelöst wurden, werden analysiert und das Vorgehen begründet. Die praktische Arbeit beschränkt sich dabei auf die Erstellung einer eigenen Debugg-Engine, die als Kommunikationsbrücke zum externen Debugger dient. Unterstützente Features sind das Starten des Debuggvorgangs, das Stoppen des Debuggvorgangs, das Erstellen eines Breakpoints sowie das Fortführen des unterbrochenen Programmablaufs.
In this project we develop an intelligent water meter based on software solutions offered by the IOTA Foundation. The water meter allows the customer to map water usage in real-time and pay water on demand, as well as the water provider to map water usage on a greater scale, regulate water supply during low- demand phases and offers regulatory functions to prepare for drought or humid climate, and to incentivise sustainable water usage in high-demand fields like agriculture. This functionality is phrased into a research issue:
Invention of a working prototype to demonstrate the IOTA Streams and Wallet protocols for a meter with additional focus on economic efficiency and the technical preparation of scalability.
Utilizing the IOTA streams protocol, a next generation secure data connection is established between the water meter and a server-sided software application. On this connection, water consumption is mapped into a data bench, and informative data and commands are issued to the graphical interface of the meter.
The IOTA wallet library is leveraged to provide customer accounts corresponding to their meter. IOTA tokens can be send to the account, which grants access to water in a matter of seconds. Depending on the regulatory scenario, water flow can be stopped as soon as the account is exhausted (i.e. public well), or an overdraw can be established in order to guarantee fulfilment of basic human rights (i.e. private households).
Since pricing data can be calculated server-sided and water consumption is mapped in very narrow intervals of as low as 4 seconds, the price can be used as tool to regulate consumption.
The physical components include an electrical ball valve to shut down water flow automatically, a command line interface to provide informative data,, a Raspberry Pi running the client-sided software application, and a water meter with MBus-Interface, as well as a Controlling Board to connect the Raspberry Pi with both peripheral devices.
The finished prototype shows, that water consumption can be mapped on a highly secure level, in near real-time, from afar, flexible for most applications.
The Jupyter ecosystem with JupyterHub and JupyterLab as its most prominent members is the de-facto standard for teaching Python programming and also for research in machine learning and data science. Although the Jupyter project is well documented, there are lots of settings and situations requiring deep knowledge of the internal workings of Jupyter, Linux and related software tools. This report describes three problems and possible solutions arising when installing and configuring a Jupyter-based teaching environment. These three problems are the installation and setup of the autograding tool nbgrader, the interplay between JupyterHub and Linux PAM, and providing access to WebDAV resources for users of JupyterHub.
In der vorliegenden Arbeit geht es um eine Machbarkeitsstudie für die Wasserstoffstrategie im Vogtlandkreis.
Nach der Erarbeitung der Grundlagen zum Thema Wasserstoff und ihre technischen Möglichkeiten wurde eine Umfrage gestartet, indem die Unternehmen ihre Vorstellungen und Voraussetzungen zum Aufbau eines Wasserstoffnetzwerkes einbringen konnten. Diese Umfrage wird in der Arbeit ausführlich bewertet.
Um in der Strahlentherapie einen qualitativ hochwertigen Behandlungsablauf zu gewährleisten, ist eine außerordentlich genaue Qualitätssicherung notwendig. Aufgrund der steigenden Komplexität der modernen Medizintechnik entschied sich das Deutsche Institut für Normung e.V. im Dezember 2021, die DIN 6864-1:2021-12 "Konstanzprüfung der strahlentherapeutischen Kette - Teil 1: Teletherapie" zu veröffentlichen.
Ziel der vorliegenden Arbeit ist die Durchführung und Auswertung dieses End-to-End-Tests sowie die Erstellung eines Arbeitsablaufes und eines Messprotokolls auf Grundlage der DIN 6864-1. Die Prüfung wird mit einem neu angeschafften Messphantom der Firma PTW Freiburg durchgeführt. Abschließend soll die Eignung dieses Phantoms diskutiert werden.
Die Ergebnisse zeigen, dass alle Linearbeschleuniger die Konstanzprüfung bestanden haben. Dennoch weisen die beiden alten Geräte des Typs Siemens ARTISTE trotz der stabilen Planung größere Abweichungen der gemessenen Dosis zur geplanten Dosis als die neueren Geräte des Typs Varian TrueBeam auf. Die hauptsächliche Ursache liegt dabei in der ungenaueren Tischkorrektur nach der Bildgebung. Weitere Ursachen liegen im Alter der Geräte und dem damit verbundenen Verschleiß der Komponenten. Die Prüfung der Hounsfield-Einheiten und der Phantomgeometrie zeigt auf, dass es nur sehr geringe Unterschiede in der Konstanz der Hounsfield-Einheiten und keine Abweichung in der Phantomgeometrie gibt. Das verwendete Messphantom eignet sich nur bedingt für den normalen End-to-End-Test. Die Stärken des Phantoms liegen eher in der stereotaktischen Bestrahlung. Eine Ursache ist die zu zeit- und arbeitsaufwändige Konturierung im Messphantom. Zukünftige Prüfungen werden mit einem anderen Messphantom des gleichen Herstellers fortgeführt.
In Bezug auf den bevorstehenden Beschleunigerwechsel ist eine erneute Prüfung aller Geräte, eine Neuevaluierung der Testergebnisse sowie eine Neuverfassung der Arbeitsanweisung zu empfehlen.
Die Masterarbeit gibt einen Einblick in die Entwicklung einer selbstheilenden und fehlertoleranten Software.
Ziel der Masterarbeit war es, ein Konzept zu erstellen und einen Prototyp eines selbstheilenden und fehlertoleranten Systems zu implementieren. Um dieses Ziel zu erreichen, werden wichtige Konzepte wie reaktive Systeme, Actor Model und Fehlertoleranz-Patterns berührt. Auf der Grundlage der Analyse und praktischen Anwendung der oben genannten Begriffe wurden ein Konzept und ein Prototyp eines sich selbstheilenden und fehlertoleranten Systems entwickelt. Daraus kann geschlossen werden, dass das Ziel der gesamten Arbeit erreicht worden ist.
Die N+P Informationssysteme GmbH möchte ihren Kunden mobiles Arbeiten mit dem digitalen Zwilling ermöglichen. Da sollte über eine Cross-Platform-Framework und mit der Hilfe eines 3-D-Viewer geschehen.
Das Ziel dieser Arbeit ist es, einen Überblick über die verschieden Cross-Platform-Frameworks und 3-D-Viewer und aus diesen einen Prototypen zu entwickeln. Dafür wurde eine durch eine Literaturrecherche die fünf meist genutzten Frameworks verglichen. Es wurde geschaut, welche Funktionen diese besitzen, welche
Programmiersprache genutzt wird und welche Betriebssysteme unterstützt werden. Außerdem wurde sich die Dokumentation angeschaut. Diese wurden jeweils kurz vorgestellt und dann durch eine Tabelle verglichen. Die 3-D-Viewer wurden ebenfalls mit einer Literaturrecherche verglichen. Die Funktionen sowie die unterstützten Dateiformate wurde bei den 3-D-Viewern betrachtet. Es wurde auch gezeigt, ob diese quelloffen oder proprietär sind und ob eine Lizenz zur Nutzung benötigt wird. Wie bei den Frameworks wurden diese vorgestellt und mit einer Tabelle verglichen.
Das Ergebnis der Recherche ergab, das sich Flutter als Framework und der Autodesk-Forge-Viewer den Anforderungen entsprechen. Flutter entsprach den Anforderungen, das es modernes Framework ist, welche stetig weiter entwickelt und verbessert wird. Als 3-D-Viewer wurde der Forge-Viewer ausgewählt. Da dieser alle benötigten Dateiformate unterstützt. Die N+P Informationssysteme GmbH besitzt eine Lizenz für den Forge-Viewer. Der Prototyp ist eine App, welche beim Starten ein 3-D-Modell anzeigt. Der Prototyp entspricht den Anforderungen, er lädt ein 3-D-Modell online aus der N+P Plattform und zeigt diese an.
Weiterführend könnte der Prototyp zu einer vollständigen App entwickelt werden.
In dieser Bachelorarbeit wird eine Software zur Plagiatserkennung für Quellcode gesucht. Diese soll studentische Programmieraufgaben nach Ähnlichkeiten analysieren und aussagekräftig darstellen. Dazu wird eine Auswahl an Software erstellt und auf Basis der Anforderungen, der Westsächsische Hochschule Zwickau, eingegrenzt. Durch eine kurz Vorstellung und nähere Analyse wird sich für ein Produkt entschieden. Von dieser Software wird der Erkennungsprozess, der dafür genutzte Algorithmus, sowie die benötigen Informationen näher erläutert. Aufbauend auf diesen Kriterien werden Voraussetzungen geschaffen um einen Automatisierten Ablauf des Prozesses, mit Hilfe eines Build-Servers, zu gewährleisten. Dafür wird ein Konzept entwickelt und realisiert, welche alle nötigen Informationen sammelt und diese für die Software verständlich aufbereitet und zur Verfügung stellt. Auf Grundlage des Konzeptes und seiner Realisierung wird abschließend ein Ausblick, mit Verbesserungsmöglichkeiten, gegeben.
Konzepte zur Integration einer Komponente zur Traceability von Anforderungen in ein MDA Framework
(2010)
Die Traceability von Anforderungen ist ein Aspekt, der mehr Transparenz bei der Entwicklung von Software verspricht und die Qualität dieser steigern soll. Ausgehend von einem MDA-Framework werden die technischen Möglichkeiten zur Realisierung einer Traceability untersucht und die notwendigen Aspekte prototypisch realisiert. Dabei entstehen für die Traceability Informationen sowie die Anforderungsbeschreibungen jeweils ein Metamodell, und es wird auf die Konsistenz von modellübergreifenden Beziehungen sowie der Navigation zwischen unabhängigen Modellen eingegangen. Neben dieser technischen Basis wird auf die Möglichkeiten zur Erstellung der Traceability Informationen eingegangen. Dabei werden anhand eines Beispielprojekts Traceability Informationen erstellt und drei Möglichkeiten zur Verwendung dieser aufgezeigt. Die Arbeit endet mit einem Ausblick, der auf eine tiefere und allgemeinere Integration der Traceability in ein MDA-Framework eingeht, sowie auch auf weitere Möglichkeiten zur Verwendung dieser Informationen hinweist.
Gegenstand/Zielstellung:
Gegenstand der Masterthesis bilden Kommunikationsbarrieren hörgeschädigter Patienten in der stationären Krankenhausversorgung. Die potenziell davon betroffenen 220.000 Menschen in Deutschland sind zur barrierefreien Kommunikation auf einen Gebärdensprachdolmetscher angewiesen, welcher nicht immer unmittelbar verfügbar ist. Das Konzeptionieren einer App, welche Kommunikation unterstützt und dadurch hilft, Vermeidungsstrategien von Arztbesuchen abzubauen, ist das Ziel der Arbeit. Weiterhin soll diese App einem Dolmetschermangel temporär befristet entgegenwirken können. Digitalisierung bietet hier enormes Potential, sofern eine zielgruppenspezifische und anwenderfreundliche Umsetzung erfolgt.
Methodik:
Zunächst erfolgt eine Zusammenfassung der Datengrundlage (Bachelorthesis). Anschließend soll durch eine kombinierte SWOT-Analyse vorhandene technische und informationstechnischer Unterstützungsmöglichkeiten Hörgeschädigter in der stationären Patientenversorgung eruiert werden. Durch eine 9-Felder-Matrix werden Probleme und Herausforderungen dieser Patientengruppe priorisiert. Zur nutzerbezogenen Modellierung der App wird die Methodik der Persona angewandt. Nicht-funktionale Anforderungen werden durch die Muss-Soll-Kann-Methode kategorisiert. Die Modellierung von Use-Case- und Anwendungsdiagrammen erfolgt mit Microsoft VISIO, ebenso die prototypische Oberflächengestaltung. Letztere begrenzt sich auf das Erstellen von Lo-Fi-Oberflächen (Wireframes).
Ergebnisse:
Es wurden fünf Personas erstellt. Die Kombination von SWOT-Analyse und 9-Felder-Matrix führte zur Definition von Anwendungsfällen (Use-Cases) und nicht-funktionalen Anforderungen. Die Anwendungsfälle wurden durch Use-Case-Diagramme visualisiert und erweitert. Um das Verhalten des Systems zu beschreiben, wurden acht Aktivitätsdiagramme modelliert. Dieses Verhalten wurde in 156 Wireframes dargestellt und an einem Beispielszenario veranschaulicht.
Diskussion/ Schlussfolgerung:
Es konnten alle Ziele der Arbeit erreicht werden. Die genutzten Methoden erwiesen sich als zweckmäßig. Da die Modellierung allein keine Kommunikationsbarrieren in der Patientenversorgung Hörgeschädigter überwinden kann, muss die Anwendung zukünftig zum funktionierenden System entwickelt und auf den Markt eingeführt werden.
Konzeption eines Versuchsstandes zur Charakterisierung der elektrischen Kenngrößen von Solarmodulen
(2023)
Um Photovoltaik-Module auf ihre Leistungsfähigkeit zu testen und diese weiterzuentwickeln, ist es notwendig ihre elektrischen Kenngrößen replizierbar testen zu können.
Das Ziel der vorliegenden Arbeit ist es, zu diesem Zweck einen Versuchstand zu errichten und ein Programm zu schreiben, welches das automatische Abfahren einer Strom-Spannungs-Kennlinie ermöglicht.
Dazu wurden verschiedene Strahlungsquellen mit je spezifischen Eigenschaften verwendet. Bei den Strahlungsquellen handelte es sich um LED-, Halogen- sowie Xenon-Strahler. Mit diesen wurden beispielsweise bei unterschiedlichen Bestrahlungsstärken Kennlinien aufge-nommen, welche es zu vergleichen galt. Außerdem wurden die manuelle und die automatisierte Aufnahme der Kennlinie verglichen.
Die Kennlinien zeigen, dass Xenonstrahler am besten für die Messung elektrischer Kenngrößen von Photovoltaik-Modulen geeignet sind. Nicht nur ist das Spektrum des Strahlers am ähnlichsten dem des AM1,5-Spektrums, sondern dieser hat dazu am wenigsten Wärmeeinfluss auf das zu messende Modul. Zudem ist die automatisierte Aufnahme der Kennlinie wesentlich schneller als die manuelle.
Mit den gewonnenen Erkenntnissen lassen sich die elektrischen Kenngrößen der Photovoltaik-Module künftig qualitativ hochwertiger und schneller testen.
Autorenreferat: Diese Diplomarbeit beschreibt die Konzeption eines Übertragungsmanagers für das KVen Datenverbundsystem zum automatisierten Datenaustausch zwischen den KVen und der KBV. Aufgabe des Übertragungsmanagers ist es, diesen Datenaustausch durch verschiedene Softwaretechnologien zu beschleunigen, sicherer zu gestalten und für den Nutzer zu vereinfachen. Das Ziel dieser Arbeit ist es, ein vollständiges Pflichtenheft, welches nach KBV internen Richtlinien in Produktleistungen und Produktfunktionen unterteilt ist, zu entwerfen. Außerdem werden verschiedene Softwaretechnologien, wie Dateizerlegung und Dateikompression näher untersucht und deren Funktionalitäten mittels beispielhafter Implementierungen nachgewiesen und veranschaulicht. Nach umfangreicher Untersuchung vorhandener Softwarelösungen, wurde kein Programm gefunden, welches alle Anforderungen erfüllen kann. Lediglich einzelne Softwarekomponenten, die in Java implementiert wurden, konnten für den Übertragungsmanagers genutzt werden. Eine Vielfalt von Produktfunktionen bedarf einer umfangreichen Konfigurierbarkeit des Übertragungsmanagers. Hierfür waren im Hinblick auf Usability und Ergonomie geeignete grafische Oberflächen zu entwerfen, welche dem Nutzer die Konfiguration erleichtern und sämtliche Konfigurationsdateien automatisch generieren. Das Pflichtenheft und sämtliche darin enthaltene Produktfunktionen sollen als Vorlage für die Implementierung des Übertragungsmanagers dienen, welcher den Datenaustausch im KVen Datenverbundsystem regeln soll.
Gegenstand der hier vorgestellten Master-Thesis ist eine Vorgehensweise, wie Metriken in einen vorhandenen Softwareentwicklungsprozess eingebunden werden können. Hierfür wird ein Qualitätsmodell aufgestellt, das den Einsatz von Softwaremetriken zu beschreiben versucht. Der Einsatz der Softwaremetriken beruht auf den definierten Zielen des Unternehmens. Diese Ziele werden zu Beginn dieser Master-Thesis ermittelt. Aufbauend auf den Zielen werden Softwaremetriken erhoben. Dabei werden keine neuen Metriken aufgestellt, sondern mit Hilfe vorhandener Metriken diese Ziele verfolgt. Ebenso wird nach Werkzeugen gesucht, die definierten Ziele zusammen mit den aufgestellten Metriken in den Softwareentwicklungsprozess zu intergrieren. Ein dauerhaftes Messverfahren mit einer zentralen Bereitstellung von Messergebnissen wird dabei vorgestellt. Die Umsetzung und der Einsatz des Qualitätsmodelles wird ebenfalls besprochen. Grundlegend wird sich mit verschiedenen Softwaremetriken auseinandergesetzt. Die Diskussionen über die Metriken bilden den Hauptumfang in dieser Master-Thesis.
Diese Studie befasst sich mit der Konzeption und Implementierung einer neuen Anwendung zum Schutz vor Angriffen bei der Anmeldung von Neukunden in einem Online-Brokerage-Plattformsystem in Europa. Die Integration sollte einfach sein, so dass das System wie bisher funktioniert, aber zusammen mit der neuen Struktur. Ziel ist es, die Kosten des Unternehmens und zu senken. Um dieses Problem zu lösen, hat der Autor ein Betrugserkennungssystem entwickelt und Tests durchgeführt. Das Erkennungsmuster hat sich als wirksam erwiesen, um betrügerisches Verhalten aufzudecken. Das Papier enthält eine schrittweise Beschreibung der Umsetzung.
Die analytische Elektronenmikroskopie ist eine häufig genutzte Charakterisierungsmethode für Festkörperoberflächen. Sie findet im Rahmen der Entwicklung, Modifizierung und Prüfung von Werkstoffen weitreichenden Einsatz. Daher bildet dieses Verfahren einen wesentlichen Baustein der Fachhochschulausbildung in vielen physikalisch orientierten Studiengängen.
Die vorliegende Arbeit befasst sich mit der Erstellung eines Praktikumskonzeptes für die Ausbildung von Bachelor- und Masterstudierenden an der Fakultät PTI der Westsächsischen Hochschule Zwickau. Insgesamt vier sowohl mikroskopisch als auch spektroskopisch orientierte Versuche wurden so gestaltet, dass sie didaktisch aufeinander aufbauend absolviert werden können. Dafür wurden zahlreiche Proben, unterschiedliche Detektoren sowie Kontrastvarianten auf ihre methodische und laborpraktische Eignung hin untersucht. Außerdem erfolgte eine vergleichende Betrachtung des Einflusses diverser Anregungs- und Auswerteparameter bei der energiedispersiven Röntgenspektroskopie.
Anhand von Experteninterviews, Peer-Befragungen und studentischem Feedback konnten sowohl die Gestaltung der Aufgabenstellung als auch der zeitliche Ablauf der Praktika optimiert werden. Zusätzlich fließen Berechnungen sowie komplexe Übungen als neue Komponenten in die Experimente ein. Durch eine adressatenspezifische Anpassung hinsichtlich Inhalt und Probenmaterial können die Praktika für Teilnehmer der Biomedizin- und Umwelttechnik oder perspektivisch auch anderer Studiengänge noch interessanter gestaltet werden.