Refine
Has Fulltext
- yes (184) (remove)
Year of publication
Document Type
- Bachelor Thesis (87)
- Master's Thesis (55)
- Diploma Thesis (34)
- Book (4)
- Report (4)
Institute
- Physikalische Technik, Informatik (184) (remove)
OpenStreetMap (OSM) is a large open database for geographic data created and maintained by volunteers. OSM's main data use is rendering an extremely detailed map of the world. Data quality is an important issue for applications like routing of pedestrians to public transport facilities. In this report we describe different schemes for mapping bus stops in OSM and we provide statistics on usage of those schemes, the good ones and the not so good ones.
Im Mittelpunkt des Artikels steht die Frage, welche Eingabemethoden sich für die Eingabe längerer Texte auf Mobiltelefonen eignen. Der Grund dafür ist, dass Artikel über Eilmeldungen in der Regel lang sind und die Verwendung einer Handytastatur zur Eingabe langer Texte sowohl ineffizient als auch mühsam ist.
Daher änderte ich meine Zielsetzung in
1. eine geeignete Eingabemethode für das Schreiben langer Texte auf Mobiltelefonen auf der Grundlage der Literatur zu finden.
2. eine geeignete Eingabemethode für die Erfassung von kritischen Ereignissen zu finden.
3. schließlich die Bewertung dieser Eingabemethoden in Bezug auf Komfort und Effizienz.
In der vorliegenden Diplomarbeit wird ein Konzept zur hochverfügbaren Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erarbeitet und getestet. Dafür wurde im Vorfeld eine Anforderungsanalyse zur Ermittlung der Anforderungen an diese hochverfügbaren Anbindungen durchgeführt. Im Folgenden wurden Technologien zur Erfüllung der Anforderungen ermittelt, kombiniert und auf Nutzwerte verglichen. Die Kombination der Technologien mit dem höchsten Nutzwert wurde in einem Prototyp umgesetzt und in einer Testumgebung auf die Erfüllung der Anforderungen getestet. Ziel dieser Arbeit war es dabei ein herstellerneutrales, infrastrukturunabhängiges und in verschiedenen Anwendungsfällen nutzbares Konzept zu entwickeln. Diese Unabhängigkeit und Offenheit soll es ermöglichen, dieses Konzept in verschiedenen Szenarien, welche eine Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erfordern, einsetzen zu können. Dadurch soll die Zeit zur Konzeption einer Lösung in der Praxis erheblich gesenkt werden.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
The book is the second of four volumes on data science and artificial intelligence. This second volume covers data visualization tool and techniques as well as fundamentals of supervised machine learning: linear regression, artificial neural networks, support-vector machines, decision trees, ensemble methods and more.
The book 'Reinforcement Learning: An Introduction' by Sutton and Barto is the standard text book for introductory courses to reinforcement learning. Next to concrete algorithms and extensive examples the book contains several fundamental results related to Markov decision processes (MDPs) and Bellman equations in Chapters 3 and 4. Unfortunately some proofs are missing, some theorems lack precise formulation, and for some results the line of arguments is quite garbled.
In this note we provide all missing proofs, give precise formulations of theorems and untangle the line of arguments. Further, we avoid using random variables and their expected values. Since we (like Sutton/Barto) restrict our attention to finite MDPs all expected values can be made explicit avoiding overloaded notation and murky conclusions.
This article bridges the gap between introductory literature like Sutton/Barto and research literature containing exact formulations and proofs of relevant results, but being less accessible to beginners due to higher generality and complexity.
Konzeption eines Versuchsstandes zur Charakterisierung der elektrischen Kenngrößen von Solarmodulen
(2023)
Um Photovoltaik-Module auf ihre Leistungsfähigkeit zu testen und diese weiterzuentwickeln, ist es notwendig ihre elektrischen Kenngrößen replizierbar testen zu können.
Das Ziel der vorliegenden Arbeit ist es, zu diesem Zweck einen Versuchstand zu errichten und ein Programm zu schreiben, welches das automatische Abfahren einer Strom-Spannungs-Kennlinie ermöglicht.
Dazu wurden verschiedene Strahlungsquellen mit je spezifischen Eigenschaften verwendet. Bei den Strahlungsquellen handelte es sich um LED-, Halogen- sowie Xenon-Strahler. Mit diesen wurden beispielsweise bei unterschiedlichen Bestrahlungsstärken Kennlinien aufge-nommen, welche es zu vergleichen galt. Außerdem wurden die manuelle und die automatisierte Aufnahme der Kennlinie verglichen.
Die Kennlinien zeigen, dass Xenonstrahler am besten für die Messung elektrischer Kenngrößen von Photovoltaik-Modulen geeignet sind. Nicht nur ist das Spektrum des Strahlers am ähnlichsten dem des AM1,5-Spektrums, sondern dieser hat dazu am wenigsten Wärmeeinfluss auf das zu messende Modul. Zudem ist die automatisierte Aufnahme der Kennlinie wesentlich schneller als die manuelle.
Mit den gewonnenen Erkenntnissen lassen sich die elektrischen Kenngrößen der Photovoltaik-Module künftig qualitativ hochwertiger und schneller testen.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Diese Bachelorarbeit untersucht die Hintergründe und Motivation für die automatische Ausführung und Protokollierung von Tests auf Basis von Gherkin und Godog mit Hilfe von Xray Test Management für Jira.
Das Hauptziel ist die Steigerung der Effizienz bei der Testprotokollierung und -reporting. Durch die Automatisierung können manuelle Aufgaben reduziert werden, was zu einer verbesserten Effizienz und Zeitersparnis führt. Die Ergebnisse dieser Arbeit dienen als Grundlage für Unternehmen, um die Effizienz und Qualität ihrer Testprozesse zu steigern und einen Mehrwert zu schaffen.
Die verwendeten Technologien, Gherkin, Godog, Cucumber für Golang und Xray Test Management für Jira, werden vorgestellt und ihre Funktionen erläutert. Zusammenfassend ermöglichen diese Technologien eine effizientere Zusammenarbeit von Entwicklungs- und Testteams und verbessern die Softwarequalität.
Die Erstellung und Bearbeitung dieser Bachelorarbeit dient dazu Daten in Bezug auf Laserapplizierte Hautschädigungen zu erstellen. Im Rahmen dessen werden an einem Tierhautmodell mit einem Kohlenstoffdioxidlaser Hautschäden erzeugt und untersucht. Der notwendige Versuchsaufbau wird geplant und Auswerteroutinen evaluiert. Es erfolgt die Charakterisierung der Schädigungsbereiche und eine Berechnung der geschädigten Fläche sowie der dazugehörigen Flächenenergie. Mit den gewonnen Erkenntnissen konnten Aussagen über mögliche Grenzwerte der Flächenenergie getroffen werden.
Das Ziel dieses Projekts bestand darin, die Schaltzeit schaltbarer PDLC-Folien zu messen und die Abhängigkeit der Schaltzeit von der Temperatur zu untersuchen. Um dies zu erreichen, wurde zunächst ein Laboraufbau erstellt, der hauptsächlich aus einer LED-Lichtquelle, einem Sensor, einem Oszilloskop und einem Trenntransformator bestand. Wenn die Probe mit einer elektrischen Feld angelegt wurde, die von einem Trenntransformator bereitgestellt wurde, richteten sich die Flüssigkristalle im Polymerfilm aus und ließen Licht durch (was zu einem transparenten Aussehen führte). Dieses Licht wurde vom Sensor erfasst und in ein elektrisches Signal umgewandelt, das anschließend an das Oszilloskop gesendet wurde. Die Anstiegszeit dieses Signals wurde im Bereich von 10% bis 90% der aufsteigenden Flanke gemessen. Die Schaltzeit wurde bei Raumtemperatur (24,2 °C) ermittelt. Anschließend wurden die Proben einmal auf eine niedrige Temperatur von 1 °C und einmal auf eine hohe Temperatur von 39,6 °C temperiert und erneut gemessen, um den Einfluss der Temperatur auf die Schaltzeit zu untersuchen.
Die Ergebnisse zeigten eindeutig, dass die meisten Proben eine schnellere Reaktionsrate bei höheren Temperaturen im Vergleich zu niedrigeren Temperaturen aufwiesen. Alle Messwerte waren bei Temperaturen von 39,6 °C und 24,2 °C homogener und wiesen eine höhere Messgenauigkeit auf, während bei 1 °C die Messwerte eine geringe Homogenität und niedrigere Messgenauigkeit aufwiesen. Es wurde auch festgestellt, dass die Schaltzeit bei einigen Proben deutlich schneller war als bei anderen. Die manuelle Schaltung und die unpassenden Parameter des Signalverlaufs könnten bei einigen Proben zu höheren Schaltzeitwerten geführt haben, da sie vermehrt Nulldurchgänge in der aufsteigenden Flanke des Wechselsignals verursachten. Dies ließe sich möglicherweise durch die Implementierung einer automatischen Schaltung und die Verwendung eines Funktionsgenerators beheben. Mit diesem Generators könnte die Messfrequenz des Sinussignals gesenkt werden, sodass die Schaltzeit deutlich kürzer ist als die ansteigende Flanke. Alternativ könnten auch andere Signalformen wie Rechtecksignale erzeugt werden, bei denen die Probleme, die durch den Sinus verursacht werden, nicht auftreten. Dies könnte in weiteren Experimenten vermieden werden. Des Weiteren könnten die Temperierungsbedingungen während der Versuchsdurchführung Ungenauigkeiten bei den aufgenommenen Messwerten verursacht haben. Dies ließe sich eventuell durch die Verbesserung der Bedingungen für die Temperierung der Proben verhindern. Dadurch könnte der Temperaturverlust während des Messvorgangs reduziert werden, was zu einer höheren Genauigkeit führt. Darüber hinaus sollte der Einfluss der Lebensdauer auf die Schaltzeit in zukünftigen Experimenten berücksichtigt werden, indem nicht nur die Anstiegszeit, sondern auch die Abstiegszeit beim Ausschalten untersucht wird. Dies wäre insbesondere bei Langzeitexperimenten relevant.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.
Die vorliegende Bachelorarbeit untersucht die Machbarkeit der Anwendung resistiver Sensoren auf textilen Materialien zur Messung des Auflagedrucks auf kompressiblen Untergründen. Die Recherche hat gezeigt, dass es bereits Anwendungen im medizinischen und
weiteren Sektoren, wie zum Beispiel im Sport, gibt. Die Arbeit konzentriert sich auf die Möglichkeit der direkten Herstellung von Sensoren auf Textilien.
Zwei Herstellungsverfahren für leitfähige Strukturen auf textilen Substraten werden untersucht. Die verwendeten Verfahren zur Herstellung leitf¨ahiger Strukturen auf Textilien umfassen das Pulverdruckverfahren und die Stickerei. Die Stickerei ermöglicht die Platzierung von leitfähigen Fäden bzw. Kabeln auf Textilien, während der Pulverdruck mit funktionalen Pulvern leitfähige Strukturen auf Textilien erzeugt.
Obwohl es bereits eine Vielzahl von Messsystemen für die Erfassung des Auflagedrucks gibt, zielt diese Arbeit darauf ab, Sensoren auf einem textilen Substrat speziell für den Einsatz in einer Auflagedruck-Messmatte im Reitsport zu entwickeln.
Die experimentelle Untersuchung umfasst Zugversuche und Druckbelastungstests. Zunächst werden Zugversuche durchgeführt, um die Dehnungseigenschaften der Textilien zu bestimmen, sowie die Änderung des elektrischen Widerstandes von aufgebrachten Pulverstrukturen bei Dehnung. Darüber hinaus werden zyklische Zugversuche durchgeführt, um die Stabilität der aufgetragenen leitfähigen Strukturen zu überprüfen. Mithilfe dieser Informationen wurde ein Trägermaterial aus mehreren textilen Substraten für weitere Versuche gewählt.
Des Weiteren wird die Änderung des elektrischen Widerstands von aufgebrachten Stick- und Pulverstrukturen während zyklischen Druckbelastungstests auf kompressiblen Untergrund untersucht und verglichen.
Die Ergebnisse der Druckbelastungstests deuten darauf hin, dass die Stick- und Pulverstrukturen eine Veränderung des elektrischen Widerstands während zyklischer Druckbelastung aufweisen. Es wurde beobachtet, dass der elektrische Widerstand während der Belastung
der Pulverstrukturen abnimmt und nach der Entlastung ansteigt. Die gestickten Strukturen weisen gegenteiliges Verhalten auf. Dies eröffnet interessante Möglichkeiten für die Entwicklung von textilen Sensorlösungen zur Erfassung von Auflagedruck auf kompressiblen Untergründen.
Die Bachelorarbeit zeigt die Komplexität und Herausforderungen bei der Entwicklung von resistiven Sensoren auf textilen Materialien für medizinische und sportliche Anwendungen.