Refine
Year of publication
Document Type
- Diploma Thesis (818)
- Bachelor Thesis (614)
- Master's Thesis (339)
- Article (2)
- Part of a Book (2)
Institute
- Physikalische Technik, Informatik (1775) (remove)
Language
- German (1775) (remove)
Auf digitalen Märkten besteht, wer die zugrundeliegenden digitalen, unternehmensbezogenen oder akteursübergreifenden institutionellen Arrangements versteht und aktiv gestaltet. Dazu werden ausgereifte, von Forschung und Praxis diskutierte und gemeinsam weiter entwickelte Methoden zum Design digitaler Plattformen, Geschäftsmodelle und Service-Ökosysteme benötigt. Einen gemeinschaftlichen Aufschlag hierzu macht der folgende Artikel. Er entstand aus einem offenen Aufruf in der Wirtschaftsinformatik-Community – über Mailing-Listen und soziale Medien. Im Ergebnis führen sieben Forschergruppen (oder einzelne Forscher und Forscherinnen) ihre aktuellen Erkenntnisse zu diesem Thema zusammen.
Ziel dieser Arbeit war es, den Umgang mit einer großen Anzahl von Softwareschwachstellen, konkret Common Vulnerabilities and Exposures (CVEs) zu erleichtern. Dazu wurden drei Ansätze untersucht: die Entwicklung eines eigenen Vulnerability Management Systems (VMS), die Untersuchung von Filtermöglichkeiten für CVEs und die Identifizierung von Attributen zur Priorisierung von Schwachstellen. Das eigens entwickelte VMS, der CVE-Tracker, ermöglicht die effiziente Verwaltung und Organisation der über 1300 gefundenen CVEs, insbesondere im Hinblick auf Mehrfachvorkommen in verschiedenen Software-Releases sowie die automatische Abfrage der CVEs von der National Vulnerability Database (NVD).
Als Ergebnis konnten wichtige Erkenntnisse gewonnen werden, die bei der Implementierung eines VMS berücksichtigt werden müssen. Die Untersuchung von verschiedenen Anfragetypen zum Filtern der CVEs gibt einen detaillierten Einblick in das Verhalten der CVE-API der NVD. Es konnte ein Anfragetyp identifiziert werden, der für den Einsatz in VMS geeignet ist. Im letzten Ansatz wurden Attribute für eine mögliche Priorisierung von CVEs identifiziert, darunter CVSS-Scores, Common Weakness Enumeration (CWE) und Social Media Analysen. Insgesamt wurden sieben Attribute gefunden, die, wenn sie richtig verstanden werden, zu einer guten Priorisierung beitragen können.
Die Arbeit verdeutlicht die Herausforderungen bei der Verwaltung der Sicherheit einer Software mit großen Mengen an CVEs und bietet eine Grundlage für zukünftige Forschung. Mögliche Erweiterungen umfassen den Einsatz von künstlicher Intelligenz für eine präzisere Filterung, die Einbeziehung weiterer Schwachstellendatenbanken und die Vertiefung der Analyse von Social-Media-Plattformen für eine umfassendere Bewertung der Relevanz von CVEs.
Diese Arbeit beschäftigt sich mit theoretischen und praktischen Ansätzen, um eine Java-Anwendung im browser anzuzeigen. Dabei werden einige Möglichkeiten der Datenübertragung zwischen client und server erklärt und theoretische Ansätze zur Eigenentwicklung präsentiert (mit Code-Beispielen). Außerdem werden Anwendungen vorgestellt, die die Überführung in eine Webanwendung automatisch durchführen. Diese werden für die Nutzung mit einer JavaFX-basierten Anwendung näher untersucht, wobei nur eine von drei Anwendungen (JPro) tatsächlich weitergehend untersucht werden kann. Dabei werden Probleme im Zusammenhang mit der Nutzung von JPro diagnostiziert und Lösungsvorschläge abgegeben, wie diese Probleme behoben werden können. Letztendlich wird eine Empfehlung abgegeben, welche der theoretischen Ansätze bzw. der vorgestellten Anwendung am Besten geeignet ist, um die Portierung einer
Anwendung in eine Webanwendung durchzuführen.
Im Mittelpunkt des Artikels steht die Frage, welche Eingabemethoden sich für die Eingabe längerer Texte auf Mobiltelefonen eignen. Der Grund dafür ist, dass Artikel über Eilmeldungen in der Regel lang sind und die Verwendung einer Handytastatur zur Eingabe langer Texte sowohl ineffizient als auch mühsam ist.
Daher änderte ich meine Zielsetzung in
1. eine geeignete Eingabemethode für das Schreiben langer Texte auf Mobiltelefonen auf der Grundlage der Literatur zu finden.
2. eine geeignete Eingabemethode für die Erfassung von kritischen Ereignissen zu finden.
3. schließlich die Bewertung dieser Eingabemethoden in Bezug auf Komfort und Effizienz.
In der vorliegenden Diplomarbeit wird ein Konzept zur hochverfügbaren Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erarbeitet und getestet. Dafür wurde im Vorfeld eine Anforderungsanalyse zur Ermittlung der Anforderungen an diese hochverfügbaren Anbindungen durchgeführt. Im Folgenden wurden Technologien zur Erfüllung der Anforderungen ermittelt, kombiniert und auf Nutzwerte verglichen. Die Kombination der Technologien mit dem höchsten Nutzwert wurde in einem Prototyp umgesetzt und in einer Testumgebung auf die Erfüllung der Anforderungen getestet. Ziel dieser Arbeit war es dabei ein herstellerneutrales, infrastrukturunabhängiges und in verschiedenen Anwendungsfällen nutzbares Konzept zu entwickeln. Diese Unabhängigkeit und Offenheit soll es ermöglichen, dieses Konzept in verschiedenen Szenarien, welche eine Anbindung von Computernetzwerken an externe Private-Cloud-Rechenzentren erfordern, einsetzen zu können. Dadurch soll die Zeit zur Konzeption einer Lösung in der Praxis erheblich gesenkt werden.
Die flatexDEGIRO AG, ein führender Online-Broker, nutzt für den technischen
Onboarding-Prozess seiner Neukunden eine Monolithen-Architektur, mit Hilfe welcher
Kundenkonten, Konten und Depots angelegt werden.
Ziel dieser Arbeit ist die Untersuchung der Möglichkeiten, den aus technischer Sicht
langlaufenden IT-Prozess auf eine Microservice-Architektur umzustellen und dafür
einen geeigneten Prozessmanager zur Überwachung und Steuerung zu empfehlen.
Dazu wird in dieser Arbeit der Geschäftsprozess detailliert erklärt und sowohl der Ist-
als auch der Soll-Zustand der Systeme aufgezeigt. Es werden verschiedene Patterns
im Kontext der Anforderungen der flatexDEGIRO AG evaluiert. Darunter befinden sich
Two Phase Commit, Three Phase Commit, Saga, Routing Slip, Message Router und
Prozessmanager. Diese Patterns, werden in Bezug auf ihren Aufbau und ihre
Funktionen beschrieben, um ein fundiertes Verständnis zu gewährleisten. Ergänzend
werden notwendige Technologien und Konzepte erläutert.
Darüber hinaus werden Frameworks wie Apache Camel, Spring Integration und Axon
betrachtet, um die Patterns zu implementieren. Die Auswahl dieser Frameworks
wurde, durch die bei der flatexDEGIRO AG bereits vorhandenen Technologien
beeinflusst.
Den Abschluss dieser Arbeit wird die Zusammenfassung der Evaluation und des
Vergleichs der Patterns bilden. Hierfür wird ein Bewertungsschema ein Ergebnis
hervorbringen, das für die weitere Entwicklung des Gesamtsystems und vor allem des
betrachteten Geschäftsprozesses valide Optionen aufzeigen wird.
Diese Masterarbeit, wurde in Zusammenarbeit mit der Firma Geuder AG, Standort Heidelberg, erarbeitet. Ziel und Zweck dieser Arbeit war es, den Beschriftungsprozess der chirurgischen Instrumente zu validieren und somit für prozesssicher zu erklären. Zum Validierungsprozess gehören verschiedene Teilprozesse wie die Erstellung eines Validierungsplans, in dem beschrieben wird, was das Ziel der Validierung ist und wie es erreicht werden soll bzw. mit welchen Materialien es umgesetzt wird. Des Weiteren wurde eine Fehlermöglichkeitsanlayse (FMEA) durchgeführt, um entstehende Hindernisse im Prozess betrachten zu können und einen Notfallplan zu erstellen. An die FMEA schließen sich die Funktionsqualifikation (OQ) und die Leistungsqualifikation (PQ) an. Die IQ (Installationsqualifikation) , die noch vor der OQ stattfindet wurde von der Firma FOBA übernommen. Die OQ wurde im Rahmen verschiedener Tests durchgeführt. Die Laserparameter für die Anlassbeschriftung wurden auf ihre Randbedingungen getestet. Diese sind vor allem bei rauen oder grob verschmutzten Beschriftungsfläche zu finden. Im Anschluss an die OQ, in der die Rahmenbedingungen festgelegt wurden, um ein gutes Beschriftungsergebnis erzielen zu können, wird eine PQ durchgeführt. Diese ist kein Bestandteil dieser Arbeit.
ALADIN – Generator für Aufgaben und Lösung(shilf)en aus der Informatik und angrenzenden Disziplinen
(2022)
Die fortschreitende Vernetzung von Geräten im Internet der Dinge in Kombination mit der Digitalisierung verändert Märkte und Branchen nachhaltig. Im Rahmen des DiWo-Chain Projektes wird an der Entwicklung und lokalen Integration der Blockchain-Technologie in digitale Dienstleistungen der Wohnungswirtschaft geforscht. Durch die verwendete Blockchain-Technologie soll die Gestaltung von effizienten, betriebs-, manipulations- und datenschutzsicheren Dienstleistungen der Wohnungswirtschaft ermöglicht werden. In diesem Beitrag wird eine Lösung beschrieben, welche die Integration und Realisierung vereinfacht. Zur Umsetzung wurde eine Java OSGi-Anwendung in Kombination mit einer Angular-Anwendung für die Interaktion mit der Hyperledger Fabric Blockchain entwickelt. Diese Blockchain-basierte Lösung kann dynamisch für diverse Anwendungsfälle angepasst werden. In diesem Beitrag werden ausgewählte Szenarien der Wohnungswirtschaft beschrieben, die für den Einsatz der entwickelten Lösung geeignet sind.
Diese Masterarbeit widmet sich der Thematik der Digital Twins (DT), einer Technologie, die in den letzten Jahren zunehmend an Bedeutung gewonnen hat, sowie der Verwendung von DTs im Retail. Im Fokus steht dabei der virtuelle Shelf als DT von Regalen in Einzelhandelsgeschäften. Ziel ist es, mithilfe des virtuellen Shelfs Services der GK in einem realitätsnahen Umfeld zu testen und präsentieren.
Der virtuelle Shelf bietet eine Visualisierung der Regale für einen großformatigen 72-Zoll Bildschirm und ermöglicht es den Nutzern, Interaktionen mit einem Regal zu simulieren. Zusätzlich zu den Auswirkungen der Interaktionen auf das Regal können mithilfe der Visualisierung zusätzliche Hintergrundinformationen dargestellt werden, wie beispielsweise die Bestandsinformationen eines Artikels.
Die Forschungsfrage, die dieser Arbeit zugrunde liegt, lautet: „Ist ein virtueller Shelf als Digital Twin geeignet, um den Prozess des Instore Fulfillments zu simulieren und zu visualisieren?“ Zur Beantwortung dieser Frage werden verschiedene Aspekte behandelt, darunter die Definition eines Digital Twins, die Schritte zur Erstellung eines solchen, die Definition des Instore Fulfillment-Prozesses, die Konzeptionierung und die prototypische Realisierung des virtuellen Shelfs sowie eine Studie zur Validierung
dieses DTs.
Durch die systematische Untersuchung dieser Punkte wird nicht nur die Eignung des virtuellen Shelfs als Digital Twin für den Instore Fulfillment-Prozess beleuchtet, sondern auch wertvolle Erkenntnisse für die zukünftige Anwendung und Weiterentwicklung dieser innovativen Technologie gewonnen.
Die vorliegende Diplomarbeit beschreibt die Vorgehensweise und Durchführung einer Systemanalyse bezüglich der bei der Stadtentwässerung Dresden GmbH vorhandenen Prozesse zur Probendaten-Bereitstellung sowie der Verwendung dieser Daten durch das Personal der Fachbereiche. Bei den Probendaten handelt es sich um Messergebnisse des unternehmenseigenen Betriebslabors aus analytischen Messverfahren und von digitalen Messgeräten. Ziel der Arbeit ist es, den Ist-Stand der Prozesse zu erfassen und Schwachstellen zu ermitteln. Auf Basis der gewonnenen Erkenntnisse soll ein neues System zur Verarbeitung dieser Daten gefunden und ein damit einhergehend verbesserter Prozess entworfen werden. Hierbei sind zum einen die Anforderungen der Datenbereitstellenden und derjenigen, welche die Daten im Unternehmen nutzen, zu berücksichtigen und zu erfassen.
Einleitend wird auf die theoretischen Grundlagen einer Systemanalyse und den aktuellen Stand der Technik im Bereich der Informationsversorgung eingegangen. Es werden weiterhin relevante Techniken und Systeme vorgestellt, welche sich für einen neuen Soll-Prozess eignen könnten. Zudem werden Möglichkeiten der Prozessmodellierung diskutiert.
Im praktischen Teil der Arbeit werden die Erkenntnisse genutzt, um den Ist-Stand für die Probendaten-Bereitstellung zu erfassen. Daraufhin folgend wird mittels einer Nutzwertanalyse und unter Auswertung von Experteninterviews eine für die Stadtentwässerung Dresden GmbH geeignete Lösung entworfen und in einem Soll-Prozess modelliert.
Abschließend werden die Ergebnisse in einem Prototyp als Testimplementierung umgesetzt. Es folgt eine Auswertung, inwiefern die Aufgabenstellung und definierte Probleme gelöst sowie Zielstellungen erreicht worden sind.
Konzeption eines Versuchsstandes zur Charakterisierung der elektrischen Kenngrößen von Solarmodulen
(2023)
Um Photovoltaik-Module auf ihre Leistungsfähigkeit zu testen und diese weiterzuentwickeln, ist es notwendig ihre elektrischen Kenngrößen replizierbar testen zu können.
Das Ziel der vorliegenden Arbeit ist es, zu diesem Zweck einen Versuchstand zu errichten und ein Programm zu schreiben, welches das automatische Abfahren einer Strom-Spannungs-Kennlinie ermöglicht.
Dazu wurden verschiedene Strahlungsquellen mit je spezifischen Eigenschaften verwendet. Bei den Strahlungsquellen handelte es sich um LED-, Halogen- sowie Xenon-Strahler. Mit diesen wurden beispielsweise bei unterschiedlichen Bestrahlungsstärken Kennlinien aufge-nommen, welche es zu vergleichen galt. Außerdem wurden die manuelle und die automatisierte Aufnahme der Kennlinie verglichen.
Die Kennlinien zeigen, dass Xenonstrahler am besten für die Messung elektrischer Kenngrößen von Photovoltaik-Modulen geeignet sind. Nicht nur ist das Spektrum des Strahlers am ähnlichsten dem des AM1,5-Spektrums, sondern dieser hat dazu am wenigsten Wärmeeinfluss auf das zu messende Modul. Zudem ist die automatisierte Aufnahme der Kennlinie wesentlich schneller als die manuelle.
Mit den gewonnenen Erkenntnissen lassen sich die elektrischen Kenngrößen der Photovoltaik-Module künftig qualitativ hochwertiger und schneller testen.
Die folgende Ausarbeitung mit dem Titel „Projektplanung für die Umstrukturierung betrieblicher Prozessabläufe einer deutschen Halbleiterfertigung mit der Zielsetzung einer Emissionsreduzierung“ bildet die abschließende Diplomarbeit, welche im Rahmen des berufsbegleitenden
Studienganges „Umwelttechnik und Recycling“ an der Westsächsischen Hochschule Zwickau (WHZ) erstellt wird.
Zunächst beschreibt der folgend Gliederungspunkt den Anlass dieses Planungskonzeptes und konkretisiert die zugrundeliegende Aufgabenstellung dieser Ausarbeitung. Im Anschluss wird kurz das Unternehmen vorgestellt, auf welches sich die Betrachtung bezieht. Theoretische Grundlagen wichtiger Regelwerke sind aufgeführt, um das nötige Verständnis für die Relevanz sowie die Zielsetzung zu vermitteln.
Folgend werden organisatorische Projektstrukturen geplant und aufgezeigt. Eine konkret definierte Zielstellung gibt das Mindestmaß der erwarteten Emissionsreduzierung vor. Weiterhin ist eine Phasenplanung der Durchführungsschrittfolge aufgezeigt sowie die Aufstellung des Projektteams inkl. des Kommunikationsverhaltes. Ergebnisse aus Beziehungsanalysen beteiligter Interessengruppen sind enthalten sowie Diskussionen über das Eintreten von Risiken.
Der Hauptteil beschäftigt sich mit der Planung und Darstellung potenzieller Umstrukturierung bestehender Prozessabläufe des zugrundeliegenden Betriebsstandortes. Hierbei wird zunächst die aktuelle CO2-Bilanzierung aufgezeigt, da diese die Grundlage der Maßnahmenplanung bildet. Der Schwerpunkt liegt dabei auf den Ausstoß von Treibhausgasen. Andere Emissionen wie beispielsweise Lärm, Licht, Vibrationen oder auch Funkwellen werden in dieser Projektplanung nicht mit betrachtet. Zu jedem der aufgezeigten Einzelvorhaben sind Angaben bezüglich Kostenumfang sowie der Umsetzungsdauer vermerkt. Nach der erfolgten Vorstellung werden konkrete Umsetzungsmodelle beschrieben, wie die gesetzte Zielstellung, unter Beachtung verschiedener Rahmenbedingungen, realisiert werden könnte. Der abschließenden Zusammenfassung nachgelagert wird ein Ausblick gegeben, wie mit den gewonnenen Erkenntnissen dieser Ausarbeitung umgegangen wird.
Auswertung und Vergleich von 3D-µCT-Datensätzen von Titanimplantaten aus einer in vivo-Studie
(2023)
In dieser Masterarbeit lag der Schwerpunkt auf dem Vergleich von Titanimplantaten, die mittels unterschiedlichen Herstellungsmethoden (konventionell vs. additiver Fertigungstechnologien wie EBM und SLM) produziert wurden. Das Hauptinteresse galt dabei ihrem Einwachsverhalten bzw. der Osseointegration in den Knochen im Vergleich zu den Kontrollmaterialien. Titan und seine Legierungen sind für ihre herausragende Biokompatibilität, mechanische Robustheit und Korrosionsresistenz bekannt und daher erste Wahl als metallische Biomaterialien im Schädelbereich, Orthopädie und Zahnmedizin. Obwohl die AM-Technologien zur Titanverarbeitung wegen ihrer Kosten zunächst zurückhaltend eingesetzt wurden, haben sich Ansätze wie SLM und EBM in der biomedizinischen Forschung etabliert, vor allem durch die Möglichkeit, maßgeschneiderte komplexe und ggf. poröse Strukturen für das Knochenwachstum zu schaffen. Weil jedes AM-Verfahren seine spezifischen Vorteile und Grenzen hat, zielte diese Arbeit darauf ab, die verschiedenen Methoden in Bezug auf ihre Osseointegration zu vergleichen. Im Ergebnis zeigte sich, dass alle untersuchten Implantate als Knochenersatz gut geeignet sind. Allerdings überzeugten in dieser Studie die CNC-gefrästen Implantate am meisten. Doch unter Einbeziehung der Vorzüge additiver Techniken könnten SLM-gefertigte Implantate an Relevanz gewinnen.
Die histomorphometrische Analyse hat verdeutlicht, dass BIC und BID essenzielle Indikatoren zur Bewertung von Implantaten sind, wobei deren Kombination eine vertiefte Sicht auf die Osseointegration ermöglicht. Für zukünftige Untersuchungen sollte auch die Beurteilung des Knochenvolumen mit einbezogen werden, was bedingt durch technische Schwierigkeiten mit der Software in dieser Arbeit nicht umgesetzt werden konnte.
Die Software HistoGap bringt für die Auswertung der histologischen Schnitte und µCT-Schnittbilder zwar viele Vorteile, benötigt jedoch auch Weiterentwicklungen. Insbesondere sollten Parameter wie die Bindegewebsdicke, die den BIC beeinflusst, sowie eine automatisierte Datenauswertung integriert werden. Angesichts dieses Bedarfs und gestützt auf vorherige Erfahrungen in der C++-Programmierung und neu erworbenem Fachwissen in der biologischen Morphometrie und Statistik, entstand die Initiative, eine neue Software zu entwickeln. Diese soll nicht nur alle Funktionen von HistoGap integrieren, sondern auch erweiterte Analyse- und Statistiktools bereitstellen. Ein besonderes Ziel ist, dass die Software durch maschinelles Lernen (KI) trainiert werden kann, um eigenständig Knochen von Implantaten zu unterscheiden und so die BID automatisch zu bestimmen. Jedoch war es aufgrund zeitlicher und materieller Beschränkungen nicht möglich, diese umfangreiche Entwicklung komplett zu realisieren – ein Projekt, das in einer zukünftigen Arbeit weitergeführt werden könnte.
Weiterhin wurde ein Vergleich zwischen µCT- und histologischen Analysen bezüglich BIC und BID an verschiedenen Implantaten vorgenommen. Es zeigte sich eine gute Übereinstimmung zwischen diesen beiden Methoden. Die Untersuchung hat bestätigt, dass die Histologie der Goldstandard für die Bestimmung der Osseointegrationsparameter bleibt, während µCT eine zerstörungsfreie Untersuchung und die Möglichkeit einer 3D-Auswertung bietet. Beide Methoden sollten komplementär zueinander eingesetzt werden.
Bei der 3D-Segmentierung traten spezielle Herausforderungen auf, insbesondere bei der Unterscheidung zwischen Knochen und Implantatmaterialien, besonders bei den Bioverit®-Proben. Durch Methoden wie die manuelle Helligkeitshistogrammanalyse und die Anpassung der Lookup-Tabelle in 3DSlicer konnten diese Schwierigkeiten bewältigt werden. Während des Einsatzes von 3DSlicer für die 3D-Segmentierung ergaben sich Probleme mit den umfangreichen Datensätzen. In anderen Studien, die die Software Avizo verwendeten, wurden bei vergleichbaren Aufgaben bessere Ergebnisse erzielt. Daher wird Avizo für zukünftige Untersuchungen mit großen Datensätzen als geeignetere Option vorgeschlagen.
Diese Bachelorarbeit untersucht die Hintergründe und Motivation für die automatische Ausführung und Protokollierung von Tests auf Basis von Gherkin und Godog mit Hilfe von Xray Test Management für Jira.
Das Hauptziel ist die Steigerung der Effizienz bei der Testprotokollierung und -reporting. Durch die Automatisierung können manuelle Aufgaben reduziert werden, was zu einer verbesserten Effizienz und Zeitersparnis führt. Die Ergebnisse dieser Arbeit dienen als Grundlage für Unternehmen, um die Effizienz und Qualität ihrer Testprozesse zu steigern und einen Mehrwert zu schaffen.
Die verwendeten Technologien, Gherkin, Godog, Cucumber für Golang und Xray Test Management für Jira, werden vorgestellt und ihre Funktionen erläutert. Zusammenfassend ermöglichen diese Technologien eine effizientere Zusammenarbeit von Entwicklungs- und Testteams und verbessern die Softwarequalität.
Die Erstellung und Bearbeitung dieser Bachelorarbeit dient dazu Daten in Bezug auf Laserapplizierte Hautschädigungen zu erstellen. Im Rahmen dessen werden an einem Tierhautmodell mit einem Kohlenstoffdioxidlaser Hautschäden erzeugt und untersucht. Der notwendige Versuchsaufbau wird geplant und Auswerteroutinen evaluiert. Es erfolgt die Charakterisierung der Schädigungsbereiche und eine Berechnung der geschädigten Fläche sowie der dazugehörigen Flächenenergie. Mit den gewonnen Erkenntnissen konnten Aussagen über mögliche Grenzwerte der Flächenenergie getroffen werden.
Das Ziel dieses Projekts bestand darin, die Schaltzeit schaltbarer PDLC-Folien zu messen und die Abhängigkeit der Schaltzeit von der Temperatur zu untersuchen. Um dies zu erreichen, wurde zunächst ein Laboraufbau erstellt, der hauptsächlich aus einer LED-Lichtquelle, einem Sensor, einem Oszilloskop und einem Trenntransformator bestand. Wenn die Probe mit einer elektrischen Feld angelegt wurde, die von einem Trenntransformator bereitgestellt wurde, richteten sich die Flüssigkristalle im Polymerfilm aus und ließen Licht durch (was zu einem transparenten Aussehen führte). Dieses Licht wurde vom Sensor erfasst und in ein elektrisches Signal umgewandelt, das anschließend an das Oszilloskop gesendet wurde. Die Anstiegszeit dieses Signals wurde im Bereich von 10% bis 90% der aufsteigenden Flanke gemessen. Die Schaltzeit wurde bei Raumtemperatur (24,2 °C) ermittelt. Anschließend wurden die Proben einmal auf eine niedrige Temperatur von 1 °C und einmal auf eine hohe Temperatur von 39,6 °C temperiert und erneut gemessen, um den Einfluss der Temperatur auf die Schaltzeit zu untersuchen.
Die Ergebnisse zeigten eindeutig, dass die meisten Proben eine schnellere Reaktionsrate bei höheren Temperaturen im Vergleich zu niedrigeren Temperaturen aufwiesen. Alle Messwerte waren bei Temperaturen von 39,6 °C und 24,2 °C homogener und wiesen eine höhere Messgenauigkeit auf, während bei 1 °C die Messwerte eine geringe Homogenität und niedrigere Messgenauigkeit aufwiesen. Es wurde auch festgestellt, dass die Schaltzeit bei einigen Proben deutlich schneller war als bei anderen. Die manuelle Schaltung und die unpassenden Parameter des Signalverlaufs könnten bei einigen Proben zu höheren Schaltzeitwerten geführt haben, da sie vermehrt Nulldurchgänge in der aufsteigenden Flanke des Wechselsignals verursachten. Dies ließe sich möglicherweise durch die Implementierung einer automatischen Schaltung und die Verwendung eines Funktionsgenerators beheben. Mit diesem Generators könnte die Messfrequenz des Sinussignals gesenkt werden, sodass die Schaltzeit deutlich kürzer ist als die ansteigende Flanke. Alternativ könnten auch andere Signalformen wie Rechtecksignale erzeugt werden, bei denen die Probleme, die durch den Sinus verursacht werden, nicht auftreten. Dies könnte in weiteren Experimenten vermieden werden. Des Weiteren könnten die Temperierungsbedingungen während der Versuchsdurchführung Ungenauigkeiten bei den aufgenommenen Messwerten verursacht haben. Dies ließe sich eventuell durch die Verbesserung der Bedingungen für die Temperierung der Proben verhindern. Dadurch könnte der Temperaturverlust während des Messvorgangs reduziert werden, was zu einer höheren Genauigkeit führt. Darüber hinaus sollte der Einfluss der Lebensdauer auf die Schaltzeit in zukünftigen Experimenten berücksichtigt werden, indem nicht nur die Anstiegszeit, sondern auch die Abstiegszeit beim Ausschalten untersucht wird. Dies wäre insbesondere bei Langzeitexperimenten relevant.
In dieser Arbeit werden die Vorteile von GRPC im Vergleich zu REST in Client Server Kommunikationsarchitekturmodellen untersucht. Um dies zu ermitteln, wurde eine Blogging Anwendung mit einer domänengesteuerten Designarchitektur implementiert, die beide Kommunikationsschnittstellen für die Client Kommunikation bieten. Eine Reihe von Last Tests wurde für beide Schnittstellen durchgeführt und die Ergebnisse ausgewertet. Das Ergebnis zeigt, dass GRPC im Durchschnitt eine um 11% schnellere Antwortzeit als REST hat und GRPCs Kapazität ist um 18% größer als REST.