Thomas Bella
Austausch proprietärer IoT-Firmware mit Open Source Firmware

PDF - 2.2 MB
[asc] [SHA256]
(gesperrt 2019 - 06/2024)
Arbeit auf Anfrage
Masterarbeit - Sicherheit, Unabhängigkeit und neue Möglichkeiten von IoT-Geräten
Das Internet der Dinge (IoT) hält zunehmend Einzug in Privathaushalte und Unternehmen. Geräte, die über das Internet steuerbar sind, erleichtern den Alltag – von der einfachen Steckdose bis zur komplexen Sensorsteuerung. Doch mit dieser Entwicklung entstehen neue Herausforderungen: Sicherheitsrisiken, Datenschutzprobleme und eine wachsende Abhängigkeit von Herstellern. Gerade bei günstigen Geräten aus dem Massenmarkt zeigt sich oft, dass Firmware und Cloud-Anbindung auf Bequemlichkeit statt auf Kontrolle und Sicherheit ausgelegt sind.
Diese Arbeit untersucht, welche Risiken mit proprietären IoT-Firmwarelösungen verbunden sind und inwiefern Open Source Firmware eine sinnvolle Alternative darstellen kann. Dabei liegt der Fokus auf sicherheitstechnischen Aspekten, aber auch auf der Systemperformance und dem Potenzial zur Integration in eigene Infrastrukturen.
Ein wesentliches Problem proprietärer Firmware besteht in der Abhängigkeit vom Hersteller. Fällt der Hersteller-Support weg – etwa durch Serverabschaltung oder Geschäftsaufgabe – können Geräte unbrauchbar werden. Zudem entzieht eine zentrale Cloud-Lösung den Nutzer:innen jegliche Kontrolle über den Datenfluss und die Gerätekonfiguration. Intransparent implementierte Updates, hartcodierte Passwörter oder fehlende Transportverschlüsselung sind keine Seltenheit.
Im Gegensatz dazu ermöglicht Open Source Firmware die volle Kontrolle über Funktionsweise, Kommunikation und Sicherheit. In dieser Arbeit wurden konkrete IoT-Geräte analysiert, deren original Firmware durch eine quelloffene Alternative ersetzt wurde. Die Arbeit beschreibt die Vorgehensweise beim Flashen der Geräte, Sicherheitsanalysen mittels STRIDE/DREAD-Modell sowie eine Performancemessung unter realistischen Bedingungen.
Ein zentrales Ergebnis: Viele der häufigsten Schwachstellen proprietärer Lösungen – wie statische Verschlüsselungsschlüssel, mangelhafte Updateverfahren oder unverschlüsselte Kommunikation – können durch Open Source Firmware nicht nur vermieden, sondern aktiv verbessert werden. Zudem bietet sich durch die Integration moderner Protokolle wie MQTT die Möglichkeit, sichere Kommunikationswege aufzubauen – lokal oder über eigene Cloud-Dienste.
Auch DevOps-Methoden wie Continuous Integration (CI) und Continuous Deployment (CD) wurden in der Arbeit angewendet, um Firmware-Updates automatisiert auszuliefern. Diese Herangehensweise eignet sich insbesondere für Unternehmensumgebungen, in denen mehrere Geräte gleichzeitig betrieben werden und ein manuelles Management nicht praktikabel ist.
Die Performancemessungen zeigten dabei, dass ein Firmwarewechsel je nach Hardware sowohl zu Verbesserungen als auch zu minimalen Verzögerungen führen kann. Entscheidend ist die Optimierung der Konfiguration an das jeweilige Gerät und Einsatzszenario.
Ein weiterer Aspekt dieser Arbeit ist die Entwicklung eines eigenen Cloud-Prototyps, mit dem Open Source Geräte zentral verwaltet werden können – ohne Daten an Dritte weiterzugeben oder auf fremde Infrastrukturen angewiesen zu sein. Diese Lösung kann innerhalb eines Heim- oder Firmennetzwerks betrieben und durch Portfreigabe optional auch von außen erreicht werden.
In Summe stellt die Arbeit einen ganzheitlichen Ansatz vor, wie mit Open Source Firmware sowohl die Sicherheit als auch die Nachhaltigkeit von IoT-Infrastrukturen erhöht werden können. Anstatt defekte oder veraltete Geräte zu entsorgen, können diese durch neue Software wieder nutzbar gemacht und individuell erweitert werden. Damit entsteht eine flexible, kontrollierbare und zukunftssichere Alternative zu bestehenden, oft intransparenten Systemen.
Performanceprobleme bei empfohlenen SSL-Ciphers

PDF - 1.4 MB
[asc] [SHA256]
Arbeit auf Anfrage
2. Bachelorarbeit - Zwischen Sicherheit und Effizienz in der HTTPS-Kommunikation
In einer zunehmend digitalisierten Welt ist der Schutz sensibler Daten beim Zugriff auf Webseiten essenziell. Verschlüsselung über HTTPS bildet dabei die Grundlage sicherer Kommunikation. Die zugrundeliegenden kryptografischen Verfahren – sogenannte Cipher-Suites – variieren jedoch stark in ihrer Komplexität und damit auch in ihrer Auswirkung auf die Systemperformance.
Diese Arbeit widmet sich den konkreten Auswirkungen gängiger Sicherheitsempfehlungen auf die Leistungsfähigkeit von Webservern und Clients. Im Zentrum steht die Analyse empfohlener Cipher-Konfigurationen namhafter Quellen wie Mozilla, Cipherli.st und bettercrypto.org. Obwohl diese Empfehlungen aus sicherheitstechnischer Sicht wertvoll sind, wird ihre Performanceauswirkung in der Praxis oft unterschätzt.
Untersucht wird, in welchem Ausmaß die Wahl einer bestimmten Cipher-Suite die benötigte Rechenleistung beeinflusst – sowohl auf Serverseite als auch auf Seiten der Endgeräte. Dabei zeigt sich, dass Sicherheitsmaßnahmen keineswegs neutral in der Systemlast sind. Je nach eingesetzter Hardware – insbesondere bei Geräten mit und ohne AES-NI-Unterstützung – kann die Wahl einer Cipher-Suite die Übertragungsgeschwindigkeit und Reaktionszeit erheblich beeinflussen.
Die Arbeit dokumentiert eine systematische Evaluierung von Konfigurationen unter Einsatz aktueller Analyse- und Benchmarking-Werkzeuge. Dabei wurde in kontrollierten Testumgebungen geprüft, wie sich die vorgeschlagenen Cipher auf verschiedene Performanceindikatoren auswirken, etwa in Bezug auf Datendurchsatz, Anzahl durchführbarer Handshakes pro Sekunde oder den Stromverbrauch mobiler Endgeräte.
Neben einem tiefgehenden Überblick über den Aufbau und die Funktionsweise moderner Cipher-Suites bietet die Arbeit auch eine praxisorientierte Sicht auf die daraus resultierenden Kompromisse: Hohe kryptografische Sicherheit kann – je nach Konfiguration – signifikante Auswirkungen auf die Effizienz haben. Besonders deutlich wird dies beim Vergleich älterer Konfigurationen, die hohe Kompatibilität anstreben, mit modernen Varianten, die auf aktuelle Hardware-Features optimiert sind.
Diese Arbeit schafft ein Bewusstsein dafür, dass die Auswahl einer Cipher-Suite mehr ist als ein Sicherheitsthema – sie ist auch ein relevanter Performance-Faktor. Vor allem für Betreiber sicherheitskritischer Webdienste ergibt sich daraus die Notwendigkeit, Sicherheitsempfehlungen nicht blind umzusetzen, sondern in Hinblick auf das eigene Zielsystem zu prüfen.
Performanceanalyse von Webserver-Technologien

PDF - 1.6 MB
[asc] [SHA256]
Arbeit auf Anfrage
1. Bachelorarbeit - Ein technischer Blick hinter die Kulissen moderner Webserver
Webseiten sind längst mehr als digitale Visitenkarten – sie sind essenzielle Schnittstellen zwischen Unternehmen und ihren Nutzer:innen. Während Inhalte, Design und Interaktion im Vordergrund stehen, bleibt die zugrunde liegende Technologie oft unbeachtet. Insbesondere die Wahl der Webserver-Software erfolgt häufig ohne bewusstes Abwägen, obwohl sie maßgeblich zur Performance beiträgt.
Diese Arbeit widmet sich der grundlegenden Frage, welche Webservertechnologien im Internet am weitesten verbreitet sind und welche Überlegungen bei ihrer Auswahl eine Rolle spielen sollten. Unternehmen greifen häufig auf vorinstallierte Lösungen zurück und übersehen dabei mögliche Alternativen – sei es aus Gewohnheit, Unwissenheit oder fehlender Zuständigkeit.
Gerade bei Performanceproblemen liegt der Fokus meist auf der Applikation oder der Hardware – selten wird der Webserver selbst als Ursache in Betracht gezogen. Doch angesichts von Studien, die belegen, dass bereits hundert Millisekunden Verzögerung spürbare Auswirkungen auf Nutzerverhalten und Umsatz haben können, lohnt sich ein differenzierter Blick.
Im Rahmen dieser Arbeit wurden anhand unabhängiger Marktanalysen (u.a. W3Techs, Netcraft) die am häufigsten eingesetzten Webserverlösungen identifiziert. Apache, nginx und Microsoft IIS bilden dabei das Kernfeld der am weitesten verbreiteten Technologien.
In einer eigens aufgebauten Testumgebung wurden diese Systeme installiert, konfiguriert und mit einem standardisierten Lasttestverfahren auf ihre Leistungsfähigkeit hin untersucht. Sowohl statische als auch dynamische Inhalte wurden unter Volllast abgerufen, um reale Anwendungsszenarien möglichst präzise zu simulieren.
Neben Reaktionszeit und Fehleranfälligkeit wurden auch CPU- und RAM-Verbrauch unter Last analysiert. Besonderes Augenmerk lag auf der Konfigurierbarkeit der Systeme sowie auf ihrer Architektur – etwa dem asynchronen, eventbasierten Ansatz von nginx im Vergleich zum prozessbasierten Verhalten klassischer Serverlösungen.
Die Arbeit zeigt auf, wie sich technische Grundlagen auf Skalierbarkeit, Ressourcenverbrauch und Stabilität auswirken können. In einer Zeit, in der Ladezeiten ein zunehmend kritischer Faktor für Erfolg im Netz werden, bietet diese Analyse wertvolle Einblicke für alle, die sich mit Webinfrastruktur beschäftigen – sei es im Enterprise-Umfeld, in der Entwicklung oder in der Systemadministration.