Masterarbeit - Sicherheit, UnabhÀngigkeit und neue Möglichkeiten von IoT-GerÀten
Das Internet der Dinge (IoT) hĂ€lt zunehmend Einzug in Privathaushalte und Unternehmen. GerĂ€te, die ĂŒber das Internet steuerbar sind, erleichtern den Alltag â von der einfachen Steckdose bis zur komplexen Sensorsteuerung. Doch mit dieser Entwicklung entstehen neue Herausforderungen: Sicherheitsrisiken, Datenschutzprobleme und eine wachsende AbhĂ€ngigkeit von Herstellern. Gerade bei gĂŒnstigen GerĂ€ten aus dem Massenmarkt zeigt sich oft, dass Firmware und Cloud-Anbindung auf Bequemlichkeit statt auf Kontrolle und Sicherheit ausgelegt sind.
Diese Arbeit untersucht, welche Risiken mit proprietÀren IoT-Firmwarelösungen verbunden sind und inwiefern Open Source Firmware eine sinnvolle Alternative darstellen kann. Dabei liegt der Fokus auf sicherheitstechnischen Aspekten, aber auch auf der Systemperformance und dem Potenzial zur Integration in eigene Infrastrukturen.
Ein wesentliches Problem proprietĂ€rer Firmware besteht in der AbhĂ€ngigkeit vom Hersteller. FĂ€llt der Hersteller-Support weg â etwa durch Serverabschaltung oder GeschĂ€ftsaufgabe â können GerĂ€te unbrauchbar werden. Zudem entzieht eine zentrale Cloud-Lösung den Nutzer:innen jegliche Kontrolle ĂŒber den Datenfluss und die GerĂ€tekonfiguration. Intransparent implementierte Updates, hartcodierte Passwörter oder fehlende TransportverschlĂŒsselung sind keine Seltenheit.
Im Gegensatz dazu ermöglicht Open Source Firmware die volle Kontrolle ĂŒber Funktionsweise, Kommunikation und Sicherheit. In dieser Arbeit wurden konkrete IoT-GerĂ€te analysiert, deren original Firmware durch eine quelloffene Alternative ersetzt wurde. Die Arbeit beschreibt die Vorgehensweise beim Flashen der GerĂ€te, Sicherheitsanalysen mittels STRIDE/DREAD-Modell sowie eine Performancemessung unter realistischen Bedingungen.
Ein zentrales Ergebnis: Viele der hĂ€ufigsten Schwachstellen proprietĂ€rer Lösungen â wie statische VerschlĂŒsselungsschlĂŒssel, mangelhafte Updateverfahren oder unverschlĂŒsselte Kommunikation â können durch Open Source Firmware nicht nur vermieden, sondern aktiv verbessert werden. Zudem bietet sich durch die Integration moderner Protokolle wie MQTT die Möglichkeit, sichere Kommunikationswege aufzubauen â lokal oder ĂŒber eigene Cloud-Dienste.
Auch DevOps-Methoden wie Continuous Integration (CI) und Continuous Deployment (CD) wurden in der Arbeit angewendet, um Firmware-Updates automatisiert auszuliefern. Diese Herangehensweise eignet sich insbesondere fĂŒr Unternehmensumgebungen, in denen mehrere GerĂ€te gleichzeitig betrieben werden und ein manuelles Management nicht praktikabel ist.
Die Performancemessungen zeigten dabei, dass ein Firmwarewechsel je nach Hardware sowohl zu Verbesserungen als auch zu minimalen Verzögerungen fĂŒhren kann. Entscheidend ist die Optimierung der Konfiguration an das jeweilige GerĂ€t und Einsatzszenario.
Ein weiterer Aspekt dieser Arbeit ist die Entwicklung eines eigenen Cloud-Prototyps, mit dem Open Source GerĂ€te zentral verwaltet werden können â ohne Daten an Dritte weiterzugeben oder auf fremde Infrastrukturen angewiesen zu sein. Diese Lösung kann innerhalb eines Heim- oder Firmennetzwerks betrieben und durch Portfreigabe optional auch von auĂen erreicht werden.
In Summe stellt die Arbeit einen ganzheitlichen Ansatz vor, wie mit Open Source Firmware sowohl die Sicherheit als auch die Nachhaltigkeit von IoT-Infrastrukturen erhöht werden können. Anstatt defekte oder veraltete GerÀte zu entsorgen, können diese durch neue Software wieder nutzbar gemacht und individuell erweitert werden. Damit entsteht eine flexible, kontrollierbare und zukunftssichere Alternative zu bestehenden, oft intransparenten Systemen.
Das Internet der Dinge (IoT) hĂ€lt zunehmend Einzug in Privathaushalte und Unternehmen. GerĂ€te, die ĂŒber das Internet steuerbar sind, erleichtern den Alltag â von der einfachen Steckdose bis zur komplexen Sensorsteuerung. Doch mit dieser Entwicklung entstehen neue Herausforderungen: Sicherheitsrisiken, Datenschutzprobleme und eine wachsende AbhĂ€ngigkeit von Herstellern. Gerade bei gĂŒnstigen GerĂ€ten aus dem Massenmarkt zeigt sich oft, dass Firmware und Cloud-Anbindung auf Bequemlichkeit statt auf Kontrolle und Sicherheit ausgelegt sind.
Diese Arbeit untersucht, welche Risiken mit proprietÀren IoT-Firmwarelösungen verbunden sind und inwiefern Open Source Firmware eine sinnvolle Alternative darstellen kann. Dabei liegt der Fokus auf sicherheitstechnischen Aspekten, aber auch auf der Systemperformance und dem Potenzial zur Integration in eigene Infrastrukturen.
Ein wesentliches Problem proprietĂ€rer Firmware besteht in der AbhĂ€ngigkeit vom Hersteller. FĂ€llt der Hersteller-Support weg â etwa durch Serverabschaltung oder GeschĂ€ftsaufgabe â können GerĂ€te unbrauchbar werden. Zudem entzieht eine zentrale Cloud-Lösung den Nutzer:innen jegliche Kontrolle ĂŒber den Datenfluss und die GerĂ€tekonfiguration. Intransparent implementierte Updates, hartcodierte Passwörter oder fehlende TransportverschlĂŒsselung sind keine Seltenheit.
Im Gegensatz dazu ermöglicht Open Source Firmware die volle Kontrolle ĂŒber Funktionsweise, Kommunikation und Sicherheit. In dieser Arbeit wurden konkrete IoT-GerĂ€te analysiert, deren original Firmware durch eine quelloffene Alternative ersetzt wurde. Die Arbeit beschreibt die Vorgehensweise beim Flashen der GerĂ€te, Sicherheitsanalysen mittels STRIDE/DREAD-Modell sowie eine Performancemessung unter realistischen Bedingungen.
Ein zentrales Ergebnis: Viele der hĂ€ufigsten Schwachstellen proprietĂ€rer Lösungen â wie statische VerschlĂŒsselungsschlĂŒssel, mangelhafte Updateverfahren oder unverschlĂŒsselte Kommunikation â können durch Open Source Firmware nicht nur vermieden, sondern aktiv verbessert werden. Zudem bietet sich durch die Integration moderner Protokolle wie MQTT die Möglichkeit, sichere Kommunikationswege aufzubauen â lokal oder ĂŒber eigene Cloud-Dienste.
Auch DevOps-Methoden wie Continuous Integration (CI) und Continuous Deployment (CD) wurden in der Arbeit angewendet, um Firmware-Updates automatisiert auszuliefern. Diese Herangehensweise eignet sich insbesondere fĂŒr Unternehmensumgebungen, in denen mehrere GerĂ€te gleichzeitig betrieben werden und ein manuelles Management nicht praktikabel ist.
Die Performancemessungen zeigten dabei, dass ein Firmwarewechsel je nach Hardware sowohl zu Verbesserungen als auch zu minimalen Verzögerungen fĂŒhren kann. Entscheidend ist die Optimierung der Konfiguration an das jeweilige GerĂ€t und Einsatzszenario.
Ein weiterer Aspekt dieser Arbeit ist die Entwicklung eines eigenen Cloud-Prototyps, mit dem Open Source GerĂ€te zentral verwaltet werden können â ohne Daten an Dritte weiterzugeben oder auf fremde Infrastrukturen angewiesen zu sein. Diese Lösung kann innerhalb eines Heim- oder Firmennetzwerks betrieben und durch Portfreigabe optional auch von auĂen erreicht werden.
In Summe stellt die Arbeit einen ganzheitlichen Ansatz vor, wie mit Open Source Firmware sowohl die Sicherheit als auch die Nachhaltigkeit von IoT-Infrastrukturen erhöht werden können. Anstatt defekte oder veraltete GerÀte zu entsorgen, können diese durch neue Software wieder nutzbar gemacht und individuell erweitert werden. Damit entsteht eine flexible, kontrollierbare und zukunftssichere Alternative zu bestehenden, oft intransparenten Systemen.
2. Bachelorarbeit - Zwischen Sicherheit und Effizienz in der HTTPS-Kommunikation
In einer zunehmend digitalisierten Welt ist der Schutz sensibler Daten beim Zugriff auf Webseiten essenziell. VerschlĂŒsselung ĂŒber HTTPS bildet dabei die Grundlage sicherer Kommunikation. Die zugrundeliegenden kryptografischen Verfahren â sogenannte Cipher-Suites â variieren jedoch stark in ihrer KomplexitĂ€t und damit auch in ihrer Auswirkung auf die Systemperformance.
Diese Arbeit widmet sich den konkreten Auswirkungen gÀngiger Sicherheitsempfehlungen auf die LeistungsfÀhigkeit von Webservern und Clients. Im Zentrum steht die Analyse empfohlener Cipher-Konfigurationen namhafter Quellen wie Mozilla, Cipherli.st und bettercrypto.org. Obwohl diese Empfehlungen aus sicherheitstechnischer Sicht wertvoll sind, wird ihre Performanceauswirkung in der Praxis oft unterschÀtzt.
Untersucht wird, in welchem AusmaĂ die Wahl einer bestimmten Cipher-Suite die benötigte Rechenleistung beeinflusst â sowohl auf Serverseite als auch auf Seiten der EndgerĂ€te. Dabei zeigt sich, dass SicherheitsmaĂnahmen keineswegs neutral in der Systemlast sind. Je nach eingesetzter Hardware â insbesondere bei GerĂ€ten mit und ohne AES-NI-UnterstĂŒtzung â kann die Wahl einer Cipher-Suite die Ăbertragungsgeschwindigkeit und Reaktionszeit erheblich beeinflussen.
Die Arbeit dokumentiert eine systematische Evaluierung von Konfigurationen unter Einsatz aktueller Analyse- und Benchmarking-Werkzeuge. Dabei wurde in kontrollierten Testumgebungen geprĂŒft, wie sich die vorgeschlagenen Cipher auf verschiedene Performanceindikatoren auswirken, etwa in Bezug auf Datendurchsatz, Anzahl durchfĂŒhrbarer Handshakes pro Sekunde oder den Stromverbrauch mobiler EndgerĂ€te.
Neben einem tiefgehenden Ăberblick ĂŒber den Aufbau und die Funktionsweise moderner Cipher-Suites bietet die Arbeit auch eine praxisorientierte Sicht auf die daraus resultierenden Kompromisse: Hohe kryptografische Sicherheit kann â je nach Konfiguration â signifikante Auswirkungen auf die Effizienz haben. Besonders deutlich wird dies beim Vergleich Ă€lterer Konfigurationen, die hohe KompatibilitĂ€t anstreben, mit modernen Varianten, die auf aktuelle Hardware-Features optimiert sind.
Diese Arbeit schafft ein Bewusstsein dafĂŒr, dass die Auswahl einer Cipher-Suite mehr ist als ein Sicherheitsthema â sie ist auch ein relevanter Performance-Faktor. Vor allem fĂŒr Betreiber sicherheitskritischer Webdienste ergibt sich daraus die Notwendigkeit, Sicherheitsempfehlungen nicht blind umzusetzen, sondern in Hinblick auf das eigene Zielsystem zu prĂŒfen.
In einer zunehmend digitalisierten Welt ist der Schutz sensibler Daten beim Zugriff auf Webseiten essenziell. VerschlĂŒsselung ĂŒber HTTPS bildet dabei die Grundlage sicherer Kommunikation. Die zugrundeliegenden kryptografischen Verfahren â sogenannte Cipher-Suites â variieren jedoch stark in ihrer KomplexitĂ€t und damit auch in ihrer Auswirkung auf die Systemperformance.
Diese Arbeit widmet sich den konkreten Auswirkungen gÀngiger Sicherheitsempfehlungen auf die LeistungsfÀhigkeit von Webservern und Clients. Im Zentrum steht die Analyse empfohlener Cipher-Konfigurationen namhafter Quellen wie Mozilla, Cipherli.st und bettercrypto.org. Obwohl diese Empfehlungen aus sicherheitstechnischer Sicht wertvoll sind, wird ihre Performanceauswirkung in der Praxis oft unterschÀtzt.
Untersucht wird, in welchem AusmaĂ die Wahl einer bestimmten Cipher-Suite die benötigte Rechenleistung beeinflusst â sowohl auf Serverseite als auch auf Seiten der EndgerĂ€te. Dabei zeigt sich, dass SicherheitsmaĂnahmen keineswegs neutral in der Systemlast sind. Je nach eingesetzter Hardware â insbesondere bei GerĂ€ten mit und ohne AES-NI-UnterstĂŒtzung â kann die Wahl einer Cipher-Suite die Ăbertragungsgeschwindigkeit und Reaktionszeit erheblich beeinflussen.
Die Arbeit dokumentiert eine systematische Evaluierung von Konfigurationen unter Einsatz aktueller Analyse- und Benchmarking-Werkzeuge. Dabei wurde in kontrollierten Testumgebungen geprĂŒft, wie sich die vorgeschlagenen Cipher auf verschiedene Performanceindikatoren auswirken, etwa in Bezug auf Datendurchsatz, Anzahl durchfĂŒhrbarer Handshakes pro Sekunde oder den Stromverbrauch mobiler EndgerĂ€te.
Neben einem tiefgehenden Ăberblick ĂŒber den Aufbau und die Funktionsweise moderner Cipher-Suites bietet die Arbeit auch eine praxisorientierte Sicht auf die daraus resultierenden Kompromisse: Hohe kryptografische Sicherheit kann â je nach Konfiguration â signifikante Auswirkungen auf die Effizienz haben. Besonders deutlich wird dies beim Vergleich Ă€lterer Konfigurationen, die hohe KompatibilitĂ€t anstreben, mit modernen Varianten, die auf aktuelle Hardware-Features optimiert sind.
Diese Arbeit schafft ein Bewusstsein dafĂŒr, dass die Auswahl einer Cipher-Suite mehr ist als ein Sicherheitsthema â sie ist auch ein relevanter Performance-Faktor. Vor allem fĂŒr Betreiber sicherheitskritischer Webdienste ergibt sich daraus die Notwendigkeit, Sicherheitsempfehlungen nicht blind umzusetzen, sondern in Hinblick auf das eigene Zielsystem zu prĂŒfen.
1. Bachelorarbeit - Ein technischer Blick hinter die Kulissen moderner Webserver
Webseiten sind lĂ€ngst mehr als digitale Visitenkarten â sie sind essenzielle Schnittstellen zwischen Unternehmen und ihren Nutzer:innen. WĂ€hrend Inhalte, Design und Interaktion im Vordergrund stehen, bleibt die zugrunde liegende Technologie oft unbeachtet. Insbesondere die Wahl der Webserver-Software erfolgt hĂ€ufig ohne bewusstes AbwĂ€gen, obwohl sie maĂgeblich zur Performance beitrĂ€gt.
Diese Arbeit widmet sich der grundlegenden Frage, welche Webservertechnologien im Internet am weitesten verbreitet sind und welche Ăberlegungen bei ihrer Auswahl eine Rolle spielen sollten. Unternehmen greifen hĂ€ufig auf vorinstallierte Lösungen zurĂŒck und ĂŒbersehen dabei mögliche Alternativen â sei es aus Gewohnheit, Unwissenheit oder fehlender ZustĂ€ndigkeit.
Gerade bei Performanceproblemen liegt der Fokus meist auf der Applikation oder der Hardware â selten wird der Webserver selbst als Ursache in Betracht gezogen. Doch angesichts von Studien, die belegen, dass bereits hundert Millisekunden Verzögerung spĂŒrbare Auswirkungen auf Nutzerverhalten und Umsatz haben können, lohnt sich ein differenzierter Blick.
Im Rahmen dieser Arbeit wurden anhand unabhÀngiger Marktanalysen (u.a. W3Techs, Netcraft) die am hÀufigsten eingesetzten Webserverlösungen identifiziert. Apache, nginx und Microsoft IIS bilden dabei das Kernfeld der am weitesten verbreiteten Technologien.
In einer eigens aufgebauten Testumgebung wurden diese Systeme installiert, konfiguriert und mit einem standardisierten Lasttestverfahren auf ihre LeistungsfÀhigkeit hin untersucht. Sowohl statische als auch dynamische Inhalte wurden unter Volllast abgerufen, um reale Anwendungsszenarien möglichst prÀzise zu simulieren.
Neben Reaktionszeit und FehleranfĂ€lligkeit wurden auch CPU- und RAM-Verbrauch unter Last analysiert. Besonderes Augenmerk lag auf der Konfigurierbarkeit der Systeme sowie auf ihrer Architektur â etwa dem asynchronen, eventbasierten Ansatz von nginx im Vergleich zum prozessbasierten Verhalten klassischer Serverlösungen.
Die Arbeit zeigt auf, wie sich technische Grundlagen auf Skalierbarkeit, Ressourcenverbrauch und StabilitĂ€t auswirken können. In einer Zeit, in der Ladezeiten ein zunehmend kritischer Faktor fĂŒr Erfolg im Netz werden, bietet diese Analyse wertvolle Einblicke fĂŒr alle, die sich mit Webinfrastruktur beschĂ€ftigen â sei es im Enterprise-Umfeld, in der Entwicklung oder in der Systemadministration.
Webseiten sind lĂ€ngst mehr als digitale Visitenkarten â sie sind essenzielle Schnittstellen zwischen Unternehmen und ihren Nutzer:innen. WĂ€hrend Inhalte, Design und Interaktion im Vordergrund stehen, bleibt die zugrunde liegende Technologie oft unbeachtet. Insbesondere die Wahl der Webserver-Software erfolgt hĂ€ufig ohne bewusstes AbwĂ€gen, obwohl sie maĂgeblich zur Performance beitrĂ€gt.
Diese Arbeit widmet sich der grundlegenden Frage, welche Webservertechnologien im Internet am weitesten verbreitet sind und welche Ăberlegungen bei ihrer Auswahl eine Rolle spielen sollten. Unternehmen greifen hĂ€ufig auf vorinstallierte Lösungen zurĂŒck und ĂŒbersehen dabei mögliche Alternativen â sei es aus Gewohnheit, Unwissenheit oder fehlender ZustĂ€ndigkeit.
Gerade bei Performanceproblemen liegt der Fokus meist auf der Applikation oder der Hardware â selten wird der Webserver selbst als Ursache in Betracht gezogen. Doch angesichts von Studien, die belegen, dass bereits hundert Millisekunden Verzögerung spĂŒrbare Auswirkungen auf Nutzerverhalten und Umsatz haben können, lohnt sich ein differenzierter Blick.
Im Rahmen dieser Arbeit wurden anhand unabhÀngiger Marktanalysen (u.a. W3Techs, Netcraft) die am hÀufigsten eingesetzten Webserverlösungen identifiziert. Apache, nginx und Microsoft IIS bilden dabei das Kernfeld der am weitesten verbreiteten Technologien.
In einer eigens aufgebauten Testumgebung wurden diese Systeme installiert, konfiguriert und mit einem standardisierten Lasttestverfahren auf ihre LeistungsfÀhigkeit hin untersucht. Sowohl statische als auch dynamische Inhalte wurden unter Volllast abgerufen, um reale Anwendungsszenarien möglichst prÀzise zu simulieren.
Neben Reaktionszeit und FehleranfĂ€lligkeit wurden auch CPU- und RAM-Verbrauch unter Last analysiert. Besonderes Augenmerk lag auf der Konfigurierbarkeit der Systeme sowie auf ihrer Architektur â etwa dem asynchronen, eventbasierten Ansatz von nginx im Vergleich zum prozessbasierten Verhalten klassischer Serverlösungen.
Die Arbeit zeigt auf, wie sich technische Grundlagen auf Skalierbarkeit, Ressourcenverbrauch und StabilitĂ€t auswirken können. In einer Zeit, in der Ladezeiten ein zunehmend kritischer Faktor fĂŒr Erfolg im Netz werden, bietet diese Analyse wertvolle Einblicke fĂŒr alle, die sich mit Webinfrastruktur beschĂ€ftigen â sei es im Enterprise-Umfeld, in der Entwicklung oder in der Systemadministration.