Projekte für Bachelorstudierende im 4. Semester, die Zuteilung erfolgt über RWTHonline.
Im Bereich der Videotechnik werden sogenannte Video-Komplexitätsmetriken wie Spatial Information (SI) und Temporal Information (TI) eingesetzt, um die räumliche Detailfülle und die zeitliche Bewegung in Videosequenzen zu quantifizieren. Diese Metriken sind wichtig für Qualitätsbewertung, Encoding-Optimierung und Testplanung, benötigen jedoch eine vollständige Dekodierung des Videos und sind daher rechenintensiv. Ein Bitstream-Parser hingegen analysiert direkt den komprimierten Videodatenstrom und extrahiert codecinterne Merkmale wie Bewegungsvektoren, Transformationskoeffizienten oder Makroblock-Statistiken – ohne das Video vollständig zu dekodieren.
Ziel dieses Bachelorprojekts ist es, mithilfe von Machine Learning ein Modell zu entwickeln, das SI- und TI-ähnliche Komplexitätsmetriken ausschließlich auf Basis von Bitstream-Features vorhersagt. Dadurch ließen sich aufwändige Berechnungen vermeiden und gleichzeitig bereits im Codec vorhandene Komplexitätsinformationen nutzen. Als Kernmethode soll mindestens ein Random-Forest-Modell implementiert und evaluiert werden, um die Beziehung zwischen Bitstream-Merkmalen und klassischen Videokomplexitätsmetriken zu modellieren. Das Projekt verbindet somit Videoprocessing, Datenanalyse und maschinelles Lernen zu einer praxisnahen und technisch anspruchsvollen Aufgabenstellung.
Ansprechpartner: Julius Prenzel M.Sc.
In diesem Projekt soll eine eigene interaktive Augmented Reality (AR) oder Virtual Reality (VR) Szene in Unity mit C# für das Meta Quest 3 Head‑Mounted Display entwickelt werden. Während der gesamten Entwicklungsphase wird Git als Versionskontrollsystem genutzt, um kollaboratives Arbeiten, saubere Projektstände und nachvollziehbare Änderungen sicherzustellen.
Inhaltlich soll die Gruppe eine klar umrissene Interaktionsidee umsetzen, zum Beispiel eine Reaktionszeit‑Aufgabe oder einen kleinen Escape‑Room mit räumlich verankerten virtuellen Elementen. Die Anwendung muss grundlegende Interaktionen unterstützen, etwa Greifen, Ausweichen, Aktivieren oder Navigieren im realen oder virtuellen Raum. Zusätzlich wird ein Logging‑System implementiert, das relevante Task‑Performance‑Parameter wie Reaktionszeiten, Fehler, Bewegungsdaten oder Fortschritt erfasst und für spätere Auswertungen bereitstellt. Ziel ist ein funktionsfähiger, experimentell nutzbarer Prototyp, der sowohl spielerische Elemente als auch wahrnehmungsbezogene Aspekte integriert.
Ansprechpartner: Jakob Hartbrich M.Sc.
In diesem Projekt soll ein einfacher Videocodec in MATLAB entwickelt werden, der auf den grundlegenden Methoden moderner Codecs aufbaut: Bewegungskompensation, Intra-/ Inter-Prädiktion, Transformationscodierung und einfache Entropiekodierung. Diese verschiedenen Verfahren können zunächst relativ unabhängig voneinander implementiert und getestet werden. Da verschiedene Codierungsmethoden in einem Encoder typischerweise miteinander konkurrieren, müssen die Grundelemente jedoch letztendlich mit Hilfe eines Rate-Distortion Kriteriums miteinander verknüpft werden. Ziel am Ende des Projektes ist es, ein Video mit Hilfe der entwickelten Software bei verschiedenen Kompressionsstufen (Rate-Points) codieren zu können. Um eine qualitative Aussage über die Performance des Codecs treffen zu können, soll die erzielbare Qualität bei der notwendigen Bitrate gemessen werden. Das Projekt eignet sich für 3 Studierende.
Neben einer Dokumentation der Arbeit sollen die Projekt-Teilnehmenden zum Abschluss eine Präsentation mit Demonstration erstellen.
Ansprechpartner: Dominik Mehlem M.Sc.