Collage Medientechnologie Master (Bild: N. Russi / TH Köln)

Master Medientechnologie Dozenten

Dr. Turhan Civelek

Prof. Dr. Gregor Fischer

Prof. Dr. Gregor Fischer

Prof. Dr. Arnulph Fuhrmann

Prof. Dr. Arnulph Fuhrmann

Prof. Dr. Stefan Michael Grünvogel

Prof. Dr. Stefan Michael Grünvogel

Prof. Dr. Christoph Pörschmann

Prof. Dr. Christoph Pörschmann

Prof. Dr. Dirk Poggemann

Prof. Dr. Dirk Poggemann

Prof. Dr. Ulrich Reiter

Prof. Dr. Ulrich Reiter

Prof. Dr. Klaus-Dieter Ruelberg

Prof. Dr. Klaus-Dieter Ruelberg

Wahlmodule und Schwerpunkte

Es können folgende Wahlmodule sowie, nach vorheriger Genehmigung, sonstige Module aus dem Angebot der Fakultät gewählt werden.

Die Studierenden können sich spezialisieren und dazu bis zu zwei Studienschwerpunkte belegen. Um einen Schwerpunkt zu erfüllen, sind mindesten 3 der Fächer in der untenstehenden Fächerliste erfolgreich zu absolvieren.

Schwerpunkt Interaktive Medienanwendungen

Hier steht die Entwicklung von Algorithmen und Datenstrukturen zur Erzeugung von interaktiven Medienanwendungen im Vordergrund, insbesondere im Bereich Virtual und Augmented Reality. Wir untersuchen aktuelle Themen zum Thema Mensch-Computer-Interaktion und führen eigenständige Forschungsprojekte durch.

Zugehörige Wahlmodule:

Mensch-Computer Interaktion
Virtuelle und erweiterte Realität
Forschungsprojekt virtuelle Realität
Parallele Programmierung
Virtuelle Akustische Umgebungen
Haptic Interfaces

Schwerpunkt Technologien und Systeme audiovisueller Medien

Hier werden aktuelle Technologien und Systeme audiovisueller Medien im Rahmen eines projektbezogenen Lehrkonzeptes exemplarisch untersucht, angewandt und weiterentwickelt. Im Fokus stehen dabei insbesondere

  • Verfahren der Virtuellen Akustik, die interaktiv einen realitätsgetreuen räumlichen Klangeindruck vermitteln können, sowie zugehörige objektbasierte Audiokonzepte und Simulationsmethoden. 
  • komplexe Technologien und Systeme der Video-/Medien-Produktion, ihr Zusammenspiel sowie die daraus resultierenden Anforderungen und Workflows
  • Verfahren und Technologien zur Distribution von Mediendaten (Video- und Audiokompression, Übertragung, Multiplexing ...)

Zugehörige Wahlmodule:

Audio- und Videotechnologien
Technologien und Systeme der Videoproduktion
Forschungsprojekt virtuelle Akustik und objektbasiertes Audio

Schwerpunkt Bildtechnologie

Anhand industrienaher Fallbeispiele werden in einem projektbezogenen Lehrkonzept Methoden und Techniken entwickelt, die intelligente Bild- und Videoanwendungen inkl. Hard- und Software von der Bildsensorik bis hin zu Objekterkennung und -verfolgung umsetzen. Insbesondere werden optische und elektronische Kameraeigenschaften modelliert, und diese Modelle zur Erzeugung von Trainingsdaten zu Deep Learning von neuronalen Faltungsnetzen genutzt. Zu den Highlights des Schwerpunkts Bildtechnik gehören:

  • Systemdesign kameratechnischer Systeme mit Controller- oder FPGA-basierter Steuerung der Bildsensorik und schneller Verarbeitung der Bildsignale
  • Verfahren zur Bildverbesserung (Farboptimierung, Image Enhancement) und Computational Photography (Mehrfachbildaufnahmetechniken wie HDR-Imaging oder Image Stacking)
  • Verfahren zur Bild- und Videokompression inkl. Bewegungsprediktion
  • Lokal adaptive Filterfunktionen (Rauschunterdrückung, Verschärfung) und Objekterkennung (Gesichter, Himmel, Vegetation …) mit neuronalen Faltungsnetzen

Zugehörige Wahlmodule:

Deep Learning und Objekterkennung
Digitale Bildtechnik
Eingebettete Systeme in der Medientechnologie
Algorithmen der Videosignalverarbeitung

Mensch-Computer-Interaktion (Sommersemester)

Die Studierenden erlernen das eigenständige Durchführen von Forschungsprozessen auf dem Gebiet der Mensch-Computer-Interaktion, um im interdisziplinären Team aktuelle wissenschaftliche Fragestellungen aus dem Bereich der Mensch-Computer-Interaktion untersuchen zu können. Hierzu erlernen die Studierenden die Grundlagen der empirischen Forschung, des Designs von Experimenten, der statistischen Auswertung und der Erstellung von Umfragen. Die Lehrveranstaltung vermittelt folgende Kompetenzen im Detail:

  • Grundlegende Modelle und Gestaltungsprinzipien interaktiver Systeme benennen
  • Prinzipien der kontext-, aufgaben- und benutzergerechten Entwicklung interaktiver Systeme charakterisieren
  • Relevante Normen und Richtlinien benennen
  • Interaktive Systeme unter Berücksichtigung der Benutzer- und Aufgabenerfordernisse analysieren, bewerten und entwickeln
  • Usability Engineering anwenden
  • User Experience Engineering anwenden
  • User Centered und Participatory Design anwenden
  • Evaluationsverfahren interaktiver Systeme anwenden
  • Umfangreiche Aufgabenstellung erfassen
  • HCI-spezifische Anforderungen ableiten und verwalten
  • Umsetzung der Aufgabenstellung in einer konkreten technischen Umgebung und im Team
  • Evaluierung der entwickelten Ergebnisse anhand einer geeigneten Methode

Die in der Vorlesung dargestellten Kenntnisse, Prozesse, Methoden und Werkzeuge werden im Praktikum an Hand aktueller Aufgabenstellungen vertieft und geübt. Die sichere Anwendung der Grundlagen der Mensch-Computer-Interaktion ist Voraussetzung für die Entwicklug komplexer interaktiver medientechnischer Systeme.

Weiterhin erlaubt das Grundlagenwissen die Bewertung bestehender Systeme und das wissenschaftliche Arbeiten in diesem Gebiet. Im Praktikum arbeiten die Studierenden im Team und einer von ihnen übernimmt darin die Teamleitung.

Dozenten: Prof. Dr. Arnulph Fuhrmann, Prof. Dr. Stefan Michael Grünvogel

Virtuelle und erweiterte Realität (Wintersemester)

Das Modul vermittelt folgende Kenntnisse und Fertigkeiten:

  • Virtual- und Augmented-Reality-Anwendungen konzipieren, aufbauen und bewerten
  • Interaktions und Navigationsverfahren erstellen
  • Basistechnologien der virtuellen und erweiterten Reality weiterentwickeln
  • Werkzeuge und Methoden zur Entwirklickung von VR/AR-Anwendungen verwenden
  • Algorithmische und mathematische Grundlagen von VR/AR anwenden

Die Kompetenzen werden zunächst über eine Vorlesung durch die Dozenten vermittelt und danach im Praktikum anhand konkreter Aufgabenstellung von den Studierenden vertieft. Im seminaristischen Teil der Lehrveranstaltung recherieren die Studierenden zu vorgegebenen Themen anhand von Fachartikeln und weiteren Informationsquellen über neue Konzepte der virtuellen und erweiterten Realität und stelle diese dar in einer Präsentation dar.

Die sichere Anwendung der Grundlagen der virtuellen und erweiterten Realität ist Voraussetzung für die Entwicklug komplexer interaktiver medientechnischer Systeme. Weiterhin erlaubt das Grundlagenwissen die Bewertung bestehender Systeme und das wissenschaftliche Arbeiten in diesem Gebiet.

Dozenten: Prof. Dr. Arnulph Fuhrmann, Prof. Dr. Stefan Michael Grünvogel

Forschungsprojekt virtuelle und erweiterte Realität (Sommer- und Wintersemester)

Das Modul folgt dem Prinzip des forschenden Lernens. Die erste Phase dient der Entwicklung einer relevanten wissenschaftlichen Fragestellung oder Hypothese im Bereich VR /AR. Dazu wird zunächst der Stand der Forschung auf dem entsprechenden Gebiet dargestellt (Präsentation) um eine neue Fragestellung zu entwickeln. Ausgehend von der entwickelten Forschungsfrage wird ein eigener Forschungsprozess gestaltet, durchgeführt und die Ergebnisse präsentiert. Die einzelnen Phasen und Zwischenschritte werden in Form eines Coaching durch die betreuenden Dozenten mitbegleitet.

Dozenten: Prof. Dr. Stefan Michael Grünvogel, Prof. Dr. Arnulph Fuhrmann

Parallele Programmierung (Sommersemester)

Medientechnische und interaktive Systeme beinhalten rechenintensive Berechnungen. Um Anforderungen an die Verarbeitung in Echtzeit erfüllen zu können, sind daher Kompetenzen und Wissen über die Grundlagen für die Analyse, den Entwurf, die Implementierung und die Bewertung paralleler Computerprogramme erforderlich. Folgende Kenntnisse und Kompetenzen werden im Detail vermittelt:

  • Grundlegende Konzepte, Modelle und Technologien der Parallelverarbeitung benennen, strukturieren, einordnen und abgrenzen
  • Aufgabenstellungen in Bezug auf die Programmierung paralleler Programme analysieren und strukturieren, einschlägige parallele Hardwarearchitektur zuordnen und auf Algorithmen auf Paralleldesign übertragen
  • Parallele Programme unter Einsatz geeigneter Tools analysieren und Ergebnisse nachvollziehbar darstellen
  • Leistungsfähigkeit paralleler Programme abschätzen und analysieren
  • Information aus englischen Originalquellen und Standards ableiten

Die Lehrveranstaltung fokussiert auf parallele Algorithmen für Mehrkernprozessoren und für Grafikprozessoren (GPUs). Kenntnisse und Basisfertigkeiten werden in der Vorlesung vermittelt. Begleitend dazu werden in den Praktika Kompetenzen und Fertigkeiten ausgebaut und inhaltliche Themen vertieft.

Dozent: Prof. Dr. Arnulph Fuhrmann

Virtuelle Akustische Umgebungen (Sommersemester)

Die grundlegenden Konzepte zur Erzeugung kopfhörerbasierter oder lautsprecherbasierter VR-Systeme werden vorgestellt.

In einem Projekt soll vertieftes Wissen in einem der Bereiche / Aspekte von virtuellen akustischen Umgebungen erarbeitet, angewendet und präsentiert werden.

Dozent: Prof. Dr.-Ing. Christoph Pörschmann

Haptic Interfaces (Wintersemester)

Einführung in das Gebiet der Haptik und Durchführung eines Forschungsprojektes im Bereich der Haptic Interfaces. Die Interaktion von Menschen mit realen, entfernten und virtuellen Objekten über den Tast- und Haptiksinn wird thematisiert. Haptische Schnittstellen ermöglichen es Nutzern, simulierte und entfernte Umgebungen mithilfe spezieller haptischer Hardware und Computeralgorithmen zu erkunden und zu steuern.

Die behandelten Themen umfassen das Verständnis der haptischen Wahrnehmung, die Identifizierung von Entwicklungsplattformen für haptische Anwendungen, die Erkennung und Lokalisierung haptischer Schnittstellen sowie die Entwicklung von VR-Anwendungen mit haptischem Feedback. Darüber hinaus werden die Implementierung von Controllern für haptische Systeme, die Steuerung von Teleoperationen sowie die Analyse und Lösung von Instabilitäten in VR- und Teleoperationssystemen behandelt.

Die Lehrveranstaltung bietet zudem eine umfassende Einführung in weitere Aspekte wie haptische 3D-Datenformate, die Manipulation von 3D-Objekten mittels Haptik, die Navigation in haptischen Szenarien, haptische Kleidung, haptische Displays, Force-Feedback-Geräte sowie ethische und soziale Implikationen haptischer Anwendungen. Die Bewertung und Kritik von Forschungsarbeiten sowie die Gestaltung und Präsentation von Forschungsprojekten sind ebenfalls Teil des Lehrplans.

Praktikumsaufgaben und ein Forschungsprojekt ergänzen die theoretischen Inhalte. Ziel des Projekts ist es, VR-Anwendungen zu entwickeln, die von haptischen Geräten unterstützt werden und Berührungs-, Greif-, Kraftrückkopplungs- sowie Manipulationsprozesse in Echtzeit ermöglichen.

Dozent: Dr. Turhan Civelek

Audio- und Videotechnologien (Wintersemester)

Audio- und Videotechnologien kommen in vielfältiger Weise in der Medienindustrie zum Einsatz. Die Mediendistributionskette, die im Rahmen der Lehrveranstaltung als exemplarische Anwendung herangezogen und analysiert wird, umfasst verschiedene Technologien wie Datenkompression, Audio- und Videosignalverarbeitung, Fehlerschutzmechanismen und digitale Modaluationsverfahren.

Dozent: Prof. Dr.-Ing. Klaus Ruelberg

Technologien und Systeme der Videoproduktion (Sommersemester)

Studierende analysieren aktuelle und zukünftige Produktionstechnologien und Systeme audiovisueller Medien hinsichtlich unterschiedlicher Faktoren wie Anwendbarkeit, Potential, Kosten/Nutzen, etc. in verschiedenen exemplarischen Anwendungsszenarien.

Sie lernen, Technologien aus teilweise anderen Anwendungsgebieten mit Hilfe wissenschaftlicher Methoden auf ihre Einsatzmöglichkeit in der Medienproduktion hin zu untersuchen. Die kritische Auseinandersetzung mit der technischen Literatur und die Anwendung der Regeln guten wissenschaftlichen Arbeitens befähigt sie, wissenschaftliche begründete Aussagen zu treffen.

Dazu führen sie in kleinen Teams eine Literaturrecherche sowie evtl. Befragungen und Interviews mit Experten durch, mit Hilfe derer sie die betreffenden Technologien verstehen und eine Einordnung vornehmen können. Zum Abschluss des Projektes fertigen sie einen Bericht an und halten einen Fachvortrag.

Dozent: Prof. Dr.-Ing. Ulrich Reiter

Forschungsprojekt virtuelle Akustik und objektbasiertes Audio (Sommer- und Wintersemester)

Studierende lernen Technologien aus den Themengebieten Virtuelle Akustik und Objektbasierte Audioproduktion zu analysieren, zu implementieren und anzuwenden.

Dazu wird in einem kleinen Team ein Projekt zu aktuellen Fragestellungen aus den oben genannten Themengebieten durchgeführt, in denen die kennengelernten Technologien exemplarisch implementiert und/oder angewendet werden. Fachspezifische Aufgabenstellungen sind mit Hilfe wissenschaftlicher Methoden und in einem begrenzten Zeitraum zu lösen.

Dozent: Prof. Dr.-Ing. Ulrich Reiter

Deep Learning und Objekterkennung (Sommersemester)

Die Studierenden lernen, wie Neuronale Netze eingesetzt werden können um vielfältige Aufgaben der Objekterkennung in Bildern zu lösen. Zu diesem Zweck wird an Hand ausgewählter Beispiele ein neuronalen Netz trainiert und dessen Leistungsfähigkeit evaluiert. Damit werden die Studierenden in die Lage versetzt, Deep-Learning-Algorithmen in der beruflichen Praxis zu entwickeln und deren Leistungsfähigkeit zu beurteilen.

Im Vorlesungsteil werden die grundlegenden Schritte bei der Implementierung von Deep-Learning-Verfahren, sowie die dabei zu Grund liegende Theorie erläutert.

Im Praktikum werden die jeweiligen Schritte bei der Implementierung und Evaluation eines Neuronalen Netzes in einfachen Beispielen umgesetzt.

Digitale Bildtechnik (Wintersemester)

Digitale Bildtechniken kommen in vielfältiger Weise in der Medienindustrie zum Einsatz. Die Bildkette digitaler Kameras, die im Rahmen der Lehrveranstaltung als exemplarische Anwendung herangezogen und analysiert wird, umfasst verschiedene Technologien wie Farbbildtechnik, HDR-Bildtechnik oder bildtechnische Verfahren.

Durch die Vorlesung werden theoretische Kenntnisse der Bildtechnik exemplarisch vermittelt und in Zusammenhang mit den aktuellen Entwicklungen gebracht. In einem begleitenden Praktikum entwickeln die Studierenden eigenständig algorithmische Lösungskonzepte und setzen diese in Matlab-Programme um.

Dozent: Prof. Dr. Gregor Fischer

Eingebettete Systeme in der Medientechnologie (Wintersemester)

Studierende lernen aktuell verwendete Eingebettete Systeme in Kamerasystemen kennen, am Beispiel von FPGAs implementieren die Studierenden die Ansteuerung von Bildsensoren und Bilderarbeitungsalgorithmen für Kamerasysteme. Sie analysieren die Vor- und Nachteile unterschiedlicher Eingebetteter Systeme und aktuelle Trends in der Verwendung Eingebetteter Systeme in Kamerasystemen.

Nach Vermittlung der Grundlagen zu Eingebetteten Systemen und verwendeten Hardwarebeschreibungssprachen werden im Praktikum in praktischen Versuchen Ansteuerung und Verarbeitung in FPGAs implementiert. In der Vorlesung werden aktuelle wissenschaftliche Veröffentlichungen zur Verwendung Eingebetteter Systeme in der Medientechnologie, z.B. für die Bildverarbeitung, besprochen.

Dozent: Prof. Dr.-Ing. Dirk Poggemann

Algorithmen der Videosignalverarbeitung (Wintersemester)

Studierende formulieren gemeinsam mit dem Dozenten eine Aufgabenstellung/Forschungsfrage im Bereich der Videosignalverarbeitung. Unter Anwendung wissenschaftlicher Methoden analysieren sie die Aufgaben- bzw. Fragestellung eigenständig und entwickeln algorithmische Lösungsansätze.

Eine Recherche der wissenschaftlichen Literatur bildet die Basis für die Studierenden, um die Aufgabenstellung inhaltlich zu durchdringen und einordnen zu können. Verschiedene, als geignet erscheinende Lösungsansätze werden entwickelt und gegenübergestellt. Mithilfe geeigneter Entwicklungstools (z.B. Matlab) werden die entwickleten Algorithmen umgesetzt und bzgl. der Aufgabenstellung beurteilt. Die erzielten Ergebnisse des Projektes werden in einem Bericht zusammengefasst und im Rahmen eines Vortrages präsentiert. 

Die Studierenden erhalten darüber die Möglichkeit, sich tiefergehend mit einer wissenschaftlich/entwicklerischen Aufgabenstellung zu befassen.

Dozent: Prof. Dr.-Ing. Klaus Ruelberg

Master Medientechnologie Dozenten

Dr. Turhan Civelek

Prof. Dr. Gregor Fischer

Prof. Dr. Gregor Fischer

Prof. Dr. Arnulph Fuhrmann

Prof. Dr. Arnulph Fuhrmann

Prof. Dr. Stefan Michael Grünvogel

Prof. Dr. Stefan Michael Grünvogel

Prof. Dr. Christoph Pörschmann

Prof. Dr. Christoph Pörschmann

Prof. Dr. Dirk Poggemann

Prof. Dr. Dirk Poggemann

Prof. Dr. Ulrich Reiter

Prof. Dr. Ulrich Reiter

Prof. Dr. Klaus-Dieter Ruelberg

Prof. Dr. Klaus-Dieter Ruelberg


M
M