Wissenschaftlicher Mitarbeiter


Foto von Martin Oelsch

Martin Oelsch, M.Sc.

Lehrstuhl für Medientechnik (Prof. Steinbach)

Postadresse

Postal:
Arcisstr. 21
80333 München

  • Tel.: +49 (89) 289 - 23509
  • Raum: 0509.02.916
  • martin.oelsch(at)tum.de

Biographie

Martin Oelsch studierte Informatik an der Technischen Hochschule in Ingolstadt mit Schwerpunkt Safety & Security. Er schloss sein Bachelorstudium (B.Sc.) im Jahre 2014 und sein Masterstudium (M.Sc.) im Jahre 2016 ab. Seit August 2016 ist er wissenschaftlicher Mitarbeiter am Lehrstuhl für Medientechnik.

Forschung

Seine Forschungsinteressen liegen in den Bereichen digitale Bildverarbeitung, invariante Merkmalsextraktion, Machine Learning und Keypoint-Ranking.

Invariante Merkmale werden in vielen Bereichen eingesetzt: inhaltsbasierte Bildersuche, Simultaneous Localization and Mapping (SLAM), Objektdetection, Homographieschätzung, usw.

Sogenannte Feature-Extraktion besteht aus zwei Schritten: der Detektion und Deskription. Feature-Detektoren versuchen markante Regionen in einem Bild zu finden, die mit hoher Wahrscheinlichkeit auf folgenden Bildern wiedererkannt werden können. Aufgabe der Feature-Deskriptoren ist die rotations-, skalierungs- und beleuchtungsinvariante Beschreibung dieser Merkmale durch einen Feature-Vektor. Diese können anschließend verwendet werden, um ähnliche Bilder zu finden bzw. Objekte in Bildern zu detektieren. Martin Oelsch arbeitete mit in dem Projekt VIPE zur Exploration von schwer zugänglichem Terrain anhand visueller und propriozeptiver Daten im Valles Marineris des Planeten Mars.

Seit Januar 2018 arbeitet Martin Oelsch im Projekt "KI-Inspektionsdrohne". Das Ziel des Projektes ist die Entwicklung einer autonomen Flugdrohne zur Inspektion von Flugzeugen in einem Hangar. Eine besondere Herausforderung hierbei ist die Lokalisierung der Drohne ohne GPS. Zur Verfügung stehen ein LiDAR Sensor, mehrere Kameras und IMUs, deren Daten zur Positionsschätzung eingesetzt werden können. Die Inspektionsdaten sollen in Echtzeit an die Bodenstation gesendet und schließlich durch Machine Learning Algorithmen ausgewertet werden. Letztendlich soll ein Inspektionsbericht Aufschluss über den Zustand des Flugzeuges geben und auf eventuelle Beschädigungen hinweisen. Zur Pfadplanung der Drohne wird ein 3D Modell einer Gazebo Simulation eingesetzt, anhand dessen von der Drohne anzufliegende Wegpunkte erstellt werden.

Quellen:

[1] Devon Island Dataset, Autonomous Space Robotics Lab, University of Toronto (http://asrl.utias.utoronto.ca/datasets/devon-island-rover-navigation/rover-traverse.html#Overview)