Kameras sind ein wesentlicher Bestandteil von fast jedem unbemannten Raumschiff, welches für die Weltraumforschung verwendet wird. Da ein Bild mehr als tausend Worte sagen kann, sind wir überwältigt von Bildern, die uns Weltraum-Teleskope, Planeten-Orbiter, oder Roboter zur Erforschung von unbekannten Himmelskörpern senden. Bilder und Videos bieten eine so reiche Quelle an Informationen, dass sie mit Unterstützung von Bildverarbeitungsmethoden für verschiedene Missionen in der Vergangenheit erfolgreich genutzt wurden. Während Bilddaten von Orbiter verwendet werden, um ganze Planeten abzubilden und zukünftige Oberflächen-Missionen zu planen, haben Planeten-Landefahrzeuge Bilddaten für die Evaluierung einer sicherer Landezone verwendet. Autonome Fahrzeuge wie der Mars Rover verwendeten Bildverarbeitungsmethoden für die autonome Navigation. In diesem Vortrag werden wir erforschen, wie Bildverarbeitung von verschiedenen Weltraummissionen eingesetzt wurden und einen Blick darauf werfen, wie der Bedarf an Autonomie bei künftigen Missionen die Anwendung von Bildverarbeitung die Weltraumforschung erweitern wird.
In den letzten 40 Jahren sind einige Dutzend Roboter auf anderen Himmelskörpern erfolgreich gelandet. Alle verwendeten Kameras zur Erkundung der Umgebung, zur wissenschaftlichen Analyse und für die Navigation. Der Vortrag gibt einen Überblick über die verwendeten Sensoren und Techniken zur Auswertung, Nutzung und Präsentation der Bilddaten. Anhand beeindruckender Bilder von der Marsoberfläche wird demonstriert wie maschinelles Sehen unser Wissen über das Sonnensystem verändert hat.
Roland Brockers ist ein Mitglied der Mobility and Robotic Systems Section am Jet Propulsion Laboratory in Pasadena, Kalifornien. Er erwarb seinen Doktortitel in Elektrotechnik an der Universität Paderborn in Deutschland im Jahr 2005. Mit mehr als 16 Jahren Erfahrung in Forschung und Entwicklung in der visuellen, autonomen Navigation von unbemannten Systemen konzentriert sich seine Arbeit derzeit auf unbemannte Luftfahrzeuge. Roland Brockers war in den letzten 6 Jahren als Projektleiter bei mehreren Projekten mit Mikroluftfahrzeugen am JPL beteiligt, einschließlich an autonomen Landungen, visuelle Lagebestimmung, autonome Hindernisvermeidung und der Einsatz von UAVs in verschiedenen Forschungsanwendungen, wie z. B. Ökosystem Monitoring in Precision Farming-Szenarien.
Gerhard Paar ist Leiter der Forschungsgruppe „Machine Vision Applications“ am Joanneum Research Institut für Informations- und Kommunikationstechnologien in Graz, mit 30 Jahren Erfahrung in den Bereichen Maschinelles Sehen und Digitale Photogrammetrie für industrielle Anwendungen und Weltraum-Robotik. Er ist Co-Investigator für PanCam und CLUPI (Instrumente der ExoMars 2018 Rover Mission), sowie für das Mastcam-Z Instrument vorgesehen für die NASA Mars Rover Mission Mars 2020. Gerhard Paar koordiniert das ExoMars PanCam 3D Vision Team, ist key researcher im KProjekt „Vision+“, koordinierte die EU Projekte PRoVisG, PRoViScout, PRoViDE und De-Montes, und ist Mitglied des „European Space Science Committee“.