Navigation und Service

Robuste 3D Stereo-Kamera auf Basis von Time-of-Flight Sensoren zur Verbesserung der Umfeld- und Objekterkennung bei autonomen mobilen Robotern (3DROBUST)

Im Projekt 3DROBUST (Robuste 3D-Stereo-Kamera auf Basis von Time-of-Flight-Sensoren zur Verbesserung der Umfeld- und Objekterkennung bei autonomen mobilen Robotern) soll das Sehvermögen autonom agierender Roboter durch die Optimierung einer bestehenden Technologie verbessert werden. Dazu arbeitet die Hochschule Ravensburg-Weingarten mit dem führenden Hersteller von PMD-Kameratechnik (Photonic Mixing Device), ifm syntron, zusammen. Die Projektleitung übernimmt Prof. Dr. Jörg Eberhardt.

Herausforderung

Mit Smartphones wird heute nahezu alles fotografiert. Einige Hersteller haben sogar den Sprung in die 3D-Technologie geschafft. Arbeiten Kameras dann auch noch nach dem sogenannten „Time of Flight“-Prinzip (ToF), können sie viel mehr als nur Alltags- oder Urlaubsfotos zu machen. Mit PMD-Bildsensoren (Photonic Mixing Device) lässt sich der störende, aber konstante Fremdlichtanteil in diesen Geräten effektiv unterdrücken. Dies ist eine relativ neue und kostengünstige Technologie zur Entfernungsmessung, die vor allem für Assistenzsysteme in der mobilen Robotik interessant ist. Noch stößt die Technologie jedoch an ihre Grenzen, denn die Anforderungen sind enorm. Die Kameras müssen Objekte in einem Bereich von mehreren Metern bei starkem Fremdlicht erkennen. Eine unzureichende Genauigkeit bei der Entfernungsmessung ist daher noch eines der größten Probleme dieser Technologie. Da sich mit ihr jedoch völlig neue Anwendungen eröffnen, ist der Innovationsdruck extrem hoch.

Ziele und Vorgehen

Im Projekt 3DROBUST soll ein völlig neuartiges Kamerasystem entstehen, das sich auch in einer Welt zurechtfindet, die sich permanent ändert. Dieses System soll sowohl in autonomen Arbeitsmaschinen als auch in der Logistik eingesetzt werden können. Dafür wird eine 3-D-Kamera entwickelt, die zwei PMD-Sensoren integriert und die Entfernungsdaten redundant und nach unterschiedlichen physikalischen Prinzipien berechnet. Die Zuverlässigkeit der Entfernungsmessung soll über die Fusion von zwei unterschiedlich generierten Tiefenbildern gesteigert werden. Um eine möglichst hohe Störfestigkeit gegen konstante Fremdlichtquellen zu erreichen, wird ein amplitudenmoduliertes Lichtsignal verwendet. Eingesetzt und getestet wird diese Kamera in einem autonom fahrenden Roboter, um vor allem die Fehlalarme bei der Hindernis- und der Objekterkennung zu reduzieren.

Innovationen und Perspektiven

In dem Projekt werden völlig neue Verfahren eingesetzt, um eine hocheffektive 3D-Kamera zu entwickeln. Dazu gehören unter anderem die Amplitudenmodulation der Beleuchtung und die Fremdlichtunterdrückung, die den Einsatz im Außenbereich ermöglichen. Ein neuer Ansatz ist auch die KI-basierte Datenfusion, über die in kurzer Zeit Informationen aus einer großen Menge an Daten gefiltert und erkannt werden können. Damit wird die Leistungsfähigkeit der klassischen Datenfusion maßgeblich verbessert. Innovativ ist auch der Einsatz einer Netzwerkarchitektur, die zu einer besseren Tiefeninformation führt. Aufgrund der Zusammenarbeit mit dem Industriepartner ifm syntron, die eine gezielte Kombination der jeweiligen Kernkompetenzen beider Partner ermöglicht, sind sowohl die Erfolgsaussichten als auch die wirtschaftlichen Perspektiven ausgesprochen positiv.