Drohnenforschung KI hilft Drohnen bei der räumlichen Orientierung

Quelle: Pressemitteilung der TUM 4 min Lesedauer

Anbieter zum Thema

Wir nehmen die Umgebung dreidimensional wahr und können schnell einschätzen, ob Gefahren drohen. Drohnen müssen das erst lernen. Forscher an der TUM bringen ihnen das bei.

Am Lehrstuhl von Professor Stefan Leutenegger forschen er und sein Team auf dem Gebiet der mobilen Robotik mit Schwerpunkt auf Roboternavigation in potenziell unbekannter Umgebung. Das soll auch Drohnen zugute kommen. Hier mehr dazu ...(Bild:  TUM)
Am Lehrstuhl von Professor Stefan Leutenegger forschen er und sein Team auf dem Gebiet der mobilen Robotik mit Schwerpunkt auf Roboternavigation in potenziell unbekannter Umgebung. Das soll auch Drohnen zugute kommen. Hier mehr dazu ...
(Bild: TUM)

Wir erkennen Objekte und ihre Eigenschaften leicht, können Abstände und Gefahren einschätzen, mit anderen Menschen interagieren. Professor Stefan Leutenegger von der Technischen Universität München (TUM) spricht von einer kohärenten 3D-Repräsentation der Umgebung – einem einheitlichen Gesamtbild. Eine Drohne zu befähigen, statische von dynamischen Elementen zu unterscheiden und andere Akteure zu erkennen, ist einer der wichtigen Aufgabenbereiche des Professors für maschinelles Lernen in der Robotik. Leutenegger ist zudem Leiter des Innovationsfeldes künstliche Intelligenz im Munich Institute of Robotics and Machine Intelligence (MIRMI). Er und sein Team wollen mit räumlicher künstlichen Intelligenz in zwei Schritten zu orientierungsfähigen Drohne kommen:

Räumliche KI 1 – Roboter müssen wissen, wo sie sind:

Um die Position des Roboters im Raum einzuschätzen und diesen Raum zu kartographieren, setzt das Team auf „Spatial AI“. Sie soll der Drohne die nötige „Intelligenz“ geben, damit sie künftig durch einen Wald fliegen kann, ohne auch nur gegen feine Äste zu prallen, damit sie dreidimensional drucken oder Laderäume von Tankern oder Frachtern inspizieren kann. Spatial AI – übersetzt bedeutet es so viel wie „räumliche künstliche Intelligenz“ – setzt sich aus mehreren Bausteinen zusammen, die je nach spezifischer Aufgabe angepasst werden und an deren Anfang die Wahl der Sensoren steht, wie es weiter heißt. Spatial AI schafft dabei die Basis für Entscheidungen.

  • Computervision: Über eine oder zwei Kameras nimmt die Drohne die Umwelt wahr. Für das Tiefensehen sind – wie beim Menschen zwei Augen – zwei Kameras nötig. Leutenegger nutzt zwei Sensoren, deren Bilder er gegeneinander abgleicht, um eine Tiefenwahrnehmung zu bekommen. Auch gibt es Tiefenkameras, die das Bild in 3D direkt ausgeben;
  • Inertial- oder Trägheitssensoren: Diese Sensoren messen die Beschleunigung und Winkelgeschwindigkeit. Sie erfassen damit die Bewegung von Körpern im Raum.

„Visuelle und inertiale Sensoren ergänzen sich sehr gut“, sagt Leutenegger. Denn würden deren Daten miteinander fusioniert, entstehe ein sehr genaues Bild über die Bewegung der Drohne und der statischen Umgebung. Das Gesamtsystem ist also in der Lage, die eigene Position im Raum einzuschätzen. Das ist etwa die Voraussetzung für den autarken Einsatz von Robotern. Dabei könne die statische Umgebung auch sehr detailliert und dicht kartographiert werden – eine wichtige Voraussetzung dafür, dass Hindernissen ausgewichen werden kann. Um das zu schaffen, kommen zunächst mathematische und probabilistische Modelle (aus der Wahrscheinlichkeitsrechnung) und keine künstliche Intelligenz zum Einsatz. Deswegen spricht Leutenegger hier vom untersten Level von „Spatial AI“ – einem Thema, das der Professor übrigens schon vor seiner Zeit an der TUM am Imperial College in London erforscht hat.

Räumliche KI 2 – Roboter sollen ihre Umgebung verstehen:

Künstliche Intelligenz in Form von neuronalen Netzwerken spiele eine wichtige Rolle, um die Umgebung semantisch zu erfassen. Hier gehe es dann um das tiefere Verstehen der Umgebung um den Roboter herum. Über Deep Learning lässt sich erfassen und digital auf der Karte darstellen, welche für Menschen verständliche Kategorien genau auf dem Bild zu sehen sind, heißt es. Dafür nutzen neuronale Netze die Bilderkennung von 2-D-Bildern, die in einer 3D-Karte dargestellt werde können. Der Aufwand für die Erkennung durch Deep Learning hänge davon ab, wie viele Details erfasst werden sollen, um eine Spezialaufgabe erfüllen zu können.

Einen Baum von Boden und Himmel zu unterscheiden sei etwa einfacher als den Baum oder sogar dessen Gesundheitszustand exakt zu bestimmen. Für derart spezielle Bilderkennungsmöglichkeiten fehlen aber oft die Daten, die die neuronalen Netze zum Lernen benötigen. Deshalb besteht ein Ziel von Leuteneggers Forschung darin, Methoden des maschinellen Lernens zu entwickeln, die auch mit spärlichen Trainingsdaten effizient umgehen können, damit die Roboter während ihres Einsatzes kontinuierlich weiterlernen. In einer noch weitergehenden Form räumlicher KI geht es darum, dass Objekte oder sogar Teile eines Objektes erkannt werden – wenn sie sich bewegen.

(ID:49436125)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung