
Dissertation zur Erlangung des Doktorgrades der Fakultät für Angewandte Wissenschaften der Albert-Ludwigs-Universität Freiburg im Breisgau Exploration and Mapping with Mobile Robots Cyrill Stachniss April, 2006 Betreuer: Prof. Dr. Wolfram Burgard Dekan der Fakultät für Angewandte Wissenschaften: Prof. Dr. Jan G. Korvink 1. Gutachter: Prof. Dr. Wolfram Burgard, Universität Freiburg 2. Gutachter: Prof. Dr. Dieter Fox, University of Washington, WA Tag der Disputation: 26.04.2006 Zusammenfassung iele Anwendungen aus dem Bereich der mobilen Robotik setzten eine geeignete Repräsentation der Umgebung voraus. Aus diesem Grund ist das Lernen von Umgebungsmodellen eines der grundlegenden Probleme V für Roboter, dem schon seit mehreren Jahrzehnten Aufmerksamkeit ge- schenkt wird. Das selbständige Erstellen von Umgebungsmodellen ist eine der Grund- voraussetzungen für vollständig autonom agierende Systeme. Die vorliegende Arbeit beschäftigt sich mit verschiedenen Problemen, die beim selbstständigen Aufbau von Karten auftreten. Das Problem beim Erstellen von Karten besteht unter anderem in der Unsicherheit der Sensorinformationen. Sensoren wie beispielsweise Lasermesssysteme oder Sonar- sensoren messen die Distanz zum nächsten Hindernis. Allerdings liefern sie mitunter nur grobe Schätzwerte und keine exakten Daten. Auch die Bestimmung der Position des Roboters anhand der Radumdrehungen (Odometrie) ist mit erheblichen Fehlern behaftet, welche sich im Laufe der Zeit sogar akkumulieren. Ohne ein geeignetes Um- gebungsmodell, in dem sich der Roboter selbst lokalisieren kann, ist es sehr schwierig eine gute Positionsschätzung über längere Zeit aufrecht zu erhalten. Gleichzeitig benö- tigt ein Roboter aber eine gute Schätzung seiner Position, um aus seinen Sensordaten eine brauchbare Karte zu erzeugen. Auch ist es kein triviales Problem zu entscheiden, wohin sich ein autonomer Robo- ter bewegen soll, um seine Umgebung effizient zu explorieren. Es stellt sich die Frage, ob man eine Explorationsstrategie wählt durch die der Roboter seine Umgebung mög- lichst schnell abfährt, oder lieber ein Verfahren verwendet, das die Unsicherheit des Roboters über die Umgebung minimiert. Die Komplexität des Problems erhöht sich nochmals, wenn der Roboter neben seiner Unsicherheit in den Sensordaten auch die Unsicherheit in seiner Position berücksichtigen muss. Dabei stellt sich unmittelbar die Frage, ob es sinnvoller ist, zuerst die Unsicherheit des Roboters über seine Umgebung zu minimieren oder aber seine Position genauer zu ermitteln. Deutlich komplexer wird das Problem, wenn man nicht mehr nur rein statische Welten annimmt, sondern berücksichtigt, dass sich dynamische Objekte in der Umge- bung befinden können. Solche beweglichen Objekte können beispielsweise Personen, Autos oder auch Türen sein. Man muss sich dabei fragen, ob man solche dynamischen Objekte aus der Karte entfernen möchte oder einige der Informationen beim Karten- bau berücksichtigen sollte. So macht es beispielsweise Sinn, wenn ein Roboter, der sich auf einem großen Parkplatz bewegt, weiß, wo typischerweise Auto parken und wo nicht. Dieses Wissen kann er dann nutzen, um seine Position robuster zu schätzen. Zusätzlich stellt sich die Frage, wie man eine Gruppe von Robotern koordiniert, da- mit diese eine gemeinsame Aufgabe möglichst effizient lösen können. Exploriert man beispielsweise eine Umgebung mit einem Team von Robotern, kann man erwarten, dass sie diese Aufgabe schneller ausführen können als ein einzelner Roboter. Auf der anderen Seite muss berücksichtigt werden, dass sich die einzelnen Roboter auch ge- genseitig behindern können. So kann beispielsweise schnell ein Stau entstehen, wenn mehrere Roboter gleichzeitig einen engen Korridor oder eine Tür passieren wollen. Man kann die zentralen Fragestellungen beim Lernen von Umgebungsmodellen mit mobilen Robotern wie folgt zusammenfassen: • Wie geht man mit der Unsicherheit in den Sensorinformationen und wie mit den Fehlern in der Positionsmessung des Roboters um? • Wie modelliert man in adäquater Weise die Unsicherheit im Weltmodell des Roboters und wie geht man mit dieser um? • Wie generiert man geeignete Aktionen für einen autonom explorierenden Robo- ter und wie evaluiert man diese? • Wie koordiniert man eine Gruppe von Robotern, so dass sie ihre Aufgabe mög- lichst effizient ausführen können und doppelte Arbeit vermeiden? • Wie geht man mit nichtstatischen Objekten um? Die vorliegende Arbeit behandelt verschiedene Aspekte des Problems der Erstel- lung von Umgebungsmodellen. Dabei beschäftigen wir uns explizit mit den fünf oben aufgezählten Punkte. Ein zentraler Aspekt dieser Arbeit ist die Exploration unbekann- ter Umgebungen oder als Frage formuliert: „Wie sollte sich ein Roboter durch eine un- bekannte Umgebung bewegen, um aus den gewonnenen Sensordaten eine konsistente Karte zu erzeugen?“ Dabei konzentrieren wir uns in dieser Arbeit auf die Redukti- on der Unsicherheit im Umgebungsmodell des Roboters. Wir verfolgen einen Ansatz, der mögliche zukünftige Observationen und deren Auswirkungen auf das Modell des Roboters in die Zielpunktauswahl mit einbezieht. Im ersten Teil der Arbeit wird dabei die Position des Roboters als gegeben angenommen und nur die Unsicherheit in den Observationen und im Umgebungsmodell betrachtet. Des weiteren stellen wir einen Ansatz vor, der es erlaubt, ein Team von Robotern so zu koordinieren, dass diese ihre gemeinsame Explorationsaufgabe schneller lösen können. Die Annahme, dass die Positionsinformation als gegeben vorausgesetzt werden kann, ist in natürlichen Umgebungen nicht gegeben. Daher stellen wir im zweiten Teil dieser Arbeit einen Ansatz zur Lösung des Problems des simultanen Lokalisierens und Kartenlernens vor (engl. simultaneous localization and mapping, SLAM). Das proba- bilistische und auf Partikelfiltern basierende Verfahren ermöglicht es, eine gemeinsame Verteilung über die Trajektorie des Roboters und das Umgebungsmodell zu verwalten. Als Ergebnis erhalten wir ein System, das Karten von verhältnismäßig großen Umge- bungen in Echtzeit erstellen kann. Aufbauend auf diesem Verfahren adaptieren wir unsere Explorationstechnik so, dass diese die Eigenschaften des SLAM Verfahrens berücksichtigt. Wir ermöglichen es dabei dem Roboter Schleifen in der Umgebung zu erkennen und diese aktiv zu schließen. Im Endeffekt führt dies zu besser ausgerichteten Karten im Vergleich zu herkömmlichen Explorationsverfahren. Das bis dahin gewonnene Wissen wird anschließend in ein System integriert. Die- ses konzentriert sich gleichzeitig auf Exploration, Kartenbau und Lokalisierung. Bei der Auswahl der nächsten auszuführenden Aktion betrachtet das System mögliche Sequenzen von Observationen, die der Roboter beim Ausführen der Aktion erhalten könnte. Diese Observationen werden basierend auf der Verteilung über mögliche Um- gebungsmodelle simuliert und deren Auswirkung auf das Gesamtmodell geschätzt. Der Roboter ist dann in der Lage, die Aktion zu wählen, die zur größten erwarteten Minimierung der Unsicherheit über die Umgebung sowie über seine Position führt. Abschließend behandeln wir das Lokalisieren und Kartenbauen in nichtstatischen Umgebungen. Im Vergleich zu den meisten existierenden Ansätzen liegt unser Fokus nicht darauf, dynamische Aspekte aus dem Umgebungsmodell zu entfernen. Statt des- sen erlaubt es unser Verfahren, die möglichen Konfigurationen nichtstatischer Objekte zu bestimmen. Ein klassisches Beispiel stellen Türen dar. Diese sind typischweise ent- weder geschlossen oder offen. Ein Roboter, der sich solches Wissen aneignen kann, ist später in der Lage, sich besser zu lokalisieren als ein Roboter der nur ein statisches Modell seiner Welt besitzt. Der Beitrag dieser Arbeit besteht aus einer Menge von Techniken zum selbststän- digen Erstellen von Umgebungsmodellen. Zusammengefasst liefern unsere Verfahren Lösungen für die folgenden Probleme: • Koordination einer Gruppe von mobilen Robotern, so dass diese eine gemeinsa- me Explorationsaufgabe schneller bewältigen können. • Erzeugung hochauflösender Karten aus unsicheren Sensor- und Odometrieinfor- mationen. • Anpassung einer Explorationsstrategie an ein darunterliegendes Lokalisierungs- und Kartenbausystem, wodurch die resultierenden Umgebungsmodelle weniger Fehler enthalten. • Erzeugung und Beurteilung von Aktionen für einen explorierenden Roboter. Da- bei wird die beste erwartete Aktion unter dem Gesichtspunkt der Minimierung der Unsicherheit im Weltmodell des Roboters ausgewählt. • Erstellen von Karten in Umgebungen, die nichtstatische Objekte enthalten. Da- bei werden typische Zustände der nichtstatische Objekte im Raum modelliert. Dies wiederrum führt zu einer robusteren Positionsschätzung für mobile Robo- ter, die in solchen Umgebungen eingesetzt werden. Abstract odels of the environment are needed for a wide range of robotic applica- tions, from search and rescue to automated vacuum cleaning. Learning maps has therefore been a major research focus in the robotics commu- M nity over the last decades. Robots that are able to acquire an accurate model of their environment on their own are regarded as fulfilling a major precondition of truly autonomous agents. In order to solve the map learning problem, a robot has to address mapping, localization, and path planning at the same time. In general, these three tasks cannot be decoupled and solved independently and map learning is thus referred to as the simultaneous planning, localization, and mapping problem. Because of the coupling between these tasks, this problem is very complex. It can become even
Details
-
File Typepdf
-
Upload Time-
-
Content LanguagesEnglish
-
Upload UserAnonymous/Not logged-in
-
File Pages244 Page
-
File Size-