Sensor Fusion in Time-Triggered Systems
Total Page:16
File Type:pdf, Size:1020Kb
DISSERTATION Sensor Fusion in Time-Triggered Systems ausgefuhrt¨ zum Zwecke der Erlangung des akademischen Grades eines Doktors der technischen Wissenschaften unter der Leitung von O. Univ.-Prof. Dr. Hermann Kopetz Institut fur¨ Technische Informatik 182 eingereicht an der Technischen Universit¨at Wien, Fakult¨at fur¨ Technische Naturwissenschaften und Informatik von Wilfried Elmenreich Matr.-Nr. 9226605 Sudtirolerstraße¨ 19, A-8280 Furstenfeld¨ Wien, im Oktober 2002 . Sensor Fusion in Time-Triggered Systems Sensor fusion is the combining of sensory data or data derived from sensory data in order to produce enhanced data in form of an internal represen- tation of the process environment. The achievements of sensor fusion are robustness, extended spatial and temporal coverage, increased confidence, reduced ambiguity and uncertainty, and improved resolution. This thesis examines the application of sensor fusion for real-time ap- plications. The time-triggered approach provides a well suited basis for building real-time systems due to its highly deterministic behavior. The integration of sensor fusion applications in a time-triggered framework sup- ports resource-efficient dependable real-time systems. We present a time- triggered approach for real-time sensor fusion applications that partitions the system into three levels: First, a transducer level contains the sensors and the actuators. Second, a fusion/dissemination level gathers measure- ments, performs sensor fusion and distributes control information to the actuators. Third, a control level contains a control program making control decisions based on environmental information provided by the fusion le- vel. Using this architecture, complex applications can be decomposed into smaller manageable subsystems. Furthermore, this thesis evaluates different approaches for achieving de- pendability. These approaches attack the problem at different levels. At the transducer level, we introduce a filter algorithm that performs successive measurements in order to improve the data quality of a single sensor. A dif- ferent approach improves data by combining data of multiple sensors at the fusion/dissemination level. We propose two sensor fusion algorithms to ac- complish this task, the systematic confidence-weighted averaging algorithm and the application-specific robust certainty grid algorithm. The proposed methods are evaluated and used in a case study featuring an autonomous mobile robot. i ii Sensor Fusion in zeitgesteuerten Systemen Unter Sensor Fusion versteht man die intelligente Zusammenfuhrung¨ von Sensordaten zu einem konsistenten Bild der beobachteten Umgebung. Die Verwendung von Sensor Fusion erzielt stabiles Verhalten gegenuber¨ St¨oreinflussen,¨ eine Verbesserung des zeitlichen oder r¨aumlichen Messbe- reichs, erh¨ohte Aussagewahrscheinlichkeit einer Messung, eindeutige Inter- pretationen der Daten sowie verbesserte Aufl¨osung der Messdaten. Diese Arbeit untersucht die Integration von Sensor Fusion in Echt- zeitsystemen. Echtzeitsysteme mussen¨ auf gegebene Eingabedaten inner- halbdefinierterZeitschrankenreagieren.ZeitgesteuerteEchtzeitsysteme beinhalten eine globale Uhrensynchronisation und leiten s¨amtliche Steu- ersignale und Messzeitpunkte vom Fortschreiten der realen Zeit ab. Die Verfugbarkeit¨ einer global synchronisierten Zeit erleichtert die Implemen- tierung von Sensor-Fusion-Algorithmen, da die Zeitpunkte verteilter Beob- achtungen global interpretiert werden k¨onnen. In dieser Arbeit wird ein zeitgesteuerter Ansatz fur¨ den Entwurf und die Implementierung von Sensor Fusion in Echtzeitanwendungen vorge- stellt. Das vorgeschlagene Architekturmodell unterteilt eine Sensor-Fusion- Anwendung in drei Ebenen, die Transducerebene, die Fusionsebene und die Steuerungsebene. Die Unterteilung erm¨oglicht die Zerlegung einer komple- xen Applikation in beherrschbare, getrennt implementierbare und wieder- verwendbare Teile. Der zweite Schwerpunkt dieser Arbeit liegt bei der Erh¨ohung der Zu- verl¨assigkeit von Sensordaten mittels Sensor Fusion. Um Zuverl¨assigkeit zu erreichen, werden unterschiedliche Ans¨atze fur¨ die verschiedenen Ebe- nen vorgestellt. Fur¨ die Transducerebene wird ein Filter eingesetzt, wel- cher mehrere zeitlich hintereinanderliegende Messungen zusammenfuhrt,¨ um das Messergebnis zu verbessern. Auf der Fusionsebene werden Algorith- men vorgestellt, welche es erm¨oglichen, aus einer Anzahl von redundanten Messungen unterschiedlicher Sensoren ein robustes Bild der beobachteten Umgebung zu errechnen. Die Anwendung der vorgestellten Verfahren wird experimentiell am Bei- spiel eines selbstfahrenden Roboters demonstriert und evaluiert. Dabei wird die Umgebung des Roboters mittels Infrarot– und Ultraschallsensoren be- obachtet, um selbstst¨andig einen passierbaren Weg zwischen Hindernissen zu finden. iii iv Danksagung Diese Arbeit entstand im Rahmen meiner Forschungs- und Lehrt¨atigkeit am Institut fur¨ Technische Informatik, Abteilung fur¨ Echtzeitsysteme, an der Tech- nischen Universit¨at Wien. Besonders danken m¨ochte ich dem Betreuer meiner Dissertation, Prof. Dr. Hermann Kopetz, der mir die Forschungst¨atigkeit am Institut fur¨ Technische Informatik erm¨oglichte. Er unterstutzte¨ meine Arbeit durch wertvolle Anregun- gen und stimulierende Diskussionen und pr¨agte so meinen wissenschaftlichen Werdegang. Ich m¨ochte allen meinen Kollegen und Freunden am Institut fur¨ das ange- nehme Arbeitsklima danken. Das freundschaftliche Verh¨altnis, das wir unter- einander pflegen, sowie zahlreiche fachliche Diskussionen hatten wesentlichen Einfluss auf die Qualit¨at dieser Arbeit. Zudem danke ich Michael Paulitsch, Claudia Pribil, Peter Puschner, Thomas Galla sowie Wolfgang Haidinger, Ste- fan Pitzek, Philipp Peti und Gunther¨ Bauer fur¨ das gewissenhafte Korrektur- lesen beziehungsweise fur¨ wertvolle Hinweise bei der Arbeit an dieser Disserta- tion. Meiner Freundin Claudia Pribil m¨ochte ich schließlich fur¨ ihre Geduld und Unterstutzung¨ w¨ahrend meiner Arbeit an dieser Dissertation danken. v vi Contents 1 Introduction 1 1.1 Related Work . 3 1.2 Motivation and Objectives . 4 1.3 Structure of the Thesis . 5 2 Basic Terms and Concepts 7 2.1 Principles of Sensor Fusion . 7 2.1.1 Motivation for Sensor Fusion . 9 2.1.2 Limitations of Sensor Fusion . 12 2.1.3 Types of Sensor Fusion . 13 2.2 Real-Time Systems . 17 2.2.1 Classification of Real-Time Systems . 18 2.2.2 Model of Time . 21 2.2.3 Real-Time Entities and Real-Time Images . 21 2.3 Dependability . 22 2.3.1 Attributes of Dependability . 22 2.3.2 Means of Dependability . 24 2.3.3 Impairments of Dependability . 24 2.4 Distributed Fault-Tolerant Systems . 25 2.4.1 Fault Modelling . 26 2.4.2 Fault Tolerance through Redundancy . 27 2.4.3 Transparency, Layering, and Abstraction . 28 2.5 Smart Transducer Networks . 29 2.5.1 Sensors and Actuators . 29 2.5.2 Microcontrollers for Embedded Systems . 30 2.5.3 Smart Transducer Interfaces . 30 2.6 Chapter Summary . 32 vii 3 Sensor Fusion Architectures and Applications 33 3.1 Architectures for Sensor Fusion . 33 3.1.1 The JDL Fusion Architecture . 33 3.1.2 Waterfall Fusion Process Model . 35 3.1.3 Boyd Model . 36 3.1.4 The LAAS Architecture . 37 3.1.5 The Omnibus Model . 39 3.2 Methods and Applications . 40 3.2.1 Smoothing, Filtering, and Prediction . 40 3.2.2 Kalman Filtering . 41 3.2.3 Inference Methods . 44 3.2.4 Occupancy Maps . 45 3.2.5 Certainty Grid . 46 3.2.6 Reliable Abstract Sensors . 48 3.3 Chapter Summary . 49 4 Architectural Model 51 4.1 Design Principles . 51 4.2 Time-Triggered Sensor Fusion Model . 53 4.2.1 Transducer Level . 54 4.2.2 Fusion/Dissemination Level . 56 4.2.3 Control Level . 57 4.2.4 Operator . 57 4.3 Interfaces . 58 4.3.1 Interface Separation . 58 4.3.2 Interfaces in the Time-Triggered Sensor Fusion Model . 59 4.3.3 Interface File System . 62 4.4 Communication Protocol . 65 4.4.1 Bus Scheduling . 65 4.4.2 Clock Synchronization . 68 4.5 Discussion . 68 4.5.1 Benefits at Transducer Level . 68 4.5.2 Benefits at Fusion/Dissemination Level . 69 4.5.3 Benefits at Control Level . 69 4.6 Chapter Summary . 70 viii 5 Achieving Dependability by Sensor Fusion 71 5.1 Systematic versus Application-Specific Approach . 71 5.2 Systematic Dependability Framework . 72 5.2.1 Problem Statement . 72 5.2.2 Modelling of Observations . 72 5.2.3 Sensor Representation Model . 75 5.2.4 Representation of Confidence Values . 77 5.2.5 Fusion Algorithms . 78 5.3 Robust Certainty Grid . 83 5.3.1 Problem Statement . 83 5.3.2 Robust Certainty Grid Algorithm . 84 5.4 Chapter Summary . 89 6 Case Study Setup 91 6.1 Problem Statement . 91 6.1.1 Hardware Constraints . 91 6.1.2 Software Constraints . 92 6.1.3 Real-Time Constraints . 92 6.2 Development Environment . 93 6.2.1 Target System . 93 6.2.2 Programming Language . 93 6.2.3 Compiler . 94 6.2.4 Programming Tools . 94 6.3 System Architecture . 95 6.4 Demonstrator Hardware . 97 6.4.1 Electrical and Electromechanical Hardware . 97 6.4.2 TTP/A Nodes . 101 6.5 Demonstrator Software . 104 6.5.1 Infrared Sensor Filter . 104 6.5.2 Servo Control . 105 6.5.3 Grid Generation . 105 6.5.4 Navigation and Path Planning . 106 6.5.5 Fusion of Ultrasonic Observations . 109 6.5.6 Intelligent Motion Control . 110 6.6 Chapter Summary . 111 ix 7 Experiments and Evaluation 113 7.1 Analysis of Sensor Behavior . 113 7.1.1 Raw Sensor Data . 113 7.1.2 Sensor Filtering . 119 7.1.3 Fused Sensor Data . 121 7.1.4 Comparison of Results . 125 7.2 Evaluation of Certainty Grid . 128 7.2.1 Free Space Detection . 128 7.2.2 Dead End Detection . 130 7.2.3 Typical Situation with Three Obstacles . 130 7.3 Discussion and Chapter Summary . 133 8 Conclusion 135 8.1 Time-Triggered Architecture for Sensor Fusion . 135 8.2 Sensor Fusion Algorithms . 136 8.3 Outlook . 137 Bibliography 139 List of Publications 155 Curriculum Vitae 157 x List of Figures 2.1 Block diagram of sensor fusion and multisensor integration . 10 2.2 Alternative fusion characterizations based on input/output . 14 2.3 Competitive, complementary, and cooperative fusion . 16 2.4 Parts of a real-time system . 18 2.5 Dependability tree . 23 3.1 JDL fusion model . 34 3.2 The waterfall fusion process model .