A 3D Camera-Based System Concept for Safe and Intuitive Use of a Surgical Robot System
Total Page:16
File Type:pdf, Size:1020Kb
A 3D camera-based system concept for safe and intuitive use of a surgical robot system zur Erlangung des akademischen Grades eines Doktors der Ingenieurwissenschaften von der KIT-Fakultat¨ fur¨ Informatik des Karlsruher Instituts fur¨ Technologie (KIT) genehmigte Dissertation von Philip Matthias Nicolai aus Heidelberg Tag der mundlichen¨ Prufung:¨ 9. Juni 2016 Erster Gutachter: Prof. Dr.-Ing. Dr. h.c. Heinz Worn¨ Zweiter Gutachter: Prof. Paolo Fiorini, PhD Credits This thesis would not have been possible without the support of numerous people. First, I’d like to thank my supervisor, Prof. Dr.-Ing. Dr. h.c. Heinz Worn,¨ for pro- viding me with the opportunity to work in the exciting and fast-moving research field of surgical robot systems and 3D camera systems. My sincere thanks also goes to Prof. Paolo Fiorini, PhD, who led the European research project Patient Safety in Robotic Surgery (SAFROS), during which I had the chance to develop many concepts of this thesis, and who graciously agreed to be the second reviewer of my thesis. A further big “Thank you” goes to Dr. Jorg¨ Raczkowsky, leader of the medical research group MeGI at IAR-IPR, for his support, discussions and for his trust that allowed me to freely explore research topics. In parallel with this thesis, the OP:Sense system has been created as a collabo- ration with multiple colleagues from both medical research groups at IAR-IPR. OP:Sense aims to integrate the results from different projects and theses, and I could not have finished this thesis in its final scope without relying on many parts of OP:Sense contributed by my colleagues. I’d like to thank my (ex-)colleagues for the great working atmosphere and collaboration both on scientific endeavours and otherwise: Tim Beyl, Thorsten Brennecke, Julien Mintenbeck, Holger Monnich,¨ Luzie Schreiter, Yaokun Zhang, Andreas Bihlmaier and Jessica Hutzl. Special thanks is reserved for Mirko Kunze for his general humour throughout the day and for meticulously proof-reading my thesis draft even in the final stages of his own thesis. Most important, I’d like to thank Simone Rupp for supporting me throughout the course of this thesis, even if at times we only saw each other awake when I came home from work at the same time as she had to get up early. The final thanks is reserved for my mother Helga Nicolai. She selflessly supported me throughout my whole life and worked hard to open up all possibilities to me, but always respected my decisions and never pressured me to follow any specific path in life she might or might not have wished for. This thesis is dedicated to her. Abstract Within the last decades, surgical robot systems have been integrated operation rooms worldwide. However, in current robotic procedures, the surgical personnel has to devote a significant part of attention in order to ensure and monitor seamless functioning of the robot system. To overcome this limitation, this thesis explores the feasibility of developing a system for safe and intuitive use of surgical robots, based on state-of-the-art range imaging cameras and newly developed algorithms. A novel concept for an Operating Room (OR) monitoring system is proposed that can perceive the environment of a surgical robot using multiple 3D cameras and detect potentially harmful situations between the robot, its surroundings and the persons in its vicinity, i.e. the OR personnel and the patient. Such a system is realized in a generic way in order to be applicable to different surgical robot systems. It is optimized for a low spatial footprint for not interfering with the OR personnel and their actions in already crowded ORs. Furthermore, the system provides intuitive feedback to the OR personnel whenever safety-critical events are detected, without drawing on their attention otherwise. The realized system was extensively evaluated using the OP:Sense surgical re- search platform. Based on the proposed approach of establishing a virtual safety zone around each robot arm, the system was shown to reliably detect and therefore avoid impending collisions, without requiring information about the trajectory of the robot. To ensure the applicability of use within the operating room, the effects of sterile draping on range imaging cameras were analyzed. A filtering method was put forward to eliminate these effects within the realized ToF camera system, allowing for successful detection of impending collisions even for draped robots. The results indicate that a 3D-camera-based supervision system can effectively contribute to the safety of use of surgical robot systems in the OR, allowing the OR personnel to completely focus on their medical tasks. The proposed methods contribute to scene supervision for human-robot cooperation and show the feasibility of the approach. Zusammenfassung Motivation Seit die ersten kommerziell erhaltlichen¨ Chirurgierobotersysteme Mitte der Neun- ziger Jahre klinisch eingesetzt wurden, haben sich sowohl der Einsatz derartiger Systeme als auch die Vielfalt der abgedeckten Operationen vervielfacht. Im Jahr 2014 wurden alleine mit dem am Markt fuhrenden¨ da Vinci System uber¨ 500 000 Operationen durchgefuhrt.¨ Insbesondere im Bereich der minimal-invasiven Chirurgie hat der Einsatz von Chirurgierobotern jedoch neben den medizinischen Aspekten noch weitere Kon- sequenzen: Der Chirurg fuhrt¨ die Operation von außerhalb des sterilen Bereichs per Telemanipulation des Robotersystems durch, was direkte Auswirkungen auf die Arbeitsablaufe¨ und Rollenverteilung im Operationssaal hat. Da aktuelle und in der Entwicklung befindliche chirurgische Robotersysteme großtenteils¨ keine Sensorik enthalten, mit der sie ihre Umgebung erfassen konnten,¨ muss das OP- Personal sowohl die korrekte Funktionsweise als auch die Kollisionsfreiheit der Robotersysteme fortlaufend uberwachen.¨ Ziel dieser Arbeit ist daher die Entwicklung und Umsetzung eines 3D-Kamera- basierten Uberwachungssystems¨ fur¨ den Operationssaal, das die sichere Anwen- dung chirurgischer Robotersysteme uberwacht¨ und mittels raumlicher¨ erweiterter Realitat¨ (AR) Informationen z.B. zum Roboterzustand intuitiv fur¨ das OP-Personal erfassbar macht. Hierdurch soll das OP-Personal unterstutzt¨ und entlastet werden, um ihm die uneingeschrankte¨ Konzentration auf die medizinischen Aspekte der Operation zu ermoglichen.¨ Methoden Im Mittelpunkt dieser Arbeit steht die Konzeption und Realisierung eines Uber-¨ wachungssystems bestehend aus mehreren, raumlich¨ verteilten 3D Kameras, das die unmittelbare Umgebung der Operationsliege in Echtzeit als Punktwolke erfasst und in Bezug auf verschiedene Sicherheitsaspekte analysiert. Um jeden Roboter- arm wird eine virtuelle, dynamische Sicherheitshulle¨ gebildet, mittels derer die erfasste Szene segmentiert wird. Bei Verletzungen der virtuellen Sicherheitshulle¨ wird zunachst¨ eine raumliche¨ Analyse durchgefuhrt,¨ um die Ursache der Verlet- zung zu ermitteln. Falls diese im Eindringen eines externen Objektes oder eines vii Menschen besteht, werden je nach Zustand des Robotersystems verschiedene Reaktionen ausgefuhrt,¨ um beispielsweise Kollisionen zwischen Roboter und Mensch zu vermeiden. Grundlage fur¨ dieses Konzept ist der entwickelte Shape Cropping Algorithmus, mittels dessen die sicherheitshullenbasierte¨ Segmentierung der erfassten Szene umgesetzt wird. Weiterhin ermoglicht¨ dieser Algorithmus die Detektion des Robotersystems in der Szene, um den korrekten Aufbau des Robotersystems in Ubereinstimmung¨ mit einer praoperativen¨ Planung zu uberpr¨ ufen.¨ Das entwickelte Kamerasystem gliedert sich in zwei separate Teilsysteme, deren Kameras die Szene anhand unterschiedlicher Technologien dreidimensional er- fassen. Das erste Teilsystem besteht aus sieben Time-of-Flight (ToF) Kameras aus dem industriellen Bereich, das zweite Teilsystem aus vier Kinect v1 Kameras. Aufgrund der unterschiedlichen Vor- und Nachteile der verwendeten Kamera- systeme bezuglich¨ Auflosung,¨ Latenz und externer Kontrolle der Kameraparameter werden die erfassten Informationen in ein zweistufiges Szenenmodell integriert. Die erste Ebene des Szenenmodells beinhaltet niedrig aufgeloste¨ Punktwolken, die von den Time-of-Flight-Kameras mit einer geringen Latenz erfasst werden und uber¨ keine semantischen Informationen verfugen.¨ Diese Daten bilden die Grundlage fur¨ sicherheitsrelevante Funktionen wie die Erkennung potentieller Kollisionen. Die zweite Ebene beinhaltet hoher¨ aufgeloste¨ raumliche¨ Daten inklu- sive semantischer Informationen, insbesondere der Erkennung von Menschen in der Szene. Diese Daten sind jedoch erst mit einer großeren¨ Latenz verfugbar.¨ Zur Uberbr¨ uckung¨ dieser semantischen Lucke¨ wurde ein Algorithmus entwick- elt, der die Vorwartspropagation¨ von semantischen Annotationen ermoglicht.¨ Dieser erlaubt es, die auf der zweiten Ebene des Szenenmodells vorhandenen semantischen Annotationen fortlaufend vorwarts¨ zu berechnen, so dass sie auf der ersten Ebene des Szenemmodells direkt zur Verfugung¨ stehen. Somit kann beispielsweise bei der Detektion einer bevorstehenden Kollision des Roboters anhand der vorwarts-berechneten¨ semantischen Information erkannt werden, ob der Roboter mit einem Menschen oder der Umgebung kollidieren wurde,¨ so dass unterschiedliche Reaktionen ausgelost¨ werden konnen.¨ Um Informationen zum Zustand des Robotersystems oder andere Hinweise intui- tiv fur¨ das OP-Team verfugbar¨ zu machen, wurde ein entsprechendes Konzept ent- worfen und umgesetzt, das auf projektorbasierter raumlicher¨ erweiterter Realitat¨ basiert. Dies ermoglicht¨ (i) die Visualisierung