Exploring Parameter Spaces in Coping with Computational Intractability
Total Page:16
File Type:pdf, Size:1020Kb
Exploring Parameter Spaces in Coping with Computational Intractability Vorgelegt von Diplom-Informatiker Sepp Hartung geboren in Jena, Thüringen Von der Fakultät IV – Elektrotechnik und Informatik der Technischen Universität Berlin zur Erlangung des akademischen Grades Doktor der Naturwissenschaften – Dr. rer. nat. – genehmigte Dissertation Promotionsausschuss: Vorsitzender: Prof. Dr. Stephan Kreutzer Gutachter: Prof. Dr. Rolf Niedermeier Gutachter: Prof. Dr. Pinar Heggernes Gutachter: Prof. Dr. Dieter Kratsch Tag der wissenschaftlichen Aussprache: 06. Dezember 2013 Berlin 2014 D83 Zusammenfassung In dieser Arbeit werden verschiedene Ansätze zur Identifikation von effizient lösbaren Spezialfällen für schwere Berechnungsprobleme untersucht. Dabei liegt der Schwerpunkt der Betrachtungen auf der Ermittlung des Einflusses sogenannter Problemparameter auf die Berechnungsschwere. Für Betrach- tungen dieser Art bietet die parametrisierte Komplexitätstheorie unsere theoretische Basis. In der parametrisierten Komplexitätstheorie wird versucht sogenannte Pro- blemparameter in schweren Berechnungsproblemen (meistens, gehören diese zu den NP-schweren Problemen) zu identifizieren und diese zur Entwicklung von parametrisierten Algorithmen zu nutzen. Parametrisierte Algorithmen sind dadurch gekennzeichnet, dass der exponentielle Laufzeitanteil durch eine Funktion abhängig allein vom Problemparameter beschränkt werden kann. Die Entwicklung von parametrisierten Algorithmen ist stark motiviert durch sogenannte heuristische Algorithmen. Entgegen der theoretisch begründeten Berechnungsschwere weisen heuristische Algorithmen auf praktisch relevanten Probleminstanzen ein oft effizientes Laufzeitverhalten mit einer akzeptablen Lösungsqualität auf. Die dafür plausibelste Erklärung ist, dass praktische Instanzen nur selten den jeweils „ungünstigsten“ Instanzen entsprechen, son- dern oft gewisse anwendungsspezifische Charakteristika aufweisen. Eines der bekanntesten Beispiele dafür ist das sogenannte „Kleine-Welt-Phänomen“, welches bei der Analyse von sozialen Netzwerken beobachtet werden kann. Dabei gilt kurz gesagt, dass obwohl jeder Knoten in einem solchen Netzwerk nur wenige direkte Verbindungen hat, die Länge eines kürzesten Pfades zwischen je zwei Knoten in der Regel höchstens zehn ist. Die Identifikati- on solcher Problemparameter und das Ausnutzen der Strukturen, welche durch kleine Parameterwerte impliziert werden, ist das Hauptanliegen der parametrisierten Algorithmik. In dieser Arbeit werden drei Ansätze zur Identifikation dieser Problem- parameter vorgestellt und sie werden exemplarisch auf vier NP-schwere Probleme angewendet. Jeder dieser vier Ansätze führt zu einem sogenannten „Parameterraum“ (engl. parameter space). Dieser bezeichnet eine Menge von Problemparametern, welche untereinander in Beziehung stehen in einer Art und Weise, welche das automatische Übertragen von Härteergebnissen (z. B. die Nichtexistenz eines parametrisierten Algorithmus) aber auch von Machbarkeitsergebnissen (z. B. Existenz eines parametrisierten Algorithmus) 3 erlaubt. Damit ermöglicht der Begriff des Parameterraumes eine systemati- sche und strukturierte Darstellung der parametrisierten Komplexität und erleichtert die Identifikation jener Strukturen, welche maßgeblich die Berech- nungsschwere des jeweiligen Problems bestimmen. Nachfolgend werden die behandelten Probleme und die dazugehörigen Ergebnisse hinsichtlich der parametrisierten Komplexität beschrieben. Der erste Ansatz zur Identifikation von Problemparametern ist spezialisiert auf Graphprobleme und studiert diese, im allgemeinen NP-schweren Proble- me, in ihren Einschränkungen auf speziellen Graphklassen. Dieser Ansatz wird durch die Anwendung auf das Metric Dimension-Problem vorgeführt. Metric Dimension ist das Problem für einen gegebenen Graphen eine Knotenteilmenge auszuwählen, sodass alle Paare von Knoten sich in ihrer Di- stanz (Länge eines kürzesten Pfades) zu wenigstens einem der ausgewählten Knoten unterscheiden. Wir beweisen mittels einer parametrisierten Reduk- tion von einem W[2]-schweren Problem, dass Metric Dimension keinen parametrisierten Algorithmus für den Parameter Lösungsgröße besitzen kann (unter der Annahme dass W[2] 6= FPT). Insbesondere gilt dieses Härteergeb- nis auch auf der stark eingeschränkten Graphklasse sogenannter bipartiter Graphen mit Maximalknotengrad drei. Durch die erwähnte Reduktion wird zusätzlich ein Inapproximationsergebnis impliziert, welches besagt, dass es keine Polynomialzeitapproximation mit einem Faktor von o(log n) geben kann, es sein denn P = NP. Diese untere Schranke beweist, dass aus der Literatur bekannte Approximationsalgorithmen bis auf konstante Faktoren optimal sind. Der zweite Ansatz zur Identifikation von Problemparametern untersucht den Einfluss sogenannter struktureller Parameter auf die Berechnungsschwere eines Problems. Im Gegensatz zum ersten Ansatz, in welchem das Verhalten bei Nichtexistenz gewisser Graphstrukturen untersucht wird, ist die Idee hier, die Häufigkeit des Auftretens gewisser Strukturen als Parameter zu betrachten. Der Ansatz der strukturellen Parametrisierung wird, insbeson- dere auch zum Nachweis seiner universellen Anwendbarkeit, anhand zweier Probleme diskutiert. Im Detail werden ein Graphproblem namens 2-Club und das Zahlenproblem Vector (Positive) Explanation betrachtet. Bei 2-Club sucht man in einem gegebenen Graphen einen großen Teil- graphen mit Durchmesser höchstens zwei. 2-Club besitzt Anwendungen in der Analyse von sozialen und biologischen Netzwerken. Der untersuchte Raum der strukturellen Parameter für 2-Club ist sehr umfangreich und beinhaltet neben Graphparametern wie Baumweite und degeneracy auch Pa- rameter welche sich aus dem Paradigma der „Distanz zu einfachen Instanzen“- Parametrisierung (engl. distance from triviality parameters) ableiten. Wir beweisen unter anderen, dass 2-Club NP-schwer ist selbst wenn die Distanz (Anzahl Knotenlöschungen) zu bipartiten Graphen eins ist oder die dege- 4 neracy fünf ist. Für den Parameter h-index, welcher insbesondere aus der sozialen Netwerkanalyse motiviert ist, zeigen wir W[1]-Schwere. Neben diesen Härteergebnissen präsentieren wir auch mehrere parametrisierte Lösungsalgo- rithmen für 2-Club. Unter anderem wird ein parametrisierter Algorithmus für den Parameter „Distanz zu einem Cograph“ und für die Baumweite ange- geben. Wir beweisen weiterhin (unter der Annahme der Strong Exponential Time Hypothesis), dass es für den Parameter „Distanz k0 zu einem 2-club“ 0 keinen Algorithmus mit Laufzeit O((2 − )k · nO(1)) geben kann und deshalb 0 ein bereits bekannter Algorithmus mit Laufzeit O(2k · nO(1)) asymptotisch optimal ist. Weiterhin wird eine Implementierung eines parametrisierten Algorithmus für 2-Club beschrieben, welcher auf praktischen Instanzen wie sozialen Netzwerken mit bisherigen Lösungsalgorithmen verglichen wird. Als zweites wird eine Anwendung des strukturellen Parametrisierungsan- satzes auf das Vector (Positive) Explanation Problem diskutiert. Das Vector (Positive) Explanation-Problem ist für einen gegebenen Vektor von natürlichen Zahlen eine Menge von „homogenen Segmenten“ (spezielle Vektoren) zu finden, sodass die Segmente sich zum Eingabevektor summieren. Die Betrachtung von strukturellen Parametern wird insbesondere durch eine einfache Datenreduktionsregel motiviert, deren Anwendung die Parameter „Lösungsgröße bzw. Anzahl k der Segmente“ und „Anzahl n der Vektoreinträ- ge des Eingabevektors“ zueinander in Beziehung setzt: Konkret kann man für alle Instanzen k < n < 2k annehmen. Außerdem wurden strukturelle Parametrisierungen bereits in früheren Arbeiten zu diesem Problem benutzt, z. B. bei der Entwicklung von Approximationsalgorithmen. Konkret geben wir einen parametrisierten Algorithmus für den Parameter „größter Abstand zwischen zwei aufeinanderfolgenden Zahlen im Eingabevektor“ an. Motiviert durch die Beziehung k < n < 2k werden Parametrisierungen dem Paradigma der „Distanz zu einfachen Instanzen“ folgend betrachtet. Wir beweisen, dass das Vector (Positive) Explanation-Problem sogar im Falle n − k = 1 NP-schwer ist. Für den Parameter 2k − n weisen wir nach, dass die Problem- variante Vector Explanation einen parametrisierten Algorithmus zulässt, die Vector Positive Explanation-Variante jedoch W[1]-schwer ist. Der dritte Ansatz betrachtet den Einfluss verschiedener Nachbarschaftss- trukturen auf die parametrisierte Komplexität von Algorithmen, welche auf dem Prinzip der lokalen Suche basieren. Grundprinzip der lokalen Suche ist, dass eine bereits gefundene Lösung durch eine Verbesserung, welche innerhalb einer bestimmten Nachbarschaftsstruktur gesucht wird, ersetzt wird und dadurch die Lösung schrittweise optimiert wird. Wir untersuchen den Einfluss verschiedener Nachbarschaftsstrukturen auf eine lokale Suchvari- ante des bekannten Traveling Salesman-Problems, LocalTSP genannt. Es wird eine Modifikation eines bereits bekannten W[1]-Schwere-Beweises angegeben, auf dessen Grundlage die W[1]-Schwere für einen beschriebenen 5 Parameterraum von Nachbarschaftsstrukturen gefolgert werden kann. Kon- kret beweisen wir, dass die sogenannte Swap-Nachbarschaft die „schwächste“ Nachbarschaft innerhalb des Parameterraumes ist und LocalTSP bezüg- lich Swap-Nachbarschaft W[1]-schwer ist. Weiterhin folgt für den Parameter „Größe k der Nachbarschaftsstruktur“, dass LocalTSP bezüglich der meis- ten betrachteten Nachbarschaftsstrukturen keinen Algorithmus mit Laufzeit O(no(k= log k)) besitzt (unter der Annahme der Exponential Time Hypothe- sis). Damit wird die Lücke zu den besten bisher