Bachelorarbeit

Automatisierte Lebensdatenanalyse mittels der Weibull-Verteilung zur Instandhaltung von Triebwerken

eingereicht von: Jonathan Krämer

eingereicht am: 24.07.2020

betreut von: Gregor Thiele

in Zusammenarbeit mit: keylight GmbH & Rolls-Royce Deutschland

Technische Universität Berlin Institut für Werkzeugmaschinen und Fabrikbetrieb Fachgebiet Industrielle Automatisierungstechnik Prof. Dr.-Ing. Jörg Krüger

Eigenständigkeitserklärung Hiermit erkläre ich, dass ich die vorliegende Arbeit selbstständig und eigenhändig so- wie ohne unerlaubte fremde Hilfe und ausschließlich unter Verwendung der aufgeführten Quellen und Hilfsmittel angefertigt habe.

Berlin, den

...... Unterschrift

Abstract The following bachelor thesis investigates the possibilities of automating the life data analysis for a given process in the maintenance of Rolls-Royce Germany. For this to be done, general information about life data analysis in the engineering industry is given. For the process that is to be automated the life data analysis is done manually. With the resulting knowledge criteria for automated solutions are created. These are available distributions, methods for estimating parameters and confdence intervals and the possibilities of generating outputs. The main contribution of this thesis is the test of many solutions for the elaborated criteria all captured in one table. As a fnal study some of the best ftting solutions are tested with the process of the life data analysis. As a result, a self-programmed solution in „“ is the best solution to maximize the automation of the given life data analysis. The thesis also explains the process of turning a chosen package with specifed functions into a usable app. This thesis is interesting for people who want an overview over the former and current software solutions for life data analysis and their possibility for automation.

Kurzzusammenfassung In der folgenden Bachelorarbeit werden die Möglichkeiten der Automatisierung der Le- bensdatenanalyse untersucht. Im Besonderen soll ein Prozess der Instandhaltung der Firma Rolls-Royce Deutschland automatisiert werden. Hierfür werden grundsätzliche Informationen über die Analyse von Lebensdaten in der technischen Industrie herausge- arbeitet. Anschließend wird die Analyse für den Beispielprozess händisch durchgeführt, um Aufwand und notwendige Arbeitsschritte aufzuzeigen. Mit dem daraus resultierenden Wissen werden Kriterien für die automatisierte Lösung erstellt. Hierunter befnden sich verfügbare Verteilungen, Methoden zur Parameterschätzung und Schätzung von Konf- denzintervallen und Möglichkeiten der Erstellung von Outputs. Unter Anwendung dieser Kriterien ist es nun möglich viele verschiedene Softwarelösungen miteinander zu ver- gleichen. Anschließend werden die am besten geeigneten Lösungen ausgewählt, um den Prozess der Lebensdatenanalyse mit ihnen durchzuführen und zu vergleichen. Schließlich wird ein in „R“ selbst programmiertes Programm aufgrund seiner Flexibilität und maxi- malen Automatisierungsfähigkeit als beste Lösung ausgewählt. Die Arbeit erklärt auch den Prozess der Verwendung von vorhandenen Paketen in der Programmiersprache „R“ und dem Aufbau einer Nutzeroberfäche, die Funktionen dieser Pakete verwendet. Sie ist besonders interessant für Leute, die einen Überblick über die Lebensdatenanalyse und deren vergangene und aktuelle Softwarelösungen bekommen möchten. Ebenfalls spricht sie Leute an, die statistische Prozesse in der Programmiersprache „R“ automatisieren wollen.

Inhaltsverzeichnis

1. Einleitung ...... 1 1.1. Motivation ...... 1 1.2. Fragestellung ...... 1 1.3. Hypothesen ...... 2 1.4. Vorgehen ...... 2

2. Stand der Technik ...... 3 2.1. Reliabilty Centered Maintenance ...... 3 2.2. Lebensdatenanalyse ...... 4 2.2.1. Defnition von Zuverlässigkeit ...... 5 2.2.2. Defnition von Versagen ...... 6 2.2.3. Defnition von Lebensdauerdaten ...... 6 2.2.4. Defnition des Probability-Plots ...... 8 2.2.5. Defnition relevater Verteilungen ...... 9 2.2.6. Defnition der Weibull-Verteilung ...... 15 2.3. Lebensdatenanalyse automatisiert ...... 16 2.3.1. Bestehende kommerzielle Lösungen ...... 17 2.3.2. ...... 20 2.3.3. Lösungen in Excel ...... 21 2.3.4. Lösungen in Programmiersprachen ...... 21

3. Manuelle Lebensdatenanalyse ...... 24 3.1. Voraussetzungen ...... 24 3.2. Beispieldaten ...... 24 3.3. Ermitteln von Versagenswahrscheinlichkeiten ...... 25 3.4. Grafsche Arbeit mit dem Probability-Plot ...... 26 3.4.1. Erstellung des Plots ...... 26 3.4.2. Einzeichnen der Daten ...... 29 3.5. Ermitteln der Funktion ...... 29 3.5.1. Mediane-Rang-Regression ...... 30 3.5.2. Maximum-Likelihood-Schätzung ...... 31 3.5.3. Vergleich von Medianer-Rang-Regression und Maximum-Likelihood- Schätzung ...... 32 3.6. Ermitteln von Konfdenzintervallen ...... 33 3.6.1. Beta-Binomiale-Grenzen ...... 33 3.6.2. Likelihood-Verhältnis-Grenzen ...... 34 3.6.3. Fisher-Matrix-Grenzen ...... 36 3.7. Werte berechnen ...... 36

4. Automatisierungskonzept für die Lebensdatenanalyse ...... 39 4.1. Defnition der Anforderungen ...... 39 4.1.1. Vorgehen zur Ermittlung der Anforderungen ...... 39

i 4.1.2. Mathematisch-funktionale Anforderungen ...... 39 4.1.3. Anforderungen an Aufbau & Schnittstelle ...... 40 4.1.4. Zusammenfassung der Anforderungen ...... 41 4.2. Lösungsanalyse ...... 42 4.3. Lösungsimplementierung in „R“ ...... 43 4.3.1. Vorhandene Funktionen des Pakets ...... 43 4.3.2. Programmierung der grafschen Benutzeroberfäche ...... 45 4.3.3. Erweiterungen ...... 48

5. Ergebnisse ...... 51 5.1. Einlesen der Daten ...... 51 5.2. Einstellung der Optionen ...... 54 5.3. Output ...... 58

6. Diskussion ...... 62

7. Fazit ...... 64

8. Ausblick ...... 66

Anhang ...... I

A. Lösungsvergleichstabelle ...... I

B. Quellcode ...... VIII B.1. Anwendung der Funktionen aus dem „weibulltools“-Paket ...... VIII B.1.1. Konfdenzintervallfunktionen ...... VIII B.1.2. Plotfunktionen ...... VIII B.1.3. Lebenszeit und Wahrscheinlichkeit ...... IX B.2. Funktionsaufrufe in der „Shiny“-Serverlogik ...... IX B.3. Erweiterungen und Änderungen der vorhandenen Funktionen ...... X

C. Automatisierte Lebensdatenanalyse in weiteren Programmen ...... XII C.1. „JMP“ ...... XII C.2. „SuperSMITH“ ...... XII C.3. „“ ...... XV C.4. „Weibull-DR“ ...... XV C.5. „NCSS“ ...... XVII C.6. „MATLAB“ ...... XVIII

D. Weitere Lösungen ...... XIX

ii Abbildungsverzeichnis 1. Traditionelle Ansicht zum Teileversagen ...... 3 2. Sechs Versagensmuster ...... 4 3. Rechts und links zensierte Datenpunkte ...... 8 4. Vergleich von Typ-1- und Typ-2-Zensur ...... 9 5. Wahrscheinlichkeitsdichtefunktion der Standardexponentialverteilung . . 13 6. Probability-Plot für die Weibull-Verteilung ...... 28 7. Versagenspunkte im Weibull-Probability-Plot ...... 29 8. Funktion im Weibull-Probability-Plot, ermittelt mit der Medianen-Rang- Regression ...... 30 9. Funktion im Weibull-Probability-Plot, ermittelt mit der Maximum-Likelihood- Schätzung ...... 31 10. Funktion mit Beta-Binomialer-Konfdenzregion zu X-Werten im Weibull- Probability-Plot ...... 35 11. Funktion mit Beta-Binomialer-Konfdenzregion zu Y-Werten im Weibull- Probability-Plot ...... 35 12. Funktion mit Beta-Binomialer-Konfdenzregion zu X-Werten im Weibull- Probability-Plot ...... 37 13. Idee zum Designs der Benutzeroberfäche ...... 46 14. Implementierte Version des User Interface ...... 47 15. Oberfäche der Dateneingabe in einer Tabelle in „“ ...... 51 16. Softwareoberfäche „Weibull++“...... 52 17. Wahl der Art der Daten bei Projekterstellung in „Weibull++“...... 52 18. Oberfäche der Dateneingabe in Tabelle in „Weibull++“...... 53 19. Oberfäche der Dateneingabe in „Relyence Weibull“ ...... 53 20. Oberfäche der Lebensdatenanalyse in der selbstprogrammierten Lösung in„R“ ...... 54 21. Optionen und Output der Verteilungsidentifkation in „Minitab“ . . . . . 55 22. Optionen und Output der Verteilungsübersicht in „Minitab“ ...... 55 23. Optionen und Output der Verteilungsanalyse in „Minitab“ ...... 56 24. Optionsauswahl der Lebensdatenanalyse in „Weibull++“...... 56 25. Best-Fit-Option in „Relyence Weibull“ ...... 57 26. Plot-Output und Optionen der Lebensdatenanalyse in „Relyence Weibull“ 57 27. Erweiterte Optionen zur Manipulation der Lebensdatenanalyse in der selbstprogrammierten Lösung in „R“ ...... 58 28. Output der Lebensdatenanalyse als Übersicht in „Weibull++“...... 59 29. Output des Probability-Plots in „Weibull++“...... 59 30. Rechner in „Weibull++“...... 60 31. Output des Verteilungsassistenten in „Weibull++“...... 60 32. Probability-Plot und Verteilungsinformationen im Output der selbstpro- grammierten Lösung in „R“ ...... 61 33. Weitere Outputs der Lebensdatenanalyse in der selbstprogrammierten Lö- sung in „R“ ...... 61

iii 34. Vergleich der Verteilungen in der selbstprogrammierten Lösung in „R“ . . 62 35. Output der Lebensdatenanalyse in „JMP“ ...... XII 36. Grafscher Output der Lebensdatenanalyse in „SuperSMITH“ ...... XIII 37. Output der Lebensdatenanalyse in „SuperSMITH“ ...... XIII 38. Optionen der Lebensdatenanalyse in „SuperSMITH“ ...... XIV 39. Berechnungsmethoden in „SuperSMITH“ ...... XIV 40. Auswahl der Lebensdatenanalyse in „Statistica“ ...... XV 41. Output der Lebensdatenanalyse in „Statistica“ ...... XV 42. Oberfäche und Optionswahl in „Weibull-DR“ ...... XVI 43. Output der Lebensdatenanalyse in „Weibull-DR“ ...... XVI 44. Output der Lebensdatenanalyse in „NCSS“ ...... XVII 45. Verschiedene Analysearten in „NCSS“ ...... XVII 46. Optionen der Lebensdatenanalyse in „NCSS“ ...... XVIII 47. Output der Lebensdatenanalyse mit der Distribution-Fitter-Funktion in „MATLAB“ ...... XVIII

Tabellenverzeichnis

1. Nietendaten ...... 25 2. Nietendaten mit angepassten Rängen ...... 26 3. Nietendaten mit Medianrängen ...... 26 4. Konstruktion der Abszisse ...... 27 5. Konstruktion der Ordinate ...... 28 6. Nietendaten mit Beta-Binomialen-Grenzen ...... 34 7. Softwarevergleich ...... I

Listings 1. Vorbereitung der Arbeitsfäche in „R“ ...... 43 2. Erstellung der benötigten Datenstruktur ...... 44 3. Berechnung der Medianen-Ränge und Versagenswahrscheinlichkeiten . . . 44 4. Durchführung der Medianen-Rang-Regression ...... 44 5. Durchführung der Maximum-Likelihood-Schätzung ...... 44 6. Einlesen der veränderten Funktionen ...... 50 7. Ermittlung der Konfdenzintervalle mithilfe der Beta-Binmial-Grenzen . .VIII 8. Ermittlung der Konfdenzintervalle mithilfe der Fisher-Matrix-Grenzen .VIII 9. Erstellung des Weibull-Probability-Plots im „weibulltools“-Paket . . . . .VIII 10. Einzeichnen der Verteilung in den Weibull-Probability-Plot im „weibulltools“- Paket, inklusive Vorbereitung für das Einzeichnen von Fisher-Matrix- Grenzen ...... VIII 11. Einzeichnen der Fisher-Matrix-Grenzen in den Weibull-Probability-Plot im „weibulltools“-Paket ...... IX iv 12. Berechnung der Ausfallwahrscheinlichkeit zu bestimmten Lebenszeiten . .IX 13. Berechnung der Lebenszeit zu bestimmten Ausfallwahrscheinlichkeiten . .IX 14. Erstellung der Ränge als Dataframe in der „Shiny“-Serverlogik ...... IX 15. Auführung der ml_estimation() in der „Shiny“-Serverlogik ...... IX 16. Auswahl der Schätzmethode anhand von User-Inputs in der „Shiny“-ServerlogikX 17. Änderungen für Beta-Binomiale-Grenzen unterhalb des Datenbereiches .X 18. Änderungen für Beta-Binomiale-Grenzen oberhalb des Datenbereiches . .X 19. Änderungen für die Funktionsdarstellung außerhalb des Datenbereiches .X 20. Änderungen für die Konfdenzdarstellung außerhalb des Datenbereiches 1XI 21. Änderungen für die Konfdenzdarstellung außerhalb des Datenbereiches 2XI

v

1. Einleitung

Diese Bachelorarbeit befasst sich mit der Datenanalyse von Versagenszeiten technischer Systeme. In jedem Bereich der Industrie und Forschung ist dies ein wichtiger Teil des Erkenntnisgewinns und der Produktverbesserung. Besonders bei sicherheitsrelevanten Komponenten in der Luft- und Raumfahrt ist es wichtig, das Ausfallverhalten von Teilen zu erkennen, zu analysieren und vorherzusagen. Um diese Lebensdatenanalyse efzienter zu gestalten, wird in dieser Arbeit die Möglichkeit einer Automatisierung diskutiert.

1.1. Motivation Diese Arbeit entstand in Zusammenarbeit mit Rolls-Royce Deutschland, kurz RRD, die zu dieser Zeit die „OPS-TIMAL“-App entwickeln. In dieser App sollen digitale Kopien aller Einzelteile erstellt und viele verschiedene Informationen und Daten zu diesen ge- speichert werden. Zu jedem Teil sind dann digital beispielsweise Lagerbestände und Ein- bauanleitungen vorhanden. So soll das Konzept der Reliability Centered Maintenance, kurz RCM, im Wartungsbereich von RRD verbessert werden. Ein großer Bestandteil der RCM ist die Zuverlässigkeitsanalyse der Teile, da sie Rückschlüsse auf das Teilverhalten liefert, und daher einen Anhaltspunkt für eine Wartungsstrategie liefert.

1.2. Fragestellung Das Ziel dieser Bachelorarbeit ist es, die Möglichkeiten und Vorteile einer automatisier- ten Zuverlässigkeitsanalyse mit dem Fokus auf der Weibull-Verteilung zu untersuchen und eine optimale Lösung für die Anforderungen der Implementierung zu fnden. Hierzu werden Hintergründe und Vorteile der allgemeinen Lebensdatenanalyse betrachtet und Vergleiche von der analogen Analyse zur ausgewählten automatisierten Lösung getätigt. Implementiert wird die automatisierte Lösung bei der keylight GmbH, die die „OPS- TIMAL“-App für Rolls-Royce Deutschland entwickelt. In diesem Add-On sollen mit aktuellen Wartungsdaten und bekannten Parametern live Probability-Plots für einzelne Teile und Versagensarten erstellt werden. Außerdem sollen weitere Anteile der Analyse, wie beispielsweise die Anzeige bestimmter Lebensdauerkennwerte und die Vorhersage über zu erwartende Ausfälle in einem Zeitintervall, implementiert werden. Die Lösung wird daher an den von RRD vorgegebenen Anforderungen bewertet. Bei der Zuverläs- sigkeitsanalyse liegt der Fokus auf der Verwendung der Weibull-Verteilung. Aus einem Expertengespräch war zu erfahren, dass sich das Verhalten vieler der verwendeten Teile nach dieser Verteilung richtet und dass in Tests Sollparameter für die einzelnen Ver- halten ermittelt wurden. Der automatisierte Prozess soll mit dem üblichen Verfahren verglichen, und Vor- und Nachteile sollen herausgearbeitet werden. Außerdem soll die beste automatisierte Lösung für den beschriebenen Prozess gefunden werden.

1 1.3. Hypothesen Durch die Automatisierung des Prozesses der Lebensdatenanalyse ergeben sich viele Vor- teile. Es gilt diese in der folgenden Arbeit zu beweisen. Viele Methoden werden durch die Durchführung der Analyse mit Hilfe von Computerprogrammen zeitlich beschleu- nigt oder durch deren Verwendung überhaupt erst ermöglicht. Dadurch ergibt sich eine Steigerung der Wertschöpfung im Prozess, welcher durch die Bereitstellung von mehr Methoden außerdem variabler wird. Die Automatisierung kann auch von statistisch un- erfahrenen Nutzern bedient und verstanden werden.

1.4. Vorgehen In diesem Kapitel wurde die grundlegende Frage dieser Bachelorarbeit motiviert und beschrieben. Aus dieser Frage wurden anschließend verschiedene Hypothesen abgeleitet, die es zu belegen gilt. Im nächsten Kapitel wird der aktuelle Stand der Technik erläu- tert. Es wird die Lebensdatenanalyse und ihre Rolle in der RCM beschrieben. Der Fokus wird dabei auf die Analyse mithilfe der Weibull-Verteilung gelegt. Außerdem werden ak- tuelle automatisierte Beispiele der Lebensdatenanalyse, in Form von Software, genannt und untersucht. In Kapitel 3 wird eine Lebensdatenanalyse analog für einen Satz von Testdaten durchgeführt, um die verschiedenen Methoden und die zu automatisierenden Schritte zu zeigen und zu diskutieren. Anschließend werden die automatisierten Lösun- gen anhand von ausgearbeiteten Kriterien untersucht und verglichen. In diesem Kapitel fnden sich außerdem die Anforderungen der Anwender und die Überlegungen für die eigene Programmierung eines Programmes wieder. Diese Untersuchung der automati- sierten Lösungen fndet in Kapitel 4 statt. Eine Auswertung der automatisierten Lösung befndet sich im Kapitel 5. Hier werden die Ergebnisse aus den beiden vorangegange- nen Kapiteln verglichen. Für einige ausgewählte Lösungen wird die Lebensdatenanalyse wieder mit dem Testdatensatz durchgeführt. In Kapitel 6 werden die automatisierten Prozesse verglichen und diskutiert. Schließlich wird in Kapitel 7 eine für die Anforde- rungen optimale Lösung ausgewählt. Kapitel 8 gibt anschließend einen Ausblick über weitere Themen, die im Zusammenhang mit der Fragestellung behandelt werden könn- ten. In dieser Arbeit wird aus Gründen der Irrelevanz des Geschlechts sowie der besseren Les- barkeit das generische Maskulinum verwendet. Weibliche und anderweitige Geschlech- teridentitäten werden dabei ausdrücklich mit gemeint.

2 2. Stand der Technik In diesem Kapitel wird ein Überblick über die Lebensdatenanalyse, ihren Hintergrund, ihre Entstehung sowie die verwendeten Begrifichkeiten und ihre Einordnung in War- tungskonzepte wie dem Reliability Centered Maintenance gegeben.

2.1. Reliabilty Centered Maintenance Reliability Centered Maintenance, kurz RCM, und zu deutsch zuverlässigkeitsfokussierte Wartung, ist einer der wirkungsvollsten Prozesse zur Wartung von Anlagen [Reg12, S. 6– 12] [Mou97, S. 1–20]. Ein Grund ist die universelle Anwendbarkeit auf Flugzeuge, Wind- kraftanlagen, Klimaanlagen [Won00] und Stromverteilungssysteme [Ado10]. Außerdem können die Methoden sowohl auf das komplette System, als auch auf Untersysteme und einzelne Komponenten angewendet werden. Vor dem Zweiten Weltkrieg bestand Wartung in der Industrie aus dem Konzept: Re- paratur der Komponenten, wenn sie kaputt sind. Prävention von Ausfallzeit war nicht wichtig, da die Teile nicht sehr kompliziert und haltbar ausgelegt waren und dazu die Wartung einfach war. Während des Zweiten Weltkriegs wurden Ausfälle dramatischer, da viele Arbeiter fehlten, eine hohe Mechanisierung der Fabriken stattfand und die Güter dringend benötigt wurden. Es wurde festgestellt, dass Teileversagen direkt mit der Zeit korreliert, und dass die Versagenswahrscheinlichkeit eines Teils durch Gebrauch nach der ausgelegten Lebensdauer rapide ansteigt, siehe Abbildung 1.

Abbildung 1: Traditionelle Ansicht zum Teileversagen [Reg12, S. 6 (übersetzt)]

Daher ergab sich die neue Wartungsstrategie, Teile nach einem fx gesetzten Inter- vall präventiv zu warten oder zu tauschen, um die Versagenswahrscheinlichkeit wieder zu verringern, beziehungsweise den Verschleißbereich nach hinten zu verschieben. Dies brachte die Ausfallzeit unter Kontrolle, lenkte jedoch die Aufmerksamkeit der Industrie auf die hohen Kosten, die durch die präventive Wartung entstanden. In den späten 1950ern wurden in der kommerziellen Luftfahrt neue Teile eingeführt, die zu einer Überarbeitung der Wartungspläne führten. In diesem Zweig der Industrie ist die präventive Wartung besonders wichtig, um Ausfälle und etwaige Abstürze zu verhin- dern. Die Pläne lieferten allerdings nicht die gewünschte Wirkung, da die Ausfälle von

3 Teilen rapide anstiegen. Ein logischer Schluss unter der Prämisse, dass Versagen und Betriebsdauer direkt miteinander zusammenhängen, war es, die Wartungsintervalle zu verkürzen. Die Teile verhielten sich aber dennoch nicht wie gewollt, meist felen sie sogar früher aus. Somit wurden neue Korrelationen zwischen Versagen und Einsatzdauer von Teilen erforscht. Die Nutzungsdauer und das Versagen der Teile unterliegt den sechs in Abbildung 2 dargestellten Abhängigkeiten.

Badewannenkurve Versagensverhalten A,B und C zeigen einen direkten Konstante Versagensrate, Zusammenhang zwischen Alter danach Abnutzung und der Wahrscheinlichkeit des Konstanter Anstieg der Versagens. Diese steigt mit Versagenswahrschinlichkeit höherem Alter. Anfangs niedrig, anschließend Versagensverhalten D,E und F Anstieg auf konstantes Versagen hingegen zeigen, dass mit fortschreitendem Alter kein Zufälliges Versagen Zusammenhang zwischen Alter und Versagenswahrscheinlichkeit Frühversagen, danach zufällig besteht. Das Versagen findet zufällig statt.

Abbildung 2: Sechs Versagensmuster [Reg12, S. 9 (übersetzt)]

Aus diesem Erkenntnisgewinn wurden Prinzipien der RCM in der kommerziellen Luft- fahrtindustrie entwickelt. Grundlegend ist die RCM wie folgt defniert: „Reliability- centered Maintenance: a process used to determine what must be done to ensure that any physical asset continues to do what its users want it to do in its present operating context.“ [Mou97, S. 7] (Zuverlässigkeitsorientierte Wartung: Ein Prozess um festzustel- len, was getan werden muss, um sicherzustellen, dass ein Teil die von ihm verlangte Aufgabe unter vorliegenden Bedingungen erfüllt.). Eine wichtige Frage, die sich im Prozess stellt, ist: „Was kann getan werden, um Ver- sagen vorherzusagen oder zu vermeiden?“. Ein Versuch, das Versagen von Teilen einem Verhalten zuzuordnen und somit Versagen vorherzusagen oder eine geeignete Methode zur Vermeidung zu bestimmen, wird mit der Lebensdatensanalyse unternommen.

2.2. Lebensdatenanalyse Die Lebensdatenanalyse, im Englischen life data analysis, beinhaltet statistische Me- thoden zur Vorhersage und Bewertung von Produktzuverlässigkeiten. Hierfür werden Lebensdaten, auch Zuverlässigkeitsdaten genannt, aus Tests in verschiedenen Phasen des Produktentstehungszyklusses oder aus der Überwachung im Gebrauch gesammelt. Ziele der Lebensdatenanalyse sind unter anderem:

• die Vorhersage von Produktzuverlässigkeiten,

• die Vorhersage von Garantiekosten,

4 • die Lieferung von Anhaltspunkte für den RCM-Prozess,

• die Verfolgung von Produkten im Einsatz, um Informationen zu Versagensgründen und Methoden der Zuverlässigkeitsverbesserung zu erhalten [ME98, S. 2],

• das Finden des perfekten Zeitpunkts, um das kostengünstigste Verhältnis zwischen geplantem Tausch und zufälligem Ausfall herzustellen [Abe93, S. 1–2].

Außerdem wird die Lebensdatenanalyse in frühen Stadien der Entwicklung oder Über- arbeitung folgendermaßen verwendet:

• Überprüfung von Efekten einer Designänderung,

• Verbesserung und Überprüfung der Zuverlässigkeit durch Erstellung von beschleu- nigten Testbedingungen, um Versagensdaten von hochsicheren Teilen zu erlangen [ME98, S. 2].

Grob besteht der Analyseprozess aus vier Schritten: 1. dem Sammeln der Daten, 2. dem Plotten, also dem Einzeichnen, der Daten, im speziellen Probability-Plot, siehe Abbildung 2.2.4, 3. dem Anpassen eines statistischen Modells und einer Verteilung an die Daten und 4. der Auswertung [ME98, S. 21–22]. Das Modell wird anschließend ver- wendet, um Vergleiche anzustellen, Vorhersagen und Entscheidungen zu trefen oder Systemverbesserungen zu ermöglichen [Law02, S. 2–3]. In der Literatur zu den statistischen Methoden wird oft von Produkten gesprochen, da die statistischen Methoden universell Anwendung fnden [ME98, S. 3] [Nel82, S. 2–3]. Anwendungsbeispiele fnden sich in Bereichen von Industrie und Forschung der Biologie, Medizin, Wirtschaft und Soziologie. Deshalb fndet man in der Literatur auch oft Synony- me für Lebensdaten, wie Zuverlässigkeitsdaten, Versagens-Zeit-Daten, Event-Zeit-Daten oder Überlebensdaten(life data, reliability data, failure-time data, survival data, event- time data). In dieser Arbeit wird im Folgenden allgemein ein technisches System als Teil behandelt und bezeichnet. Der Fokus liegt aufgrund der Anforderungen auf Teilen aus der Luftfahrtindustrie. Die Beispiele sollen zeigen, dass die Methodik so universell ist, dass hiermit alle Systeme behandelt werden können, was einen großen Vorteil der Lebensdatenanalyse darstellt.

2.2.1. Defnition von Zuverlässigkeit Zuverlässigkeit im technischen Sinne kann als Wahrscheinlichkeit eines technischen Sys- tems gesehen werden, seine defnierte Funktion unter festgelegten Bedingungen über einen festgelegten Zeitraum zu erfüllen. [ME98] Diese Defnition kann in vier grundlegende Teile gespalten werden: 1. Wahrscheinlichkeit

2. defnierte Funktion

3. festgelegte Bedingungen

5 4. festgelegter Zeitraum [Var13, S. 13]. Die Wahrscheinlichkeit ist ein numerischer Wert für die Bewertung der Zuverlässigkeit des Systems. Der Zeitraum ist die Zeit vom Beginn der Arbeit des Systems bis zu dem Zeitpunkt, an dem das System die defnierte Funktion nicht mehr erfüllt. Die defnier- te Funktion bestimmt, was ein System leisten soll, also auch wann ein System versagt und wie es versagt. Die festgelegten Bedingungen sind ebenfalls sehr wichtig, um eine Aussage über die Zuverlässigkeit zu trefen. Ein Großteil von Zuverlässigkeitsproblemen folgt aus der Nutzung der Systeme unter Bedingungen, die von den zuvor festgelegten Bedingungen abweichen und so das Versagen früher herbeiführen. Man geht beispiels- weise davon aus, dass eine Autobatterie in warmen Klimazonen länger funktioniert als in kalten Gebieten [ME98, S. 16–18]. Ähnliche Abweichungen im Rahmen der normalen Nutzung, wie Feuchtigkeit, Temperatur oder Belastung, führen zur Varianz für die Ver- teilung des Versagens im Modell. Materialgrößen wie Zähigkeit und Härte sind ähnlich zu betrachten, da diese nie konstant für alle Teile sein werden. Diese Varianz wird sich schon in dem Modell wiederfnden, welches aus den Prototypentests hervorgeht. Liegt die Nutzung jedoch weit außerhalb solcher Spielräume, kann dies kritische Folgen haben und die Zuverlässigkeit drastisch verändern [Reg12, S. 20–21]. Am 28. April 1988 verlor der Flug 243 der Aloha Airlines in Reisefughöhe einen Großteil seiner Außenhülle. Grund hierfür war eine stärkere Rissbildung bedingt durch die Verwendung des Flugzeugs mit drei Start-Lande-Zyklen pro Flugstunde, obwohl es nur für die Hälfte ausgelegt war.

2.2.2. Defnition von Versagen Ein nicht mehr funktionierendes System hat versagt [Var13, S. 23–24]. Das Versagen eines technischen Systems ist also das Ende der Möglichkeit dieses Systems, seine be- stimmte Funktion zu erfüllen. Versagen kann dabei in folgende Arten aufgeteilt werden [Nel82, S. 6]. Komplettes Ver- sagen tritt ein, wenn das System ab einem bestimmten Zeitpunkt abrupt seine Funktion nicht mehr erfüllt, beispielsweise durch Reißen eines Antriebsriemens. Das System kann aber auch teilweise, beziehungsweise über einen längeren Zeitraum versagen. Dies ge- schieht, wenn durch einen Prozess, wie zum Beispiel Abrieb von Reifen, die Funktion vom System immer schlechter erfüllt wird. Hier muss eine gewisse Grenze festgelegt wer- den, um das Versagen eindeutig zu bestimmen. Dies geschieht meist schon in Absprache von Produzent und Kunde, ist aber von hoher Wichtigkeit, um Klarheit zu schafen und Streitigkeiten zu vermeiden.

2.2.3. Defnition von Lebensdauerdaten In der Lebensdatenanalyse sind spezielle statistische Methoden erforderlich, da die Daten oft besondere Eigenschaften mitbringen [Nel82, S. 6–9] [ME98, S. 4–15]. Die benötigten Daten sind nur die Zeit, die das System arbeitet bis es der zu untersuchenden Versagens- art erliegt. Hierbei kann die Lebensdauer in Stunden, Tagen, aber auch in Start-Stop- oder Heiß-Kalt-Zyklen vorliegen. Auch die Höhe der Belastung oder die zurückgelegte Entfernung bis zum Versagen können als Wert genutzt werden. Im Folgenden wird vom

6 Zeitpunkt gesprochen. Auch der Beginn der Zeitaufzeichnung muss im Vorhinein geklärt werden. Ob der Pro- duktionszeitpunkt, der Zeitpunkt der ersten Inbetriebnahme oder der Zeitpunkt des Verkaufs gewählt wird, hängt von den vorhandenen Daten ab. Je genauer das Leben des Teils durch die Daten beschrieben werden kann, desto besser. Jedoch sollten alle Einfüs- se auf die Lebensdauer (z.B. Alterung durch Lagerung vor dem Einsatz) berücksichtigt werden. Oft wird mit Extrapolation von Daten gearbeitet, da nur wenig Daten vorhanden sind. Annahmen von Tests bei 85℃ werden auf 40℃ oder 1% Ausfall wird auf 60% über- tragen, um den Zeitpunkt zu fnden [ME98, S. 3]. Außerdem ist eine Übertragung von Wissen aus vorangegangenen Tests eine weitere Form der Extrapolation. Beispielsweise werden Modellannahmen aus alten Tests für aktuelle Testgruppen bevorzugt betrachtet oder sogar Parameter der Modelle übernommen. Die aufgezeichneten Lebensdauern einer Lebensdatenanalyse werden grundsätzlich in drei Kategorien eingeteilt [Law02, S. 49–71]: 1. unzensierte Daten, im Englischen uncensored data, 2. links-zensierte Daten, im Englischen left censored data oder interval censored data, 3. rechts-zensierte Daten, im Englischen right censored data: • Typ-1-zensierte Daten, • Typ-2-zensierte Daten, • zufällig zensierte Daten. Unzensierte Daten erhält man, wenn man den genauen Zeitpunkt des Versagens des Systems aufzeichnet. Von Zensur spricht man, wenn die Zeit des Versagens nicht exakt bestimmt werden kann. Dies kann zwei Gründe haben. Die Überprüfung der Funktion bei Wartungen fndet meist in festgelegten Intervallen statt. Teilen, die zu dem Zeitpunkt aufgrund von Versagen getauscht werden, wird eine Lebenszeit bis zu diesem Wartungs- intervall zugeschrieben, obwohl nicht genau bekannt ist, wann die Teile zwischen dem letzten und aktuellen Wartungsintervall ausgefallen sind. Der wirkliche Zeitpunkt des Versagens liegt links vom erfassten Datenpunkt, daher spricht man in diesem Fall von links-zensierten Daten. Linke Zensur muss aber nicht zwangsläufg in Intervallen statt- fnden. Funktioniert ein Teil bei der Aufzeichnung der Lebensdauer noch, spricht man von einer rechten Zensur oder auch einer Suspension. Da das Teil noch nicht ausgefal- len ist, liegt die tatsächliche Lebensdauer rechts von dem aufgezeichneten Datenpunkt. Zufällige rechte Zensur fndet bei Aufzeichnung im normalen Einsatz statt, wenn eine Momentaufnahme gemacht wird und jedes funktionierende System mit unterschiedlicher Lebenszeit an diesem Punkt rechts zensiert wird. Zu sehen sind beide Zensurarten in direktem Vergleich in Abbildung 3. Ein Pfeil bedeutet hierbei, dass das System zum Zeitpunkt der Untersuchung noch nicht versagt hat. Ein Strich bedeutet, dass Versagen festgestellt wurde. Da alle Daten in dieser Abbildung zensiert sind, befndet sich die wahre Versagenszeit jedes Teils im Bereich der gestrichelten Linie.

7 Abbildung 3: Rechts und links zensierte Datenpunkte [ME98, S. 13]

Führt man einen Test über eine Laufzeit von 1000 Stunden durch, und ein Teil versagt bis zu diesem Zeitpunkt nicht, spricht man auch von einem rechts zensierten Datenpunkt. Hier wird das Versagen der Systeme bei 1000 Stunden protokolliert und somit zensiert. Diese spezielle rechte Zensur wird Typ-1-Zensur genannt. Hierbei gibt es einen fxen maximalen Zeitpunkt, bis zu dem Lebensdaten aufgezeichnet werden, und alle verblei- benden Teile werden zu diesem Zeitpunkt zensiert. Typ-2-Zensur fndet statt, wenn man beispielsweise den Test laufen lässt, bis drei Systeme versagen. Der maximale Zeitpunkt ist hierbei noch nicht defniert, aber die überlebenden Systeme werden am Zeitpunkt des Versagens des dritten Systems zensiert. Zu sehen ist dieser Unterschied in Abbildung 4. Während im linken Graphen System 5 und 6 ab einem festgelegten Zeitpunkt zensiert sind (Typ-1-Zensur) werden diese beiden Systeme im rechten Graphen zum Zeitpunkt des Versagens des vierten Systems zensiert (Typ-2-Zensur). Auch Systeme, die einer anderen Versagensart unterliegen, werden mit ihrer aufgezeich- neten Lebensdauer als Suspension, also zensierte Systeme, in die aktuelle Untersuchung mit aufgenommen [Nel82, S. 7–9].

2.2.4. Defnition des Probability-Plots Der Plot stellt das Herzstück der Analyse dar [Abe93, S. 1–3] [Nel82, S. 103–108]. Beim Probability-Plot befndet sich auf der X-Achse die Zeit des Versagen, die Y-Achse zeigt die kumulierte Wahrscheinlichkeit des Versagens. Auf diesem Probability-Plot werden zuerst die Versagenszeiten eingetragen. Die kumulierte Wahrscheinlichkeit wird dabei, wie in Kapitel 3.3 gezeigt, berechnet. Für die verschiedenen Verteilungen gibt es unter- schiedliche Plots, da die Achsen immer so skaliert sind, dass die kumulierte Verteilungs-

8 Abbildung 4: Vergleich von Typ-1- und Typ-2-Zensur [Nel82, S. 8] funktion, siehe Kapitel 2.2.5 die Verteilung der Punkte als Linie approximiert. Durch das Plotten der Punkte auf den verschiedenen Probability-Plots der einzelnen Verteilun- gen kann erkannt werden, welche Verteilung die Punkte am besten approximiert. Wenn ein grundlegendes Verhalten zur Versagensursache bekannt ist, sollte dies unbedingt mit einbezogen werden, um die Verteilung festzulegen. Folgen die Punkte auf dem Plot einer geraden Linie, ist die Annahme der Verteilung wahrscheinlich. Ausreißer können gut er- kannt werden, und es sollte untersucht werden, warum diese aufgetreten sind. Schließlich wird eine Gerade gezeichnet, die die Verteilung der Punkte so gut wie möglich appro- ximiert. Perzentile und Versagenswahrscheinlichkeiten zu speziellen Zeitpunkten sind nun einfach im Plot abzulesen. Die Approximation der Parameter ist jedoch funktionss- pezifsch und nicht immer so leicht. Ein Vorteil der Weibull-Verteilung ist, dass auch die Parameter direkt aus dem Plot abgelesen werden können. Durch den Plot und die Kenntnis über die Verteilung kann auch auf die Art des Versagens wie aus Abbildung 2 geschlossen werden. Die Vorhersagen folgen schließlich teilweise aus Berechnungen, aber auch aus der Arbeit mit dem Plot. Weitere Vor- und Nachteile fnden sich in [Nel82, S. 103–104].

2.2.5. Defnition relevater Verteilungen Obwohl die meisten Lebensdaten diskreter Natur sind, da beispielsweise nur die Stunden bei der Betriebsdauer aufgezeichnet werden, werden die meisten Daten als kontinuier- lich angenommen [ME98, S. 27]. Es gibt Methoden zur Analyse dieser diskreten Daten, die Literatur beschreibt aber hauptsächlich Methoden zur Modellierung der Daten auf kontinuierlichen Skalen. Das Problem der diskreten Daten liegt in der benötigten Menge von Daten, die gebraucht werden, um die Genauigkeit der Ergebnisse auf ein vergleich- bares Niveau zu bringen [Abe93, S. 1-3 – 1-4]. Darum werden folglich die Methoden für kontinuierliche Skalen verwendet und die Lebensdaten auch auf dieser Skala modelliert.

9 2.2.5.1. Versagen-Zeit-Funktionen Zur Darstellung der Wahrscheinlichkeitsvertei- lung der Fehlerzeit T werden vier verschiedene Funktionen genutzt: die kumulierte Verteilungsfunktion, die Wahrscheinlichkeitsdichtefunktion, die Überlebensfunktion oder auch Zuverlässigkeitsfunktion und die Gefahrenfunktion, auch momentane Ausfallrate genannt [ME98, S. 27–30] [Law02, S. 8–10]. Jede Funktion hat ihre Vorteile, und die Verwendung hängt vom Ziel der Betrachtung ab. Im Folgenden wird jede Funktion kurz beschrieben.

Kumulierte Verteilungsfunktion Die kumulierte Verteilungsfunktion, im Englischen cumulativ distibution function (kurz cdf), von T ist defniert als: F (t) = P r(T ≤ t) (1) Sie gibt die Wahrscheinlichkeit eines Systems an, vor einer gewissen Zeit t zu versagen. Andererseits kann F (t) auch als der Anteil einer Gesamtheit von Systemen betrachtet werden, der bis zum Zeitpunkt t versagt. P r() ist hierbei die Wahrscheinlichkeit, aus dem Englischen Probability, und wird später durch die Verteilungen geschätzt.

Wahrscheinlichkeitsdichtefunktion Die Wahrscheinlichkeitsdichtefunktion, im Eng- lischen probability density function (kurz pdf), ist als Ableitung von F (t) nach t defniert: dF (t) f(t) = (2) dt Sie stellt die relative Häufgkeit des Versagens als Funktion der Zeit dar. Die Wahr- scheinlichkeitsdichtefunktion ist unwichtiger in Anwendungen der Zuverlässigkeit.

Überlebensfunktion Die Überlebensfunktion, auch Zuverlässigkeitsfunktion genannt, im Englischen survival function (kurz sf) oder reliability function, ist das Komplement zur kumulierten Verteilungsfunktion. Defniert als: S(t) = 1 − F (t) (3) = P r(T > t) gibt sie die Wahrscheinlichkeit eines Systems an, bis zum Zeitpunkt t zu überleben. Alternativ fndet sich in der Literatur auch R(t) als Schreibweise für die Überlebens- funktion.

Gefahrenfunktion Die Gefahrenfunktion, manchmal auch momentane Versagensrate genannt, im Englischen hazard function (kurz hf) oder instantaneous failure rate, be- schreibt die momentane Versagensrate zum Zeitpunkt t. Die Defnition der Gefahren- funktion lautet: f(t) h(t) = (4) S(t) Für die mathematisch ausführlichere Defnition der Funktionen und weitere Zusammen- hänge wird auf [Nel82, Kapitel 2.1.] verwiesen. Im Anschluss liegt der Fokus auf der Verwendung der kumulierten Verteilungsfunktion.

10 2.2.5.2. Perzentile Perzentile sind wichtige Betrachtungsmerkmale von Zuverlässig- keitsverteilungen [Nel82, S. 22]. Das 100P te Perzentil tP ist die Zeit, zu der der Anteil P der Gesamtheit versagt. Berechnet durch:

P = F (tP ) (5) Aufgrund der Gleichung (5) wird die Position der kumulierten Verteilungsfunktion deut- lich. In einem Plot kann ein Perzentil abgelesen werden, indem man vom gewünschten Wert auf der Y-Achse horizontal bis zur Funktion geht und vertikal den zugehörigen Wert auf der Zeitachse abliest.

2.2.5.3. Charakteristische Werte Mit der Verwendung der Perzentile ist es möglich, charakteristische Werte zu berechnen und aus dem Plot abzulesen [Nel82, S. 23]. Das 50ste Perzentil ist der Median der Verteilung. Aus einem unverzerrten Plot der Wahr- scheinlichkeitsdichtefunktion ist der Modalwert am Maximum der Funktion abzulesen. Der arithmetische Mittelwert E(T ) berechnet sich als: ∫ ∞ E(T ) = S(t)dt (6) 0 Er wird auch als durchschnittliche beziehungsweise erwartete Lebenszeit bezeichnet (ver- gleiche Kapitel 3.7). Für weitere charakteristische Werte wie die Varianz und die Standardabweichung, die im Folgenden nicht weiter benötigt werden, wird der Vollständigkeit halber auf [ME98, S. 77–78] verwiesen.

2.2.5.4. Wichtige Verteilungen Viele verschiedene Verteilungen werden verwendet, um Versagensprozesse zu modellieren und Lebensdaten zu analysieren [Nel82, S. 16–44] [Cor14, S. 18–22] [ME98, S. 79–89] [Law02, S. 17–24]. Unter den univariaten Model- len, die in dieser Arbeit verwendet werden, um Versagen zu modellieren, gibt es einige Verteilungen, die durch ihre Möglichkeiten in der Anwendung eine zentrale Rolle in der Lebensdatenanalyse einnehmen. Bei der Betrachtung der Verteilungen werden keine Un- terscheidungen bezüglich des Schwellenparameters, auch Garantiezeit und im Englischen threshold genannt, gemacht. Kurz gesagt ist dieser Parameter eine Zeit γ ≥ 0, vor der ein System nicht versagen kann. Dies kann bei manchen Systemen zu einer besseren Schätzung der Verteilung führt, wenn physikalische Efekte das direkte Versagen ver- hindern. Als Beispiel seien hier Kugellager genannt, bei denen Versagen aufgrund von eliptischen Drehungen nicht direkt in der ersten Umdrehung auftreten kann. Die Vertei- lungen können um diesen Parameter einfach ergänzt werden, indem die Überlebenszeit t durch t′ = t − γ ersetzt wird, sodass die Bedingung t′ ≥ 0 gilt. Im Folgenden sollen die wichtigen Verteilungen kurz genannt und ihre Anwendungen beschrieben werden. Alle im Folgenden beschriebenen Verteilungen gehören zur Familie der Lage-Skalen- Verteilungen. Das bedeutet, dass sich jede kumulierte Verteilungsfunktion als (t − µ) P r(T ≤ t) = F (t; µ, σ) = Φ (7) σ

11 darstellen lässt, wobei Φ unabhängig von unbekannten Parametern ist. In diesem Fall ist −∞ < µ < ∞ der Lageparameter und σ > 0 der Skalenparameter der Vertei- lung. Gehört eine Verteilung mit der Zufallsvariable Y = log(T ) zur Familie der Lage- Skalen-Verteilungen, so gehört die Verteilung der Zufallsvariable T zur Familie der Log- Lage-Skalen-Verteilungen. Beispiele für solche Verteilungen unter den folgenden sind die Weibull-, die Lognormal- und die loglogistische Verteilung. Für weiterführende, detail- lierte Informationen zu verschiedenen Verteilungen wird auf [Nel82, Kapitel 2] verwiesen.

Die Exponentialverteilung Die Exponentialverteilung ist die erste Verteilung, die in der Geschichte der Lebensdatenanalyse weit verbreitet war. Trotz der limitierten Mög- lichkeiten wird sie aufgrund der einfachen statistischen Methoden oft verwendet. Die Besonderheit der Exponentialverteilung, die auch ihre limitierte Anwendung begründet, ist die konstante Versagensrate: h(t) = λ, (8) mit t ≥ 0 und λ > 0. Da f(t) = −S′(t) kann aus der Gleichung (4) folgender Zusam- menhang von h(t) und S(t) hergestellt werden: d h(x) = − ln(S(x)) (9) dx durch Umstellen

∫ t ( ) t (10) ln S(x) |0 = − h(x)dx 0 und Einsetzen der Randbedingung S(0) = 1, aus der Tatsache, dass alle Teile zum Anfang der Zeit funktionieren, folgt:

( ∫ t ) S(t) = exp − h(x)dx . (11) 0 Somit ist die Überlebensfunktion der Exponentialverteilung gegeben als:

S(t) = exp(−λt). (12) Mit S(t) erhält man f(t) durch den oben genannten Zusammenhang als: f(t) = λ exp(−λt). (13) Oft wird die Exponentialverteilung auch mit θ = λ−1 modelliert. Dies hat den Vorteil, dass der Mittelwert und die Varianz der Verteilung dann genau θ und θ2 sind. Für λ = θ = 1 wird die Verteilung auch Standardexponentialverteilung genannt. Die zugehörige Wahrscheinlichkeitsdichte ist in Abbildung 5 zu sehen. Aufgrund der konstanten Versagensrate ist das Risiko, im nächsten kurzen Zeitintervall zu versagen, unabhängig vom Alter des Systems. Diese Verteilung modelliert also eine Gesamtheit, die nicht altert. Sie ist angemessen, um zufälliges Versagen oder Systeme zu modellieren, die sich erst sehr viel später abnutzen als ausgelegt.

12 Abbildung 5: Wahrscheinlichkeitsdichtefunktion der Standardexponentialverteilung [Law02, S. 17]

Die Normalverteilung Die Normalverteilung ist eine der geläufgsten Verteilungen. In der Lebensdatenanalyse fndet sie allerdings nur in speziellen Fällen Anwendung. Der Vollständigkeit halber ist sie hier trotzdem aufgeführt. Die kumulierte Verteilungsfunk- tion lautet: (y − µ) F (y; µ, σ) = Φ (14) nor σ und die Wahrscheinlichkeitsdichtefunktion

1 (y − µ) f(y; µ, σ) = ϕ , (15) σ nor σ mit

( 1 ) (−z2 ) ∫ z ϕnor(z) = √ exp &Φnor(z) = ϕnor(w)dw (16) 2π 2 −∞ als die Standardnormalverteilung mit µ = 0, σ = 1. Obwohl die Normalverteilung in der Lebensdatenanalyse nicht oft verwendet wird, ist sie eine wichtige Grundlage für ein Modell, wenn der Logarithmus der Versagenszeiten normal verteilt ist.

Die Lognormalverteilung Ist die Zufallsvariable Y = log T normalverteilt, mit den Parametern µ und σ dann ist die Zufallsvariable T logarithmisch normalverteilt oder auch lognormalverteilt. Die kumulierte Verteilungsfunktion und die Wahrscheinlichkeits- dichtefunktion lauten:

(log(t) − µ) F (t; µ, σ) = Φ , (17) nor σ

1 (log(t) − µ) f(t; µ, σ) = ϕ , (18) σt nor σ

13 wobei ϕnor und Φnor pdf und cdf für die Standardnormalverteilung sind. Für die gene- rellen Ergebnisse ist es nicht entscheidend, welche Basis für den Logarithmus verwendet wird. Da sich aber die Parameter unterscheiden, ist es wichtig, eine einheitliche Basis für alle logarithmischen Lage-Skalen-Verteilungen zu benutzen, um so vergleichbare Werte zu erhalten. Im Folgenden wird daher e als Basis verwendet.

Die logistische Verteilung Die logistische Verteilung ähnelt stark der Normalvertei- lung, mit dem Unterschied, dass sie etwas längere „Enden“ hat. Ist die Zufallsvariable Y logistisch verteilt, so lauten ihre kumulierte Verteilungsfunktion:

(t − µ) F (t; µ, σ) = Φ (19) logis σ und ihre Wahrscheinlichkeitsdichtefunktion

1 (t − µ) f(t; µ, σ) = ϕ (20) σ logis σ mit

exp(z) exp(z) (21) ϕlogis(z) = 2 &Φlogis(z) = ( ). (1 + exp(z)) 1 + exp(z) Der Vorteil der logistischen Verteilung gegenüber der Normalverteilung ist die Möglich- keit, ihre kumulierte Verteilungsfunktion in geschlossener Form darzustellen. In Zeiten von computergestützten numerischen Berechnungen ist dies allerdings hinfällig.

Die loglogistische Verteilung Ähnlich zur Lognormalverteilung ist eine Zufallsvaria- ble T loglogistisch verteilt, wenn Y = log(T ) logistisch verteilt ist. Durch den engen Zusammenhang der logistischen Verteilung zur Normalverteilung sind auch die loglogis- tische Verteilung und die Lognormalverteilung eng verbunden. Die kumulierte Vertei- lungsfunktion und die Wahrscheinlichkeitsdichtefunktion lauten analog:

(log(t) − µ) F (t; µ, σ) = Φ (22) logis σ

1 (log(t) − µ) f(t; µ, σ) = ϕ . (23) σt logis σ

Die Gumbel-Verteilung Die Gumbel-Verteilung wird auch kleinste Extremwertvertei- lung, im Englischen smallest extrem value distribution (kurz SEV), genannt. Sie bildet eine Zufallsvariable T ab. Die kumulierte Verteilungsfunktion lautet:

(t − µ) F (t; µ, σ) = Φ (24) sev σ

14 und die Wahrscheinlichkeitsdichtefunktion

1 (t − µ) f(t; µ, σ) = ϕ (25) σ sev σ mit

( ) ( ) Φsev(z) = 1 − exp − exp(z) & ϕsev(z) = exp z − exp(z) (26) und

−∞ < µ < ∞ & σ > 0. (27)

Die Verteilung beschreibt Daten von bestimmten extremen Phänomenen, wie beispiels- weise Hochwasser oder Regenfall zu Dürrezeiten. In der Lebensdatenanalyse kann die Verteilung verwendet werden, um Daten zu modellieren, die nach einem gewissen Zeit- punkt massiver Abnutzung unterliegen.

2.2.6. Defnition der Weibull-Verteilung Um die zentrale Rolle der Weibull-Verteilung in der Lebensdatenanalyse zu repräsentie- ren, wird diese hier separat ausführlicher erklärt als die Verteilungen in Kapitel 2.2.5 [Wei51] [Nel82, S. 36–39]. Die kumulierte Verteilungsfunktion lautet:

[ ( )β] t F (t; η, β) = 1 − exp − . (28) η

Die weite Verbreitung ist der Fähigkeit der Weibull-Verteilung geschuldet, andere Vertei- lungen nachzustellen und somit viele Verhaltensweisen zu modellieren. Wallodi Weibull, der Entdecker der Verteilung, schrieb in seiner Vorstellung der Verteilung in einem Paper 1951, die Verteilung modelliere Daten folgender Beispiele gut:

• Streckgrenze eines Bofors-Stahls,

• Gewichtsverteilung von Flugasche,

• Faserstärke von Baumwolle,

• Länge von Cyrtoideae,

• Ermüdungslebensdauer von St37-Stahl,

• Größe von erwachsenen Männern der britischen Inseln,

• Breite von grünen Bohnen.

15 Für Beispieldaten aus diesen Bereichen wurde in [Wei51] die Verteilung untersucht. Na- türlich fndet die Verteilung auch in diversen Bereichen des Maschinenbaus Anwendung. Beispielsweise wird sie für die Modellierung von Systemen wie Kugellagern, Automobil- teilen und elektrischen Isolationen verwendet. Die Weibull-Verteilung ist hierbei in der Lage, verschiedene Versagensarten und damit alle Bereiche aus der Badewannenkurve, vergleiche Abbildung 2, zu modellieren. Der Parameter β beschreibt die Steigung der Verteilung im Probability-Plot, gibt aber auch, wie in Kapitel 3.7 beschrieben, Auskunft über die Art des Versagens und liefert Rückschlüsse über den Bereich in der Badewan- nenkurve. Der Parameter η liefert eine Zeit, zu der 63, 2% der Systeme versagen. Die Weibull- Verteilung wird durch die Parametrisierung von β = 1 zur Exponentialvertei- lung, mit λ = η. Durch Änderung der Parametrisierung kann die Weibull-Verteilung mit den Lage-Skalen- Verteilungen verglichen werden. In diesem Fall werden Skalenparameter 1 und σ = β Lageparameter µ = log(η) als neue Funktionsparameter defniert. Unterliegt die Zufalls- variable T der Weibull-Verteilung, so kann die Zufallsvariable Y = log(T ) durch die Gumbelverteilung modelliert werden. Also lassen sich die kumulierte Verteilungsfunk- tion und die Wahrscheinlichkeitsdichtefunktion der Weibull-Verteilung auch darstellen als:

( ) log(t) − µ F (t; µ, σ) = Φ (29) sev σ und

( ) [ ( )β] 1 log(t) − µ β ( t )β−1 t f(t; µ, σ) = ϕ = exp − . (30) σt sev σ η η η

2.3. Lebensdatenanalyse automatisiert Manche Methoden der Lebensdatenanalyse sind ohne die Hilfe von Computerberech- nungen nur schwer durchzuführen [Nel82, S. viii]. Durch Computerprogramme werden numerische Rechenprozess ermöglicht, die benötigt werden, um beispielsweise Maximum- Likelihood-Schätzungen, im Englischen maximum likelihood estimation (kurz MLE), durchzuführen, siehe Kapitel 3.5.2. Außerdem helfen computergestützte Berechnungen bei der Durchführung von simulationsbasierten Methoden. Wie in [Nel82, S. 9] über die Datenanalyse geschrieben wurde, besteht diese aus vielen Schritten, von denen die statistische Analyse in der Literatur über Lebensdatenanalyse nur die Schritte der Anpassung eines Modells an die Daten bis zu der Validierung des ausgewählten Modells umfasst [Nel82, S. 9–11]. Alle anderen Schritte, vom Herausar- beiten des Problems bis hin zur Interpretation der gewonnen Informationen, benötigen Sachverständnis, Einschätzung und Erfahrung von Ingenieuren oder Datenanalysten. Selbst die Modellvalidierung ist durch Erfahrungen oft beeinfusst: So kann ein Modell beispielsweise sehr gut durch grafsche Konsistenz mit den Daten ausgemacht werden.

16 Hierbei kann sich die Meinung sehr leicht unterscheiden, ob die Linie die Punkte gut trift oder nicht [Nel82, S. 109]. Berechnete Hilfswerte geben weitere Anhaltspunkte, um zu erschließen, wie gut das Modell die Daten abbildet. Außerdem ist die Daten- analyse ein iterativer Prozess, und man sollte die Daten auf viele Weisen betrachten, um möglichst viel Wissen zu erlangen. Es folgt ein Überblick über Software, die für die Automatisierung der Lebensdatenanalyse genutzt wurde und wird.

2.3.1. Bestehende kommerzielle Lösungen Bereits früh wurde erkannt, wie viel Potential in der Automatisierung dieser Prozesse steckt. In [Nel82, S. 118] fnden sich Programme zur Erstellung von Plots zu hauptsäch- lich unzensierten Daten. Zu „STATSYSTEM“ fnden sich leider keine aktuellen Informa- tionen außer der angegebenen Quelle. „STATPAC“ ist ein Programm zur statistischen Auswertung von Umfragen [WS17]. Nach 35 Jahren des Vertriebs ist die Software seit 2017 gratis zu erhalten. „BMDP“ war ein frei zu verwendendes Programm, entwickelt von Wilfrid Dixon von der Universität von Kalifornien, Los Angeles [Wik19a]. Der Name steht für Bio-Medical Data Package und enthielt Unterprogramme für parametrische und nicht-parametrische statistische Analysen. Das Programm wurde allerdings verkauft und ist seit 2017 nicht mehr erhältlich. Der Hersteller bietet nun nur noch „nQuery“ an. „nQuery“ ist ein Pro- gramm zur Erstellung und Auswertung von klinischen Studien [Wik20g]. Hierbei liegt der Fokus auf einem adaptiven Design während der Studiendurchführung. Als weiteres Programm zur Erzeugung von Probability-Plots wird auch „SAS“ genannt [KSF11]. Der Name steht als Abkürzung für statistical analysis system, was die Nutzung als Auswertungsprogramm zur Analyse von Daten widerspiegelte. Heute vertreibt SAS Institute Inc. „SAS“ als eine herstellergebundene Softwareumgebung für Datenauswer- tung. Sie enthält eine der vollständigsten Sammlungen von Statistikroutinen, bedient allerdings auch Anwendungen über die Statistik hinaus. Als letztes Computerprogramm ist „OMNITAB“ aufgeführt [Wik19b] [ADD] [Ste12, S. 201–202]. Dessen Nachfolger „Minitab“ wird seit 1983 als gewerblich nutzbare Light- version von Minitab Inc. vertrieben. „Minitab“ ist ein umfangreiches Statistiktool, wel- ches dem Nutzer im Bereich der Lebensdatenanalysen Funktionen wie verteilungsgebun- dene und verteilungsfreie Analysen zur Verfügung stellt. Hierbei können verschiedene Zensurarten berücksichtigt werden, verschiedene Methoden zur Modellierung der Daten angewandt werden, und die Analyse reparierbarer Systeme oder die Analyse mehrerer Versagensarten können durchgeführt werden. Alle Ergebnisse können in Plots visuali- siert werden. Die beispielhafte Durchführung solcher Analysen und auch Beispiele zu Methoden des gesamten Feldes der Zuverlässigkeitsanalyse sind in [Dav09, S. 178–180, Kapitel 6.5.3 Lebensdatenanalyse], in [PG16, S. 25–64, Section II] mit vielen unter- schiedlichen Anwendungen anhand von Fallstudien und in [Min19] zu fnden. Um die dauerhafte Ausführung der Analysen mit händischer Auswahl zu vermeiden, ist es auch möglich, für „Minitab“ Macros zu schreiben. In [Nel82, S. 335] fnden sich weitere Programme, die die Maximum-Likelihood-Schätzung umsetzen. Genannt werden zusätzlich „CENSOR“, „Surveg“ und „Weib“. „Weib“ war ein

17 Programm der General Electric Information Service Company und lieferte ähnliche Er- gebnisse wie „Statpac“, aber nur für die Weibull-Verteilung. Aktuelle Informationen fn- det man zu diesem Produkt nicht mehr. „CENSOR“ wurde entwickelt, um genau die Punkte der Erstellung von Probability-Plots und der Maximum-Likelihood-Schätzung durch Computer zu ermöglichen [MD81]. Hier- bei lag der Fokus auf der Analyse von zensierten Daten. Zum heutigen Stand des Pro- grammes sowie zur Erhältlichkeit liegen leider keine weiteren Informationen vor, daher wird davon ausgegangen, dass „CENSOR“ nicht mehr erhältlich und einsetzbar ist. Auch zu „SURVREG“ fndet man leider kein eigenständiges Computerprogramm, und auch die angegebene Quelle konnte nicht gefunden werden. Die Recherche führte nur zu einem Paket zur Survival-Analyse der Programmiersprache „R“. In der aktualisierten Paperback Edition aus dem Jahr 2003 werden fünf weitere Soft- wareprogramme im Preface auf den Seiten xii-xiii genannt [Nel03, S. xii–xiii]. Zuerst fndet sich „AGSS“, ein von IBM in „APL“ geschriebenes Statistikpaket, welches die grundlegenden Aspekte der Lebensdatenanalyse wie lineare und nichtlineare Regressio- nen implementiert [Lew94]. Allerdings sind auch anspruchsvollere Aufgaben wie Quali- tätskontrollen und beschleunigte Lebenstests möglich. „AGSS“ steht hierbei für A Gra- phical Statistical System. Das äußert sich besonders in der Möglichkeit der Erstellung verschiedenster 3D-Plots. Leider fndet man keine weiteren Informationen zur aktuellen Verwendung oder Erwerbbarkeit von „AGSS“. Eine weitere Entwicklung von SAS Institute Inc., die hier Erwähnung fndet, ist ein umfangreiches Programm, welches unter dem Namen „JMP“ vertrieben wird [SAS18a] [SAS18b]. Gute Informationen zur generellen Durchführung der Lebensdatenanalyse in „JMP“ fndet man in [Dav09]. In [Dav09, S. 178–179, in Kapitel 6.5.2] wird die Arbeit für die Durchführung der Analyse in „JMP“ deutlich. Es verhält sich wie ein Tabel- lenprogramm und der Nutzer muss viele Funktionen anwenden, um einen Output zu erstellen.. Die Anwendung der einzelnen Schritte kann per Script automatisiert werden, um den wiederkehrenden Aufwand zu vermeiden. Schwierig wird es jedoch, bei Nutzung der Scripts weiterhin Einfüsse auf die Analyse zu besitzen. Außerdem benannt wird eine Softwaresuite von der Firma ReliaSoft [Rel20a]. Inhalt dieser Suite ist das Programm „Weibull++“. Dieses liefert verschiedene Parameterschät- zungen für gängige Lebensdauerverteilungen. Das Programm stuft die Verteilungen mit verschiedenen Anpassungstests ein und liefert dazu eine Auswahl an Methoden zur Schätzung der Konfdenzintervalle. All dies lässt sich mit Plots in Berichten speichern. Zusätzlich sind Funktionen im Bereich der Gewährleistungsanalyse, Zuverlässigkeits- Testdesigns und der Monte-Carlo-Simulation, einem stochastischen Verfahren, um weite- re Methoden der Lebensdatenanalyse anzuwenden, implementiert. Bei der Monte-Carlo- Simulation wird eine große Anzahl eines Experimentes mit einer zufälligen Startzahl durchgeführt, um so, auf Grundlage des Gesetzes der großen Zahlen, Probleme nume- risch zu lösen [Wik20f]. Die „SuperSMITH“ Software, entwickelt von Fulton Findings, setzt in drei Modulen die Methoden zur Lebensdatenanalyse aus [Abe93] um [Fin20]. In „SuperSMITH Weibull“ liegt der Fokus auf der Erstellung von Probability-Plots mithilfe der Rang-Regression. Auch die Maximum-Likelihood-Schätzung ist implementiert, jedoch standardmäßig mit

18 dem [Abe93] entwickelten Reduced Bias Adjustment. Die Software setzt die Lebensda- tenanalyse fast ausschließlich grafsch um, was mit den Aussagen des Buches über die Anwendung übereinstimmt. „SPLIDA“ ist eine Erweiterung zu „S-PLUS“, einer generellen Statistikoberfäche in der Programmiersprache „S“ [Pen18] [Mee08] [ME04]. „S-PLUS“ wird derzeit von TIBCO Software Inc. vertrieben. „SPLIDA“ ist eine kostenlose Erweiterung, die eine große Band- breite von Methoden der Lebensdatenanalyse beinhaltet. Modellierung der Daten mit verschiedenen Verteilungen, Analyse von mehreren Versagensarten und auch der Ver- gleich von mehreren Verteilungen ist möglich. Sowohl grafsche Outputs in Formen von Plots als auch Tabellen werden dem Nutzer geliefert. Das letzte Update von „SPLIDA“ ist vom 28.5.2008 und bezieht sich auf die „S-PLUS“ Versionen 6.x und 7.0. Aktuellste „S-PLUS“ Version ist 8.2 aus dem Jahr 2008. Die Entwicklung der Umgebung endete mit der Erweiterung zur Kompatibilität mit der Programmiersprache „R“, einer Open- Source Konkurrenz zu „S“, auf die später noch weiter eingegangen wird. Auch in [Kal02, S. 403] fnden sich viele Programme, um die Durchführung der Lebens- datenanalyse zu automatisieren. Bisher noch nicht genannt wurden: „SPSS“ von IBM, „Epilog Plus“ und „Spida“. Diese implementieren alle keine parametrische Modellierung der Daten. Die Software „Epicure“ von Riskscience und „Egret“ von cytel software sind auf die Auswertung von klinischen Studien im Medizinbereich ausgelegt. Das Programm „Limdep“ implementiert zwar wichtige Verteilungen für die Durchführung der Lebens- datenanalyse, liefert jedoch keinen grafschen Output in Form eines Probability-Plots. „“ ist ein umfangreiches Statistiktool, welches auch einen großen Bereich der Lebens- datenanalyse beinhaltet [Kal02, S. 403] [LLC20b] [LLC20a]. Erwähnenswert ist die Ein- bindung von „Python“- und „SQL“-Code sowie die automatische Erstellung von Reports beziehungsweise Automatisierung durch Code allgemein. Leider fehlt für eine übersicht- liche und einfach verständliche Ausgabe der Lebensdatenanalyse der Probability-Plot. Auch in der Software „Statistica“ lassen sich „R“- und „Python“-Skripte ausführen [Kal02, S. 403] [Sta20c] [Tib20b] [Tib20a]. Diese können die in Tabellen gespeicherten Daten ma- nipulieren. Doch auch ohne Erweiterung bringt „Statistica“ eine Menge fertiger Funktio- nen mit. Im Bereich der Lebensdatenanalyse ist die Software durch die Branchenbereiche der Medizin und Pharmaindustrie geprägt. Dies merkt man auch an den implementierten Methoden. Es gibt zwar Funktionen zum Modellieren der Daten durch verbreitete Ver- teilungen, allerdings fehlen hier die Lognormalverteilung und die logistische sowie die loglogistische Verteilung. Obwohl neben der Maximum-Likelihood-Schätzung auch die Least-Squares-Regression zur Schätzung der Parameter verwendet werden kann, wird nicht ersichtlich, ob man die Daten sowie die modellierte Verteilung in dem speziell ver- zerrten Probability-Plot ausgeben kann. Eine weitere interessante Lösung zur automatisierten Durchführung von Lebensdaten- analysen ist eine Entwicklung des amerikanischen Militärs unter dem Namen „RAMFIT“ [MW90]. Das Tool ist speziell auf die Analyse von Daten von Raketen ausgelegt. Wich- tig hierbei war die Unterscheidung zwischen Intervalldaten, die hervorgehen, wenn die Raketen am Boden gelagert werden, und kontinuierlichen Daten, die erhoben werden, sobald die Raketen an die Flugzeuge montiert sind. Das Programm erhält hierbei aus der Reliability Asset Monitoring Database der US Air Force die Daten. Der Benutzer

19 kann auswählen, welchen Raketentypen und welchen Zeitraum er betrachten möchte. Passend zu der Auswahl werden die Daten geladen. Anschließend kann der Benutzer mit einer gewünschten Verteilung die Daten modellieren, oder das Programm entscheidet anhand von Goodness-of-Fit-Paramtern, welche Verteilung die Daten am besten abbil- det. Anschließend werden verschiedene Plots dargestellt, und der Benutzer erhält weitere charakteristische Werte. Das Programm ist ausschließlich dem US-Militär zugänglich, ist aber ein gutes Beispiel für eine schlanke, zugeschnittene Umsetzung der Lebensdaten- analyse. „Weibull-DR“, entwickelt von der Applications Research Inc., ist ein Softwarepaket mit verschiedenen Routinen zur Weibull-Verteilung [App20]. Nach Eingabe der Daten wer- den dem Nutzer in einem Ausgabebildschirm viele Informationen zur Verfügung gestellt. Neben dem Probability-Plot werden zu den wichtigen Verteilungsparametern auch ein- zelne Quantilwerte mit Konfdenzintervallen angezeigt. Außerdem hat der Nutzer hier immer noch die Möglichkeit, die Schätzmethode anzupassen und das Konfdenzintervall zu ändern. All dies kann als PDF oder direkt als Report ausgegeben werden. Die Firma Relyence vertreibt unter dem Namen „Relyence Weibull“ ebenfalls eine ferti- ge Softwarelösung für die Lebensdatenanalyse [Rel20b]. Diese ist Teil einer kompletten Suite rund um Softwarelösungen zu Zuverlässigkeits- und Fehleranalysen. Zusätzlich zu der Implementierung von verschiedenen Methoden und wichtigen Verteilungen liegt der Fokus auf der fexiblen Anbindung, sowohl beim Import der Daten als auch beim Export der Ergebnisse. Statgraphics ist mit dem Programm „Statgraphics Centurion 18“ ein weiterer erfolgrei- cher Vertreter von Statistiksoftware [Sta17] [Sta20a] [Sta20b]. Das umfangreiche Pro- gramm liefert mit die größte Auswahl an kontinuierlichen und diskreten Funktionen und implementiert dazu passende Probability-Plots. Im Bereich der Lebensdatenanalyse und Zuverlässigkeit gibt es spezielle Methoden für die Regressionsanalyse, damit auch mit zensierten Daten umgegangen werden kann, und es fnden sich Methoden zur Analy- se reparierbarer Systeme und zur Erstellung von Testplänen. Wie bei vielen genannten Programmen besteht auch hier mit dem so genannten StatFolio die Möglichkeit der Auf- zeichnung von Makros. Des weiteren diente die Tabelle „Other abilities“ von [Wik20a] mit der Fähigkeit „Sur- vival Analysis“ als Input für weitere zu untersuchende Software. „NCSS“ wird hieraus als letzte Kaufösung ausgewählt [NCS20a] [NCS20b]. Hierbei implementiert „NCSS“ im Gegensatz zu den anderen dort aufgeführten Programmen die speziellen Methoden der Lebensdatenanalyse, sprich der Zensierung von Versagenszeitdaten, der Modellierung dieser mit den genannten Verteilungen und der Erstellung von Probability-Plots. (In Anhang D befndet sich der Vollständigkeit halber eine Liste mit allen nicht aufgeführten Softwarepaketen aus dieser Liste und dem Grund der Abwesenheit in der Untersuchung.)

2.3.2. Freeware Eine komplett kostenlose Variante für Datenanalyse und Visualisierung liefert die von Kyenslab Inc. entwickelte Software „KyPlot“ [Yos02] [Kye20]. Die Software besteht aus einem Tabellenteil, in den der Nutzer Daten eintragen kann. Die Visualisierung der Da-

20 ten geschieht in dem Abbildungsbereich, in dem nicht nur Plots erstellt werden können, sondern auch Zeichnungen anfertigbar sind. Das Programm bietet zusätzlich zu mathe- matischen Funktionen und Funktionen eines Tabellenkalkulationsprogramms auch viele Methoden zur statistischen Analyse von Daten. Um Lebensdaten zu analysieren, steht hier bei der parametrischen Modellbildung die Weibull-Verteilung und die Cox-Methode zur Verfügung. Dazu bietet die visuelle Analyse noch die Möglichkeit der Maximum- Likelihood-Schätzung für zwei- und dreidimensionale Plots.

2.3.3. Lösungen in Excel Folgend fnden sich AddOns und AddIns zu dem klassischen Tabellenkalkulationspro- gramm „Excel“. „XLStat“ ist ein AddOn für „Excel“, um spezifsche statistische Analysen einfacher durch- zuführen [Add20] [Add19]. In der Applied Life Science-Version, eigentlich für Biologen und Mediziner entwickelt, fnden sich verschiedene Methoden der Lebensdatenanalyse wieder. Entscheidend ist die Parametric Survival Regression, bei der zu den in Excel vorhandenen Daten eine Verteilung modelliert wird. Das Paket Applied Forecasting lie- fert Möglichkeiten der einfachen Monte-Carlo-Simulation. Das AddIn „ExStat“ für „Excel“ ist deutlich schlanker aufgebaut [18]. Die Lebensda- tenanalyse ist einer von fünf Bereichen, auf den sich das AddOn konzentriert. Aller- dings gibt es dafür auch nur eine geringere Verteilungsauswahl, die sich auf die Normal-, Lognormal- und Weibull-Verteilung beschränkt. Auch die Methoden zur Bestimmung der Konfdenzintervalle beschränkt sich auf die Fisher-Matrix-Grenzen und die Likelihood- Verhältnis-Grenzen. Seit dem 10.10.2018 ist das kostenlose AddOn nicht mehr verfügbar.

2.3.4. Lösungen in Programmiersprachen In der Software „MATLAB“ von MathWorks werden auszuführende Befehle in einer ei- genen Programmiersprache geschrieben und anschließend interpretiert oder als Skript gespeichert [Wik20d] [Mat20]. Ihren Ursprung hat die Software in der numerischen Be- rechnung mithilfe von Matrizen. Erweitert wird die Software durch viele Toolboxen. Für die Lebensdatenanalyse ist hierbei die „ and Machine Learning Toolbox“ von Interesse. Diese liefert Funktionen für die Maximum-Likelihood-Schätzung und für die Modellierung verschiedener Verteilungen. Jedoch sind alle vorhandenen Funktionen nur auf die Berechnung ausgelegt, und die Erstellung und Ausgabe von Plots muss im geschriebenen Skript selbst übernommen werden. Die vordefnierte „dfttool“-Funktion liefert hierfür eine Oberfäche allerdings werden im Probability-Plot keine Konfdenzin- tervalle ausgegeben. Durch die steigende Popularität von „Python“ wird im Folgenden nach vorhandenen Pa- keten gesucht, die etwas mit Lebensdatenanalyse zu tun haben und verwendbar sind, um eine automatisierte Auswertung von Daten durchzuführen [Uzb19]. Hierbei kommt man auf das Paket „Weibull – A library for utilisation of Weibull analytical function for Reliability engineering“ von Rustam Uzbekov. Diese Bibliothek liefert Funktionen

21 zur Durchführung der Lebensdatenanalyse mit der Weibull-Verteilung. Der Fokus liegt hierbei auf der Modellierung der Daten mit der Weibull-Verteilung und der Integration eines fertigen Programms mit einer CMMS/EAM-Datenbank. Auch die Bibliothek „weibull“ ist auf die Modellierung von Lebensdaten ausschließlich mit der Weibull-Verteilung ausgelegt [Jon19]. Die Bibliothek „Reliability - a python library for reliability engineering“ beinhaltet im Gegensatz zu den vorher genannten Paketen viele unterschiedliche Methoden und Ver- teilungen [Rie20]. Bis auf die logistische und loglogistische Verteilung sind alle wichtigen Verteilungen der Lebensdatenanalyse enthalten. Zusätzlich zu den wichtigen parametri- schen und nicht parametrischen Funktionen der Lebensdatenanalyse sind auch erweiterte Teilgebiete, wie zum Beispiel Methoden zur Berechnung von preisoptimierten Wartungs- intervallen, Methoden zu reparierbaren Systemen und Modellerstellung bei beschleunig- ten Versagenstests enthalten. Die Programmiersprache „R“ basiert genau wie „S-Plus“ auf der Programmiersprache „S“ [ETH02] [The]. Beides sind implementierte Dialekte dieser. Der Unterschied liegt in der Lizensierung. Wie bereits erwähnt, wird „S-Plus“ kommerziell vertrieben, während „R“ als Teil des GNU -Projekts frei erhältlich und nutzbar ist. Aufgrund der freien Nutzbar- keit entstand eine große Nutzergemeinde, die im Comprehensive R Archive Network viele verschiedene Pakete, Sammlungen von Funktionen, frei zur Verfügung stellt. Hier sind auch Pakete für die Lebensdatenanalyse vorhanden. Das umfangreichste Paket „survival“ implementiert die in [TG00] vom Autor vorgestellten Methoden zur Lebensdatenanaly- se als Funktionen in „R“ [The20]. Ausgelegt auf die Analyse von medizinischen Daten eignen sich einige Funktionen für Versagensdaten aus dem Maschinenbau, zu sehen an der Verwendung einiger Funktionen in später genannten Paketen. Das „WeibullFit“-Paket stellt nur eine Funktion zur Verfügung, um Daten mithilfe der Weibull-Verteilung zu modellieren [FM19]. Hierbei wird die Maximum-Likelihood-Schätzung verwendet, um die Funktionsparameter zu schätzen. Außerdem wird dazu ein passender Probability-Plot gespeichert. Das Paket „weibullness“ führt einen Goodness-of-Fit-Test für die Weibull-Verteilung durch und liefert Maximum-Likelihood-Schätzungen für die drei Parameter [Par19]. Das Paket „WeibullR“ ist Nachfolger des älteren, nicht mehr vorhandenen „abrem“-Pakets [SSO19] [Ope20]. Die Abkürzung stand für Abernethy Reliability Methods. Diese Paket und sein Nachfolger versuchen, die in [Abe93] von Robert B. Abernethy vorgestellten Methoden in „R“ zu implementieren. Dieses Paket wird als Projekt von OpenReliabi- lity.org unter [Ope20] aufgeführt. Erwähnenswert ist die App, die auf der Grundlage des „abrem“-Pakets in Verbindung mit dem „Shiny“-Paket, zu fnden unter [Cha20], ent- standen ist und die Funktionen in ein benutzerfreundliches GUI einpfegt. Diese App ist unter [Car] zu fnden. Zuletzt sei das Paket „weibulltools“ genannt [Hen19b]. Dieses stellt verschiedene Funktio- nen für nicht-parametrische Schätzungen bereit. Hinzu kommen verschiedene Methoden zur Schätzung der Parameter von vielen Verteilungen, die in der Lebensdatenanalyse verwendet werden. Zwei unterschiedliche Funktionen für die Schätzung der Intervall- grenzen sind auch Inhalt des Pakets. Außerdem gibt es die Möglichkeit, verschiedene Versagensarten in einem Datensatz zu unterscheiden und mehrere Verteilungen für die

22 Modellierung zu verwenden. Ausgaben dieser Funktionen werden mit dem „plotly“-Paket, zu fnden unter [Sie20] als interaktive Plots gestaltet.

23 3. Manuelle Lebensdatenanalyse

Dieses Kapitel zeigt an einem einfachen Beispiel von Testdaten den Prozess der Le- bensdatenanalyse manuell durchgeführt. Hierbei soll deutlich werden, welche Schritte automatisiert werden sollen und warum dies sinnvoll ist. Es werden allgemeine Voraus- setzungen für den Prozess erarbeitet, die sich auch auf die Automatisierung beziehen. Verschiedene Methoden werden für die Anwendung beschrieben und miteinander vergli- chen.

3.1. Voraussetzungen Bevor die Analyse beginnt, müssen Voraussetzungen getrofen werden, um die Analy- se zu begrenzen und auf den Anwendungsbereich anzupassen [Law02, S. 38]. Aufgrund der vielen Vorteile, die parametrische Modelle mit sich bringen, wie die Verwendung von likelihood-basierten Methoden, die einfache Vergleichbarkeit von Modellen, leich- te Vorhersage von Werten und generelle Übersichtlichkeit, wird festgelegt, ein solches zur Modellierung der Daten zu verwenden. Parametrische Modelle sind außerdem der Hauptbestandteil der Lebensdatenanalyse, wenn bekannt ist, dass die Teile mit einer Verteilung modelliert werden können, oder bekannt ist, welche Verteilung ihr Verhal- ten beschreibt. In dem untersuchten Prozess verhält sich der Großteil der Teile nach der Weibull-Verteilung, lautet die Aussage aus Expertengesprächen. Ein weiterer wich- tiger Entscheidungspunkt ist, ob die Zeitachse als kontinuierlich oder diskret angenom- men wird. Obwohl die Messung der Laufzeit immer einer gewissen Körnung unterliegt oder beispielsweise die Anzahl der Heiß-Kalt-Zyklen nur ganze Zahlen sein kann, arbei- ten die meisten Lebenszeitanalysemethoden und -programme mit einer kontinuierlichen Zeitachse, vergleiche Kapitel 2.2.3 & 2.2.5. Der Großteil der Literatur beschäftigt sich mit kontinuierlichen Modellen. Diese Gründe bedingen die Entscheidung, die Zeitachse als kontinuierlich anzunehmen und passende Modelle für die Analyse zu verwenden. Mit den Entscheidungen, ein parametrisches Modell mit kontinuierlicher Zeitachse zu ver- wenden, wurde das Ziel und die Analyse konkretisiert und der Prozess der Modellierung kann beginnen.

3.2. Beispieldaten Die eigentliche Analyse beginnt mit dem Sammeln von Daten. Folgende Daten kommen vom Versagen von Nieten einer Lufteinlassdichtung eines Kompressors [Abe93, S. 2–5]. Bei Inspektionen festgestelltes Versagen veranlasste eine Neukonstruktion. Mit den alten Nieten wurden bei einem beschleunigten Labortest Basisdaten gesammelt, um einen Ef- fekt der Designänderung nachzuweisen. Diese Basisdaten sind in Tabelle 1 zu fnden und sollen im Folgenden dienen, um die Lebensdatenanalyse beispielhaft durchzuführen. Sie werden auch verwendet, um die Analyse mithilfe der Software durchzuführen, vergleiche Kapitel 5.

24 Tabelle 1: Nietendaten

Seriennummer Versagenszeit (Minuten) Anmerkungen 1 90 Bördelversagen 2 96 Bördelversagen 3 100 Bördel gelockert 4 30 Bördelversagen 5 49 Bördelversagen 6 45 Bördel gelockert 7 10 Nase versagt 8 82 Bördelversagen

3.3. Ermitteln von Versagenswahrscheinlichkeiten Um die Daten im Probability-Plot einzuzeichnen, müssen zusätzlich zu den Versagenszei- ten, den X-Werten, auch die Wahrscheinlichkeit, die Y-Werte, ermittelt werden [Abe93, S. 2–7]. Zuerst werden den Daten nun Ränge zugewiesen, um später die Plotting- Positionen zu ermitteln. Hierzu werden die Daten der Versagenszeit nach aufsteigend sortiert. Da in den Anmerkungen drei verschiedene Fehlerarten zu fnden sind, ist es wichtig festzulegen, dass in diesem Fall der Fehler des Bördelversagens interessiert und untersucht wird. Die anderen Zeiten gehören trotzdem zur Analyse und gehen als Sus- pensionen in die Betrachtung mit ein. Sie werden nicht geplotted, beeinfussen jedoch die berechneten Ränge. Dieser Einfuss zeigt sich in der Gleichung zur Berechnung der Rän- ge. Vorgestellt von Leonard G. Johnson in [Joh64, S. 38] und abgeändert zur leichteren Berechnung von Drew Auth ergibt sich für die angepassten Ränge:

i = angepasster Rang (invertierter Rang) · (vorherig angepasster Rang) + (N + 1) (31) = . (invertierter Rang) + 1

Die sortierten Daten nach der Versagenszeit sowie der angepasste Rang i fnden sich für den Datensatz in der Tabelle 2. Mit den angepassten Rängen i kann nun mithilfe der Eulerschen Betafunktion oder der Bernardsapproximation die angepasste mediane Versagenswahrscheinlichkeit, ein Schätz- wert für F (t), für die Nieten berechnet werden. In Tabelle 3 wurde die Versagenswahr- scheinlichkeit mit der in Gleichung (32) dargestellten Approximation berechnet. Für weitere Informationen zu der Approximation und verschiedenen Möglichkeiten zur Po- sitionierung sei auf [BB55] und auf [Abe93, Kapitel 5.5] verwiesen.

(i − 0, 3) Bernard’s Medianer Rang = (32) (N + 0, 4)

25 Tabelle 2: Nietendaten mit angepassten Rängen

Rang invertierter Rang Zeit SN i 1 8 10 S 7 Suspension 2 7 30 V 4 (7 · 0 + (8 + 1)) ÷ (7 + 1) = 1, 125 3 6 45 S 6 Suspension 4 5 49 V 5 (5 · 1, 125 + (8 + 1)) ÷ (5 + 1) = 2, 438 5 4 82 V 8 (4 · 2, 438 + (8 + 1)) ÷ (4 + 1) = 3, 750 6 3 90 V 1 (3 · 3, 750 + (8 + 1)) ÷ (3 + 1) = 5, 063 7 2 96 V 2 (2 · 5, 063 + (8 + 1)) ÷ (2 + 1) = 6, 375 8 1 100 S 3 Suspension

Tabelle 3: Nietendaten mit Medianrängen

SN Zeit i Medianer Rang 7 10 S Suspension 4 30 V 1, 125 9.8% 6 45 S Suspension 5 49 V 2, 438 25.5% 8 82 V 3, 750 41.1% 1 90 V 5, 063 56.7% 2 96 V 6, 375 72.3% 3 100 S Suspension

3.4. Grafsche Arbeit mit dem Probability-Plot Dieser Abschnitt zeigt, wie ein Plot für die kumulierte Verteilungsfunktion konstruiert wird. Anschließend werden die Beispieldaten eingezeichnet und eine Weibull-Verteilung angenähert, um die Daten zu modellieren.

3.4.1. Erstellung des Plots Das Ziel des speziellen Probability-Plots ist es, die kumulierte Verteilungsfunktion als Gerade darzustellen [Abe93, S. 2-12 – 2-13]. Somit wird eine möglichst einfach mit dem Auge abgeschätzte Approximation der Daten ermöglicht, und der Betrachter erhält schneller und einfacher die wichtigen Informationen aus dem Plot. Da jede Verteilung unterschiedliche kumulierte Verteilungsfunktionen aufweist, ist auch die Konstruktion eines eigenen Plots für jede Verteilung notwendig. Im Folgenden wird die Konstruktion eines Weibull-Probability-Plots dargestellt, da anschließend eine Weibull- Verteilung die Beispieldaten modellieren soll. Analog ist auch mit allen anderen Ver- teilungen zu verfahren. Ist etwas über die Physik der Versagensart bekannt und kann diesbezüglich eine Annahme über die Verteilung getrofen werden, sollte der zugehörige Probability-Plot natürlich zuerst konstruiert werden. Ansonsten ist es aber nötig und

26 sinnvoll, die Daten auf unterschiedlichen Plots zu betrachten, wie in Kapitel 2.2.4 be- reits erwähnt. Natürlich gibt es auch vorgefertigte Plots für jede Verteilung. Durch die Verwendung dieser automatisiert man allerdings den Prozess der Lebensdaueranalyse bereits. Folgend wird also die kumulierte Verteilungsfunktion der Weibull-Verteilung, gegeben in Gleichung (28), linearisiert. Dies geschieht durch folgende Umstellungen:

[ ( )β] t F (t) = 1 − exp − (33) η [( )β] 1 t = exp (34) (1 − F (t)) η ( ) ( )β 1 t log = (35) (1 − F (t)) η ( ) 1 log log = β log(t) − β log(η) (36) (1 − F (t)) y = β · x + α. (37)

Durch die Wahl von x = log(t) wird die Zeitachse also logarithmisch skaliert. Die ( ) y-Achse wird als y = log log 1 ÷ (1 − F (t)) skaliert. Hieraus werden in den Tabellen 4 und 5 die Achsen konstruiert.

Tabelle 4: Konstruktion der Abszisse

t (in Zeit) log(t) (in Einheiten) 1 0 2 0,69 3 1,10 4 1,39 5 1,61 10 2,30 15 2,71 20 3,00 .. 100 4,61 1000 6,91

Die Länge der Einheiten der Achsen kann nun frei gewählt werden, und ein Probability- Plot kann erstellt werden. Ein fertiger Plot ist in Abbildung 6 zu sehen.

27 Tabelle 5: Konstruktion der Ordinate

F (t) y′ (in Einheiten) y = y′ + 6, 91 (in Einheiten) 0,001 −6,91 0 0,01 −4,60 2,31 0,1 −2,25 4,66 0,5 −0,37 6,54 0,9 0,83 7,74 0,99 1,53 8,44 0,999 1,93 8,84

Abbildung 6: Probability-Plot für die Weibull-Verteilung

28 3.4.2. Einzeichnen der Daten Das Einfügen der Daten in den im Kapitel 3.4.1 erstellten Plot verhält sich ganz normal. Zu den zugehörigen Zeiten werden die Daten aus Tabelle 3 mit den geschätzten Ver- sagenswahrscheinlichkeiten eingezeichnet. Wie bereits in Kapitel 3.3 erwähnt, werden Suspensionen nicht eingezeichnet. Mit den Beispieldaten erhält man also den in Abbil- dung 7 dargestellten Plot mit fünf Versagenspunkten.

Abbildung 7: Versagenspunkte im Weibull-Probability-Plot

Nun kann eine Gerade so gezeichnet werden, dass alle Punkte möglichst nah liegen. Dies beschreibt grundsätzlich die Methode der Funktionsermittlung aus Kapitel 3.5.1. Diese Gerade beschreibt nun die Weibull-Verteilung, die das Versagensverhalten der Nie- tendaten beschreibt. Ein Plot mit eingezeichneter Grade ist in Abbildung 8 zu sehen. Die Gerade wird hierbei nicht über der kompletten X-Achse eingezeichnet, da alle Werte außerhalb des Datenbereiches Prognosen sind und es statistisch nicht korrekt wäre, die Gerade dort weiter zu zeichnen. Suspensionen zählen allerdings zu den aufgezeichneten Werten, außerdem werden hier 25% Aufschlag mit aufgerechnet, was in dem Beispiel zu einem Wertebereich von x ∈ [7, 5; 125] führt.

3.5. Ermitteln der Funktion Die Ermittlung der Parameter der Verteilung kann auf verschiedene Weisen erfolgen [Abe93, S. 2–8]. Wie in Kapitel 2.2.6 beschrieben, können die Werte für β und η direkt

29 Abbildung 8: Funktion im Weibull-Probability-Plot, ermittelt mit der Medianen-Rang- Regression aus dem Plot abgelesen werden, sobald eine Gerade die Punkte approximiert. In Abbil- dung 8 könnte man nun so die Parameter der Verteilung ermitteln. Mit einem einfachen Steigungsdreieck lässt sich für die Beispieldaten β = 2, 02 ablesen und die Versagenszeit für die Versagenswahrscheinlichkeit von 63, 2% beträgt 95, was dem geschätzten Wert von η entspricht. Die Methodik, um die Gerade möglichst nah an die Punkte zu legen, kann nun auch variieren. Im analogen Prozess kann der Abstand mit dem Augenmaß re- duziert oder mit einer mathematischen Methode ermittelt werden. Diese Methode wird als Mediane-Rang-Regression bezeichnet.

3.5.1. Mediane-Rang-Regression Die Mediane-Rang-Regression, kurz MRR, basiert auf der least squares estimation/re- gression und wendet die Prinzipien auf die medianen Versagenswahrscheinlichkeiten an [Abe93, S. 2-4 und S. 5-7] [Lee19]. Hierbei wird die Summe der quadrierten Distanzen der Punkte zur Geraden minimiert. Die Regression kann hierbei in zwei Richtungen er- folgen, von Y auf X und von X auf Y. Y auf X minimiert die Summe der Quadrate der Residuenvariation in Y-Richtung, während X auf Y die X-Richtung minimiert. Da im Falle der Lebensdatenanalyse die Zeitvariable mehr Unsicherheiten unterliegt, ist es hier sinnvoll, die Methode von X auf Y-Richtung zu wählen. Es gibt weiterhin auch verschiedene Positionen, um F (t) zu schätzen [Nel82, S. 118]. In [BB55] fndet sich eine Übersicht sowie die Entwicklung der hier verwendeten Ap- proximation. Mediane Ränge sind in der Lebensdatenanalyse so verbreitet, da sie nicht nur gute Schätzungen der Parameter erlauben, sondern auch die Verteilung in ihren

30 Randbereichen gut abbilden. Gerade diese Randbereiche der niedrigen Versagenswahr- scheinlichkeiten sind die Bereiche von Interesse. Im Bild 8 wurde die Gerade nach der Medianen-Rang-Regression bestimmt.

3.5.2. Maximum-Likelihood-Schätzung Eine weitere sehr verbreitete Methode zur Schätzung von Verteilungsparametern sowie Versagenswahrscheinlichkeiten oder Quantilen bietet die Maximum-Likelihood-Schätzung, im Englischen maximum likelihood estimation (kurz MLE) [Abe93, S. 5-1 – 5-3]. Grund- lage dieser Methode ist die numerische Auswertung der Likelihood-Funktion, bezie- hungsweise der logarithmierten Likelihood-Funktion. Für die Schätzung der Parame- ter einer zweiparametrischen Verteilung ergibt die Likelihood-Funktion eine Oberfäche, an dessen Extrema sich die geschätzten Parameter ergeben. Mit Hilfe der Likelihood- Funktion können auch Konfdenzintervalle abgeleitet werden, vergleiche Kapitel 3.6.2. Da die Likelihood-Funktion mathematisch sehr komplex ist, wird für weitere Informa- tionen auf [Law02, Kapitel 4 und 5] verwiesen. In Abbildung 9 ist eine Weibull-Funktion für das Beispiel aus Kapitel 3.2 zu sehen. Die Funktionsparameter wurden mithilfe der Maximum-Likelihood-Schätzung ermittelt. Vergleicht man die Gerade aus Abbildung 9 mit der analogen Schätzung aus Abbildung 8 sieht man einen deutlichen Unterschied im Verlauf.

Abbildung 9: Funktion im Weibull-Probability-Plot, ermittelt mit der Maximum- Likelihood-Schätzung

Die Güte der Parameterschätzung kann mit verschiedenen Werten ermittelt werden. Diese Güteparameter werden auch Goodness-of-Fit-Parameter, kurz GoF-Parameter ge-

31 nannt. Am häufgsten zu fnden sind der Loglike-Wert und das Informationskriterium, das aufgeteilt wird in das Akaike-Informationskriterium und das Bayessche Informa- tionskriterium. Der Loglike-Wert ist der Schätzwerte der Likelihood-Funktion für die jeweilige Verteilung. Damit kann die Güte der Maximum-Likelihood-Schätzung schnell und einfach verglichen werden. Das Akaike-Informationskriterium, im Englischen Akai- ke information criterion, kurz AIC, addiert die Anzahl an geschätzten, verwendeten Parametern als Strafterm mit ein [Wik20c]. Grundlage ist, dass ein Modell mit vielen Parametern immer eine höhere Anpassung im Bezug auf den Loglike-Wert haben wird, als ein Modell mit wenigen Parametern, aber nach der Idee von Ockhams Rasiermesser ein Modell möglichst einfach sein soll. Das Bayessche Informationkriterium, im Engli- schen Bayesian information criterion, kurz BIC, bezieht zusätzlich zu der Parameteran- zahl auch noch den Stichprobenumfang mit ein, auf dessen Grundlage die Parameter geschätzt werden. Diese drei Parameter werden als häufgstes eingesetzt, um Modelle in der Lebensdatenalayse zu vergleichen, die mit der Maximum-Likelihood-Schätzung ermittelt wurden.

3.5.3. Vergleich von Medianer-Rang-Regression und Maximum-Likelihood-Schätzung Interessant für den Anwender der Analyse ist, welche Methode bevorzugt verwendet wer- den sollte. Eindeutig ist, dass in diesem Beispiel von Hand keine Schätzung mittels der Maximum-Likelihood-Schätzung stattfnden kann. Hierfür ist eine numerische Berech- nung von einem Computer notwendig. Jedoch sollte man sich die Frage stellen, welche der Methoden bessere Ergebnisse liefert. Im anwendungsorientierten [Abe93] wird eindeutig immer die Mediane-Rang-Regression empfohlen, besonders bei wenigen Versagensfällen. Die größten Nachteile der Maximum- Likelihood-Schätzung seien die fehlende grafsche Verbindung der Graden zu den ermit- telten Versagenspunkten, eine komplexe, nur mit einem Computer mögliche Berechnung und die verzerrte Aussage für die Parameter bei nur wenigen Versagenspunkten. Hierbei wird die Aussage durch die Arbeit [Liu97] gestützt, welche zum Ergebnis kommt, dass be- sonders bei vielen Suspensionen und wenigen Versagensdaten Mediane-Rang-Regression von X auf Y bessere Ergebnisse liefert als die Maximum-Likelihood-Schätzung. Der Großteil der rein statistischen Literatur behandelt allerdings die Maximum-Likelihood- Schätzung am ausführlichsten zur Ermittlung der Verteilungsparameter, siehe hierzu [ME98], [Law02] und [Nel82]. Laut der Studie [GM10, S. 29] liefert [Liu97] deutlich an- dere Ergebnisse als vergleichbare Studien. Um die Ergebnisfndung nachvollziehen zu können wurde eine Anleitung zur Reproduktion der Daten angefragt. Auf diese Anfra- ge wurde keine Antwort gegeben, was die Glaubhaftigkeit von [Liu97] sehr einschränkt. Ebenfalls zu diesem Thema fndet sich [OF10], eine Studie, die sich mit dem Vergleich der beiden Methoden bei einem hohen prozentualen Anteil von Suspensionen befasst. Eine deutliche Empfehlung der Maximum-Likelihood-Schätzung fndet sich wieder, mit der Warnung, dass unter zehn Versagenspunkten die statistische Aussagefähigkeit beider Methoden stark nachlässt. Sowohl für der Schätzung der Parameter als auch für die Vor- hersage von zukünftigem Versagen wird die Maximum-Likelihood-Schätzung empfohlen.

32 Als weiterer Vorteil wird die Fähigkeit genannt, mit allen unterschiedlichen Zensurarten umzugehen. Die Güte der Schätzung von maximum-likelihood-basierten Methoden lässt sich mit den in Kapitel 3.5.2 eingeführten Parametern gut vergleichen. Alternativen für die Mediane- Rang-Regression, wie der „r-squared“ und der „p-value“ werden in [Abe93, S. 7–7] einge- führt und von manchen Programmen, die dem dort vorgestellten Vorgehen folgen, im- plementiert. Diese stehen allerdings in keinem Bezug zu den anderen Parametern. Auf- grund der Ergebnisse dieser beiden Studien wird die Maximum-Likelihood-Schätzung der Medianen-Rang-Regression vorgezogen, trotzdem sollte die Methode bekannt und zur Anwendung vorhanden sein, um die Ergebnisse vergleichen und einander gegenüber- stellen zu können.

3.6. Ermitteln von Konfdenzintervallen Alle erfolgten Schätzungen unterliegen einer gewissen Unsicherheit [Abe93, S. 7-1 – 7-2]. Konfdenzintervalle geben Grenzen an, in denen der wahre unbekannte Wert liegt. Sie beschreiben die statistische Präzision, mit der geschätzt wurde. Konfdenz kann auch als die Frequenz betrachtet werden, mit der der wahre unbekannte Wert in demselben Intervall liegt. Ein Niveau für das Konfdenzintervall sollte immer vor dem Betrachten der Daten festgelegt und nicht anschließend auf die Daten angepasst werden, da sonst das Konzept nicht funktioniert. Konfdenzintervalle berücksichtigen außerdem keine sys- tematischen Fehler wie eine Abweichung bei der Messung der Zeit für die Sammlung der Daten. Im Folgenden wird die Berechnung von Hand mit Beta-Binomialen-Grenzen vorgestellt, und weitere Möglichkeiten zur computergestützten Berechnung von Konf- denzintervallen werden beschrieben.

3.6.1. Beta-Binomiale-Grenzen Beta-Binomiale-Grenzen sind Endpunkte für ein Intervall einer Versagenszeit [Abe93, S. 7–3]. Hierbei wird die Betaverteilung mit Hilfe der Binomialverteilung ausgewertet. Es werden die Medianen-Ränge i zu den Konfdenzen 5% und 95% in folgender Formel ausgewertet, um das 90%ige Konfdenzintervall für die Zeit ti zu ermitteln, also das 90%- Niveau. Ursprünglich wurde die Formel in [Joh64, S. 51] entwickelt und fndet sich in der in Gleichung (38a) und (38b) dargestellten Form in [Abe93, S. 7–3]. Für Fi werden dabei tabellierte Werten eingesetzt.

( 1 ) [ ( )] β 1 ti;0,05 = η log (38a) 1 − Fi;0,05

( 1 ) [ ( )] β 1 ti;0,95 = η log (38b) 1 − Fi;0,95 Das Verfahren wurde für unzensierte Datensätze entwickelt. Die Auswertung von zen- sierten Daten benötigt eine Veränderung der Methode. Ist i nun nicht ganzzahlig, wie

33 das bei Daten mit Suspensionen der Fall ist, muss man die Werte für ganzzahlige i inter- polieren. In der folgenden Tabelle 6 fnden sich alle benötigen Beta-Binomialen-Grenzen für die Beispieldaten. Hierbei werden die Werte für Fi für ganzzahlige i Tabellen ent- nommen. Diese werden anschließend für die vorhandenen Medianen-Ränge interpoliert und mit β = 2, 02 und η = 95 für die Beispieldaten in Grenzen für die Versagenszeit um- gerechnet. Die Anwendung für dieses Verfahren für Konfdenzintervalle in Y-Richtung fndet sich in [KL77, S. 314–323]. Hierfür können direkt die tabellarisierten Werte für

Fi;0,05 und Fi;0,95 als Intervallgrenzen verwendet werden .

Tabelle 6: Nietendaten mit Beta-Binomialen-Grenzen

Zeit i Fi;5;0,05 (in %) Fi;5;0,95 (in %) ti;0,05 ti;0,95 1 0, 73 34, 82 30 1, 125 1, 306 36, 976 11, 13 64, 8 2 5, 34 52, 07 49 2, 438 8, 64 58, 11 28, 9 88, 68 3 12, 88 65, 87 82 3, 750 20, 12 74, 57 45, 36 110, 99 4 22, 53 77, 47 5 34, 13 87, 12 90 5, 063 35 87, 6 62, 61 136, 76 6 47, 93 94, 66 96 6, 375 54, 4 96, 39 84, 29 172, 11 7 65, 18 99, 27

Interpoliert man die Punkte, so erhält man zwei Linien, die ein 90%iges Konfden- zintervall über den gesamten Zeitbereich der Daten liefern. In Abbildung 10 sind die Weibull-Verteilung und die Beta-Binomialen-Grenzen für den Beispieldatensatz zu se- hen.

3.6.2. Likelihood-Verhältnis-Grenzen Likelihood-Verhältnis-Grenzen, im Englischen likelihoog ratio bounds (kurz lrb), liefern Konfdenzintervalle auf der Grundlage der Likelihood-Funktion [Cor04] [Abe93, S. 7-5 – 7-6]. Grundsätzlich basieren die Grenzen auf dem Verhältnis der Likelihood-Funktion mit den zu testenden Parametern und der Likelihood-Funktion mit den geschätzten Parametern. Dieses Verhältnis wird anschließend mit dem zugehörigen Quantil der Chi- Quadrat-Verteilung verglichen, um zu schauen, ob der Parameter im Konfdenzintervall liegt, zu sehen in Gleichung (39).

( ) L(θ) − 2 · log ≥ χ2 (39) L(ˆθ) α;k

34 Abbildung 10: Funktion mit Beta-Binomialer-Konfdenzregion zu X-Werten im Weibull- Probability-Plot

Abbildung 11: Funktion mit Beta-Binomialer-Konfdenzregion zu Y-Werten im Weibull- Probability-Plot

35 Hierbei ist L(θ) die Likelihood-Funktion für die unbekannten Parameter θ, L(ˆθ) ist die Likelihood-Funktion für die geschätzten Parameter ˆ, und 2 ist das Chi-Quadrat- θ χα;k Quantil mit der Wahrscheinlichkeit von α und k Freiheitsgraden. Für ein Konfdenz- niveau von δ gilt für ein zweiseitiges Intervall α = δ für eine einseitige Grenze α = (2δ −1). Aufgrund der unterschiedlichen Likelihood-Funktionen für die Verteilungen un- terscheiden sich auch die Berechnungen für die Konfdenzintervalle mit den Likelihood- Verhältnis-Grenzen. Außerdem unterscheidet sich das Verhältnis je nachdem, ob man Grenzen für β, ein Quantil, auch µ als das 63,2te Quantil, oder für eine Zeit t bestim- men will. Ausführlichere Informationen zu diesem Verfahren und Formeln, nach denen im Folgenden gearbeitet wird, fnden sich für die Weibull-Verteilung in [Law02, Kapitl 5.2.1]. Für andere wichtige Verteilungen wird diese Quelle ebenfalls empfohlen. Durch die nu- merische Lösung der Ungleichung für alle Punkte ist diese Methode im Vergleich zu der folgenden sehr rechenintensiv.

3.6.3. Fisher-Matrix-Grenzen Fisher-Matrix-Grenzen sind Konfdenzintervalle, die aus der Berechnung der Fisher- Matrix hervorgehen [Abe93, S. 7-4 – 7-5]. Die Fisher-Matrix beinhaltet die zweiten Ableitungen der Loglikelihood-Funktion nach den zu ermittelnden Parametern. Zur Be- rechnung von Konfdenzintervallen wird ihre Inverse mit der Varianz-Kovarianz-Matrix gleichgesetzt. Für eine ausführliche Beschreibung des Verfahrens sei auf [Nel82, S. 367– 375] verwiesen. Ihr Vorteil besteht in der schnellen Berechnung mit Hilfe eines Com- puters, auch bei der Auswertung von vielen Datenpunkten. Des Weiteren können die Grenzen auch aus dem Datenbereich auf den gesamten Plot extrapoliert werden. Daher wird diese Methode als Standard für die automatisierte Durchführung der Lebensdaten- analyse genutzt. Für die genaue Berechnung und Ausführung dieser Methode wird auf [Nel82, Kapitel 7.4] verwiesen. Ein Probability-Plot für den Beispieldatensatz mit einer Weibull-Verteilun und den Fisher-Matrix-Grenzen bei einem 90%igen Konfdenzniveua ist in Abbildung 12 zu sehen.

3.7. Werte berechnen Im Zuge der Lebensdatenanalyse ist es oft nicht nur von Bedeutung, einen anschaulichen Plot mit Verteilung und Konfdenz zu erhalten, sondern spezielle Werte sind ebenfalls von Interesse. Zu einigen dieser speziellen Werte fnden sich in diesem Kapitel die Be- rechnung und die Bedeutung. Durch die Ermittlung von β, der Steigung der cdf der Weibull-Verteilung ist es möglich, Aussagen über die Versagensart zu trefen. Bei Werten für β ≤ 1 unterliegt das Teil Jungsterblichkeit. Das bedeutet, dass ein Großteil der Teile nach kurzer Einsatzdauer versagt und dass die Versagenswahrscheinlichkeit mit zunehmendem Alter rapide ab- nimmt. Dieses Verhalten wird im linken Bereich der Badewannenkurve, Abbildung 2 a, dargestellt. β = 1 lässt auf zufällige Ursachen für das Versagen der Teile schließen. Hier- bei wird die Weibull-Verteilung zur Exponentialverteilung mit einem zeitunabhängigen Versagen. In der Badewannenkurve ist dies der mittlere Bereich. Den letzten Bereich

36 Abbildung 12: Funktion mit Beta-Binomialer-Konfdenzregion zu X-Werten im Weibull- Probability-Plot der Badewannenkurve, den Abnutzungsbereich, repräsentieren Weibullverteilungen mit β ≥ 1. Wie der Name schon erschließen lässt, ist das Versagen hierbei durch Abnutzung begründet. Für Bedeutung und Rückschlüsse aus dieser Untersuchung und weitere In- formationen beziehungsweise Beispiele siehe [Abe93, S. 2-9 – 2-11]. Spezielle Versagenszeiten oder -wahrscheinlichkeiten können, wie in Kapitel 2.2.4 be- schrieben, einfach aus dem Plot abgelesen werden. Natürlich können diese auch mithilfe der geschätzten Funktion und ihrer Inversen berechnet werden. Oft werden die Versa- genszeiten als B-Lifes bezeichnet. Die Zeit, zu der 1% der Teile versagen, wird als B1-Life bezeichnet. Zwei weitere wichtige Werte sind der Mean-Time-to-Failure, kurz MTTF, und der Mean- Time-between-Failure, kurz MTBF [Abe93, S. 2–4] [KZA14, S. 500]. Der MTTF gibt die durchschnittliche Lebensdauer eines Teils an und berechnet sich nach Formel (40) zu

( ) 1 MTTF = ηΓ 1 + (40) β für die Weibull-Verteilung und

∫ ∞ MTTF = S(t)dt (41) 0 (42)

37 allgemein. Der MTBF wird hauptsächlich bei reparierbaren Systemen benutzt und gibt die durch- schnittliche Zeit zwischen dem Versagen eines Teils an. Der MTBF berechnet sich allge- mein als die Summe der Zeiten bis zum Versagen, geteilt durch die Anzahl an Teilen.

38 4. Automatisierungskonzept für die Lebensdatenanalyse

In diesem Kapitel werden automatisierte Lösungen für die Durchführung einer Lebens- datenanalyse, wie in Kapitel 3 beschrieben, untersucht. Wie in Kapitel 3.4.1 und 3.5.2 deutlich wurde, sind bestimmte Methoden mit Hilfe einer Automatisierung deutlich ef- fzienter beziehungsweise überhaupt erst möglich. Aus diesem Grund wird die automa- tisierte Umsetzung der Lebensdatenanalyse als App für Rolls-Royce Deutschland entwi- ckelt. Nachdem grundsätzlich Anforderungen getrofen werden, die eine automatisierte Lebensdatenanalyse erfüllen sollte, kommen spezielle Anforderungen dazu, die die Pro- blemstellung von Rolls-Royce Deutschland vorgeben. Anschließend wird das Lösungsfeld anhand der Anforderungen untersucht und eingeschränkt. Zuletzt wird am Beispiel der Programmiersprache „R“ die Entwicklung einer eigenen Software vorgestellt und an- schließend in die Auswertung mit aufgenommen.

4.1. Defnition der Anforderungen In diesem Kapitel werden die Anforderungen defniert, die später verwendet werden, um die vorhandenen Lösungen zur Automatisierung der Lebensdatenanalyse zu untersuchen und zu bewerten. Zuerst wird hierbei das Vorgehen zur Ermittlung der Anforderungen in Kapitel 4.1.1 beschrieben. Anschließend folgen in Kapitel 4.1.2 die mathematisch- funktionalen Anforderungen und in Kapitel 4.1.3 die Anforderungen an Aufbau und Schnittstellen. Schließlich werden in Kapitel 4.1.4 alle Anforderungen zusammengefasst.

4.1.1. Vorgehen zur Ermittlung der Anforderungen Viele grundlegende Anforderungen folgen aus den statistischen Methoden der Lebensda- tenanalyse, die vorgestellt wurden und in der Automatisierung vollzogen werden sollen. All diese Punkte, dass die automatisierte Analyse die gleichen Ergebnisse liefert, wie der manuelle Prozess fnden sich in Kapitel 4.1.2. Diese Anforderung folgen aus der Literatur und wurden durch die Durchführung der Lebensdatenanalyse in Kapitel 3 verdeutlicht. Die aus dem Prozess von Rolls-Royce Deutschland stammenden Anforderung an die Au- tomatisierte Durchführung werden in Kapitel 4.1.3 ermittelt. Hierbei werden aus Exper- tengesprächen Anforderungen an Benutzeroberfäche, Bedienbarkeit und Schnittstellen zu Datenservern festgelegt.

4.1.2. Mathematisch-funktionale Anforderungen Der Probability-Plot stellt den Mittelpunkt der Analyse dar. Er sollte wie in Kapi- tel 2.2.4 vom Programm erstellt und ausgegeben werden. Interessant ist es hierbei, die Vorteile der Digitalisierung zu nutzen und den Plot interaktiv zu gestalten, um somit die Betrachtung einzelner Versagenspunkte oder die Vergrößerung interessanter Bereiche für den Benutzer zu ermöglichen. Der numerische Anteil der Analyse sollte allerdings

39 auch vorhanden sein. Hierbei ist die Ausgabe der geschätzten Parameterwerte oder an- derer wichtiger Werte, wie in Kapitel 3.7 beschrieben, besonders wichtig. Außerdem ist eine Berechnung von geschätzter Versagenswahrscheinlichkeit zur Zeit oder umgekehrt interessant, sodass der Benutzer die gewählte, geschätzte Funktion direkt nutzen kann. Anwendungsbedingt stellt sich die Frage, wie die Daten vorhanden sind. Findet die Da- tenaufnahme in Intervallen statt, sollte die Software in der Lage sein, diese Art von Daten zu verwalten. Es wird also die Anforderung an die Verarbeitung von zensierten Daten gestellt. Hierbei kann kategorisiert werden nach Art der Zensur, vergleiche Kapitel 2.2.3. Auch sollten in der grafschen Analyse verschiedene Verteilungen miteinander verglichen werden können, wie in Kapitel 2.2.4 beschrieben. Diese müssen dafür in der automa- tisierten Lösung implementiert sein. Statistiksoftware ist meist mit vielen Verteilungen ausgestattet, im Folgenden wird allerdings als Anforderung das Vorhandensein von den in Kapitel 2.2.5.4 und 2.2.6 genannten relevanten Lebensdatenverteilungen defniert. Ei- ne weitere Anforderung an die Lösung muss die Schätzung der Lebensdauerverteilung sein. Die Verwendung der Methode spielt dabei eine entscheidende Rolle. Wichtige Un- terschiede zu der Medianen-Rang-Regression und der Maximum-Likelihood-Schätzung sind in Kapitel 3.5.3 zu fnden. Beide Methoden werden als Beurteilungsparameter in die Untersuchung mit aufgenommen, da der Nutzer wertvolle Informationen aus dem Vergleich beider Methoden ziehen und das Verfahren so auf seine Bedürfnisse anpassen kann. Sind verschiedene Methoden zur Schätzung vorhanden, so ist es auch sinnvoll, verschie- dene Methoden für die Berechnung der Konfdenzintervalle bereitzustellen. Allgemein ist es wichtig, dass die Software Konfdenzintervalle liefert, um die geschätzten Werte statistisch einordnen zu können. Manche Methoden aus Kapitel 3.6 stehen in Zusam- menhang mit den eben aufgeführten Schätzungsmethoden. Daher wird im Folgenden untersucht, ob die drei dort aufgeführten Methoden in den Programmen zur Verfügung stehen. Ein letztes Kriterium, welches im Zusammenhang mit der Statistik genannt werden muss, sind die Werte, die die Güte der Approximation durch die geschätzte Ver- teilung angeben, die Goodness-of-Fit-Parameter. Hierbei gibt es viele verschiedene, die jeweils andere statistische Hintergründe aufweisen, siehe Kapitel 3.5.2. Allgemein sollte eine Erstellung einer Rangfolge infolge eines Goodness-of-Fit-Parameters möglich sein, um eine Verteilungsauswahl statistisch begründen zu können.

4.1.3. Anforderungen an Aufbau & Schnittstelle Die speziellen Anforderungen an die Lösung, die im Zuge dieser Bachelorarbeit ausge- arbeitet wird, folgen aus der gewünschten Anwendung von Rolls-Royce Deutschland. Ziel ist eine automatische Durchführung der Lebensdatenanalyse mit den Reparatur- daten von Triebwerksteilen aus der „OPS-TIMAL“-App. Aus Expertengesprächen mit Rolls-Royce Deutschland folgen die nachstehenden Anforderungen zu Benutzeroberfä- che, Dateneingabe, Datenauswahl und Automatisierungsgrad. Die Daten sollen aus einer Datenbank der „OPS-TIMAL“-App eingelesen werden. An- schließend soll in einer grafschen Benutzeroberfäche, im Englischen graphical user in- terface, kurz GUI, über eine Eingabe eingestellt werden können, welche Versagensart

40 betrachtet werden soll. Außerdem sollen für erfahrene Nutzer die zu schätzende Ver- teilung, die Schätzmethode und die Methode zur Bestimmung der Konfdenzintervalle verändert werden können. Der Benutzer erhält anschließend neben dem Plot mit den Versagensdaten, mit eingezeichneter Verteilung und Konfdenzregion ebenfalls alle re- levanten Werte zur Verteilung und eine Möglichkeit zur Berechnung weiterer Werte. Die Analyse soll also auf Knopfdruck funktionieren, ohne das Eintragen von Daten, oh- ne das Kennzeichnen, ob diese zensiert sind, und ohne komplizierte Auswahl zwischen vielen Analyseverfahren. Außerdem soll eine Eingrenzung der Daten bezüglich des Er- fassungszeitpunktes möglich sein, um so beispielsweise nur die Daten der letzten Woche zu betrachten. Dem Benutzer soll auch ein Rechner zur Verfügung stehen, der zu spe- ziellen Zeitpunkten Versagenswahrscheinlichkeiten berechnet und umgekehrt. Um die wichtigen Grenzbereiche betrachten zu können, soll die Funktion über alle Versagenszei- ten angezeigt werden. Trotz der statistisch inkorrekten Extrapolation ist dies aus den oben genannten Gründen gewünscht und soll im Plot mit anderer Farbe sowie anderer Linienart gekennzeichnet werden.

4.1.4. Zusammenfassung der Anforderungen Abschließend werden die ermittelten Anforderungen zusammengefasst, um deutlich zu machen, unter welchen Bedingungen die automatischen Konzepte aus Kapitel 2.3 in Kapitel 4.2 bewertet werden. Die Anforderungen umfassen:

• Vorhandensein eines GUIs,

• Datenbankkommunikation,

• Implementierung eines Probability Plots mit Konfdenzregionen,

• Implementierung einer Ausgabe wichtiger Werte und numerischer Berechnungen,

• Verarbeitung von zensierter Daten (links, rechts und Intervall-zensiert),

• Durchführung der Analyse mit folgenden Verteilungen: – Exponentialverteilung, – Normalverteilung, – Lognormalverteilung, – logistische Verteilung, – loglogistische Verteilung, – Gumbel-Verteilung, – Weibull-Verteilung, • Implementierung und Auswahlmöglichkeit folgender Schätzmethoden: – Mediane-Rang-Regression,

41 – Maximum-Likelihood-Schätzung, • Implementierung und Auswahlmöglichkeit folgender Methoden zur Ermittlung von Konfdenzintervallen: – Beta-Binomiale-Grenzen, – Likelihood-Verhältnis-Grenzen, – Fisher-Matrix-Grenzen, • Bewertung der Schätzgüte verschiedener Verteilungen anhand von Goodness-of-Fit Parametern,

• Maximale Automatisierbarkeit der Analyse.

Ebenfalls in Kapitel 4.2 untersucht werden Erwerbbarkeit, Preis und das Vorhanden- sein von Demoversionen. Der Vollständigkeit halber sind auch Hersteller und Version gekennzeichnet.

4.2. Lösungsanalyse Die automatisierten Lösungen, die in Kapitel 2.3 genannt wurden, werden nachfolgend auf die erarbeiteten Anforderungen untersucht. Oft fnden sich zu den vorgestellten Pro- grammen aus älterer Literatur keine aktuellen Implementationen oder Informationen, und die Quellen sind nicht einzusehen. Die Lösungsansätze werden der Vollständigkeit halber trotzdem aufgeführt und entsprechend vermerkt. In Anhang A befndet sich eine Tabelle mit den zusammengefassten Informationen über die Erfüllung der Anforderungen der einzelnen Softwarepakete. Als Informationsquellen dienten hierbei die in Kapitel 2.3 zu den Lösungen aufgeführten Quellen sowie die Demoversionen der Programme, sofern verfügbar. Lösungen, die aus der Tabelle durch das Erfüllen vieler Anforderung aufallen und zur weiteren Untersuchung und Durchführung einer Lebensdatenanalyse ausgewählt werden, sind:

• „SAS“,

• „Minitab“,

• „Weibull++“, • „RAMFIT“,

• „Relyence Weibull“,

• „reliability“-Paket in „Python“,

• „weibulltools“-Paket in „R“.

42 Da eine Demo von „SAS“ von SAS Institute Inc. auf Anfrage leider nicht verfügbar war, wird dieses Prorgamm im Folgenden nicht weiter untersucht. Es erfüllt dennoch die meisten statistischen Vorgaben und liefert viele weitere statistische Methoden. Die Verwendung von nur einer statistischen Analyse ließe den Preis aber auch schlecht recht- fertigen. Mit „RAMFIT“ ist eine Lösung aufgeführt, die zwar nicht erwerbbar ist und über die nur wenige Quellen vorliegen, trotzdem verdeutlicht sie die Implementierung einer zuge- schnittenen Lösung. Auf Knopfdruck führt „RAMFIT“ alle festgelegten Schritte zwischen der Datenakquise und der Auswertung des Plots durch und liefert dem Benutzer exakt die gewünschten Informationen. Diese Lösung beeinfusst die Ausweitung der Suche auf fertige Pakete für Lebensdatenanalysen in verschiedenen Programmiersprachen. In „Python“ fällt das Paket „reliability“ von Mathew Ried auf. Zusätzlich zu den erfass- ten, für das genannte Problem benötigten Methoden implementiert dieses Paket fünf weitere Plotarten, nicht-parametrische Schätzmethoden, beschleunigte Lebensdauertests und viele weitere Tools. Um ein kostenloses, allgemeines Lebensdatenanalysetool zu pro- grammieren, liefert diese Paket optimale Grundlagen. Aufgrund mangelnder Erfahrung mit „Python“ wird diese Lösung allerdings nicht weiter verfolgt.

4.3. Lösungsimplementierung in „R“ In diesem Abschnitt wird die Umsetzung der Automatisierung der Lebensdatenanaly- se mit Hilfe des „R“-Pakets „weibulltools“ beschrieben. Zuerst werden die vorhandenen Funktionen genannt und beschrieben, welchen Input sie brauchen, was ausgegeben wird und welchen Teil der Lebensdatenanalyse sie erfüllen. Anschließend wird die Gestal- tung einer grafschen Benutzeroberfäche beschrieben und die Einbindung der genannten Funktionen erläutert. Schließlich wird auf spezielle Ergänzungen eingegangen, die not- wendig sind, um den gestellten Anforderungen gerecht zu werden und aus dem Paket ein Programm zu schafen, welches mit den anderen Softwarelösungen verglichen werden kann.

4.3.1. Vorhandene Funktionen des Pakets Um das „weibulltools“-Paket zu erklären und dessen Funktionsweise zu zeigen, fndet sich im folgenden Abschnitt der Quellcode, um die Lebensdatenanalyse, wie in Kapitel 3 von Hand gezeigt, durchzuführen. Begonnen wird, nachdem man das Paket heruntergeladen hat, mit dem Einladen des Pakets in den Workspace und dem Erzeugen von Testdaten.

1 ## Vorbereitung 2 l i b r a r y(weibulltools)#Weibulltools Paket 3 ## Testdaten 4 # Erzeugen von Testdaten(Rivet failures from Weibull Handbookp.2 −5 Table 2−1)

5 f a i l u r e s_riv< − c(90,96,30,49,82)#Fehler 6 suspensions_riv< − c(100,45,10)#Suspensions Listing 1: Vorbereitung der Arbeitsfäche in „R“

43 Anschließend werden diese in eine andere Form gebracht, um dem Inputanspruch der gegebenen Funktionen zu entsprechen. Dies geschieht in Quellcode 2.

1 #Datenset2 2 l i f e t i m e_riv< − c(failures_riv ,suspensions_riv) 3 s t a t e_riv< − c(rep(1,length(failures_riv)),rep(0,length(suspensions_riv))) 4 beschreibung_riv< − c(rep("Fail",length(failures_riv)),rep("Susp",length( suspensions_riv))) Listing 2: Erstellung der benötigten Datenstruktur

Nun werden die Medianen-Ränge und Versagenswahrscheinlichkeiten, also die Plotting- Positionen mit folgendem Befehl berechnet. Der Output der Funktion johnson_method() liefert ein Dataframe, welches Ähnlichkeiten zu der Tabelle 3 aufweist, zu sehen in Quell- code 3.

1 df_riv< − johnson_method(x = lifetime_riv, event = state_riv, id = beschreibung_riv) Listing 3: Berechnung der Medianen-Ränge und Versagenswahrscheinlichkeiten

Nun steht der Nutzer vor der Entscheidung, mit welcher Methode die Verteilung für die Daten geschätzt werden soll. Die in Kapitel 3.5.1 vorgestellte Rang-Regression wird mit der in Quellcode 4 gezeigten rank_regression()-Funktion durchgeführt. Die in Kapitel 3.5.2 aufgeführte Maximum-Likelihood-Schätzung wird mit der ml_estimation()-Funktion, zu sehen in Quellcode 5, benutzt.

1 mrr< − rank_regression(x = df_riv$characteristic ,

2 y = df_riv$prob , 3 event = df_riv$status, 4 distribution ="weibull", 5 conf_level = 0.90) 6 \end{minted} Listing 4: Durchführung der Medianen-Rang-Regression

1 mle< − ml_estimation(x = df_riv$characteristic , 2 event = df_riv$status, 3 distribution ="weibull", 4 conf_level = 0.90) Listing 5: Durchführung der Maximum-Likelihood-Schätzung

Im Input der beiden Funktionen ist zu sehen, dass der Nutzer das Konfdenzintervall sowie die Verteilung angeben muss. Zurückgegeben werden die geschätzten Parameter der Verteilung und die Intervalle dazu. Außerdem werden die Parameter auf die ver- gleichbaren Parameter σ und µ umgerechnet. Als letztes werden Parameter zur Schät- zungsgüte mit ausgegeben. Um Konfdenzintervalle für die Funktionswerte zu erhalten, liefert das Paket die Funk- tionen confnt_betabin() und confnt_fsher() . Beide Funktionen verlangen einen Vektor mit Versagenszeiten, die geschätzten Parameter und wieder die Verteilung. Hinzu kommt die

44 Frage nach beidseitigen Intervallen, dem Intervallniveau und der Richtung. Für die Rich- tung der Intervallgrenzen siehe Abbildung 10 und 11. Die Anwendung der Funktionen mit der erstellten Datenstruktur befndet sich in Anhang B.1.1. Im Quellcode 7 und 8 wurden Intervalle für die Versagenswahrscheinlichkeit aufgrund der Auswahl direction = "y" ermittelt. Auch zu sehen ist, dass die Fisher-Matrix-Grenzen nur für die Maximum- Likelihood-Schätzung funktioniert, da sie eine Varianz-Covarianz-Matrix benötigen, die nur bei dieser Methode erstellt wird. Der Plot entsteht, wie auch in Kapitel 3, in drei Schritten. Zuerst werden mit der Funkti- on plot_prob() die Datenpunkte in den Plot gezeichnet, anschließend wird die geschätzte Funktion mit dem plot_mod()-Befehl eingezeichnet. Schließlich werden die Konfdenzin- tervalle mit der plot_conf()-Funktion eingezeichnet und der Plot fertiggestellt. Ausführli- che Bespiele zur Anwendung der Funktionen mit den oben eingeführten Variablennamen fnden sich in Anhang B.1.2. Der Output der Plotfunktionen liefert einen interaktiven Plot, der mithilfe des „Plotly“-Paket erstellt wurde. Auch die Berechnung einzelner Werte, beschrieben in Kapitel 3.7, ist in der Sprache „R“ einfach möglich. Zusätzlich zu den implementierten Grundrechenoperationen stehen durch das „weibulltools“-Paket Funktionen zur Schätzung der Versagenswahrscheinlich- keit und der Lebensdauer zur Verfügung. In Quellcode 12 zu sehen ist die Funktion zur Schätzung der Ausfallwahrscheinlichkeit für eine bestimmte Lebensdauer. Auch die Lebensdauer zu bestimmten Versagenswahrscheinlichkeiten kann berechnet werden. Ein Beispiel der oft verwendeten B-Lifes fndet sich im Quellcode 13 wieder. Beide Beispie- le befnden sich in Anhang B.1.3. Für weitere Funktionen, die das „weibulltools“-Paket liefert, und deren Anwendung wird auf [Hen19b] verwiesen.

4.3.2. Programmierung der grafschen Benutzeroberfäche Die Anwendung der in Kapitel 4.3.1 genannten Funktionen sowie die manuelle Forma- tierung der Daten liefern dem Nutzer jedoch keinen Vorteil gegenüber grafschen Be- nutzeroberfächen, bezogen auf den Automatisierungsgrad. Das unter [Car] zu fndende Programm verbindet eine ältere Version des „R“-Pakets „WeibullR“ mit einem grafschen Interface des „Shiny“-Pakets. Dadurch ergibt sich die Möglichkeit der Lösung zur Verbes- serung der Automatisierung des gewählten „R“-Pakets durch das Verbinden mit einem durch „Shiny“ programmierten Interface. „Shiny“ liefert Grundbausteine zum Aufbau einer Benutzeroberfäche und einer zugehö- rigen Serverlogik. Gewählt wurde eine Funktion für die Oberfäche, bei der der Nutzer links einen Bereich hat, um Eingaben zu tätigen oder Parameter auszuwählen, und mittig rechts anschließend der Probability-Plot und die geschätzten Werte abgebildet werden können. Nach Expertengesprächen folgte die Ausarbeitung des in Abbildung 13 darge- stellten Sketches.

Erkennbar hierbei sind die Einfussmöglichkeiten, die der Nutzer auf die Analyse hat. Zuerst hat er die Möglichkeit, die Versagensart auszuwählen. Das ist deshalb der Fall, da im späteren Einsatz die Daten zu einem speziellen Teil eingelesen werden. Dieses Teil kann auf viele Arten versagen, was im Schadensbericht kategorisiert werden muss. Die

45 Abbildung 13: Idee zum Designs der Benutzeroberfäche

Analyse fndet anschließend immer für eine bestimmte Versagensart statt. Der Nutzer soll aber die Möglichkeit haben, jede Versagensart des Teils zu analysieren. Anschließend soll der Nutzer die betrachtete Intervalldauer einstellen können, um bei- spielsweise die Ausfälle der letzten Woche betrachten zu können und dort Abweichungen zum Normalverhalten fnden zu können. Schließlich soll der Nutzer noch das Niveau des Konfdenzintervalls einstellen können. Die komplexen Optionen der Analyse sind darunter zu fnden und sollen erfahrenen Nutzern weitere Manipulationsmöglichkeiten zu bieten. Hier können nun die Methode zur Er- mittlung der Verteilungsparameter, die Methode zur Schätzung der Konfdenzintervalle und die angenommene Verteilung selbst eingestellt werden. Anmerkend sei zur ange- nommenen Verteilung gesagt, dass aus den Expertengesprächen hervorgeht, dass zuerst immer eine Weibull-Verteilung angenommen wird, anstatt die Verteilungen anhand eines Goodness-of-Fit-Parameters zu vergleichen. Hintergrund sind die damit einhergehenden Bauteiltests, bei denen ein Versagensverhalten nach der Weibull-Verteilung bestimmt wird, sodass auch zu erreichende Parameter bei Optimalverhalten zum Vergleich vor- handen sind. Im Hauptbereich werden die aus der Analyse gewonnenen Informationen an den Be- nutzer zurückgegeben. Hier befndet sich der Plot, so wie er in Kapitel 4.3.1 erstellt wurde. Darunter befnden sich die wichtigen ermittelten Werte und ein Rechner für Ver- sagenszeiten und -wahrscheinlichkeiten. In den weiteren Tabs, die eine Ergänzung sind und in der Idee noch nicht geplant waren, fndet sich eine Übersicht über alle verfüg- baren Funktionen und eine Anleitung. Eine implementierte Version des User-Interface ist in Abbildung 14 zu sehen. Hierbei ist erkennbar, dass außerhalb des Datenbereiches

46 die Extrapolation durch andere Linien und andere Farben gekennzeichnet wird. Auf die notwendigen Änderungen der Funktionen wird in Kapitel 4.3.3 eingegangen. Auch im Bereich des Inputs gibt es eine Veränderung. Der Bereich der erweiterten Optionen ist, obwohl hier nicht gezeigt, wie in Abbildung 13 geplant umgesetzt. Hinzugefügt ist ein Feld zum Einlesen einer .csv-Datei, um Lebensdaten in das Tool einfügen zu können, da die anzuschließende Datenbank noch keine Beispieldaten enthält, um das Programm vergleichbar zu machen. Erkennbar ist die Einbindung des interaktiven Plots, erstellt durch das „Plotly“-Paket, in den Funktionen des „weibulltools“-Pakets. Die Einbindung funktioniert aufgrund der Unterstützung der interaktiven Plots von „Shiny“, was auch ein Grund ist, dieses Paket für die Erstellung des Interface zu benutzen.

Abbildung 14: Implementierte Version des User Interface

Auf der Serverseite des AddOns, die im „Shiny“-Paket durch den Befehl function(session ,input,output) erzeugt wird, fndet die Verknüpfung der Eingaben mit der Berechnung durch die Funktionen des „weibulltools“-Pakets statt. Die folgend genannten Beispiele für die Änderung der in Kapitel 4.3.1 eingeführten Funktionen befnden sich in Anhang B.2. Das Dataframe mit den Rängen zu den Daten wird beispielsweise nun erstellt, wie in Quellcode 14 zu sehen ist. Deutlich wird die Veränderung bedingt durch den Server anhand der Erstellung einer veränderlichen Variable durch eventReactive() und die Ver- änderung dieser durch Anklicken des Update-Buttons, der input|\$|update -Variablen. An- schließend folgt eine einfache Abfrage, die, sofern keine .csv-Datei eingelesen wurde, die Beispieldaten verarbeitet oder aber die johnson_method()-Funktion auf die eingelesenen Daten, hier gespeichert in der Funktion datenZeit(), anwendet. Die eingelesenen Daten sind selbst eine reaktive Funktion, da neue Dateien eingelesen werden könnten oder der Input der Zeitspanne durch den Benutzer geändert werden kann, was zu einer Verände- rung der Daten führt. Die Auswirkung des Inputs der Versagensart sieht man in Zeile 7 in Quellcode 14 an der Defnition des Eventvektors, der abhängig von der input|\$|Moden -Variablen erzeugt wird.

47 Ähnlich sehen auch die Funktionen zum Schätzen der Funktionsparameter aus. Die zu schätzende Verteilung und das Konfdenzintervall werden über den Input eingelesen. Auch die Anzahl der Fehler muss hier nun berücksichtigt werden. Die Methoden funk- tionieren nur mit mehr als einem Fehlerpunkt, und um dem Nutzer eine klare Fehler- meldung und keinen Errorcode zurückzugeben, muss dies vorher getestet werden. Zu sehen ist die Schätzung, beispielhaft für die Maximum-Likelihood-Schätzung, im Quell- code 15. Um letztendlich die Schätzmethode anhand des Inputs zu variieren, ist eine weitere Funktion nötig, die die Ergebnisse speichert. Diese Auswahlfunktion ist in Quellcode 16 zu sehen. Je nach der input|\$| ftting -Variablen wird die zugehörige Funktion ausgeführt. Im Fall, dass keine der Optionen passt, wird die letzte Funktion, im Quellcode 16 in Zeile 6, ausgeführt. Ähnlich wie der Aufbau der Funktionen für die Verteilungsparameter sehen auch die Funktionen für die Ermittlung des Konfdenzintervalls aus. Je nach Input wird entweder die Fisher-Matrix-Grenzen, die Beta-Binomialen-Grenzen oder die durch eigene Funk- tionen integrierten Likelihood-Verhältnis-Grenzen ausgewählt. Besonders ist hierbei nur die Unterscheidung der Bereiche, für die die Funktionen angewendet werden. Da die Anforderungen eine Abbildung der Funktion und Konfdenz außerhalb des Datenberei- ches vorsehen, ist es erforderlich, die Funktionen, wie in Kapitel 4.3.3 beschrieben, zu erweitern und anschließend den Prozess der Intervallermittlung und der Ploterstellung für jeden Bereich einzeln durchzuführen. Des Weiteren umfasst die Serverlogik die Anpassung der auswählbaren Methoden der Dropdown-Einträge bei Auswahl anderer Inputs und die Berechnung einzelner Werte und deren Ausgabe als Text. Das „Shiny“-Paket liefert sehr gute Möglichkeiten der Umsetzung einzelner Funktionen als eine App, die durch Nutzereingaben und -einstellungen gesteuert werden kann. Den Gestaltungmöglichkeiten der Oberfäche sind durch die Einbindung von „HTML“- und „CSS“-Befehlen keine Grenzen gesetzt. Auch die Funktionen aus anderen Paketen müs- sen für den Aufruf auf dem Server nur leicht in ihrem Aufruf angepasst werden, um die gewünschten Ergebnisse zu liefern. Sollten dennoch die Funktionen des „Shiny“-pakets oder der anderer Pakete nicht ausreichen fnden sich in Kapitel 4.3.3 Möglichkeiten der Erweiterung durch selbst geschriebene Funktionen.

4.3.3. Erweiterungen In diesem Abschnitt fnden sich weitere Änderungen und Erweiterungen der Funktio- nen des „weibulltools“-Pakets, um den Anforderungen gerecht zu werden. Zuerst wird die extrapolierte Darstellung der geschätzten Funktion untersucht. Dafür müssen die Funktionen des „weibulltools“-Pakets verändert werden. Die vorhandenen Funktionen zur Ermittlung der Konfdenzintervalle liefern diese nur über den Bereich der Versagens- zeiten der Daten. Zwei neue Funktionen werden hier benötigt, die die Funktion und das Konfdenzintervall einmal unterhalb der kleinsten Versagenszeit und einmal oberhalb der größten Versagenszeit erweitern. Außerdem muss die Funktion für die Anzeige der Funktion und der Konfdenz im Plot für diese Bereiche neu geschrieben werden, um eine

48 Veränderung der Linienart und -farbe zu ermöglichen. Die folgenden Änderungen im Quellcode sind im Anhang B.3 zu fnden. Der Quellcode des „weibulltools“-Pakets ist unter [Hen19a] zu fnden. Der Code für die Konfdenzintervalle ist im Ordner R in der Datei confdence_interval.R enthalten. Um den Bereich der Beta-Binomialen-Grenzen zu ändern, muss der Code der Funktionen in den Zeilen 289–292 umgeschrieben werden. Um den Bereich unterhalb der Daten zu erfas- sen, werden die Zeilen durch den Code, zu sehen in Quellcode 17, ersetzt. Die Berechnung umfasst nun den Bereich von der Zeit, die nur 1% der Versagenswahrscheinlichkeit der kleinsten erfassten Lebensdauer hat, bis zu eben dieser kleinsten Versagenszeit. Der Co- de für die komplette Funktion, aktualisiert durch die abgeänderten Zeilen, wird in einem neuen Skript als neue Funktion confnt_betabin_below() defniert. Ähnlich wird dieselbe Funktion auch für den Zeitbereich oberhalb der maximalen Versagenszeit abgeändert. Die veränderten Zeilen sind in Quellcode 18 zu sehen. Der einzige Unterschied ist hierbei die Verwendung der Versagenszeit mit einer Ausfallwahrscheinlichkeit von 99% als den maximalen Wert. Der komplette Code wird hier genau wie vorher im selben Skript als die neue Funktion confnt_betabin_above() defniert. Komplett identisch ist die Änderung für die Funktion, die die Fisher-Matrix-Grenzen ermittelt. Diese befndet sich ebenfalls in der bereits genannten Datei. Die zu ändernden Zeilen sind in diesem Fall die Zeilen 580–582. Die Notwendigkeit, drei verschiedene Funktionen für dieselbe Verteilung und deren Kon- fdenz zu verwenden, ergibt sich aus der Anforderung, die Extrapolation im Probability- Plot durch andere Farbe und anderen Linientyp darzustellen. Ansonsten hätte man die eben genannten Intervallfunktionen im Bereich kumulierter Versagenswahrscheinlichkei- ten von 1% bis 99% arbeiten lassen können. Um dieser Anforderung gerecht zu werden, müssen im Folgenden die Funktionen plot_mod() und plot_conf() abgeändert werden. Die- se befnden sich ebenfalls im Ordner R in der Datei plot_functions.R. Die plot_mod() -Funktion ist für die Visualisierung der Funktion verantwortlich, während plot_conf() das Einzeichnen der Konfdenzintervalle übernimmt. Die Änderungen der plot_mod()- Funktion bezieht sich nur auf die add_lines()-Funktion des „Plotly“-Pakets in Zeile 734– 739. Zu sehen ist die Änderung in Quellcode 19. Diese beschränkt sich auf die Farbe, bei der jeder Hexafarbcode eingegeben werden kann, und den Linientyp, bei dem ver- schiedene Möglichkeiten zur Auswahl stehen. Die komplette Funktion wird inklusive der Änderungen in einem neuen Skript als plot_mod_out()-Funktion defniert. Die zweite Funktion, die es aus dieser Datei zu ändern gibt, ist die plot_conf()-Funktion. Ähnlich zu der vorherigen Funktion sind auch hier nur Anpassungen in diesmal zwei add _lines()-Funktionen nötig. Die Zeilen 1154–1160 und 1174–1182 werden verändert und als neue Funktion unter dem Namen plot_conf_out() in dem Skript mit der andere Plot- funktion defniert. Die einzelnen Änderungen fnden sich in Quellcode 20 und 21. Um die neu defnierten Funktionen nun im Skript der App nutzen zu können, müssen die- se ähnlich wie Pakete am Anfang eingelesen werden. Dies geschieht bei einzelnen Skripts über die source()-Funktion. Befnden sich alle Dateien im selben Verzeichnis, genügen die in Quellcode 6 angegebenen Befehle. Ansonsten hat man hierbei auch die Möglichkeit, absolute Pfade anzugeben. Somit besteht nun die Möglichkeit, die Funktionen aus den eingelesenen Skipts in der

49 Hauptdatei mit der „Shiny“-App, aus Kapitel 4.3.2, aufzurufen, wie normale Funktionen aus installierten Paketen. Das wiederum hat den Vorteil von ordentlichem, sortiertem und separiertem Quellcode, also einem modularen Aufbau. Umfangreiche Funktionen von mehreren hundert Zeilen Code sind nicht mit im Code der App gespeichert sondern werden separat geschrieben, können dort getestet und kontrolliert werden und müssen anschließend nur noch eingebunden werden.

1 ## Loading in alernated functions 2 source(’likelihood_ratio_bounds.R’) 3 source(’alternated_bounds_weibulltools.R’) 4 source(’alternated_plot −f u n c t i o n s_weibulltools.R’) Listing 6: Einlesen der veränderten Funktionen

50 5. Ergebnisse Einige der analysierten und ausgewählten Lösungen sind speziell auf die Durchführung der Lebensdatenanalyse ausgelegt, andere bieten die notwendigen Methoden als Teil einer umfassenden statistischen Methodensammlung an. Grundlegend kann man sagen, dass die automatisierten Lösungen für die Durchführung der Lebensdatenanalyse in Form von Softwareprogrammen mit der ansteigenden Digitalisierung zunehmen. Alte Program- me können der Konkurrenz nicht mehr standhalten oder sind aus anderen Gründen nicht mehr erwerbbar. Eine weitere Lösungssparte spannen die vielfältigen Programmierspra- chen und deren Community auf, die viele einzelne Funktionen und die Möglichkeiten von Oberfächenprogrammierung anbieten. Im Folgenden sollen die in Kapitel 4.2 ausgewähl- ten Lösungen verglichen werden, indem die Lebensdatenanalyse mit den Beispieldaten aus Kapitel 3.2 durchgeführt wird. Die Analyse gliedert sich hierbei in das Einlesen der Daten, das Einstellen der Optionen und das Auswerten des generierten Outputs der Pro- gramme. Für die Programme „JMP“, „Statistica“, „SuperSMITH“, „Weibul-DR“, „NCSS“ und „Matlab“ wurde die Analyse in den Demoversionen ebenfalls durchgeführt und es sind vergleichbare Bilder zu den folgenden in Anhang C zu fnden.

5.1. Einlesen der Daten Für das Programm „Minitab“ ist die Umgebung nach dem Start des Programmes in Abbildung 15 zu sehen. In der Tabelle am unteren Rand können direkt Daten eingetra- gen werden, oder über den Menüpunkt Datei → Datenbankabfragen(ODBC) können Daten aus einer Datenbank eingelesen werden.

Abbildung 15: Oberfäche der Dateneingabe in einer Tabelle in „Minitab“

In Abbildung 16 ist die Oberfäche der Software „Weibull++“ zu sehen. Bei Erstellung

51 eines neuen Datensets wird der Nutzer gefragt, welche vorgefertigte Analyseart er mit den Daten durchführen möchte. Anschließend wird er nach der Art der Daten, also der Zensierung, und der Einheit dieser gefragt, zu sehen in Abbildung 17. Nun befndet man sich in einer Tabellenumgebung. Hier können die eingegebenen Daten zwar an Excel gesendet werden, jedoch fndet sich keine Option zum Import der Daten, vergleiche Ab- bildung 18.

Abbildung 16: Softwareoberfäche „Weibull++“

Abbildung 17: Wahl der Art der Daten bei Projekterstellung in „Weibull++“

Von der Umgebung her ähnelt „Relyence Weibull“ dem vorgestellten „Weibull++“, zu sehen in Abbildung 19. Die Daten lassen sich ähnlich zu einem Tabellenprogramm ein- tragen, jedoch wird hier nur die Zeit als Zahl eingetragen, und die Zensierung geschieht

52 Abbildung 18: Oberfäche der Dateneingabe in Tabelle in „Weibull++“

über Auswahlboxen. Importiert werden können nur Daten, die in anderen Programmen der Firma Relyence erstellt wurden.

Abbildung 19: Oberfäche der Dateneingabe in „Relyence Weibull“

In der programmierten Lösung auf der Grundlage des „weibulltools“-Pakets ist das Einlesen der Daten über einen Input einer .csv-Datei gelöst. Eine Anbindung an ei- ne Datenbank ist durch Umprogrammieren der Programmlogik dennoch möglich. Die Verarbeitung von Daten aus einer Tabelle wurde aufgrund der Anforderung nicht un- tersucht. Abbildung 20 zeigt die grundlegende Umgebung und den Dateninput für die selbst entwickelte Lösung.

53 Abbildung 20: Oberfäche der Lebensdatenanalyse in der selbstprogrammierten Lösung in „R“

5.2. Einstellung der Optionen Die Auswahl der Optionen für die Lebensdatenanalyse fndet sich bei „Minitab“ in der Ausführung dieser wieder. Unter dem Menüpunkt Statistik → Zuverlssigkeit/Lebensdauer → V erteilungsanalyse (Rechtszensierung) und V erteilungsanalyse (beliebige Zensierung) befnden sich die zu untersuchenden Analysemethoden. Hierbei interessant sind die Ver- teilungsidentifkation, zu sehen in Abbildung 21, die Verteilungsübersicht, zu sehen in Abbildung 22, und die verteilungsgebundene Analyse, zu sehen in Abbildung 23. Die Outputs aller Funktionen sind in Kapitel 5.3 beschrieben. Bei der Verteilungsanalyse lassen sich Variablenspalte, Häufgkeitsspalte und unter Zensierung auch eine Zensie- rungsspalte mit Kodierungswert angeben. Verteilungen, die analysiert werden sollen, können ausgewählt werden. Außerdem kann die Schätzmethode verändert werden. Die- selben Optionen bieten sich bei der Verteilungsübersicht, nur dass bei dieser eine konkre- te Verteilung ausgewählt werden muss, über die eine Übersicht erstellt werden soll. Bei der verteilungsgebundenen Analyse bieten sich viele weitere Optionen zur Aufarbeitung der Daten für einen Report.

Auf der rechten Seite der Abbildung 18 fndet sich die Optionsauswahl für die Le- bensdatenanalyse in „Weibull++“. Die Verteilung lässt sich durch ein Dropdown-Menü auswählen, bei dem weitere Unteroptionen vorhanden sind, siehe Abbildung 24. Die Abkürzungen darunter stehen für die Verwendung der verschiedenen Methoden in der Analyse. Hier lassen sich Schätzmethode, Konfdenzmethode und weiteres ändern. Ge- nauere Informationen erhält man beim Anklicken.

Die Optionen für die Schätzungen befnden sich bei „Relyence Weibull“ analog zu „Weibull++“ auf der rechten Seite. Hierbei ist allerdings besser erkennbar, zu sehen in Abbildung 19, welche Einstellung der Benutzer verändert, und welche Alternativoptionen es gibt. Für die Analyse lassen sich Verteilung, Schätzmethode und die Rang-Methode der Daten verändern. Außerdem befndet sich bei den Optionen eine Einstellung für intervallzensierte Daten und eine Analyse für die bestpassendste Verteilung, siehe Ab- bildung 25. Die Optionen für Konfdenzintervalle und Methodik befnden sich beim Plo- toutput, der über die Schaltfäche To Plot erreicht wird, zu sehen in Abbildung 26. Die

54 Abbildung 21: Optionen und Output der Verteilungsidentifkation in „Minitab“

Abbildung 22: Optionen und Output der Verteilungsübersicht in „Minitab“

55 Abbildung 23: Optionen und Output der Verteilungsanalyse in „Minitab“

Abbildung 24: Optionsauswahl der Lebensdatenanalyse in „Weibull++“

56 Auswahl der Optionen geschieht analog zu den oben genannten Verteilungsoptionen.

Abbildung 25: Best-Fit-Option in „Relyence Weibull“

Abbildung 26: Plot-Output und Optionen der Lebensdatenanalyse in „Relyence Weibull“

Die Optionen für die Manipulation der Lebensdatenanalyse in der in „R“ entwickel- ten Lösung befnden sich, wie in Abbildung 20 und 27 zu sehen, auf der linken Seite. Sie sind unterteilt in generelle Optionen, Abbildung 20, und erweiterte Optionen für erfahrene Nutzer, Abbildung 27. Die Auswahl einer bestimmten Versagensart für ein- gelesene Teiledaten, die Auswahl der zu betrachtenden Zeitspanne der Aufzeichnung und die Wahl der Größe des Konfdenzintervalls werden als allgemeine Optionen kate- gorisiert. Diese sollten selbst statistikunerfahrene Nutzer in ihrer Anwendung verstehen und bedienen können. Die erweiterten Optionen bieten Einstellmöglichkeiten der Schätz- methode, der Konfdenzmethode und der anzupassenden Verteilung. Alle Optionen ha- ben festgelegte Standardwerte, die bei Nichtbetrachten dieser Optionen angenommen

57 werden. Das Verteilungs-Dropdown-Menu bietet außerdem eine Best-Fit-Auswahl, die nach einem Goodness-of-Fit-Parameter eine Verteilung auswählt. der Goodness-of-Fit- Parameter kann für die Maximum-Likelihood-Schätzung auch noch angepasst werden, wird in der Abbildung jedoch von der Funktionsauswahl überdeckt.

Abbildung 27: Erweiterte Optionen zur Manipulation der Lebensdatenanalyse in der selbstprogrammierten Lösung in „R“

5.3. Output Die Outputs, die das Programm „Minitab“ liefert, sind in Abbildung 21, 22 und 23 zu sehen. Abbildung 21 zeigt auf der linken Seite den Output der Verteilungsidentifkati- on, mit den rechts gewählten Optionen. Des Weiteren befndet sich noch eine Tabelle mit den geschätzten MTTF-Werten für jede Verteilung und ein grafscher Vergleich der geschätzten Verteilungen im Output. Die Verteilungsübersicht, dargestellt in Ab- bildung 22, liefert nur den zu sehenden Output: die Übersicht in Form einer grafschen Darstellung der geschätzten Verteilung. Der in Abbildung 23 dargestellte Output der verteilungsgebundenen Analyse lässt sich individuell anpassen. Er enthält zusätzlich zu dem dargestellten Plot und den Goodness-of-Fit-Parametern allgemeine Informationen zur Analyse und den gewählten Methoden, weitere Parameterschätzungen der Verteilung und Tabellen mit verschiedenen Merkmalen und Perzentilen. Jede einzelne Tabelle oder Ausgabe für jede der dargestellten Funktionen lässt sich einfach kopieren, drucken oder exportieren. In „Weibull++“ werden verschiedene Outputs generiert. Durch den Berechnen-Button erscheint unter den Optionen eine Analyseübersicht mit den Verteilungsparametern und ein paar anderen wichtigen Werten, zu sehen in Abbildung 28. Hierbei auch zu sehen ist der Output, der ebenfalls die Werte sowie die benutzten Methoden zusammenfasst und für einen Export vorbereitet. Dieser kann durch einen Klick auf die Lupe geöfnet wer- den. Den in Abbildung 29 dargestellten Output eines Plots erhält der Nutzer durch einen Klick auf den Grafk-Button. Hierbei ist nur die Veränderung der Option zur Anzeige von Konfdenzintervallen nötig, da diese standardmäßig nicht im Plot enthalten sind. Dem Nutzer stehen außerdem zwei weitere Outputs der Analyse zur Verfügung. Zum einen der

58 in Abbildung 30 dargestellte Rechner, der über die Quick-Calculation-Pad-Schaltfäche aufgerufen wird. Er ermöglicht die Berechnung von Versagenswahrscheinlichkeiten zu bestimmten Zeiten oder anders herum. Zum anderen hat der Nutzer die Möglichkeit, sich eine Übersicht über alle Verteilungen und ihren Fit zu den Daten mithilfe des in Abbildung 31 dargestellten Verteilungsassistenten zu verschafen.

Abbildung 28: Output der Lebensdatenanalyse als Übersicht in „Weibull++“

Abbildung 29: Output des Probability-Plots in „Weibull++“

„Relyence Weibull“ liefert als primären Output den Probability-Plot mit der geschätz- ten Verteilung, zu sehen in Abbildung 26. Dieser interaktive Plot liefert außerdem die geschätzten Parameter und einen Goodness-of-Fit-Parameter, in diesem Fall den

59 Abbildung 30: Rechner in „Weibull++“

Abbildung 31: Output des Verteilungsassistenten in „Weibull++“

60 Loglike-Wert. Weitere Werte erhält man auf der Tabellenseite der Analyse nicht, Abbil- dung 19. In der Verteilungsanalyse, Abbildung 25, wird zu den Verteilungen ein weiterer Goodness-of-Fit-Parameter ausgegeben, aufgrund dessen man anschließend den besten Fit für die Analyse auswählen kann. Alle Ergebnisse lassen sich als übersichtlicher Re- port exportieren. Durch die Betätigung des Update-Buttons in der selbst entwickelten Lösung, dargestellt in Abbildung 27, wird der Output im Hauptfenster angezeigt. Die Abbildungen 32 und 33 zeigen den generierten Output im Verteilungsbereich. Oben befndet sich ein inter- aktiver Probability-Plot mit Konfdenzregion, Kennzeichnung des eigentlichen Datenbe- reichs und extrapolierten Annahmen, dargestellt in Abbildung 32. Darunter befnden sich Informationen über die geschätzte Verteilung, ein Rechner für Versagenszeit und -wahrscheinlichkeit, eine Aufistung der wichtigsten B-Lifes und die getätigten Auswah- len in den Optionen zur Manipulation der Analyse, zu sehen in Abbildung 33. All diese Informationen werden für die ausgewählte Verteilung erstellt. In Abbildung 34 ist eine Tabelle für den Vergleich der verschiedenen Verteilungen zu sehen, die ebenfalls berech- net und bereitgestellt wird.

Abbildung 32: Probability-Plot und Verteilungsinformationen im Output der selbstpro- grammierten Lösung in „R“

Abbildung 33: Weitere Outputs der Lebensdatenanalyse in der selbstprogrammierten Lösung in „R“

61 Abbildung 34: Vergleich der Verteilungen in der selbstprogrammierten Lösung in „R“

6. Diskussion

„Minitab“ stellt eine übersichtliche Oberfäche bereit, und die Daten lassen sich aus einer Datenbank einlesen. Aufgrund der vielen statistischen Analysen sind einzelne schwer zu fnden, und die Klassifzierung der Daten und das Einstellen der Optionen ist sehr um- fangreich. Der Output der einzelnen Funktionen ist aussagekräftig und gut exportierbar. Trotz dieser Vorteile und der Automatisierungsfähigkeit der vorgestellten Schritte durch Makros sind der hohe Preis und die Kompliziertheit aufgrund der universellen Einsatz- barkeit Gründe, „Minitab“ auszuschließen. Das Softwarepaket „Weibull++“ von ReliaSoft erfüllt alle aufgeführten Anforderungen in der Tabelle und implementiert dazu einen interaktiven Plot sowie die Einstellmöglichkeit der Zeiteinheit, um einen aussagekräftigen Report zu erstellen. Die Auswahl zur Art der Analyse und die Eingabe der Daten von Hand sind sehr aufwändig. Die Einstellung der Optionen für die Methoden zur Schätzung und zu den Konfdenzintervallen sind außer- dem unübersichtlich gestaltet. Der Nutzer bekommt keine Information, welche Option er ändert und welche Möglichkeiten es gibt. Trotz des interaktiven Plots ist anzumerken, dass dieser standardmäßig ohne Intervallgrenzen ausgegeben wird. Dieser unvollständige Plot muss erst durch eine weitere Benutzerinteraktion fertiggestellt werden. Die Analyse basiert stark auf Benutzerinteraktionen, und es gibt keine Informationen zum Schreiben eines Skripts oder Makros, um dies zu minimieren und eine weitere Automatisierung vorzunehmen. Insofern automatisiert das Programm die einzelnen Methoden der Le- bensdatenanalyse, jedoch nicht diese als Ganzes. „Relyence Weibull“ von Relyence liefert die günstigste Kaufvariante, die untersucht wur- de. Trotzdem ist die Analyseumgebung übersichtlich und verständlich gestaltet, ein interaktiver Plot ist implementiert, und eine Anbindung an eine Datenbank ist mög- lich. Auch die Optionswahl wurde durch die Dropdown-Auswahl besser gestaltet als in „Weibull++“. Nicht vorhanden ist allerdings eine Berechnungsmethode für einzelne Wer- te der geschätzten Verteilung, und Informationen zu Makros oder Skripts gibt es auch nicht. Auch „Relyence Weibull“ automatisiert also die Methoden der Lebensdatenana- lyse, aber nicht diese als Ganzes und lässt keine weitere Automatisierung des Prozesses zu. Mit Hilfe der entwickelten und in Kapitel 4.3 vorgestellten Lösung auf der Grundlage

62 des „R“-Pakets „weibulltools“ von Tim-Gunnar Hensel, zu fnden unter [Hen19a], sowie den genannten Erweiterungen ist es dem Benutzer möglich, die Analyse vom Punkt der Sortierung der Daten bis hin zum fertigen Plot mit geschätzter Funktion und Konf- denz und vielen wichtigen Werten mit wenigen Interaktionen durchzuführen. Je nach Anschluss an eine Datenbank entfällt sogar der Prozess des Einlesens der Daten. Für beide Varianten müssen die Daten allerdings in einem gewissen Format vorliegen. Trotz der Reduzierung auf die Durchführung der Analyse mittels eines einzigen Knopfdrucks verliert der Benutzer kaum Variabilität in der Analyse. Die spezielle Lösung wurde auf die Anwendung zugeschnitten und wird hierbei auf die gestellten Anforderungen ange- passt, mit einem Mehraufwand in der Programmierung oder anderer Lösungsauswahl ist allerdings auch die Erhaltung der kompletten Variabilität in der Analysedurchführung möglich. In der beschriebenen Lösung erhält der Nutzer durch die übersichtliche Auf- listung die Möglichkeit auf wichtige Methoden oder Parameter in der Analyse Einfuss zu nehmen. Das „plotly“-Paket verdeutlicht die Möglichkeiten, die aus einer Automati- sierung resultieren. Durch dessen Verwendung wird die Auswertung efzienter gestaltet, indem der Nutzer in dem dynamischen Plot wichtige Teilbereiche vergrößern oder sich zu Objekten des Plots erweiterte Informationen anzeigen lassen kann. Außerdem wird dem Nutzer eine Möglichkeit geboten, den Plot zu exportieren, um so die Analyseergebnisse weiter verwenden zu können.

63 7. Fazit

Aus der vorangegangenen Untersuchung und Diskussion wird deutlich, dass für den ge- gebenen Sachverhalt die Lebensdatenanalyse mit einer selbst programmierten Lösung am besten automatisiert werden kann. Für eine tiefgreifende Analyse eines Statistikers wäre die Lösungsauswahl dieser Arbeit sicher eine andere gewesen. Das Ziel war jedoch, den Arbeitern in der Triebwerksreparatur eine einfache Übersicht über die Daten zu verschafen, ohne das Einstellungen getätigt werden müssen oder Vorwissen vorhanden sein muss. Aufgrund der bekannten Randbedingungen beziehungsweise des bekannten Teileverhaltens ist im untersuchten Beispiel die Automatisierung des gesamten Prozesses gut umsetzbar. Aus den Bedingungen zu Output und Methodenauswahl, aber auch aus der Datenstruktur im Input, sei es durch .csv-Datei oder Datenbank, folgt eine klare Analysestruktur. Diese lässt sich in kommerziellen Programmen und durch frei erhältli- che Funktionen aus Paketen von Programiersprachen umsetzen. Die kostenlose Variante einer eigenen Programmierung erweitert hierbei den Automatisierungsgrad mehr als die kommerziellen Lösungen. Sie ist die einzige Lösung, die die komplette Analyse als ganzen Prozess automatisiert. Der Aufwand bezüglich einer grafschen Benutzeroberfäche wird allerdings erhöht, und Änderungen im grundlegenden Analyseprozess sind nur durch Umprogrammierungen möglich. Es wird aber auch deutlich, dass ohne menschlichen Anteil die Analyse keinen Nutzen hat. Die Ergebnisse, die die Automatisierungen in Form von Software in ihrem Out- put liefern, müssen durch menschliche Betrachtung ausgewertet werden. Hierbei spielt Erfahrung eine große Rolle. Der Betrachter muss wissen, wie und wo er welche Werte abliest und was diese konkret bedeuten oder worauf sie hinweisen. Zwar können viele Werte zusätzlich ausgegeben werden, trotzdem muss hier ein Maß gefunden werden, bei dem alle wichtigen Werte übersichtlich vorhanden und für den Benutzer logisch angeord- net sind, diese aber nicht doppelt vorkommen oder die Ausgabe überladen und diese zu unübersichtlich wird. Außerdem muss das Ergebnis der Lebensdatenanalyse auf Plausi- bilität geprüft werden. Eine Verteilung lässt sich immer auf die Daten anpassen, egal wie gering die Güte der Schätzung ist. Ist diese bei der am besten abschneidenden Verteilung immer noch unzureichend, um die Daten abzubilden, wird das von keinem betrachteten Programm festgestellt oder untersucht. Der Benutzer sollte also bemerken, wenn die ge- schätzte Verteilung die Daten nicht aussagekräftig repräsentiert [Law02, S. 101]. Hierbei ist natürlich noch ein weiterer Schritt der Automatisierung möglich, bei dem Prüfalgo- rithmen diese Werte überprüfen. Dazu braucht man allerdings Erfahrungswerte, und der Prozess wird komplizierter und eingegrenzter. Auch einen Mix von Versagensarten muss aus dem Plot bei den untersuchten Lösungen vom Benutzer erkannt werden. Zwar gibt es Funktionen zur Analyse von Datensets mit mehreren Versagensarten im benutzten „weibulltools“-Paket, allerdings muss man das vorher wissen und dann anwenden. Bei guter Datenakquise sollte dies aber auch nicht nötig sein. Das führt zum nächsten Punkt, der mit Hilfe der Lösungen nicht automatisiert wird. Per Defnition startet der Prozess der Lebensdatenanalyse mit dem Sammeln der Daten beim Versagens eines Systems. Daraufhin muss die Zeit oder die ausschlaggebende Grö-

64 ße erfasst werden, die das System bis zum Versagen lief. Anschließend muss noch der Grund des Versagens ermittelt werden. Die Genauigkeit und Güte dieser Feststellungen haben starken Einfuss auf die Ergebnisse der Lebensdatenanalyse der Software. Da diese Analyse so in der Form vorher nicht in den Arbeitsplan integriert war, sondern als neue Komponente zur Verfügung steht, kann keine Aussage über ein Zeitersparnis und somit über eine Wertschöpfung im Arbeitsprozess durch diese Automatisierung ge- tätigt werden. Eine Angabe geht jedoch aus Expertengesprächen über die Verfügbarkeit hervor. Vorher musste die zuständige Statistikabteilung mit einer Beurteilung beauftragt werden. Diese bekamen die Daten, führten die Analyse durch und gaben die Ergebnisse zurück. Dieser Vorgang dauerte bis zu zwei Wochen. Durch die Einführung der automa- tisierten Lösung ist es dem Benutzer möglich, aktuelle Daten innerhalb von Minuten zu analysieren. Die Intention ist hierbei, dass bei festgestellten Unstimmigkeiten anschlie- ßend die Statistikabteilung beauftragt wird, eine fundierte Aussage zu trefen und einen Report anzufertigen. Das System dient also als direkte erste Einschätzung zum aktuellen Verhalten der Teile.

65 8. Ausblick

Dieses Kapitel liefert einen Überblick über interessante Sachverhalte, die im Zusammen- hang mit der Fragestellung behandelt werden könnten. Viele der genannten Punkte über- steigen den Umfang dieser Arbeit, manche wurde allerdings leider durch äußere Umstän- de verhindert. Rückschlüsse über die Vorteile durch die Automatisierung beispielsweise müssten im Weiteren noch ausgewertet werden. Aufgrund nicht abgeschlossener Imple- mentierung und Umsetzung im realen Prozess und dem Fehlen von Vergleichsgrößen ist eine Auswertung in diesem Sinne nicht möglich. Durchschnittliche Bearbeitungszeiten einer Analyse durch die Arbeiter und die daraus gewonnene Wertschöpfung und die Verbesserung der Wartung aufgrund schnellerer Ergebnisse wären hierbei nennenswerte Faktoren. Es ist zu sagen, dass ein Vergleich der gesamten Lebensdatenanalyse weitaus aufwendi- ger ist. Ohne einschränkende Anforderungen wären deutlich mehr Methoden zu untersu- chen gewesen. Beispielhaft zu nennen sind die nicht-parametrische Datenanalyse und die Analyse von Daten mit gemischten Versagensursachen. Hierbei gibt es Funktionen für Mixed-Plots, die oft in kommerziellen Lösungen und auch im „weibulltools“-Paket zur Verfügung stehen. Auch Monte-Carlo-Simulationen sind ein großes Teilgebiet, welches durch die Automatisierung deutlich einfacher durchzuführen ist [GM10, S. 28] [Abe93, S. 7-6 – 7-7]. Hierbei ist interessant, ob diese auch als fertige Funktionen in Paketen in Programmiersprachen vorhanden sind und ob diese mit den kommerziellen Alternativen mithalten können. Eine Frage ist außerdem, ob der Automatisierungsgrad durch die In- tegration von Monte-Carlo-Simulationen gesteigert werden kann. Ein einfacherer Vorteil wäre die Aufzeichnung von mehreren, konkurrierenden Versa- genszeiten [ME98, S. 18]. Anschließend könnten beispielsweise die echten Laufzeiten mit den Heiß-/Kalt-Zyklen in einer vergleichenden Betrachtung in Bezug gesetzt werden. Außerdem kann geschaut werden, bei welcher Zeiteinheiten die Verteilung die Daten besser modelliert. Die Automatisierung liefert hierbei einen guten Ansatz zum schnel- len Umschalten der Zeitachse im Probability-Plot. Außerdem könnte ein Modell für die Abhängigkeit der Versagenszeitpunkte ermittelt werden. Unter den gegebenen Bedingungen könnte die Lebensdatenanalyse auch auf die Be- trachtung in Systemebene ausgeweitet werden, indem komplexe Zusammenhänge von Versagensursachen einzelner Teile in einem System gebildet und untersucht werden. Im Hinblick auf die untersuchte Anwendung könnten alle Daten von den beteiligten Teilen eines Systems auf einmal abgerufen werden und anschließend mit den anderen Methoden bearbeitet werden, um so eine Aussage für die zusammengebauten Systeme zu erhalten. Eine interessante Alternativlösung, die bisher nicht genannt wurde, ist „APPL“ (A Pro- pability Programming Language). Aufgrund fehlender beispielhafter Implementierun- gen konnte der Aufwand der Entwicklung einer vergleichbaren Oberfäche mit dieser Programmiersprache nicht eingeschätzt werden, und die Lösung fndet erst hier Erwäh- nung. „APPL“ ist eine Zusammenstellung von Prozeduren und Befehlen der - Programmiersprache, die besonders efzient Berechnungen durchführt. Besonders im Hinblick auf die pure Berechnung fnden sich hier Lösungen für die angesprochenen Be- reiche von Systemzuverlässigkeit. Informationen zu „APPL“ sind in [Dre+16] zu fnden,

66 Kapitel 10 beschäftigt sich hierbei mit der Anwendung im Bereich Zuverlässigkeit und Lebensdatenanalyse. Wie in Kapitel 7 angesprochen umfasst die untersuchte Automatisierung nur den klei- nen Teil der statistischen Methoden. Weiterhin zu untersuchen ist, ob und wie sich die Automatisierung auf die Bereiche der Auswertung der Analyse oder die Datenakquise er- weitern lässt. Im Bereich der Auswertung könnte bei Verbindung zum Datenbanksystem bei ausfallenden Teilen die Seriennummer überprüft werden und so bei ähnlichen Num- mern auf ein Chargenproblem geschlossen werden. Für weitere Bereiche, die über die Lebensdatenanalyse hinausgehen, die aber auch im automatisierungtechnischen Sinne interessant sind, sei auch auf [Nel82, Kapitel 13] verwiesen. Durch die voranschreitende Automatisierung in vielen Bereichen der Industrie und die unbestreitbaren Vorteile ist mit vielen weiteren Lösungen zur Automatisierung in diesem Bereich zu rechnen.

67 Anhang

A. Lösungsvergleichstabelle

Tabelle 7: Softwarevergleich

I II Kriterium

Programm

/Software

Hersteller Erwerbbarkeit Version/ Preis(Einzellizenz) Demo grafischeBenutzeroberfläche Datenbankkommunikation Plotausgabe Wertausgabe/-berechnung ZensierteDaten Weibull-Verteilung Normalverteilung Lognormalverteilung Verteilung logistische Verteilung loglogistische Extremwertverteilung Exponentialverteilung Maximum-Likelihood- Schätzung Mediane-Rang-Regression Fisher-Matrix-Grenzen Beta-Binomiale-Grenzen Likelihood-Verhältnis- Grenzen Goodness-of-Fit-Parameter STATSYSTEM k.A. - k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. STATPAC k.A. < 2017 frei k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A.

BMDP k.A. < 2017 frei k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. nQuery Statsols 8.5.2 595 - 995 - - k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. 2495$/J SAS SAS Institute Inc. 9.4 ca. 7500€/J (+) (+) + + + l r i + + + + + + + + + - - + - Loglike (OBCD) (SQL) OMNITAB k.A. - k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. MINITAB Minitab LLC. 19.0 1308,05€/J + + + + + l r i + + + + + + + + + - - + - Anderson- 2721,53€ (OBCD) Darling - Pearson Weib General Electric - k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. Information Service Company

CENSOR k.A. - k.A. k.A. k.A. k.A. + k.A. + k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. Survreg k.A. - k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A.

AGSS IBM - (250$ + k.A. k.A. k.A. + k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. 630$) JMP SAS Institute Inc. 15.1 1500$/J + + + + - l r i + + + + + + + + - - - - - AIC 14.900$/J (OBCD) - BIC (Pro) - Loglike Weibull++ ReliaSoft 2019 1.360 € + + + + + l r i + + + + + + + + + + + + - KS - Korrelations Koeffizient - Loglike SuperSMITH Fulton Findings 5.0 840$ + + - + - l r i + + + - - - - + + + + + - p-value - r^2 SPLIDA k.A. 2008 frei + + - + + l r + + + + + + - + - k.A. k.A. + - Loglike

SPSS IBM 25 95,53€/M + + + ------Kriterium

Programm

/Software

Hersteller Erwerbbarkeit Version/ Preis(Einzellizenz) Demo grafischeBenutzeroberfläche Datenbankkommunikation Plotausgabe Wertausgabe/-berechnung ZensierteDaten Weibull-Verteilung Normalverteilung Lognormalverteilung Verteilung logistische Verteilung loglogistische Extremwertverteilung Exponentialverteilung Maximum-Likelihood- Schätzung Mediane-Rang-Regression Fisher-Matrix-Grenzen Beta-Binomiale-Grenzen Likelihood-Verhältnis- Grenzen Goodness-of-Fit-Parameter Epilog Plus k.A. - k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A.

Spida k.A. - k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A.

Epicure Riskscience 2.0 1200$ (+) + k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. + k.A. + 240$/J Egret Cytel Software - k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. Limdep Econometric 11 1095$ - + k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. + k.A. k.A. k.A. k.A. k.A. Software Stata StataCorp Inc. 16 595-765-895- - + + - + l r i + k.A. + k.A. + k.A. + k.A. k.A. k.A. k.A. k.A. k.A. 995$/J

Statistica StatSoft 13.5 ca. 3100€ + + k.A. + + l r i + + + - - - + (+) - - - + - Loglike (Tibco)

RAMFIT US Military k.A. - - k.A. (+) + + l i k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. + (keine Angabe welcher)

Weibull-DR Applications 21 598$ + + - + + r + + + - - - + + + k.A. k.A. k.A. - Korrelations Reserch Inc. Koeffizient

Relyence Relyence 04.2020 650€ + 20% + + + + - l r i + + + - - + + + + + + + - Residuals Weibull (API) Statgraphics Statgraphics 18.1.12 765$/J + + k.A. (+) - l r + + + + + + + + + k.A. k.A. k.A. - Loglike Centurion Technologies Inc. 1695$ - KSD

NCSS NCSS 2020 595$/J + + k.A. (+) - l r i + + + + + + + + - k.A. k.A. k.A. - Loglike

KyPlot KyensLab Inc. 6.0 gratis + + k.A. + k.A. l r + ------k.A. k.A. k.A. k.A. k.A. k.A.

Excel XLStat AddinSoft 04.2020 1295€/J + + von - k.A. r + - + - - + + k.A. k.A. k.A. k.A. k.A. - Loglike III 845€/J für Excel - AIC Pakete - SBC IV Kriterium

Programm

/Software

Hersteller Erwerbbarkeit Version/ Preis(Einzellizenz) Demo grafischeBenutzeroberfläche Datenbankkommunikation Plotausgabe Wertausgabe/-berechnung ZensierteDaten Weibull-Verteilung Normalverteilung Lognormalverteilung Verteilung logistische Verteilung loglogistische Extremwertverteilung Exponentialverteilung Maximum-Likelihood- Schätzung Mediane-Rang-Regression Fisher-Matrix-Grenzen Beta-Binomiale-Grenzen Likelihood-Verhältnis- Grenzen Goodness-of-Fit-Parameter ExStat k.A. - gratis - + von + + l r i + + + + + - + + + + - + - Excel MATLAB MathWorks R2020a 2000€ + (+) + (+) + r + + + + + + + + - k.A. k.A. k.A. - Loglike (9.8.0) 800€/J

Python Python Software Foundation Weibull 23.11.19 gratis + (+) + (+) + l r + ------+ + - - - - Rustan Uzbekov

weibull Jason R. Jones 0.1.3 gratis + (+) + + + k.A. + ------+ + k.A. k.A. k.A. - r^2 reliability Mathew Ried 0.4.8 gratis + (+) + (+) + r + + + - - - + + - k.A. k.A. k.A. - AIC - BIC

R R Core Team 3.6.2

survival Terry M. Therneau 3.1-12 gratis + (+) + k.A. + k.A. + k.A. + + + k.A. + + - k.A. k.A. k.A. k.A.

WeibullFit Thiago Martins 0.1.0 gratis + (+) + (+) - k.A. + ------+ - k.A. k.A. k.A. - Clayton Filko weibullness Chanseok Park 1.19.8 gratis + (+) + - - k.A. + ------+ - - - - - WeibullR David Silkworth 1.0.12 gratis + (+) + + + l r + - + - - - - + + + - + - pval Jurgen Symynck - r^2 weibulltools Tim-Gunnar Hensel 1.0.1 gratis + (+) + + + l r i + + + + + + - + + + + - - AIC - BIC - Loglike + heißt implementiert r = rechtszensiert - heißt nicht l = linkszensiert () besondere Informationen, siehe Bemerkung i = intervallzensiert Kriterium

Programm /Software Bemerkungen/Besonderheiten STATSYSTEM - Quelle zum Nachschlagen nicht gefunden STATPAC - Keine Quellen - Vertrieb eingestellt BMDP - Nachfolger nQuery nQuery - klinische Studien

SAS - Reliability Procedure; - GUI muss programmiert werden; - Demo nur auf langwierige Anfrage OMNITAB - Nachfolger MINITAB MINITAB - Automatisierung durch Makros - Interaktiver Plot - Zu berechnende Werte vor Analyse einzugeben Weib - Ähnlich zu STATPAC - Kein Vertrieb mehr - Keine weiteren Quellen

CENSOR - Kein Vertrieb mehr Survreg - Keine Quellen - Nur "R"-Package zu finden AGSS - Kein Vertrieb mehr

JMP - Automatisierung durch Script

Weibull++ - Einheiten einstellbar für Report - Interaktiver Plot

SuperSMITH - Basiert auf Weibull Handbook (schlechtere statistische Methodik)

SPLIDA - Erweiterung der Sprache "S" (für S-Plus 6.x &7.0);

V - (aktuelle Version 8.2 von TIBCO für 6000$) SPSS - Keine parametrische Modellierung VI Kriterium

Programm /Software Bemerkungen/Besonderheiten Epilog Plus - Keine parametrische Modellierung - Kein Vertrieb mehr Spida - Keine parametrische Modellierung - Kein Vertrieb mehr Epicure - Klinische Studien - Demo nur auf langwierige Anfrage Egret - Kein Vertrieb mehr Limdep - Skript/Programmier-Sprache

Stata - Python integriert

Statistica - Schlechter Plot; - In Tibco Data Science; - AddOn für Shelf Life Estimation; - ML-Methode nur für Weibull-Verteilung RAMFIT - Verarbeitung von Mix zwischen zensierten und nicht zensierten Daten - Gut zugeschnittene Lösung auf konkretes Problem - Verbindung mit Militärdatenbank

Weibull-DR - Konfidenz ändert sich, bei unterschiedlicher Fitting Methode (implementierung von unterscheidlichen, nicht auswählbar) - Beta wird nur ganzzahlig ausgegeben

Relyence - Interaktiver Plot Weibull Statgraphics - Verteilungsanalyse getrennt von Weibull Analyse Centurion - R Interface - Plot ohne Konfidenzintervalle NCSS - Macros zur Automatisierung - Plot ohne Konfidenzintervalle KyPlot - Schlechtes Interface - Viele andere Möglichkeiten Excel XLStat - Excel muss auch erworben werden Kriterium

Programm /Software Bemerkungen/Besonderheiten ExStat - Excel muss auch erworben werden - Kein Vertrieb mehr MATLAB - Funktionen in der "Statistics and Machine Learning Toolbox" - 1000€ oder 400€/J für die Toolbox - GUI nur bei dfittool/distributionFitter Funktion - Plot ohne Konfidenzintervalle Python - Sprache für folgende Pakete

Weibull - Fitting-Methode automatisch nach Fehleranzahl - GUI muss programmiert werden - Plot ohne Konfidenzintervalle weibull - GUI muss programmiert werden reliability - Umfangreiche Bibliothek mit vielen weiteren Funktionen - GUI muss programmiert werden - Plot ohne Konfidenzintervalle R - Sprache für folgende Pakete

survival - GUI muss programmiert werden

WeibullFit - GUI muss programmiert werden - Plot ohne Konfidenzintervalle weibullness - GUI muss programmiert werden WeibullR - Webapplikation benutzt Vorgänger dieses Packages - GUI muss programmiert werden weibulltools - GUI muss programmiert werden - Interaktiver Plot VII B. Quellcode

B.1. Anwendung der Funktionen aus dem „weibulltools“-Paket B.1.1. Konfdenzintervallfunktionen

1 conf_betabin< − c o n f i n t_betabinom(x = df_riv$characteristic , 2 event = df_riv$status,

3 l o c_sc_params = mrr$loc_sc_coefficients, 4 distribution ="weibull", 5 bounds ="two_sided", 6 conf_level = 0.90, 7 d i r e c t i o n ="y") Listing 7: Ermittlung der Konfdenzintervalle mithilfe der Beta-Binmial-Grenzen

1 conf_fish< − c o n f i n t_fisher(x = df_riv$characteristic ,

2 event = df_riv$status, 3 l o c_sc_params = mle$loc_sc_coefficients, 4 l o c_sc_varcov = mle$loc_sc_vcov , 5 distribution ="weibull", 6 bounds ="two_sided", 7 conf_level = 0.90,

8 d i r e c t i o n ="y") Listing 8: Ermittlung der Konfdenzintervalle mithilfe der Fisher-Matrix-Grenzen

B.1.2. Plotfunktionen

1 p l o t_weibull< − p l o t_prob(x = df_riv$characteristic , 2 y = df_riv$prob , 3 event = df_riv$status, 4 id = df_riv$id , 5 distribution ="weibull", 6 t i t l e_main ="Weibull Plot",

7 t i t l e_x ="Cycles/Hours", 8 t i t l e_y ="Probability of Failure in%", 9 t i t l e_trace="Failed Items") Listing 9: Erstellung des Weibull-Probability-Plots im „weibulltools“-Paket

1 p l o t_weibull_mledistr< − p l o t_mod(p_obj = plot_weibull , 2 x = conf_fish$characteristic , 3 y = conf_fish$prob ,

4 l o c_sc_params = mle$loc_sc_coefficients, 5 distribution ="weibull", 6 t i t l e_trace="Estimated Weibull curve") Listing 10: Einzeichnen der Verteilung in den Weibull-Probability-Plot im „weibulltools“- Paket, inklusive Vorbereitung für das Einzeichnen von Fisher-Matrix- Grenzen

VIII 1 p l o t_weibull_mledistr_conf< − p l o t_conf(p_obj = plot_weibull_mledistr ,

2 x = list(conf_fish$characteristic), 3 y = list(conf_fish$lower_bound, conf_fish$upper_ bound ) ,

4 d i r e c t i o n ="y", 5 distribution ="weibull", 6 t i t l e_trace="Confidence Region") Listing 11: Einzeichnen der Fisher-Matrix-Grenzen in den Weibull-Probability-Plot im „weibulltools“-Paket

B.1.3. Lebenszeit und Wahrscheinlichkeit

1 l i f e t i m e =c(10) 2 probability< − p r e d i c t_prob(q = lifetime , 3 l o c_sc_params = mle$loc_sc_coefficients, 4 distribution ="weibull") Listing 12: Berechnung der Ausfallwahrscheinlichkeit zu bestimmten Lebenszeiten

1 b L i f e s< − p r e d i c t_quantile(p =c(0.01,0.05,0.1) , 2 l o c_sc_params = mle$loc_sc_coefficients, 3 distribution ="weibull") Listing 13: Berechnung der Lebenszeit zu bestimmten Ausfallwahrscheinlichkeiten

B.2. Funktionsaufrufe in der „Shiny“-Serverlogik

1 ## Generating dataframe from Daten(with Johnson Method) 2 df< − eventReactive(input$update, 3 i s o l a t e ({

4 # if no data is loaded use the Testdata else the data should be provided in the right format

5 i f(is.null(daten())) {if (input$Moden =="Example1 "){return(johnson_method(x = lifetime_riv , event = state_riv ,id = beschreibung_riv))}

6 e l s e{return(johnson_method(x = lifetime_cor, event = state_cor,id = beschreibung_cor))}}

7 e l s e{return(johnson_method(x = datenZeit() [[2]] , event = as.integer(Vectorize(isTRUE)(datenZeit ()$Failure == input$Moden)) ,id = datenZeit()$ID ))}

8 })) Listing 14: Erstellung der Ränge als Dataframe in der „Shiny“-Serverlogik

1 2 mle< − eventReaktive(input ∗ !\$! ∗update,

IX 3 {if(is.null(fehlerstat ∗ !\$! ∗x) | fehlerstat ∗ !\$! ∗x > 1) {return(ml _estimation(x = isolate({df() ∗ !\$! ∗ characteristic}),event = i s o l a t e ({df() ∗ !\$! ∗ s t a t u s}),distribution = isolate({func()}), conf_level = as.numeric(x = input ∗ !\$! ∗ ConfInt)))}

4 e l s e{return()}

5 }) Listing 15: Auführung der ml_estimation() in der „Shiny“-Serverlogik

1 estimate< − eventReactive(input$update, 2 i s o l a t e ({ 3 switch (input$fitting ,

4 "Maximum Likelihood Estimation" = {mle ()},

5 "Median Rank Regression" = {mrr()}, 6 {mle ( ) } 7 ) 8 })

9 ) Listing 16: Auswahl der Schätzmethode anhand von User-Inputs in der „Shiny“- Serverlogik

B.3. Erweiterungen und Änderungen der vorhandenen Funktionen

1 #_new bound values range from the minimal data point to 1% of the probability of that point

2 x_min< − min(x_ob , na. rm = TRUE) 3 x_minimal< − p r e d i c t_quantile(p =c(.01 ∗ p r e d i c t_prob(q=x_min, loc_sc_ params = l o c_sc_params,distribution = distribution)), loc_sc_params = l o c_sc_params,distribution = distribution)

4 x_seq< − seq(x_minimal, x_min, length.out = 50) Listing 17: Änderungen für Beta-Binomiale-Grenzen unterhalb des Datenbereiches

1 #_new bound values range from the maximal data point to 99% of the probability of the esimation

2 x_maximal< − p r e d i c t_quantile(p =c(.99) ,loc_sc_params = loc_sc_params , distribution = distribution)

3 x_max< − max(x_ob , na. rm = TRUE) 4 x_seq< − seq(x_max, x_maximal , length.out = 50) Listing 18: Änderungen für Beta-Binomiale-Grenzen oberhalb des Datenbereiches

1 #_new difference is in line= list(dash="dash",...) and color=I("# f f 7 f 0 e")

2 p_mod<− p l o t l y : :add_lines(p=p_obj , data= df_p, x=~x_p, y=~q,type = "scatter", mode="lines", hoverinfo ="text", line = list(dash =" dash", width = 2), color =I("#ff7f0e"), name = title_trace, text=~ hovertext )

X Listing 19: Änderungen für die Funktionsdarstellung außerhalb des Datenbereiches

1 #_new difference is in line= list(dash="dot",...) and color=I("# f f 7 f 0 e")

2 p_conf< − p l o t l y : :add_lines(p=p_obj , data = dplyr::filter(df_p, group == unique(df_p$group)[1]) , x =~x, y=~q_1, type ="scatter", mode=" l i n e s", hoverinfo ="text", line = list(dash ="dot", width = 1), color =I("#ff7f0e"), name = title_trace , legendgroup ="Interval", text=~ paste(paste0(x_mark ,":"), round(x, digits = 2), paste("
", paste0(y _mark ,":")), round(y, digits = 5))) Listing 20: Änderungen für die Konfdenzdarstellung außerhalb des Datenbereiches 1

1 #_new difference is in line= list(dash="dot",...) and color=I("# f f 7 f 0 e")

2 p_conf< − p_conf %>%

3 p l o t l y : :add_lines(data = dplyr::filter(df_p, group == unique(df_p$group) [ 2 ] ) , x =~x, y=~q_2, type ="scatter", mode="lines", hoverinfo = "text", line = list(dash ="dot", width = 1), color =I("#ff7f0e"), name = title_trace , legendgroup ="Interval", showlegend = FALSE, t e x t=~paste(paste0(x_mark ,":"), round(x, digits = 2), paste("
" , paste0 ( y_mark ,":")), round(y, digits = 5))) Listing 21: Änderungen für die Konfdenzdarstellung außerhalb des Datenbereiches 2

XI C. Automatisierte Lebensdatenanalyse in weiteren Programmen In diesem Kapitel des Anhangs befnden sich weitere Bilder, die die Durchführung der Lebensdatenanalyse in weiteren Programmen zeigen. Diese Programme wurden aufgrund unpassender Kriterien nicht weiter untersucht, können aber für Anwender mit anderen Kriterien von Interesse sein. Daher soll mit den hier gezeigten Bildern die Durchfüh- rung und der Output der Lebensdatenanalyse der Programme „JMP“, „SuperSMITH“, „Statistica“, „Weibull-DR“, „NCSS“ und „MATLAB“ ausgeführt werden.

C.1. „JMP“

Abbildung 35: Output der Lebensdatenanalyse in „JMP“

C.2. „SuperSMITH“

XII Abbildung 36: Grafscher Output der Lebensdatenanalyse in „SuperSMITH“

Abbildung 37: Output der Lebensdatenanalyse in „SuperSMITH“

XIII Abbildung 38: Optionen der Lebensdatenanalyse in „SuperSMITH“

Abbildung 39: Berechnungsmethoden in „SuperSMITH“

XIV C.3. „Statistica“

Abbildung 40: Auswahl der Lebensdatenanalyse in „Statistica“

Abbildung 41: Output der Lebensdatenanalyse in „Statistica“

C.4. „Weibull-DR“

XV Abbildung 42: Oberfäche und Optionswahl in „Weibull-DR“

Abbildung 43: Output der Lebensdatenanalyse in „Weibull-DR“

XVI C.5. „NCSS“

Abbildung 44: Output der Lebensdatenanalyse in „NCSS“

Abbildung 45: Verschiedene Analysearten in „NCSS“

XVII Abbildung 46: Optionen der Lebensdatenanalyse in „NCSS“

C.6. „MATLAB“

Abbildung 47: Output der Lebensdatenanalyse mit der Distribution-Fitter-Funktion in „MATLAB“

XVIII D. Weitere Lösungen Die hier aufgeführten Programme stammen aus der Tabelle „Other abilities“ aus [Wik20a]. Folgend sind sie nochmals aufgelistet mit Gründen, warum diese nicht Bestandteil der ausführlicheren Untersuchung sind: • „Alteryx“: nicht-parametrische Analysen und „Cox“-Methode implementiert, keine Modellierung mit relevanter Verteilung [Alt19], • „“: Analyse von Umfragedaten im medizinischen Bereich, nicht-parametrische Analysen und „Cox“-Methode implementiert [Wik20b], • „“: Landwirtschaftlicher Bereich, keine Information über Verwendung von zensierten Daten, viele weitere Analysemethoden [VSN], • „GraphPad Prism“: nicht die gesuchten Analyse und Methoden enthalten, viele andere Analysemethoden [Gra18], • „“: Opensource-Lösung für Regression-, Ökonometrie- und Timeseries-Bibliothek, unbekannte Programmiersprache [CL20] • „Mathematica“: mächtige Programmiersprache für viele Bereiche; wenige Funktio- nen für Lebensdaten [Wol20a] [Wol20b], • „MedCalc“: Aus biomedizinischem Bereich, nur nicht-parametrische Analyse und „Cox“-Methode implementiert [Wik20e], • „Origin“: in der Pro-Variante Modul Weibull-Fit (nur Weibull-Verteilung) [Ori12], • „SigmaXL“: Excel AddIn mit Reliability/Weibull Analysis Funktion (nur Weibull- Verteilung) [Sig20], • „SOCR“: keine gefunden [UMS20] • „StatPlus“: aus medizinischem Bereich, nicht-parametrische Analysen und „Cox“- Methode [Ana20] • „Statsmodels“: Python-Paket, nicht-parametrische Methoden [Jos20], • „SYSTAT“: umfangreiches, aber unübersichtliches Programm, nur Teile von dem was benötigt wird implementiert [Sof20], • „“: viele Methoden aus der Reliability Analysis und Analysis, nicht die gesuchte vorhanden [UNI20], • „WINKS“: gratis, viele Analysen, nicht die gesuchte [Wik19c], • „Winpepi“: gratis, viele Analysen, nicht die gesuchte [AA17], • „WPS Analytics“: Fähigkeit der Interpretation viele Programmiersprachen aus sta- tistischem Bereich, keine eignen Analysen [Wik].

XIX Literatur

[18] ExStat Life Data Analysis. 10. Okt. 2018. url: http://statisticaltools. de/6.html (besucht am 15. 04. 2020). [AA17] Joe Abramson und Zvi Abramson. Professor Joe Abramson. 7. Mai 2017. url: http://www.brixtonhealth.com/pepi4windows.html (besucht am 15. 07. 2020). [Abe93] Dr. Robert B. Abernethy. The New Weibull Handbook. Reliability & Sta- tistical Analysis for Predicting Life, Safety, Risk, Support Costs, Failures, and Forecasting Warranty Claims, Substantiation and Accelerated Testing, Using Weibull, Log Normal, Crow-AMSAA, , and Kaplan-Meier Mo- dels. Englisch. 5. Auf. Dr. Robert B. Abernethy, 1993. 334 S. isbn: 0- 9653062-3-2. url: https://www.amazon.com/Handbook- Reliability- Statistical-Predicting-Supportability/dp/0965306232?SubscriptionId= AKIAIOBINVZYXZQZ2U3A&tag=chimbori05-20&linkCode=xm2&camp=2025& creative=165953&creativeASIN=0965306232. [ADD] ADDITIVE. Die Minitab Lösungswelt. url: https://www.additive-net. de/de/software/produkte/minitab (besucht am 09. 04. 2020). [Add19] Addinsoft. Weibull-Verteilung in Excel - Anleitung. 2019. url: https:// help . xlstat . com / s / article / weibull - verteilung - in - excel --- anleitung?language=de&_ga=2.179005156.1529306228.1586951588- 237437548.1586951588 (besucht am 22. 05. 2020). [Add20] Addinsoft. XLSTAT - Life Science. 2020. url: https://www.xlstat.com/ de/loesungen/life-sciences (besucht am 22. 05. 2020). [Ado10] Anthony Uwakhonye Adoghe. „Reliability Centered Maintance (RCM) For Asset Management In Electric Power Distribution Systems“. Diss. Covenant University OTA, 2010. url: http://eprints.covenantuniversity.edu. ng/1163/1/CU05GP0125-Anthony%20Uwakhonye%20Adoghe.pdf (besucht am 01. 11. 2019). [Alt19] Alteryx. Survival Analysis Tool. 26. Dez. 2019. url: https://help.alteryx. com/current/designer/survival-analysis-tool (besucht am 15. 07. 2020). [Ana20] AnalystSoft. StatPlus für Windows. 2020. url: https://www.analystsoft. com/de/products/statplus/#statfeatures (besucht am 15. 07. 2020). [App20] Inc. Application Research. The Weibull Dr. 12. Feb. 2020. url: https:// applicationsresearch.com/WeibullEase.htm (besucht am 15. 04. 2020). [BB55] A. Bernard und E.J. Bos-Levenbach. „The plotting of observations on probability- paper“. English. Dutch übers. von R.Schop. In: Stichting Mathematisch Cen- trum. Statistische Afdeling (1. Jan. 1955). [Car] C. G. Carles. Weibull App. url: https://carlescg.shinyapps.io/abrem_ app/ (besucht am 17. 04. 2020).

XX [Cha20] Winston Chang. cran/shiny. 13. März 2020. url: https://cran.r-project. org/web/packages/shiny/index.html (besucht am 02. 06. 2020). [CL20] Allin Cottrell und Riccardo Lucchetti. Gretl. 11. Apr. 2020. url: http : //gretl.sourceforge.net/ (besucht am 15. 07. 2020). [Cor04] ReliaSoft Corporation. „Likelihood Ratio Confdence Bounds“. In: Reliability HotWire 44 (1. Aug. 2004). url: https://www.weibull.com/hotwire/ issue42/relbasics42.htm (besucht am 04. 04. 2020). [Cor14] ReliaSoft Corporation. Life Data Analysis Reference Book. 1. Jan. 2014. url: http://reliawiki.com/index.php/Main_Page (besucht am 11. 03. 2020). [Dav09] Paul A. Tobias David C. Trindade. Applied Reliability. Taylor & Francis Inc, 15. März 2009. 600 S. isbn: 978-1584884668. url: https://www.ebook. de/de/product/12448608/david_c_trindade_paul_a_tobias_applied_ reliability.html. [Dre+16] John H. Drew u. a. Computational Probability. Springer International Pu- blishing, 22. Dez. 2016. 348 S. isbn: 978-3-319-43321-9. url: https://www. ebook.de/de/product/26380441/john_h_drew_diane_l_evans_andrew_ g_glen_lawrence_m_leemis_computational_probability.html. [ETH02] ETH Zürich. S-Plus and R Statistics Software. 30. Okt. 2002. url: https: //stat.ethz.ch/~www/SandR.html (besucht am 22. 04. 2020). [Fin20] Fulton Findings. SuperSMITH® Software. 2020. url: https://fultonfindings. com/supersmith%C2%AE (besucht am 14. 04. 2020). [FM19] Clayton Filho und Thiago Martins. WeibullFit. Fits and Plots a Dataset to the Weibull Probability Distribution Function. Version 0.1.0. 26. Juli 2019. url: https://CRAN.R-project.org/package=WeibullFit (besucht am 17. 04. 2020). [GM10] Ulrike Genschel und William Q. Meeker. „A Comparison of Maximum Li- kelihood and Median-Rank Regression for Weibull Estimation“. In: Quality Engineering 22.4 (1. Aug. 2010), S. 236–255. doi: 10.1080/08982112.2010. 503447. [Gra18] GraphPad. Prism 8. 2018. url: https://www.graphpad.com/scientific- software/prism/ (besucht am 15. 07. 2020). [Hen19a] Tim-Gunnar Hensel. cran/weibulltools. 29. Jan. 2019. url: https://github. com/cran/weibulltools (besucht am 24. 05. 2020). [Hen19b] Tim-Gunnar Hensel. weibulltools. Statistical Methods for Life Data Analysis. Version 1.0.1. 29. Jan. 2019. url: https://CRAN.R-project.org/package= weibulltools (besucht am 17. 04. 2020). [Joh64] Leonard Gustave Johnson. The Statistical Treatment of Fatigue Experiments. Elsevier Publishing Company, 1964. 114 S. isbn: 978-0444403223.

XXI [Jon19] Jason R. Jones. weibull. Python. Version 0.1.3. 4. Nov. 2019. url: https: //pypi.org/project/weibull/ (besucht am 16. 04. 2020). [Jos20] Jonathan Taylor Josef Perktold Skipper Seabold. statsmodels v0.11.1. 21. Feb. 2020. Kap. Methods for Survival and Duration Analysis. url: https://www. statsmodels.org/stable/duration.html# (besucht am 15. 07. 2020). [Kal02] Prentice Kalbfeisch. The Statistical Analysis of Failure Time Data 2e. 2. Auf. 2 Bde. John Wiley & Sons, 26. Aug. 2002. 462 S. isbn: 047136357X. url: https://www.ebook.de/de/product/3604983/kalbfleisch_prentice_ failure_time_data_2e.html. [KL77] Kailash C. Kapur und L. R. Lamberson. Reliability in Engineering Design. New York: Wiley, 1977. isbn: 0-471-51191-9. [KSF11] KSFE. SAS-Software. 19. Feb. 2011. url: http://de.saswiki.org/wiki/ SAS-Software (besucht am 08. 04. 2020). [Kye20] KyensLab Inc. About KyPlot 6.0. 2020. url: http://www.kyenslab.com/ en-us/about-kyplot-6/ (besucht am 22. 04. 2020). [KZA14] Ron S. Kenett, Shelemyahu Zacks und Daniele Amberti. Modern Indus- trial Statistics. Wiley Academic, 24. Jan. 2014. isbn: 978-1-118-45606-4. url: https://www.ebook.de/de/product/21080339/ron_s_kenett_ shelemyahu_zacks_daniele_amberti_modern_industrial_statistics. html. [Law02] Jerald F. Lawless. Statistical Models and Methods for Lifetime Data. John Wiley & Sons, 13. Nov. 2002. 664 S. isbn: 978-0471372158. url: https:// www.ebook.de/de/product/4242739/jerald_f_lawless_statistical_ models_and_methods_for_lifetime_data.html. [Lee19] Christian Lee. How least squares regression estimates are actually calculated. Understanding how model outputs are calculated improves understanding of their interpretation. 31. Dez. 2019. (Besucht am 24. 05. 2020). [Lew94] P. A. W. Lewis. „A Review of AGSS: Ä Graphical Statistical System"“. In: ACM SIGAPL APL Quote Quad 24.4 (1. Juni 1994), S. 28–33. doi: 10.1145/181921.571092. [Liu97] Chi-Chao Liu. „A comparison between the Weibull and lognormal models used to analyse reliability data.“ English. Diss. University of Nottingham, 1. Jan. 1997. [LLC20a] Stata Corp LLC. Stata Order Buisness. 2020. url: https://www.stata. com/order/new/bus/single-user-licenses/dl/ (besucht am 21. 04. 2020). [LLC20b] Stata Corp LLC. Survival Analysis. 2020. url: https://www.stata.com/ features/survival-analysis/ (besucht am 21. 04. 2020). [Mat20] MathWorks. Analysis of Lifetime Data. 2020. url: https://de.mathworks. com / help / stats / analysis - of - lifetime - data - 1 . html (besucht am 22. 04. 2020).

XXII [MD81] William Q. Meeker und Steven D. Duke. „CENSOR-A User-Oriented Com- puter Program for Life Data Analysis“. In: The American Statistician 35.2 (1. Mai 1981), S. 112. doi: 10.2307/2683159. url: https://www.jstor. org/stable/2683159 (besucht am 09. 04. 2020). [ME04] William Q. Meeker und Luis A. Escobar. „SPLIDA (S-PLUS Life Data Analysis)“. In: (28. Feb. 2004). url: https://www.researchgate.net/ publication/228381718 (besucht am 13. 04. 2020). [ME98] William Q. Meeker und Luis A. Escobar. Statistical Methods for Reliabi- lity Data. Wiley-Interscience, 1998. isbn: 978-0-471-14328-4. url: https: / / www . amazon . com / Statistical - Methods - Reliability - William - Meeker/dp/0471143286?SubscriptionId=AKIAIOBINVZYXZQZ2U3A&tag= chimbori05-20&linkCode=xm2&camp=2025&creative=165953&creativeASIN= 0471143286. [Mee08] William Q. Meeker. SPLIDA Splus Life Data Analysis. 2008. url: splida. public.iastate.edu (besucht am 13. 04. 2020). [Min19] Minitab. Reliability Analyses in Minitab. 2019. url: https://support. minitab . com / en - us / minitab / 18 / help - and - how - to / modeling - statistics/reliability/supporting- topics/basics/reliability- analyses-in-minitab/ (besucht am 21. 04. 2020). [Mou97] John Moubray. Reliability Centered Maintenance. 2. Auf. Transatlantic Pu- blishers, 1. Jan. 1997. 448 S. isbn: 0831131462. url: https://www.ebook. de/de/product/3352804/john_moubray_reliability_centered_maintenance. html. [MW90] Keith McLain und Robert Warren. „Automated Reliability Life Data Ana- lysis of Missles in Storage and Flight“. In: Annual Proceedings on Reliability and Maintainability Symposium. IEEE, 25. Jan. 1990. doi: 10.1109/ARMS. 1990.68006. [NCS20a] NCSS. NCSS 2020. Data Analysis & Graphics. 2020. url: https://www. ncss.com/software/ncss/ (besucht am 22. 05. 2020). [NCS20b] NCSS. NCSS Statistical Software Documentation. Distribution (Weibull) Fitting. Auch unter : https://www.ncss.com/software/ncss/ncss-documentation/ zu fnden bei Survival Analysis bei Distribution (Weibull) Fitting. 2020. Kap. 550. url: https://ncss-wpengine.netdna-ssl.com/wp-content/ themes/ncss/pdf/Procedures/NCSS/Distribution-Weibull-Fitting. pdf (besucht am 22. 05. 2020). [Nel03] Wayne Nelson. Applied Life Data Analysis. Paperback. John Wiley & Sons, 8. Dez. 2003. 664 S. isbn: 978-0-471-64462-0. url: https://www.ebook. de/de/product/3608705/nelson_applied_life_data_analysis_p.html.

XXIII [Nel82] Wayne B. Nelson. Applied Life Data Analysis. John Wiley & Sons, 1982. isbn: 9780471094586. doi: 10 . 1002 / 0471725234. url: https : / / www . amazon.com/Applied-Analysis-Wiley-Probability-Statistics/dp/ 0471094587?SubscriptionId=AKIAIOBINVZYXZQZ2U3A&tag=chimbori05- 20&linkCode=xm2&camp=2025&creative=165953&creativeASIN=0471094587. [OF10] Denisa Olteanu und Laura Freeman. „The Evaluation of Median-Rank Re- gression and Maximum Likelihood Estimation Techniques for a Two-Parameter Weibull Distribution“. In: Quality Engineering 22.4 (1. Aug. 2010), S. 256– 272. doi: 10.1080/08982112.2010.505219. [Ope20] OpenReliability. Weibull-R: Weibull Analysis on R. 2020. url: http://www. openreliability.org/weibull- r- weibull- analysis- on- r/ (besucht am 17. 04. 2020). [Ori12] OriginLab. Weibull Fit. 2012. url: https://www.originlab.com/doc/ Tutorials/Weibull-Fit (besucht am 15. 07. 2020). [Par19] Chanseok Park. weibullness. Goodness-of-Fit Test for Weibull Distribution. Version 1.19.8. 19. Aug. 2019. url: https : / / CRAN . R - project . org / package=weibullness (besucht am 17. 04. 2020). [Pen18] Jon Penland. S-Plus Programming: How To Get Started With Statistical Pro- gramming. 13. Feb. 2018. url: https : / / www . whoishostingthis . com / resources/s-plus/ (besucht am 13. 04. 2020). [PG16] Kishore Kumar Pochampally und Surendra M. Gupta. Reliability Analysis with Minitab. Taylor & Francis Ltd., 23. März 2016. 186 S. isbn: 978-1-4987- 3767-8. url: https://www.ebook.de/de/product/25870446/kishore_ kumar_pochampally_surendra_m_gupta_reliability_analysis_with_ minitab.html. [Reg12] Nancy Regan. The RCM Solution. A Practical Guide to Starting and Main- taining a Successful Rcm Program. English. INDUSTRIAL PR INC, 21. Ju- ni 2012. 253 S. isbn: 978-0831134242. url: https://www.ebook.de/de/ product / 12152516 / nancy _ regan _ the _ rcm _ solution _ a _ practical _ guide_to_starting_and_maintaining_a_successful_rcm_program. html. [Rel20a] ReliaSoft. Zuverlässigkeit/Lebensdaueranalysen. 2020. url: https://www. reliasoft.com/de/produkte/zuverlaessigkeitsanalysen/weibull (be- sucht am 13. 04. 2020). [Rel20b] Relyence. Relyence Weibull. 2020. url: https : / / www . relyence . com / products/weibull/ (besucht am 14. 04. 2020). [Rie20] Matthew Ried. Reliability - a Python library for reliability engineering. Py- thon. Version 0.4.7. 8. Apr. 2020. url: https : / / pypi . org / project / reliability/ (besucht am 16. 04. 2020).

XXIV [SAS18a] SAS. JMP 14.0 Online Documentation. Fit Parametric Survival. Reliability and Survival Methods. 7. Dez. 2018. url: https://www.jmp.com/support/ help/14/fit-parametric-survival.shtml# (besucht am 21. 04. 2020). [SAS18b] SAS. JMP 14.0 Online Documentation. Introduction. Scripting Guide. 7. Dez. 2018. url: https://www.jmp.com/support/help/14/introduction. shtml# (besucht am 21. 04. 2020). [Sie20] Carson Sievert. cran/plotly. 4. Apr. 2020. url: https://cran.r-project. org/web/packages/plotly/index.html (besucht am 02. 06. 2020). [Sig20] SigmaXL. How Do I Perform a Reliability/Weibull Analysis in Excel Using SigmaXL? 2020. url: https://www.sigmaxl.com/Weibull.shtml (be- sucht am 15. 07. 2020). [Sof20] Systat Software. SYSTAT Statistics. 2020. url: https://systatsoftware. com/products/systat/-statistics/ (besucht am 15. 07. 2020). [SSO19] David Silkworth, Jurgen Symynck und Jacob Ormerod. WeibullR. Weibull Analysis for Reliability Engineering. Version 1.0.12. 25. Nov. 2019. url: https://CRAN.R-project.org/package=WeibullR (besucht am 17. 04. 2020). [Sta17] Inc. Statgraphics Technologies. STATGRAPHICS® Centurion XVIII Be- nutzerhandbuch. 2017. url: https : / / www . umex . de / fileadmin / user _ upload/pdf_offen/sgwin/statpoint/Version_18/main_german.pdf (besucht am 21. 04. 2020). [Sta20a] Inc. Statgraphics Technologies. Life Data Analysis and Reliability. 2020. url: https : / / www . statgraphics . com / life - data - analysis - and - reliability (besucht am 21. 04. 2020). [Sta20b] Inc. Statgraphics Technologies. Probability Distribution. 2020. url: https: / / www . statgraphics . com / probability - distributions (besucht am 21. 04. 2020). [Sta20c] Europe StatSoft. Open Source Lösungen in Statistica integrieren. 2020. url: https://www.statsoft.de/de/statistica/open- source- loesungen (besucht am 21. 04. 2020). [Ste12] Kenneth Stephens. Reliability data analysis with Excel and Minitab. ASQ Quality Press, 2012. isbn: 978-0-87389-831-7. [TG00] Terry M. Therneau und Patricia M. Grambsch. Modeling Survival Data. Extending the Cox Model. Springer-Verlag GmbH, 1. Sep. 2000. isbn: 0-387- 98784-3. url: https://www.ebook.de/de/product/3246067/terry_m_ therneau_patricia_m_grambsch_modeling_survival_data.html. [The] The R Foundation. What is R? url: https://www.r-project.org/about. html (besucht am 22. 04. 2020). [The20] Terry M. Therneau. A package for Survival Analysis in R. R package version 3.1-12. 10. Apr. 2020. url: https : / / CRAN . R - project . org / package = survival (besucht am 17. 04. 2020).

XXV [Tib20a] Tibco. TIBCO Data Science Textbook. Survival Analysis Overview: Distri- bution Fitting. 2020. url: https://docs.tibco.com/data-science/GUID- 88580B39-7D40-40BC-8787-0E97CDD7D160.html (besucht am 21. 04. 2020). [Tib20b] Tibco. TIBCO Statistica® Survival & Failure Time Analysis. Hrsg. von Angela Waner. 3. Apr. 2020. url: https : / / community . tibco . com / wiki/tibco- statistica- survival- failure- time- analysis (besucht am 21. 04. 2020). [UMS20] UMSN. SOCR. 2020. url: http://socr.umich.edu/index.html (besucht am 15. 07. 2020). [UNI20] UNISTAT. Reliability Analysis. 2020. url: https://www.unistat.com/ guide/reliability-analysis/ (besucht am 15. 07. 2020). [Uzb19] Rustam Uzbekov. Weibull. A library for utilisation of Weibull analytical function for Reliability engineering. Python. 23. Nov. 2019. url: https: //github.com/RustamUzb/Weibull (besucht am 16. 04. 2020). [Var13] Kadir Varol. „Engine Maintenance Time Prediction With Weibull Distribu- tion In Commercial Aviation“. Magisterarb. Istanbul Technical University, 2013. url: http://hdl.handle.net/11527/4699 (besucht am 01. 11. 2019). [VSN] VSNi. Genstat. url: https://www.vsni.co.uk/software/genstat (be- sucht am 15. 07. 2020). [Wei51] Wallodi Weibull. „A Statistical Distribution Function of Wide Applicabili- ty“. In: ASME Journal of Applied Mechanics. Transactions of the American Society of Mechanical Engineers 18 (1. Sep. 1951), S. 293–297. [Wik] Wikipedia. . Hrsg. von 2020-02-12. url: https: //en.wikipedia.org/wiki/World_Programming_System (besucht am 15. 07. 2020). [Wik19a] Wikipedia. BMDP. 14. Sep. 2019. url: https://en.wikipedia.org/wiki/ BMDP (besucht am 08. 04. 2020). [Wik19b] Wikipedia. Minitab. 28. Okt. 2019. url: https://de.wikipedia.org/ wiki/Minitab (besucht am 09. 04. 2020). [Wik19c] Wikipedia. WINdows KwikStat. 8. Jan. 2019. url: https://en.wikipedia. org/wiki/WINdows_KwikStat (besucht am 15. 07. 2020). [Wik20a] Wikipedia. Comparison of statistical packages. Other abilities. 21. Apr. 2020. url: https://en.wikipedia.org/wiki/Comparison_of_statistical_ packages#Other_abilities (besucht am 05. 05. 2020). [Wik20b] Wikipedia. Epi Info. 9. Juni 2020. url: https://en.wikipedia.org/wiki/ Epi_Info (besucht am 15. 07. 2020). [Wik20c] Wikipedia. Informationkriterium. 4. Juli 2020. url: https://de.wikipedia. org/wiki/Informationskriterium (besucht am 08. 07. 2020).

XXVI [Wik20d] Wikipedia. MATLAB. 21. Apr. 2020. url: https://en.wikipedia.org/ wiki/MATLAB (besucht am 22. 04. 2020). [Wik20e] Wikipedia. MedCalc. 2. Juni 2020. url: https : / / en . wikipedia . org / wiki/MedCalc (besucht am 15. 07. 2020). [Wik20f] Wikipedia. Monte-Carlo-Simulation. 10. Apr. 2020. url: https : / / de . wikipedia.org/wiki/Monte-Carlo-Simulation (besucht am 08. 07. 2020). [Wik20g] Wikipedia. nQuery Sample Size Software. 11. März 2020. url: https:// en.wikipedia.org/wiki/NQuery_Sample_Size_Software (besucht am 08. 04. 2020). [Wol20a] Wolfram. Mathematica. 2020. url: https://www.wolfram.com/mathematica/ (besucht am 15. 07. 2020). [Wol20b] Wolfram. Wolfram Language Documentation. 2020. url: https://reference. wolfram.com/search/?q=Survival (besucht am 15. 07. 2020). [Won00] Daniel Wong. „A Knowledge-Based Decision Support System in Reliability- Centered Maintenance of HVAC Systems“. Diss. Memorial University of Newfoundland, 2000. url: http : / / research . library . mun . ca / view / creator_az/Wong=3ADaniel=3A=3A.html (besucht am 01. 11. 2019). [WS17] David Walonik und StatPac Inc. Survey software and tools for professional researchers. 1. Jan. 2017. url: https://www.statpac.com/ (besucht am 08. 04. 2020). [Yos02] Koichi Yoshioka. „KyPlot — A User-oriented Tool for Statistical Data Ana- lysis and Visualization“. In: Computational Statistics 17.3 (1. Aug. 2002), S. 425–437. doi: 10.1007/s001800200117. url: https://www.researchgate. net/publication/257337270_KyPlot_-_A_User-oriented_Tool_for_ Statistical_Data_Analysis_and_Visualization (besucht am 22. 04. 2020).

XXVII