Eingereicht von Lucas Garzarolli, BSc

Angefertigt am Institut für Wirtschaftsinformatik - Information Engineering

Beurteiler o. Univ.-Prof. em. Mag. Dr. Friedrich Roithmayr

Big Data: Juli 2016 Eine interdimensionale Analyse

Masterarbeit zur Erlangung des akademischen Grades Master of Science im Masterstudium Wirtschaftsinformatik

Eidesstattliche Erklärung Ich erkläre an Eides statt, dass ich die vorliegende Masterarbeit selbstständig und ohne fremde Hilfe verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt bzw. die wörtlich oder sinngemäß entnommenen Stellen als solche kenntlich gemacht habe.

Die vorliegende Masterarbeit ist mit dem elektronisch übermittelten Textdokument identisch.

Linz, am 18. Juli 2016

Lucas Garzarolli

II

Abstract Big Data hat bereits heute einen bedeutenden Einfluss auf Technologien, Unternehmen, den Staat, sowie die Gesellschaft selbst. Dieser Einfluss wird von einer Vielzahl an Aspekten maßgeblich geprägt, die sich wiederum gegenseitig beeinflussen und in bestimmten Belangen auch limitieren. Im Zuge dieser Arbeit werden diesbezügliche Sachverhalte im Detail untersucht, um die aktuelle Situation zu dem Thema Big Data analysieren zu können. Ein spezieller Fokus liegt hierbei auch auf der Untersuchung der Auswirkung von individuellem Datenschutzbewusstsein und Privatsphäre-Bedenken in Bezug auf die Nutzung, beziehungsweise den Kauf von Diensten und Produkten.

Methodisch wurde dazu in einem ersten Schritt eine Literaturrecherche durchgeführt, um die notwendigen Informationen über die organisationalen, technologischen, sowie rechtlichen Aspekte zu erheben. Darauf folgend wurde eine empirische Untersuchung in Form eines Online-Fragebogens durchgeführt, bei der die Einstellung von Studenten und Absolventen informatiknaher Studiengänge bezüglich diverser Big Data Aspekte und existierenden Datenerhebungsmethoden untersucht wurde, da diese hinsichtlich dieser Thematik eine überdurchschnittliche Sensibilisierung aufweisen.

Insgesamt soll die Arbeit somit ein Gesamtbild darüber vermitteln, welche technologischen, organisationalen, sowie rechtlichen Herausforderungen und Möglichkeiten für die Nutzung von Big Data existieren und inwiefern die Einstellung von technisch versierten Privatpersonen sowohl die aktuelle Situation, als auch zukünftige Entwicklungen im Bereich Big Data potentiell beeinflussen.

III

Inhaltsverzeichnis Eidesstattliche Erklärung ...... II

Abstract ...... III

Inhaltsverzeichnis ...... IV

Abbildungsverzeichnis ...... VI

Tabellenverzeichnis ...... VIII

1 Einleitung ...... 1

1.1 Problemstellung ...... 3

1.2 Ziel der Arbeit ...... 5

1.3 Forschungsfragen...... 5

1.4 Problemlösungsweg ...... 7

1.5 Erwartete Ergebnisse ...... 8

1.6 Motivation ...... 8

2 Big Data Dimensionen ...... 9

3 Organisationale Dimension ...... 10

3.1 Organisationale Herausforderungen ...... 10

3.1.1 Herausforderungen für das Management ...... 11

3.1.2 Betriebliche Herausforderungen ...... 15

3.2 Organisationale Möglichkeiten ...... 17

3.3 Geschäftsmodelle im Kontext von Big Data ...... 19

3.3.1 Wertschöpfung durch Big Data ...... 21

3.3.2 Generierung von dynamischen Wettbewerbsvorteilen durch Big Data ...... 23

3.3.3 Big Data Geschäftsmodelle ...... 29

3.3.4 Business Model Canvas ...... 33

3.3.5 Geschäftsmodell Analyse ...... 38

3.4 Vorgehensmodell zur organisationalen Integration von Big Data ...... 45

4 Technologische Dimension ...... 48 IV

4.1 Big Data-Techniken und -Werkzeuge ...... 49

4.1.1 Big Data Mining ...... 49

4.1.2 Apache Hadoop ...... 51

4.2 Cloud Computing ...... 54

4.3 Datenbanken/Speicherung ...... 57

4.3.1 Herausforderungen verteilter Datenbanksysteme ...... 58

4.3.2 Datenstream-Managementsysteme ...... 63

5 Rechtliche Dimension ...... 67

5.1 Dateneigentum ...... 68

5.2 Datenqualität ...... 69

5.3 Datenschutz, Bürgerrechte und Gleichberechtigung ...... 72

6 Soziale Dimension ...... 75

6.1 Hypothesen Fragebogen ...... 76

6.2 Auswertung Fragebogen ...... 77

6.2.1 Nutzung von Diensten ...... 78

6.2.2 Allgemeine Geschäftsbedingungen und Transparenz ...... 84

6.2.3 Datenschutz ...... 87

6.2.4 Werbeanzeigen und Kaufempfehlung ...... 89

7 Interdimensionale Wechselwirkungen ...... 93

7.1 Wirtschafts-Ökosysteme ...... 95

7.2 Big Data-Ökosysteme ...... 97

7.2.1 Schlüsselakteure des Big Data-Wirtschaftsökosystems ...... 102

7.2.2 Das Wirtschafts-Ökosystem von Big Data ...... 104

7.2.3 Das Wirtschafts-Ökosystem von Big Data ...... 106

8 Conclusio ...... 107

9 Literaturverzeichnis ...... 112

Anhang ...... 118 V

Abbildungsverzeichnis Abbildung 1: Big Data-Dimensionen [vgl. Vossen 2014, S. 4] ...... 9 Abbildung 2: Big Data-Hebel und -Hebeleffekte [vgl. Hagen et al. 2013, S.4; Manyika et al. 2011, S.5] ...... 32 Abbildung 3: Integrationsstrategie für Big Data [vgl. Vossen 2014, S. 8] ...... 47 Abbildung 4: Prinzip einer MapReduce Berechnung [vgl. Vossen 2014, S. 8] ...... 51 Abbildung 6: Systemausprägungen nach dem CAP Theorem [vgl. Erb 2012] ...... 61 Abbildung 7: Datenverarbeitung in einem DBMS (a) und in einem DSMS (b) [vgl. Carney et al. 2004]...... 64 Abbildung 8: Aufbau eines Datenstream-Managementsystems [vgl. Carney et al. 2004]...... 66 Abbildung 9: Nutzung kostenpflichtiger Dienste ...... 79 Abbildung 10: Gesellschaftliche Beeinflussung des Nutzungsverhaltens ...... 80 Abbildung 11: Einfluss der Datenerhebung auf die Nutzung von Diensten ...... 80 Abbildung 12: Verwendung von datenzentrierten Diensten ...... 81 Abbildung 13: Datenangabe bei Diensten ...... 82 Abbildung 14: Korrektheit von Datenangaben ...... 83 Abbildung 15: Bewusstsein bezüglich der Datenverwendung ...... 84 Abbildung 16: Durcharbeiten allgemeiner Geschäftsbedingungen ...... 85 Abbildung 17: Transparenz allgemeiner Geschäftsbedingungen ...... 86 Abbildung 18: Einfluss strengerer Datenschutzbestimmungen ...... 87 Abbildung 19: Einstellung der Nutzung von Diensten nach Übernahme ...... 88 Abbildung 20: Bewusstsein bezüglich rechtlicher Rahmenbedingungen für die Datenerhebung ...... 89 Abbildung 21: Übereinstimmung von Werbeanzeigen und Kaufempfehlungen mit den Interessen ...... 90 Abbildung 22: Störfaktor von Werbeanzeigen und Kaufempfehlungen ...... 90 Abbildung 23: Entscheidungsrelevanz von Werbeanzeigen und Kaufempfehlungen ...... 91 Abbildung 24: Einstellung zu Programmen zur Werbungsunterdrückung und Anonymisierung des Online-Verhaltens ...... 92 Abbildung 25: Dimensionen eines Big Data Ökosystems [vgl. Cavanillas et al. 2016, S.9] ... 93 Abbildung 25: Wirtschaftsökosystem [vgl. Moore 2006] ...... 97 Abbildung 26: Natürliches Ökosystem und das Ökosystem nach Ryan & Co Analysis 2013 [vgl. Yoo et al. 2014, S.341; Ryan & Co Analysis 2013]...... 99 VI

Abbildung 27: Das Big Data-Ökosystem nach Ryan & Co Analysis und nach Cho et al. [vgl. Ryan & Co Analysis 2013; Cho et al. 2012] ...... 99 Abbildung 28: Akteure des Big Data Ökosystems nach der NIST Big Data Working Group (2013) [vgl. Grady et al. 2013]...... 100 Abbildung 29: Big Data-Ökosystem nach Turck & Zilis (2012) [vgl. Turck & Zilis 2012]. 101 Abbildung 30: Kernkomponenten eines Big Data-Ökosystems [vgl. Yoo et al. 2014, S.344]...... 102 Abbildung 31: Big Data-Wirtschaftsökosystem [vgl. Yoo et al. 2014, S.346] ...... 105 Abbildung 32: Kerngeschäft eines Big Data-Wirtschaftsökosystem [vgl. Yoo et al. 2014, S.346]...... 107

VII

Tabellenverzeichnis Tabelle 1: Durch Big Data erweiterte Geschäftsfelder [vgl. Morabito 2015, S.67; Hagen et al. 2013, S.4f] ...... 31 Tabelle 2: Business Model Canvas [vgl. Osterwalder et al. 2010; Mesirca 2012] ...... 33 Tabelle 3: IBM-Fluid Interaktionsanwendung ...... 39 Tabelle 4: Reisevermittlung ...... 40 Tabelle 5: Prosumentenplattform ...... 41 Tabelle 6: Algorithmischer Handel ...... 42 Tabelle 7: Vergleich der Merkmale eines DBMS und eines DSMS [vgl. Carney et al. 2004]...... 65

VIII

1 Einleitung Die Menge an Daten, die weltweit erzeugt und abgespeichert werden, wächst rasant an. Laut einer Studie von IBM werden jeden Tag zweieinhalb Quintillionen Bytes an Daten produziert. Allein in den letzten zwei Jahren wurden 90% der gesamten existierenden Datenmenge erzeugt [IBM 2016]. Das exponentielle Datenwachstum lässt sich einerseits durch die Digitalisierung einer Vielzahl unterschiedlichster Inhalte und andererseits durch die permanente Generierung und Persistierung neuer Daten erklären. [Hilbert & López 2011; Manyika et al. 2011].

Parallel dazu wird auch die Verarbeitung großer Datenmengen durch die erhebliche Kostenreduktion im Bereich des Datenmanagements in Kombination mit dem Mooreschen Gesetz angetrieben [Buhl et al. 2013]. Das Mooresche Gesetz beschreibt die Beobachtung, dass sich die Anzahl an Schaltkreiskomponenten auf einem integrierten Schaltkreis in regelmäßigen Abständen verdoppeln [Moore 1965; Hagelauer et al. 1999]. Auch wenn sich die Geschwindigkeit, in der die Komponentenverdopplung stattfindet, mittlerweile auf circa zweieinhalb Jahre verlangsamt hat, so wird die Leistung, die Kunden für ihr Geld erhalten, immer noch laufend besser [Clark 2015]. Darüber hinaus erlauben neue Technologien wie das Quantencomputing oder In-Memory-Datenbanken unstrukturierte und speicherintensive Datenmengen schnell, sowie effizient zu verarbeiten. Dabei ist es erforderlich, dass existierende, sowie neue Geschäftsprozesse und Applikationen auf neue IT-Infrastruktur ausgerichtet werden, damit das volle Potential ausgeschöpft werden kann [Buhl et al. 2013]

Datenbestände, die zu groß oder zu komplex sind, um von traditionellen Datenbanken und Datenverarbeitungsapplikationen verarbeitet werden zu können, werden auch als Big Data bezeichnet [Dumbill 2012; Manyika et al. 2011]. Allerdings wird in vielen Fällen auch der Komplex an Technologien, die für die Erhebung, Verarbeitung und die Analyse dieser Datenmengen notwendig ist, ebenfalls mit dem Begriff Big Data beschrieben [Dumbill 2012; Caballero et al. 2014]. Die Größe, ab der Datensätze als Big Data bezeichnet werden, ist nicht konkret definiert und kann je nach dem entsprechenden Anwendungsgebiet stark variieren. Außerdem wird angenommen, dass sich mit Fortschritten im Technologiebereich auch die Größe der Datensätze, die als Big Data angesehen werden, weiterhin zunehmen wird. [Dumbill 2012; Manyika et al. 2011].

1

In der Literatur wurde Big Data anfänglich durch drei Charakteristiken beschrieben, nämlich Volumen, Dynamik und Diversität, die im Folgenden näher beschrieben werden [IBM 2015; McAfee & Brynjolfsson 2012; Morabito 2015]:

• Volumen: die erste Eigenschaft bezieht sich auf die immense Datenmenge, die im Internet tatsächlich verfügbar ist und dort von Organisationen gespeichert wird. Dies heißt jedoch nicht, dass die Daten auch von den Organisationen selbst produziert werden müssen. Der durch Privatpersonen generierte Inhalt nimmt, vor allem auf Grund der Verbreitung mobiler Geräte und der Popularität sozialer Netzwerke, stetig zu [IBM 2015; McAfee & Brynjolfsson 2012; Morabito 2015]. • Dynamik: die zweite Eigenschaft beschreibt mit welcher Geschwindigkeit sich die Daten verändern und generiert werden. Wobei die Generierung und Verwendung der Daten in vielen Fällen beinahe in Echtzeit geschieht [IBM 2015; McAfee & Brynjolfsson 2012; Morabito 2015]. • Diversität: die dritte Eigenschaft nimmt Bezug auf die Vielfältigkeit der verschiedenen Datenarten, die im Umlauf sind. Neben strukturierten Daten, die von einfachen Datenbanksystemen und Datenverarbeitungsapplikationen gehandhabt werden können, handelt es sich bei Big Data hauptsächlich um semistrukturierte und unstrukturierte Daten, die verschiedenste Datentypen umfassen [IBM 2015; McAfee & Brynjolfsson 2012; Morabito 2015].

Im Laufe der Zeit haben sich, mit „Zugänglichkeit“ und „Korrektheit“, noch zwei weitere Eigenschaften hervorgehoben, durch die Big Data noch präziser beschrieben werden kann [Morabito 2015; Buhl et al. 2013]:

• Zugänglichkeit: die vierte Eigenschaft bezieht sich auf die Verfügbarkeit von Kanälen, die Organisationen nutzen können, um die verfügbare Datenmenge zu erweitern und somit ihr Informationskapital zu vergrößern [Morabito 2015; Buhl et al. 2013] • Korrektheit: die fünfte Eigenschaft nimmt Bezug auf die Qualität und Glaubwürdigkeit der verfügbaren Daten, wobei diese unabhängig von Volumen, Schnelligkeit und Diversität der Daten betrachtet wird. Damit Daten eine hohe Qualität aufweisen ist es obligatorisch, dass diese Daten konsistent bezüglich Zeit, Inhalt und Bedeutung, sowie eindeutig identifizier- und zuordenbar sind. Darüber hinaus ist es wichtig, dass diese 2

vollständig und vertrauenswürdig sind. Maßgeblich für das Kriterium der Vertrauenswürdigkeit ist hierbei, dass die Quellen dieser Inhalte nachvollziehbar festgestellt werden können [Morabito 2015; Buhl et al. 2013].

Big Data ist in jedem Bereich präsent in dem staatliche oder private Organisationen mit massiven Datenmengen und neuen Technologien zur Speicherung, Verarbeitung und Analyse dieser Daten konfrontiert werden. Die Daten können aus einer Vielzahl unterschiedlicher Quellen stammen, wie jeglicher elektronischer Kommunikation, digitalisierter Medien, verschiedenster Daten die von Unternehmen und Organisationen erhoben werden und sogar Aufzeichnungen von Überwachungssystemen [IBM 2015; Buhl et al. 2013; Schäfer et al. 2012].

1.1 Problemstellung Auf Grund der speziellen Eigenschaften von Big Data müssen zahlreiche Aspekte berücksichtigt werden, die in den letzten Jahren auch zunehmend im wissenschaftlichen Bereich Beachtung gefunden haben. Es ist jedoch wichtig, das gesamte Bild zu betrachten und die Wechselwirkungen, die zwischen den verschiedenen Big Data-Dimensionen auftreten zu untersuchen, da diese in der bisherigen Literatur nicht ausreichend berücksichtigt wurden. Mit Dimensionen wird in dieser Arbeit, Bezug auf die Gesamtheit der organisationalen, technologischen, sozialen, sowie rechtlichen Aspekte genommen, die Big Data beeinflussen und gleichermaßen auch davon beeinflusst werden.

Es gibt eine Vielzahl organisatorischer Herausforderung und Möglichkeiten, die mit der Verwendung von Big Data einhergehen. Je nach Branche gibt es hierbei auch unterschiedlichste Ansätze, wie Organisationen vorgehen, um deren Strategien umzusetzen und deren Ziele erreichen zu können. Allerdings fehlt bis dato eine bereichsübergreifende Analyse über die angewandten Methoden und Hebeleffekte, die zur Umsetzung eines erfolgreichen Geschäftsmodells genutzt werden können.

Um Big Data verarbeiten und wertvolles Wissen daraus extrahieren zu können, sind neue, alternative Methoden und Werkzeuge notwendig. Für die effektive Nutzung von Big Data müssen alle relevanten internen, sowie externen Informationsflüsse analysiert und interpretiert

3

werden. Wird dies erfolgreich durchgeführt, kann das extrahierte Wissen in weiterer Folge angewandt werden, um Service- und Produktstrategien zu optimieren. Dadurch wird es ermöglicht, die sich stetig im Wandel befindlichen Anforderungen des Marktes zu erkennen und möglichst zeitnah auf die Bedürfnisse der Kunden einzugehen und somit wettbewerbsfähig zu bleiben [Morabito 2015]. Derzeit existiert allerdings noch kein Vorgehensmodell, welches die notwendigen Schritte aufzeigt, die notwendig sind, um die Nutzung von Big Data in einer Organisation zu ermöglichen und diese somit bei der Umsetzung eines erfolgreichen Big Data Konzepts unterstützt.

Durch neue Big Data Technologien können Analysen über unser Zuhause, unsere Arbeit, sowie unser soziales Leben angestellt werden. Dies kann wiederum einen direkten oder auch indirekten Einfluss auf die Online-Aktivitäten und die Verhaltensweisen von Personen haben, da diese ihre Privatsphäre wahren und die Erhebung von Daten vermeiden oder zumindest beschränken wollen. [Michael & Miller 2013, S.23f]. Auf Grund der zunehmenden Verbreitung mobiler Geräte haben die Datengenerierung und damit auch die Überwachbarkeit von Privatpersonen massiv zugenommen. Da im Speziellen personenbezogene Daten oftmals sensible Informationen enthalten und eine zunehmende Anzahl privatwirtschaftlicher, sowie staatlicher Organisationen und Unternehmen darauf Zugriff erlangen wollen, gilt es die Privatsphäre des Einzelnen zu schützen [Manyika et al. 2011]. Inwiefern diese Entwicklung den Datenschutz einschränkt bleibt abzuwarten, der aktuelle Einfluss auf die Verhaltensweisen ist dahingegen ein Phänomen, welches untersucht werden kann. Damit der Missbrauch von Daten verhindert werden und die Verwendung von Big Data geregelt ablaufen kann, müssen sich darüber hinaus Unternehmen, Organisationen, sowie politische Entscheidungsträger einer Vielzahl an Herausforderungen stellen und diesbezügliche Regelungen durchsetzen [Greenwood et al. 2014; Manyika et al. 2011].

Ebenso ist es für Privatpersonen in den meisten Fällen nicht transparent, welche Erhebungsmethoden von Organisationen und Unternehmen angewandt werden, um Zugriff auf Daten zu erlangen und wofür diese erhobenen Daten in weiterer Folge verwendet werden. Sowohl der Einfluss dieser Intransparenz auf potentielle Kunden, als auch die indirekten Auswirkungen auf Organisationen stellen wichtige Themen dar, die bis dato weitgehend noch nicht untersucht worden sind.

4

1.2 Ziel der Arbeit In dieser Arbeit wird mittels einer Literaturrecherche der aktuelle Status von Big Data in Bezug auf technologische, privat-, sowie staatswirtschaftliche, soziale und rechtliche Aspekte näher betrachtet, sowie der Einfluss, den die unterschiedlichen Dimensionen aufeinander ausüben untersucht. Im Detail wird der potentiellen Mehrwert den Big Data für Organisationen, Individuen und die Gesellschaft bieten kann, aufgezeigt und es wird auf die rechtlichen, sozialen, sowie technischen Herausforderungen und Möglichkeiten die damit verbunden sind, eingegangen.

Da eine Vielzahl unterschiedlichster Geschäftsmodelle existiert, werden auf Basis der Literaturrecherche ausgewählte Geschäftsmodelle mittels eines Business Model Canvas analysiert, um einen Überblick über derzeitige Entwicklungen zu liefern. Aufbauend wird ein Vorgehensmodell entwickelt, welches den Prozess der Integration von Big Data in Organisationen beschreibt und somit Organisationen und Unternehmen bei der Umsetzung eines erfolgreichen Big Data Konzepts unterstützen soll.

Außerdem wird mittels eines Fragebogens die Einstellung von Studenten und Absolventen informatiknaher Studiengänge in Bezug auf diverse Big Data Aspekte und existierenden Datenerhebungsmethoden untersucht. Basierend auf dieser Grundlage wird infolgedessen eine Analyse durchgeführt, inwiefern datenschutzrechtliche Aspekte und die Transparenz von Angeboten die Nutzung, beziehungsweise den Kauf, von Diensten und Produkten negativ oder positiv beeinflussen.

1.3 Forschungsfragen Aus der Zielsetzung der Arbeit ergeben sich folgende Forschungsfragen:

• Organisationale Dimension: o Welche strategischen, administrativen und operativen Herausforderungen existieren für Organisation, die Big Data einsetzen? o Welche Möglichkeiten gibt es für Organisationen die Big Data einsetzen? o Wie sehen bestehende Big Data Geschäftsmodelle aus? o Was und wie können Unternehmen aus den Daten lernen?

5

o Mit welchen Herausforderungen werden Unternehmen, die Big Data in ihr Geschäftsmodell integrieren wollen, konfrontiert? o Wie sieht der Prozess der Integration von Big Data in Organisationen aus?

• Technologische Dimension: o Welche Technologien werden zur Erhebung und Verarbeitung von Big Data genutzt? o Wie kann Wissen aus großen, unstrukturierten Datenmengen extrahiert werden? o Wie wird mit qualitativ minderwertigen Daten umgegangen? o Wie können derart große und unstrukturierte Daten gespeichert und analysiert werden?

• Rechtliche Dimension: o Welche Maßnahmen sind notwendig, um die gemeinsame Nutzung von Daten zu ermöglichen? o Wie sieht die Situation bezüglich des Datenaustausches länderübergreifend aus? o Wer ist verantwortlich für die Verwaltung von Daten und deren rechtlichem Schutz? o Welche Restriktionen wären notwendig um die Privatsphäre des Einzelnen zu schützen? o Wie muss mit Daten minderer Qualität umgegangen werden, damit rechtliche Konsequenzen auszuschließen sind? o Wie können bei zunehmender Verbreitung personenbezogener Informationen Datenschutz und Bürgerrechte trotzdem eingehalten werden? o Wie kann die Gleichberechtigung von Individuen und Gruppen, die nicht aktiver Teil der Informationsgesellschaft sein können oder wollen, gewahrt werden?

• Soziale Dimension: o Welche Bedingungen müssen erfüllt werden, damit Personen nichts an der Erhebung ihrer Daten auszusetzen haben?

6

o Sind sich Privatpersonen bewusst, welche Daten erhoben werden und wofür diese verwendet werden? o Wie groß sind die Bedenken, persönliche Informationen preiszugeben? o Würde mehr Transparenz in den allgemeinen Geschäftsbedingungen die Verwendung, beziehungsweise den Kauf, von Produkten und Diensten positiv oder negativ beeinflussen? o Wissen Privatpersonen über rechtliche Rahmenbedingungen bezüglich der Erhebung und Verwendung von Daten Bescheid? o Welchen Einfluss haben strengere Datenschutzgesetze auf die Nutzung von Diensten? o Wie sieht der Einfluss von Werbeanzeigen und Kaufempfehlungen auf potentielle Kunden aus?

1.4 Problemlösungsweg In einem ersten Schritt wird mittels einer Literaturrecherche der aktuelle Stand von Big Data ermittelt. Dabei werden technologische, privat-, sowie staatswirtschaftliche, soziale und rechtliche Aspekte analysiert. In weiterer Folge werden die Einflüsse, die diese Aspekte aufeinander nehmen, näher untersucht. Basierend auf diesem Wissen, wird ein Vorgehensmodell entwickelt, welches die Integration von Big Data in Organisationen abstrahiert beschreibt.

Methodisch wird neben der Literaturrecherche eine empirische Untersuchung in Form eines Online-Fragebogens durchgeführt. Einerseits wird hierbei untersucht, inwiefern Big Data die Gesellschaft beeinflusst und verändert. Andererseits wird analysiert, zu welchem Grad sich Bedenken potentieller Kunden bezüglich des Datenschutzes und deren Privatsphäre auf die Nutzung von Produkten und Diensten auswirkt. Es bleibt festzuhalten, dass sich die Zielgruppe der Studie aus Studenten, sowie Absolventen informatiknaher Studiengänge zusammensetzt, da diese eine überdurchschnittliche Sensibilisierung bezüglich einer derartigen Thematik aufweisen.

7

1.5 Erwartete Ergebnisse Die zu erwartenden Ergebnisse dieser Arbeit setzen sich zusammen, wie folgt:

• Die Ableitung wesentlicher Erkenntnisse über technologische, privat-, sowie staatswirtschaftliche, soziale und rechtliche Aspekte von Big Data, sowie diesbezüglicher interdimensionaler Wechselwirkungen, • Die Identifikation rechtlicher, sozialer, sowie technischer Herausforderungen und Möglichkeiten für Organisationen, Individuen und die Gesellschaft, • Die Abbildung ausgewählter Geschäftsmodelle mittels eines Business Model Canvas, welches einen Überblick über bestehende Big Data Geschäftsmodelle verschafft, • Die Entwicklung eines Vorgehensmodells, welches den Prozess der Big Data Integration in Organisationen abstrahiert, zur Unterstützung der Umsetzung organisationaler Big Data Konzepte, • Die Untersuchung des Einflusses datenschutzrechtlicher und transparenzbezogener Aspekte auf die Nutzung, beziehungsweise den Kauf, von Diensten und Produkten im Kontext von Big Data.

1.6 Motivation Big Data ist mittlerweile ein omnipräsentes Thema, dessen bereichsübergreifende Bedeutung stetig zunimmt. Ich empfinde diese Entwicklungen als sehr faszinierend und bin gespannt, wohin sich diese Technologie weiterentwickelt und wie sich in weiterer Folge unser alltägliches Leben dadurch verändern wird.

Da ich mich außerdem persönlich sehr für Entrepreneurship interessiere, sind für mich persönlich die Geschäftsmodelle, die sich durch Big Data entwickelt haben und entwickeln werden, sowie die Herausforderungen und die Möglichkeiten, die diese mit sich bringen von besonderem Interesse.

Wie bereits erwähnt, gilt es auf Grund der speziellen Eigenschaften von Big Data eine Vielzahl an Aspekten zu berücksichtigen. Auch wenn für ein derart „junges“ Thema relativ viel Literatur existiert, so bin ich bei meiner Recherche jedoch auf keine Arbeit gestoßen, in der die Gesamtheit dieser Aspekte, sowie deren Wechselwirkungen betrachtet werden. Daher war es mir ein großes Anliegen, diese — in meinen Augen sehr wichtige — Verbindung zu schaffen. 8

2 Big Data Dimensionen In den folgenden Kapiteln wird der aktuelle Stand von Big Data analysiert. Wie bereits erläutert, müssen auf Grund der speziellen Eigenschaften von Big Data eine Vielzahl an Faktoren berücksichtigt werden. Nach Vossen (2013) kann Big Data aus unterschiedlichen Perspektiven und in unterschiedlichen Dimensionen betrachtet werden, die in Abbildung 1 zusammengefasst abgebildet sind. Das Model wurde um eine soziale Komponente erweitert, da diesbezügliche Aspekte einen, nicht zu vernachlässigenden, Einfluss auf die anderen Dimensionen nehmen. Im Zuge dieser Arbeit werden zuerst die organisationale, technologische, rechtliche, sowie soziale Dimension einzeln betrachtet und daraufhin in ihrer Gesamtheit analysiert, um die interdimensionalen Wechselwirkungen verstehen zu können.

Abbildung 1: Big Data-Dimensionen [ vgl. Vossen 2014, S. 4]

Zu Beginn werden organisationale Herausforderungen und Möglichkeiten betrachtet, um folglich existierende sowie potentielle Big Data-Geschäftsmodelle zu diskutieren. Bei der Analyse der technologischen Dimension wird auf Big Data-Techniken und Werkzeuge eingegangen, die notwendig sind, um die zuvor behandelten Geschäftsmodelle umzusetzen.

Anschließend werden zu berücksichtigende rechtliche Rahmenbedingungen und Restriktionen für Organisationen behandelt, sowie der Handlungsbedarf für staatliche Institutionen aufgezeigt. Im Rahmen der sozialen Dimension wird daraufhin der Einfluss datenschutzrechtlicher und transparenzbezogener Aspekte auf die Nutzung, beziehungsweise den Kauf von Diensten und Produkten im Kontext von Big Data, untersucht.

9

3 Organisationale Dimension Big Data übt bereits einen bedeutenden Einfluss auf Organisationen und deren zugrundeliegende Geschäftsmodelle, wobei das volle Potential bei weitem noch nicht ausgeschöpft ist. Auch wenn sich einige Herausforderungen, im Vergleich zur konventionellen Erhebung und Verwendung von Daten, nicht verändern werden, so verschiebt sich mit Big Data der Fokus. Der Grund dafür ist, dass es sich bei Big Data nicht nur um große Datenmengen handelt, sondern auch um die speziellen Herausforderungen, die mit deren Auswertung und Analyse verbunden sind, sowie die Technologien, durch welche dies ermöglicht wird [Caballero et al. 2014, S.65].

Neben Volumen, Schnelligkeit, Diversität, Zugänglichkeit und Korrektheit der Daten, müssen ebenso Privatsphäre- und Datenschutzbelange berücksichtigt werden, um auf die Bedürfnisse potentieller Kunden einzugehen und gesetzliche Rahmenbedingungen einzuhalten. Einerseits ist der Einsatz neuer Technologien eine wichtige Voraussetzung, damit das volle Potential von Big Data ausgeschöpft werden kann, auf der anderen Seite müssen bestehende Strukturen, Prozesse, sowie allgemeine Standards angepasst werden, um mit diesen Datenmengen umgehen zu können [Buhl et al. 2013]. Im Folgenden werden diese Aspekte näher betrachtet und im Detail analysiert, welche Auswirkungen dies auf Organisationen hat und was dabei genau zu berücksichtigen ist.

3.1 Organisationale Herausforderungen Um Big Data erfolgreich in eine Organisation einzuführen, werden neue Werkzeuge benötigt, die es erlauben, die unstrukturierten Datenmassen von verschiedensten Datenquellen analysieren zu können. Derartige Daten können unter anderem von sozialen Netzwerken, Suchmaschinen, diversen E-Commerce Modellen und von einer Vielzahl unterschiedlicher Transaktionen stammen. Damit diese Daten mit Hilfe bestimmter Applikationen analysiert werden können, müssen zwei Voraussetzungen erfüllt werden: Zum einen muss die Organisation Zugang zu diesen Daten haben, zum anderen ist es, obligatorisch die neuen Datenquellen an die Anforderungen der Organisation anzupassen, um diese zum Beispiel in ein bereits bestehendes Data Warehouse integrieren zu können [Buhl et al. 2013].

10

Eine weitere Voraussetzung für die erfolgreiche Umsetzung eines Big Data Konzepts stellt das intelligente Management der Selektions- und Anwendungsaufgaben dar, die es ermöglichen relevante Daten zu erkennen und diese Informationen effizient im Unternehmen einzusetzen. Damit dies erreicht werden kann, ist es wichtig, Anforderungen an die Datenqualität präzise zu definieren, um somit unbrauchbare Daten im Vorhinein herausfiltern zu können. Aus diesen Gründen sind eine transparente Data Governance und eine klar definierte Datenstrategie obligatorisch, um die Korrektheit der Daten gewährleisten zu können und Big Data Technologien überhaupt erst effektiv nutzen zu können [Buhl et al. 2013]. Hierbei dient Data Governance der Qualitätssicherung der Daten, wodurch sichergestellt werden kann, dass die Daten bestimmten Anforderungen entsprechen. Durch die Einführung bestimmter Richtlinien kann gewährleistet werden, dass die Daten, mit denen gearbeitet wird, vertrauenswürdig sind und dass es nachvollziehbar ist, woher diese Daten stammen [Sarsfield 2009].

Big Data erfordert innovative Ansätze, die Datenschutzangelegenheiten und die Unterschiede verschiedener regionaler Datenschutzstandards nicht als Einschränkung ansehen, sondern als Chance, einen Wettbewerbsvorteil zu generieren. Hierbei besteht zum Beispiel die Möglichkeit, potentielle Kunden für die Nutzung eines Dienstes zu gewinnen, indem besonders strikte Datenschutzregulationen eingehalten werden, die auch von dem Standort einer Organisation abhängig sind. In einer Big Data Ära, in der viele verschiedenartige Daten aus vielen unterschiedlichen Quellen erhoben werden, reicht es nicht mehr aus, einzelne Datenfelder auszublenden, beziehungsweise zu anonymisieren, da Individuen, durch die Verknüpfung mit anderen Datensätzen oder durch die Analyse von Standort-Daten, relativ einfach und gezielt identifiziert werden können [Buhl et al. 2013]. In den folgenden Unterkapiteln wird auf spezielle Herausforderungen eingegangen, die im organisationalen Kontext auftreten können.

3.1.1 Herausforderungen für das Management Damit Organisationen das volle Potential von Big Data nutzen können, ist es obligatorisch, dass der Übergang zu dieser neuen Technologie von der Unternehmensleitung effektiv initiiert und angeleitet wird. Um dies bewerkstelligen zu können, ist es nach McAfee & Brynjolfsson (2012) besonders wichtig, dass folgende fünf Bereiche mit spezieller Sorgfältigkeit von der Führungsebene wahrgenommen werden:

11

Führungsstil Um Big Data erfolgreich in einer Organisation zu nutzen, ist es nicht ausreichend, nur im Besitz großer, relevante Informationen enthaltenden, Datenmengen zu sein. Das Stellen der richtigen Fragen, die präzise Definition von Zielen, sowie die Fähigkeit deren Erreichungsgrad zu messen, sind Aufgaben des Führungsteams, die maßgeblich zum Erfolg beitragen. Big Data kann menschliche Erkenntnisse oder Visionen nicht ersetzen. Im Gegenteil, Führungskräfte mit einem Gespür für günstige Gelegenheiten, die die Entwicklung des Marktes verstehen und kreative Lösungsansätze entwickeln können, sowie effektiv mit Kunden, Angestellten, Aktionären und Stakeholdern umzugehen wissen, werden sich in der Zukunft zu einem der wichtigsten erfolgstreibenden Faktoren für Organisationen entwickeln [McAfee & Brynjolfsson 2012, S.66].

Talentmanagement Durch die leichtere Verfügbarkeit von Daten, werden die Ressourcen die zu deren Erhebung und Interpretation benötigt werden, verhältnismäßig zunehmend wertvoller. Eine Ressource, die stetig an Bedeutung gewinnt, ist ein qualifiziertes Mitarbeiterteam, welches darauf spezialisiert ist, mit großen Mengen an Informationen zu arbeiten. Unter anderem sind Statistiker für die Interpretation von Daten von großer Bedeutung, jedoch werden viele der Schlüsseltechniken, die für den Umgang mit Big Data wichtig sind, nicht in konventionellen Statistikkursen und darauf ausgerichteten Studiengängen unterrichtet. Dies schafft die Notwendigkeit für die Fortbildung der Mitarbeiter, wobei sich langfristig auch das Ausbildungsangebot an Hochschulen verändern wird [McAfee & Brynjolfsson 2012, S.66; Morabito 2015, S.12; Manyika et al. 2011, S.10]. Eine weitere wichtige Aufgabe ist die Bereinigung und Organisation großer Datensätze. Da die neuen Daten oftmals unstrukturiert sind, gewinnen Visualisierungswerkzeuge und –techniken stark an Bedeutung [McAfee & Brynjolfsson 2012].

Neben Datenexperten werden jedoch auch Informatiker, die in der Lage sind Technologien zu entwickeln, die die Verarbeitung großer Datenmengen unterstützen, immer wichtiger. Erfahrung im Entwurf von Experimenten kann dabei helfen, das Bindeglied zwischen Korrelation und Kausalität zu schaffen. Indem sie spezifizieren, welche Fragestellungen sich für die Nutzung von Big Data anbieten, sowie welche Chancen und Herausforderungen dadurch 12

für die Organisation entstehen, werden Datenexperten zu wichtigen Beratern der Führungsebene. [McAfee & Brynjolfsson 2012, S.66].

Da Spezialisten in diesen Bereichen am Arbeitsmarkt sehr limitiert verfügbar und daher zumeist auch mit relativ hohen Kosten verbunden sind, haben besonders kleinere Organisationen es oftmals nicht leicht das notwendige Fachwissen innerbetrieblich aufzubauen. Aus diesem Grund nimmt die Gründungsrate an Outsourcing- und Beraterunternehmen, die sich auf Big Data Themen spezialisiert haben, konstant zu, um den steigenden Bedarf in diesen Bereichen decken zu können. Des Weiteren wird im Laufe der Zeit immer mehr Analysesoftware auf den Markt kommen, die so benutzerfreundlich ist, dass diese auch zunehmend von Nicht-Experten bedient werden kann [Morabito 2015, S.12].

Technologie Die Effizienz und Effektivität der verfügbaren Werkzeuge, die dabei helfen Big Data zu verarbeiten, hat sich in den letzten Jahren deutlich gesteigert. Darüber hinaus sind die meisten Softwarewerkzeuge auch für kleinere Unternehmen erschwinglich, wobei viele davon sogar als Open-Source-Version verfügbar sind. Die Anwendung dieser Werkzeuge erfordert spezielle Fähigkeiten, die in Organisationen vorhanden sein oder angeeignet werden müssen. Da es sich hierbei in den meisten Fällen um relativ neue Technologien handelt, fehlt einem Großteil der Organisationen, die Big Data verwenden, noch die nötige Kompetenz, um deren volles Potential auszuschöpfen. Daher ist es wichtig, dass die Analyse des Technologiemarkts, sowie die Schulung der Mitarbeiter eine fixe Komponente der Big Data Strategie einer Organisation sind [McAfee & Brynjolfsson 2012, S.66].

Entscheidungskompetenz Bei einer effektiven Organisationsstruktur kommen die entscheidungsrelevanten Informationen und Entscheidungsträger an gleicher Stelle zusammen. In der Big Data Ära werden große Mengen an Informationen generiert und transferiert, wobei die benötigte Expertise oftmals nicht dort liegt, wo sie benötigt wird. Daher gilt es die Struktur einer Organisation auf die neuen Anforderungen abzustimmen und die Informationen entweder automatisiert, oder im Zuge definierter Prozesse eindeutig an die Verantwortlichen weiterleiten zu können. Darüber hinaus 13

gilt es Organisationen flexibel zu gestalten, damit bereichsübergreifende Kooperationen bestmöglich gefördert werden und somit den vollen Wert aller Informationen zu nutzen. Experten, die über ein ausgeprägtes Verständnis bezüglich eines bestimmten Problems verfügen, müssen einerseits mit den richtigen Daten und andererseits mit Personen, die die richtigen Lösungstechniken beherrschen, um die Daten effektiv nutzen zu können, zusammengebracht werden [McAfee & Brynjolfsson 2012, S.66f].

Unternehmenskultur In vielen Organisationen werden Entscheidungen nach dem HiPPO (highest paid person’s opinion) Prinzip getroffen, sprich die Entscheidungsgewalt obliegt Personen im Top- Management, die sich in vielen Organisationen oftmals nur nach deren Intuition und Instinkt richten. Oftmals wird dabei im Nachhinein nach passenden Daten gesucht, um deren Entscheidungen, die bereits im Vorfeld getroffen wurden, zu untermauern. Eine datengetriebene Organisation sollte stets danach streben, ihre Entscheidungen soweit möglich auf Fakten zu stützen und gegebenenfalls Experimente durchzuführen, falls gewisse Situationen nicht eindeutig eingeschätzt werden können [McAfee & Brynjolfsson 2012, S.67].

Ethische Herausforderungen Organisationen nutzen Big Data oftmals auch, um mehr über ihre Mitarbeiter zu erfahren, die Produktivität zu steigern und um innovative Geschäftsprozesse einzuführen.

Jedoch haben diese Vorteile auch ihren Preis: die ständige Überwachung der Aktivitäten der Mitarbeiter und die Auswertung ihrer Produktivität mag zwar im Sinne der Organisationen sein, jedoch nicht in dem Sinne der Personen, die im Endeffekt die Organisation ausmachen. Durch derartige Maßnahmen wird ein beengendes Betriebsklima geschaffen, das einen negativen Einfluss auf die Zufriedenheit der Mitarbeiter und somit auch auf deren Produktivität haben kann. Daher muss gut abgewogen werden, ob und bis zu welchem Grad die Mitarbeiter kontrolliert werden sollten [Michael & Miller 2013, S.23].

14

3.1.2 Betriebliche Herausforderungen Neben den Herausforderungen für das Management gibt es auch betriebliche Herausforderungen, die natürlich auch vom Management bekräftigt werden müssen, wobei jedoch die Bedeutung für die Mitarbeiter im Vordergrund steht. Auf eben diese betrieblichen Herausforderungen wird, im Zuge dieser Sektion, näher eingegangen:

Betriebliche Barrieren Während marktorientierte Innovationen ein Verständnis des Marktes erfordern, ist bei designorientierten Ansätzen ein gewisser Weitblick erforderlich. Die strategische und technologische Weitsicht geht in Organisationen, die die IT nicht nur als Unterstützungsfunktion ansehen, Hand in Hand. Organisationen, bei denen die IT bis jetzt nur als Unterstützungsfunktion angesehen wird, werden zunehmend bedeutende Schwierigkeiten haben ihre Einstellung zu ändern und die richtigen, talentierten Personen im Unternehmen zu halten oder neue Talente und Experten anzuwerben [Morabito 2015, S.12].

In der heutigen Wirtschaft entstehen und schwinden Wettbewerbsvorteile rasch. Die Leistungsfähigkeit einer Organisation richtet sich nicht nur an der internen Evolution und Entwicklung aus, sondern immer stärker an den Beschaffungstechniken, dem Tätigen der richtigen Investitionen und der Bildung wichtiger Allianzen. Unternehmen, die gelernt haben zu kollaborieren, haben einen entscheidenden Wettbewerbsvorteil, der immer bedeutender werden wird [Morabito 2015, S.12].

Eine innovative Kollaborationspraktik, namens „Innovation 3.0“, wurde von Hafkesbrink und Schroll (2011) entwickelt. Hierbei geht das Prinzip weg von der Wissensbündelung in konkreten Unternehmen, beziehungsweise deren Abteilungen, hinzu Gemeinschaften, die gewisse Interessen und Praktiken untereinander austauschen, um das gesamtheitliche System möglichst effektiv gestalten zu können. Diese Gemeinschaften sind sehr offen und können Lieferanten, Kunden und sogar Mitbewerber miteinschließen, die ein gemeinsames Ziel erreichen wollen. Bei vielen Organisationen existieren jedoch bereits intern Animositäten, wobei einzelne Mitarbeiter, beziehungsweise sogar ganze Abteilungen, miteinander in Konkurrenz stehen und nicht bereit sind, deren Fachwissen mit anderen zu teilen. Im Speziellen für die Einführung von Big Data wäre es wichtig, dass diese Konflikte überwunden werden, um

15

Wissen intra- und interorganisational verfügbar zu machen und somit die Wertschöpfungsprozesse im gesamtheitlichen Kontext zu optimieren [Hafkesbrink & Schroll 2011].

Prozesse und Strukturen Damit Big Data-getriebene Strategien erfolgreich sein können, müssen dessen Konzepte schnell umgesetzt werden. Um diese optimal umzusetzen, sind fundamentale Änderungen der Prozesse und möglicherweise auch der Struktur und Architektur der Organisation erforderlich. Für viele Organisationen ist es schwer, die standardisierten Prozesse und festgeschriebenen Rollen zu lockern und flexibler zu gestalten, aber unternehmensweite Kollaboration, Flexibilität und Wissensteilung sind erforderlich, um das volle Potential von Big Data in einer Organisation entfalten zu können. Ein Wechsel von der herkömmlichen Struktur hin zu einem modularen Aufbau würde dabei helfen, auf die variierenden Anforderungen der Projekte und Kunden einzugehen [Morabito 2015, S.13].

Technologischer Reifegrad Big Data hängt von der steten Weiterentwicklung neuer Technologien ab. Für Organisationen ist es daher wichtig, Technologien schnell aktualisieren oder ersetzen zu können und das in den Planungen zu berücksichtigen. Aus diesem Grund können auch stetig neue Kenntnisse erforderlich werden, um diese Technologien auch ordnungsgemäß einsetzen zu können. Dieser Wissensbedarf kann entweder gedeckt werden, indem Schulungsmaßnahmen wahrgenommen werden oder indem das benötigte Know-How von externen Organisationen eingeholt wird. Die Anpassung ubiquitärer Anwendungen verändert nicht nur die Anwendungsmöglichkeiten, sondern ebenfalls die Einstellung gegenüber der Technologie mit direkten Auswirkungen auf Organisationen, deren Mitarbeiter, die Gesellschaft und die Public Policy [Morabito 2015, S.13]. Die Public Policy umfasst hierbei die Gesamtheit der Zielsetzungen, Entscheidungen und Aktivitäten der Personen, die am Politikprozess beteiligt sind [Norwich University 2014].

16

Bereinigung und Selektion von Daten In keinem Wirtschaftszweig führen mehr Daten automatisch zu besseren Daten, besserer Arbeitsleistung, besseren Entscheidungen, zu einer Steigerung der Kundenzufriedenheit oder sonstigen Wettbewerbsvorteilen gegenüber der Konkurrenz. Zumeist führen mehr Daten auch zu einer erhöhten Anzahl an fehlerhaften, beziehungsweise unbrauchbaren Datensätzen, die je nach Anwendungsfall akzeptabel sein kann oder eine Bereinigung der Daten erforderlich macht. Dieser Datenmüll kann oftmals leichter und besser von Mitarbeitern erkannt und bewältigt werden, als gänzlich automatisiert, von der derzeit verfügbaren Analysesoftware [Buhl et al. 2013, S.65f].

In anderen Fällen kann es notwendig sein, Daten bereits vor deren dauerhafter Speicherung präzise zu selektieren. Einerseits steigen die Speicherkapazitäten zwar kontinuierlich, auf der anderen Seite werden jedoch auch die Datenmengen größer, beziehungsweise werden laufend neue Anwendungen entwickelt, die die Ressourcen stärker beanspruchen. Dies trifft zum Beispiel auf Videoüberwachung zu, die von Unternehmen und der Strafverfolgung eingesetzt werden: Durch die verbesserte Qualität des Videomaterials, deren Einsatzarten und die zunehmende Anzahl der Kameras wird immer mehr Speicher beansprucht. Gleiches gilt für alle aktiven Aufzeichnungsgeräte, wie Sensoren oder bestimmte Endgeräte selbst. Daher muss je nach Situation entschieden werden, ob die Geräte durchgehend aufzeichnen sollen oder nur in bestimmten Situationen. Die Analyse von Big Data kann hierbei helfen, indem basierend auf Korrelationen geeignete Bedingungen ermittelt werden, unter denen die Auslösung von Aufzeichnungen sinnvoll ist [Michael & Miller 2013, S.23].

3.2 Organisationale Möglichkeiten Wenn die diskutierten Herausforderungen überwunden werden, birgt die Nutzung von Big Data nach Morabito (2015) eine Vielzahl potentieller Vorteile, die im Rahmen dieses Kapitels diskutiert werden. Im Speziellen wird hierbei auf die folgenden Punkte näher eingegangen:

• Verbesserung der Entscheidungsprozessprozesse durch Minimierung der Kosten und höherer Qualität der Informationsanalyse; • Leistungsoptimierung durch effektivere Informationsverteilungsvorgänge innerhalb der Organisation;

17

• Optimierung der Kollaboration durch die Entwicklung einer allgemeinen, organisationsweiten Business Intelligence, die die Sicht auf identifizierte unternehmerische Perspektiven integriert; • Generierung und Vortesten von Nutzenversprechen durch die Anwendung hochentwickelter Discovery-Analysemethoden.

In anderen wissenschaftlichen Arbeiten liegt der Fokus stärker auf den Möglichkeiten, die aus der Nutzung von Big Data und der Big Data Analytik hervorgehen. Michael und Miller (2013) heben hervor, dass durch Fortschritte in der Mining- und Speicher-Technologie nun auch Daten analysiert werden können, die mehr als nur reinen Text enthalten und auch nicht zwingendermaßen eine einfache Struktur aufweisen müssen. Somit wird zukünftig die Analyse und Verarbeitung medialer Daten, wie von Videos, Bildern und Sprachaufnahmen immer mehr an Bedeutung gewinnen. Dies schließt im Besonderen auch von den Nutzern direkt generierte Inhalte mit ein. Durch die Analyse dieser Daten ist es möglich neue Einblicke zu gewinnen und somit Produkte und Dienste besser an die Bedürfnisse der Kunden anpassen zu können. Ebenso kann durch die Analyse des Kaufverhaltens von Kunden die Auswahl der Zielgruppen für bestimmte Marketingkampagnen optimiert werden. Schließlich können durch Datenübermittlungen mobiler Geräte, die beinahe in Echtzeit durchgeführt werden, detaillierte Charakteristiken über Kunden gesammelt werden, die Aufschluss über deren komplexe Entscheidungsfindungsprozesse geben, sogar während Käufe von ihnen getätigt, beziehungsweise in Erwägung gezogen werden [Michael & Miller 2013, S.22].

Big Data hat das Potential, verborgene Verhaltensmuster von Personen offenzulegen und darüber hinaus sogar deren Absichten zu offenbaren. Im konkreten Fall bedeutet dies, dass Big Data die Brücke zwischen einer Intention und der aktuell wirklich durchgeführten Handlung, sowie deren Interaktionen mit Anderen und deren Umwelt, bilden kann. Dieses Wissen kann für staatliche Institutionen, sowie für privatwirtschaftliche Organisationen sehr wertvoll sein, um Individuen besser zu verstehen. Wobei dieses Verständnis für viele Bereiche relevant ist, wie zum Beispiel für die Vermarktung, die Strafverfolgung, soziale Dienstleistungen, bis hin zu Angelegenheiten, die den Zivilschutz und die Staatssicherheit anbelangen. Vor allem in Fällen in denen ein gewisses Situationsbewusstsein erforderlich ist und vorausschauend agiert werden muss, sind Discovery-Ansätze sehr bedeutend, da hierbei Datenanalysen zur Erkennung

18

von Verhaltensmustern beinahe in Echtzeit durchgeführt werden können [Michael & Miller 2013, S.22f].

Darüber hinaus kann nach Michael und Miller (2013) die sekundäre Nutzung von Patienten- Daten dabei helfen, Krankheiten effektiver zu heilen und Epidemien vorzubeugen. Momentan verfolgen Wissenschaftler zwei große Projekte, nämlich das „Human Brain Project“ und die „US Brain Initiative“, deren Ziel es ist, auf einem Supercomputer die inneren Funktionen des Gehirns zu simulieren. Hierbei müssen die Aktivitäten von ungefähr 100 Billionen Neuronen nachgebildet werden, wodurch sich die Forscher vor allem Einblicke in bestimmte Erkrankungen wie zum Beispiel Alzheimer und Parkinson erhoffen. Big Data kann allerdings auch in anderen wissenschaftlichen Bereichen, wie in der Klimatologie, der Geophysik oder der Nanotechnologieforschung, eingesetzt werden, um neue Erkenntnisse zu gewinnen, wie es mit traditionellen Mitteln noch nicht möglich gewesen wäre [Michael & Miller 2013, S.23].

3.3 Geschäftsmodelle im Kontext von Big Data Damit das volle Potential von Big Data ausgeschöpft werden kann, bedarf es der Anpassung bestehender, sowie der Entwicklung neuer Geschäftsmodelle. Modelle sind vereinfachte Abbildungen der Wirklichkeit — dabei bilden Geschäftsmodelle keine Ausnahme und stellen spezielle wirtschaftliche Aspekte, sowie deren Zusammenhänge abstrakt dar [Baden-Fuller & Morgan 2010]. Bereits seit 1998 wurde eine Vielzahl an Definitionen für den Begriff des Geschäftsmodells ausgearbeitet, wobei es bis heute weder in der Literatur noch in der Praxis eine allgemein gültige Auslegung gibt [Burkhart et al. 2012; Grösser 2016]. Nach Osterwalder et al. (2005) wurden Geschäftsmodelle derart lose und voneinander differenziert definiert, um alle potentiellen und bereits existierenden Geschäftsmechanismen, die zur Wertschöpfung eines Unternehmens notwendig sind, abbilden zu können.

Prinzipiell beschreibt ein Geschäftsmodell die logischen Zusammenhänge innerhalb einer Organisation und konkretisiert inwiefern diese zur Erzeugung eines Mehrwerts für den Kunden und zur Generierung von Profiten ausgerichtet sind [Burkhart et al. 2012; Grösser 2016].

19

Nach Stähler (2001) setzt sich ein Geschäftsmodell aus drei Hauptkomponenten zusammen:

• Nutzenversprechen : Das Nutzenversprechen, oder auch Value Proposition, definiert inwiefern sowohl Kunden, als auch Partner einer Organisation profitieren können, beziehungsweise welchen Nutzen diese von einer Beziehung zu diesem Unternehmen erhalten [Stähler 2001]. • Wertschöpfungsarchtitektur : Die Wertschöpfungsarchitektur beschreibt, wie genau der Mehrwert für die Kunden zur Einhaltung des Nutzenversprechens generiert wird. Hierbei werden einerseits der Wertschöpfungsprozess selbst, als auch die beteiligten Akteure und deren Rollen in diesem Prozess, sowie die angestrebten Märkte abgebildet [Stähler 2001]. • Ertragsmodell : Das Ertragsmodell wird in das Erlös- und Kostenmodell untergliedert, welche alle eingehenden und ausgehenden Finanzströme der Einnahmequellen und Kostenfaktoren umfassen. Auf der Basis dieser Modelle können Aussagen über die potentielle zukünftige Profitabilität einer Organisation getroffen werden, wodurch sich auch die Nachhaltigkeit eines Geschäftsmodells definieren lässt [Stähler 2001].

Big Data und Daten-getriebene Dienste im Allgemeinen haben das Potential eine Revolution loszutreten, die die Wertschöpfung in der Wirtschaft maßgeblich verändert. Momentan wird Big Data allerdings eher dafür verwendet, bestehende Wertschöpfungsmodelle zu skalieren, anstatt komplett neue Geschäftsmodelle zu entwickeln [Huberty 2015]. Unternehmen, die die Nutzung von Big Data bereits in ihre bestehenden Geschäftsmodelle integriert haben, nehmen eine Vorreiterrolle ein und setzen damit deren Mitbewerber unter Druck nachzuziehen, um langfristig wettbewerbsfähig bleiben zu können. Neben privatwirtschaftlichen Organisationen haben auch staatliche Institutionen, durch die effektive Nutzung von Big Data, die Möglichkeit ihre Effizienz und Produktivität maßgeblich zu steigern und den Steuerzahlern einen deutlichen Mehrwert zu bieten [Manyika et al. 2011; Hagen et al. 2013, S.3].

Damit das volle Potential von Big Data genutzt werden kann, müssen — wie bereits diskutiert — zum einen grundlegend neue Methoden und Werkzeuge für den Umgang mit Big Data, sowie Geschäftsmodelle zu deren Nutzung entwickelt und in Folge auch angewandt werden [Huberty 2015]. Zum anderen ist es notwendig, dass sich Unternehmen, Organisationen und politische Entscheidungsträger einer Vielzahl an Herausforderungen stellen, damit die Verwendung von Big Data geregelt ablaufen kann. Mit der schnellen Entwicklung und 20

Verbreitung digitaler Informationstechnologien wächst auch die Bedeutung von Big Data in jedem Wirtschaftssektor und jeder Wirtschaftsfunktion [Manyika et al. 2011].

Es ist jedoch schwer absehbar, welchen Einfluss Big Data und die damit einhergehende Informationstransparenz auf bestehende Geschäftsmodelle haben wird. Auch Kunden und Privatpersonen erhalten zunehmend offeneren Zugang zu einer Masse an Informationen, die deren Entscheidungsprozesse maßgeblich verändern werden. Dadurch entstehen einerseits Möglichkeiten neue Geschäftsmodelle zu entwickeln, jedoch leiten sich daraus andererseits auch zusätzliche Anforderungen ab, die in zunehmend mehr Branchen, zu einer Anpassung, beziehungsweise kompletten Rekonstruktion bestehender Geschäftsmodelle führen wird. Ein Beispiel hierfür wären Geschäftszweige, die auf Informationsasymmetrien aufbauen, wie das Maklergewerbe oder Brokergesellschaften, wobei sich deren zukünftige Form erst noch zeigen wird [Manyika et al. 2011, S.4]. Im folgenden Kapitel wird näher auf das Wertschöpfungspotential von Big Data eingegangen und daraufhin spezifische Geschäftsmodelle diskutiert.

3.3.1 Wertschöpfung durch Big Data Um Big Data für organisationale Zwecke nutzen zu können, ist es in erster Linie notwendig, dass auch große Datenmengen gespeichert und verarbeitet werden können. Dies erfordert eine leistungsfähige IT-Infrastruktur, woraus gefolgert werden könnte, dass zumindest in der näheren Zukunft die Verarbeitung von Big Data vor allem in hoch entwickelten Märkten zum Wertschöpfungsprozess beitragen wird. Allerdings ist auch in Entwicklungsländern, die gewisse Voraussetzungen erfüllen, enormes Potential vorhanden. Asien ist zum Beispiel bereits die führende Region für die Generierung personenbezogener Standortdaten. Das liegt an der hohen Anzahl an mobilen GPS-fähigen Geräten, die im Umlauf sind. Des Weiteren wird es zunehmend einfacher für Unternehmen, die Infrastruktur von Dritten zu nutzen und die Speicherung und Verarbeitung von Daten an anderen Standorten durchzuführen [Manyika et al. 2011, S.4f].

Nach Manyika et al. (2014) gibt es fünf allgemein gültige Vorgehensweisen, um Big Data wirksam einzusetzen und somit dessen volles transformatorisches Potential nutzen zu können, auf die nun näher eingegangen wird:

21

Schaffung von Transparenz Wenn den richtigen Stakeholdern, zum richtigen Zeitpunkt, Zugang zu relevanten Daten gewährt wird, so kann dies einen bedeutenden Mehrwert darstellen. Im öffentlichen Bereich könnten Arbeitsabläufe deutlich effizienter gestaltet werden, indem Daten abteilungsübergreifend einfacher zugänglich gemacht werden. In Produktionsbetrieben können durch die Integration der Daten aus den Forschungs- und Entwicklungs-, den Konstruktions-, sowie der Fertigungsabteilungen die Prozesse optimal aufeinander abgestimmt werden. Indem Lieferanten, als auch Kunden ebenfalls miteinbezogen werden, können außerdem interorganisationale Abläufe ebenfalls effizienter gestaltet werden, wodurch die Kosten minimiert und die Qualität maximiert, sowie Entwicklungszyklen und die gesamte Zeitspanne bis zum Vertrieb ebenfalls verkürzt werden können [Manyika et al. 2011, S.5].

Umfassende Experimentierungsmöglichkeiten Mit den zunehmenden Mengen an Informationen, die von Organisationen generiert und gespeichert werden, können auch ganz neue Analysen durchgeführt werden. Spezielle IT- Werkzeuge erlauben es, den Ist-Zustand von Prozessen zu analysieren und kontrollierte Experimente mit adaptierten Parametern durchzuführen. Basierend auf den Messdaten des implementierten Prozesses und der durchgeführten Experimente, können Korrelationen aufgezeigt werden, wodurch Zusammenhänge erklärt und die Effektivität und die Effizienz von Prozessen kontrolliert und nachhaltig optimiert werden können [Manyika et al. 2011, S.5].

Entscheidungsunterstützung Ausgereifte Analysetechniken können Entscheidungsprozesse wesentlich vereinfachen, indem zusätzliche Informationen herausgearbeitet werden, die ansonsten nicht zur Verfügung stehen würden. Die automatisierte Verarbeitung großer Datenmengen durch den Einsatz von Big Data- Technologien haben das Potential, das Fundament auf dem die Entscheidungen basieren, maßgeblich zu erweitern. Die hierbei analysierten Daten können sich auf verschiedenste Aspekte, wie zum Beispiel Kunden, Mitarbeiter oder die Nutzung von Produkten und Diensten, wobei hier die Informationserhebung oftmals durch Sensoren durchgeführt wird, beziehen. Darüber hinaus ist es auch möglich, diese Daten miteinander in Beziehung zu setzen und

22

dadurch neue Einblicke zu erlangen, die wiederum den Prozess der Entscheidungsfindung unterstützen. Des Weiteren können spezielle Algorithmen ebenfalls dabei helfen, den Entscheidungsprozess gänzlich oder zum Teil zu automatisieren. Es ist zum Beispiel möglich, Entscheidungsobjekte in Kategorien einzuteilen, von denen nur bestimmte Kategorien von Personen untersucht werden müssen, wohingegen die restlichen Objekte automatisiert analysiert werden. Es bleibt anzumerken, dass durch die Anwendung derartiger Techniken ein erhebliches Optimierungspotential sowohl bezüglich der Qualität, als auch bezüglich der Effizienz von Entscheidungsprozessen entsteht [Manyika et al. 2011, S.5].

Innovative neue Geschäftsmodelle, Produkte und Dienste Big Data kann Organisationen dabei helfen bestehende Produkte, Dienstleistungen und Geschäftsmodelle zu verbessern und bietet darüber hinaus die Möglichkeit, komplett neue Angebote zu entwickeln. Hersteller sammeln Daten über deren aktuell angebotene Produkte, sowie Dienste und setzen diese Daten ein, um die nächste Generation, beziehungsweise Version, des Angebots weiterzuentwickeln, sowie neue innovative Angebote zu entwickeln. Zusätzlich ist es — durch die Verbreitung von Sensoren jeglicher Art — möglich, spezifische Aussagen über Anwender, sowie Produkte zu treffen und somit die Produkte auf die Bedürfnisse der Kunden anzupassen, Risiken einzuschätzen und ebenfalls Entscheidungsprozesse durch die zusätzliche Menge an Informationen zu unterstützen [Manyika et al. 2011, S.5f]. Im nächsten Kapitel wird untersucht, inwiefern durch Big Data unterstützte Wertschöpfungsprozesse zu der Generierung von Wettbewerbsvorteilen beitragen können, um infolgedessen auf konkrete Geschäftsmodelle einzugehen.

3.3.2 Generierung von dynamischen Wettbewerbsvorteilen durch Big Data Der disruptive Charakter von Big Data und die umfassenden Möglichkeiten zur Integration in organisationale Konzepte erfordern, dass sich Organisationen nicht nur auf operativer Ebene, sondern auch auf strategischer Ebene damit auseinandersetzen. In welcher Form Organisationen Big Data in deren bestehende Geschäftsmodelle integrieren, hängt von deren strategischer Ausrichtung ab. Im Folgenden werden potentielle Wettbewerbsvorteile, die durch

23

die effektive Nutzung von Big Data im Bereich des Big Data-Driven Marketing, sowie der Design-Driven Innovation und der Crowd Innovation diskutiert [Morabito 2015, S.6]:

Big Data-Driven Target Marketing Big Data kann die Art und Weise, in der Organisationen potentielle Kunden identifizieren und eine Verbindung zu ihnen aufbauen, maßgeblich verändern. Die Effektivität und Effizienz herkömmlicher Marketingstrategien kann durch die Nutzung von Big Data und dem damit verbundenen Wissensvorteil maßgeblich erhöht werden. Marktdurchdringungsstrategien können Big Data als Hebel nutzen, um Organisationen mit Informationen zu versorgen, die dabei helfen, bestehende Kunden zu halten und repetitive Verkäufe zu stärken [Morabito 2015, S.6].

Eine weitere wichtige Möglichkeit die Big Data eröffnet, ist die Identifizierung neuer Marktnischen durch die Anwendung neuer Analysetechniken auf kunden- und marktbezogene Daten. Hierbei ist es möglich, entweder komplett neue Nischen zu identifizieren und zu erschließen oder bestehende Zielmärkte in kleinere Abnehmergruppen zu unterteilen, um die Nachfrage aller Kunden zu befriedigen und somit das volle Potential des Marktes auszuschöpfen. Die Aggregation verschiedener kleiner Nischenmärkte in Kombination mit zunehmend automatisierten Marketingkommunikationsmethoden ermöglicht darüber hinaus die branchenübergreifende Verwirklichung von Mass-Customization Konzepten. Mass Customization oder auch die kundenindividuelle Massenproduktion bezieht sich auf ein strategisches Konzept, bei dem zum einen die Vorzüge einer Massenproduktion genützt, wie zum Beispiel von Skaleneffekten und Automatisierung, und zum anderen die Produkte an die individuellen Bedürfnisse der Kunden angepasst werden können [Morabito 2015, S.7].

Das zusätzliche Wissen über aktuelle, sowie potentielle Märkte kann außerdem dazu genutzt werden, um Cross-Selling-Konzepte zu etablieren. Dies bedeutet, dass eine Organisation Wege findet, um unterschiedliche Produkte an bereits bestehende Kunden zu veräußern, wodurch insgesamt der Grad der Kundenbindung weiter erhöht werden kann. Bestimmte Banken verwenden zum Beispiel Daten über die Transaktionen ihrer Klienten und analysieren diese in Kombination mit den Daten sozialer Medien, um einerseits die Präferenzen ihrer Kunden zu verstehen und dadurch neue maßgeschneiderte Angebote entwickeln zu können. Eine weitere

24

Möglichkeit die Loyalität der Kunden zu erhöhen, stellt die Gamifizierung von Inhalten dar. Hierbei werden spieltypische Elemente in Anwendungen integriert, um somit die Motivation zur Nutzung bestimmter Dienste zu fördern, sowie die Nutzungserfahrung selbst zu verbessern. Durch eine höhere Nutzungsfrequenz der angebotenen Dienste und Produkte können, ebenfalls deutlich mehr Daten bezüglich der Nutzungsgewohnheiten gesammelt werden und somit präzisere Aussagen über die Kunden und deren Verhalten getroffen werden [Morabito 2015, S.6ff].

Big Data-Technologien ermöglichen Organisationen, ein tiefgehendes Verständnis über die Verhaltensweisen ihrer Kunden zu entwickeln, wobei sowohl in der Vergangenheit, als auch in Echtzeit gesammelte Daten automatisiert für Analysezwecke verwendet werden können. Dieses Vorgehen macht ineffektive traditionelle Marktforschungsmethoden überflüssig, wodurch Kosten eingespart und völlig neue Experimente ermöglicht werden, die wiederum potentiell unerfüllte Anforderungen des Marktes enthüllen können. Darüber hinaus sind, im Gegensatz zu einigen traditionellen Marktforschungsmethoden, wie zum Beispiel Fragebögen, die Ergebnisse auch oftmals nicht durch bewusstes Antworthalten verzerrt, da bei vielen Big Data- Analysen Daten über das tatsächliche, unbewusste Verhalten der Nutzer gesammelt wird [Morabito 2015, S.7].

Durch detaillierte Verhaltensanalysen können prospektive Aussagen über Kunden getroffen werden, die Organisationen dazu befähigen Muster und Abweichungen in unserem zukünftigen Kaufverhalten vorauszusagen. Um ein möglichst aussagekräftiges Gesamtbild zu erhalten, ist es wichtig, Daten aus verschiedenen Quellen zu sammeln und diese miteinander zu kombinieren. Basierend auf dieser Wissensgrundlage können Organisationen potentielle Kunden gezielt beeinflussen, um diese zu dem Kauf, beziehungsweise der Nutzung eines Dienstes oder Produkts zu bewegen. Soziale Netzwerke bilden hierbei für derartige Informationen eine zunehmend wichtiger werdende Quelle. Diverse Anbieter eröffnen Nutzern, beziehungsweise Organisationen, bereits die Möglichkeit mehrere Kanäle, wie Facebook und Twitter, gleichzeitig zu scannen, wodurch Reaktionen, Stimmungen und Feedback zu bestimmten Angeboten, Themen, Beiträgen und sogar gesamten Unternehmen in Echtzeit beobachtet und analysiert werden können [Morabito 2015, S.7].

Darüber hinaus haben Daten auch die Art und Weise wie potentielle Kunden angesprochen werden können, verändert. Es ist nicht mehr notwendig, Personen in Zielgruppen einzuteilen, 25

da Individuen, mittels ihrer IP-Adresse, eine elektronisch nachverfolgbare Spur hinterlassen. Diese Spur offenbart Informationen über den Lebenstil, Kauf-, und Wahlentscheidungen, Interessen, Aufenthaltsorte, sowie demographische Merkmale einer Person und kann dazu genutzt werden, um — mit Hilfe bestimmter Werkzeuge — automatisiert spezifische Aussagen über einzelne Individuen treffen zu können. Durch diese Methode kann auch ein sehr viel genaueres Bild über den Kunden gewonnen werden, als dies mit herkömmlichen Methoden möglich wäre. Personen- und anwendungsbezogene Daten sozialer Netzwerke stellen momentan eine sehr wichtige Datenquelle für die Generierung von Wissen und somit für die Schaffung von entscheidenden Wettbewerbsvorteilen dar. Im Laufe der Zeit werden jedoch die Varietät an Informationsquellen und die Menge an Daten kontinuierlich zunehmen, wodurch auch die Grundbedingungen für stark differenzierte Geschäftsmodelle geschaffen werden, die auf dem Konzept der Design-Driven Innovation aufbauen. Hierbei wird auch das „Internet der Dinge“ eine bedeutende Rolle spielen, auf das später noch näher eingegangen wird [Morabito 2015, S.7f].

Design-Driven Innovation Durch die Kombination von Big Data mit anderen innovativen Technologien ist es möglich, neue innovative Dienste und Produkte zu entwickeln, wobei die Kunden in den Entwicklungsprozess entweder direkt oder indirekt eingebunden werden können. Die Möglichkeiten beschränken sich jedoch nicht nur auf innovative Dienste und Produkte, da auch die Entstehung komplett neuer Geschäftsmodelle gefördert wird. Bei diesen neuartigen Geschäftsmodellen werden die Kunden, im Vergleich zu traditionellen Ansätzen, zunehmend stärker integriert und stellen immer öfter auch selbst den Mehrwert der Plattform da. Ein Beispiel hierfür wäre Asos, ein Modehändler, dessen Kunden die Möglichkeit haben, gegen eine bestimmte Provision, selbst Modeartikel weltweit an andere Kunden der Plattform zu verkaufen [Morabito 2015, S.8].

Auch das „Internet der Dinge“ gewinnt zunehmend an Bedeutung, wobei dadurch große Datenmengen generiert werden und Big Data zunehmend in alltägliche Abläufe integriert wird. Intelligente Systeme registrieren relevante Ereignisse mittels Sensoren, analysieren und vernetzen diese Informationen, um den Nutzer somit bei der Bewältigung bestimmter Aufgaben zu unterstützen. Dabei sind die Systeme nicht bloß darauf ausgerichtet Prozesse zu 26

vereinfachen, indem gewisse Schritte automatisiert werden. Durch die zunehmende Weiterentwicklung der künstlichen Intelligenz, erlangen die Systeme zum Teil sogar die Fähigkeit, autonom zu agieren. Ein derartiger Paradigmenwechsel ermöglicht auch autonom initiierte Kommunikation zwischen Maschinen, die die Lösung eines komplexen Problems untereinander koordinieren [Morabito 2015, S.8f].

Seit 2008 sind mehr Geräte mit dem Internet verbunden, als Menschen und die Anzahl wächst exponentiell an. Basierend auf dieser Entwicklung ergeben sich sowohl in der Privatwirtschaft, als auch für Staaten und die Gesellschaft selbst, komplett neue Möglichkeiten. Dem „Department for Business Innovation and Skills“ (BIS) der englischen Regierung zufolge, wird der globale Markt für Smart City Lösungen im Jahre 2020 mehr als 400 Milliarden US-Dollar jährlich ausmachen. Durch spezielle Technologien kann die Verwaltung der Stadt effizienter, sowie sicherer gestaltet werden, wobei hier eher der Schwerpunkt auf dem gesellschaftlichen Nutzen liegt und nicht auf der Generierung von Profiten. Die Schaffung neuer Arbeitsplätze ist hierbei natürlich auch ein wichtiger Aspekt, wodurch voraussichtlich auch das Bildungssystem nachhaltig geprägt wird, da eine Vielzahl speziell ausgebildeter Daten-Experten benötigt werden [Morabito 2015, S.9].

Die zunehmende Vernetzung vereinfacht auch die Zusammenarbeit zwischen einzelnen Individuen. Dadurch können Ideen und Lösungen zu bestimmten Problemen in unabhängigen Gemeinschaften ausgearbeitet und finanziert, sowie umgesetzt werden, was auch als „Crowd Innovation“ bezeichnet wird. Auf Grund dessen kann der Innovationsprozess flexibler gestaltet werden, wobei der Fokus nicht mehr so stark auf bestimmte Abteilungen spezifischer Organisationen gerichtet ist [Morabito 2015, S.9]. Genau dieser Paradigmenwechsel wird im nächsten Abschnitt näher untersucht.

Crowd Innovation Big Data hat das Potential, nicht nur die Art und Weise zu verändern, wie Organisationen den Markt angehen und in welcher Form Produkte und Dienstleistungen angeboten werden, sondern kann bereits die Entwicklung von Produkten maßgeblich beeinflussen. Der „Open Innovation“ Ansatz forciert die Umsetzung innovativer Ideen, die extern von anderen Organisationen und Individuen entwickelt wurden, um die Innovation innerhalb der Organisation zu stärken und

27

Wettbewerbsvorteile zu generieren [Chesbrough 2003; Morabito 2015, S.9]. Demnach ist geistiges Eigentum ein Handelsgut, welches — für einen gewissen Preis — sowohl von externen Quellen bezogen, als auch an externe Abnehmer veräußert werden soll, um das volle Innovations- und Entwicklungspotential einer Organisation auszuschöpfen, sowie die Wirtschaftlichkeit zu maximieren [Morabito 2015, S.9].

Darüber hinaus ist es nach Morabito (2015) auch erstrebenswert, zusammen mit externen Parteien gemeinsame Projekte zu bearbeiten, um so wechselseitig von den eingebrachten Fähigkeiten der jeweils anderen Gemeinschaftsmitglieder profitieren zu können. Durch Big Data kann dieses Konzept auf eine neue Ebene gehoben werden, da die Möglichkeit geboten wird, eine bessere Einsicht in den Markt zu erhalten und schnell auf Anforderungen der Kunden reagieren zu können. Zum Beispiel können soziale Netzwerke wichtige Anhaltspunkte für den Weiterentwicklungs- beziehungsweise Adaptierungsbedarf eines Angebots darstellen, indem diese nach Kundenbeschwerden oder –wünschen durchsucht werden. Da derartige Analysen beinah in Echtzeit durchgeführt werden können, wird auch deutlich schneller Feedback generiert, als mit traditionellen Methoden. Auf Grund dessen können auch die Entwicklungszyklen kurz und agil ausgelegt werden. Dies ermöglicht Organisationen selbst sehr flexibel zu agieren, wodurch wiederum die Kundenzufriedenheit maximiert werden kann [Morabito 2015, S.9].

Open Innovation wird durch Vermittlungsplattformen unterstützt, die Organisationen und externe Individuen, sowie Gruppen zur Lösung gemeinsamer Probleme zusammenbringen. Ein mittlerweile immer weiter verbreiteter Ansatz, der momentan noch von eher größeren Unternehmen genutzt wird, stellt die Ausschreibung von Preisgeldern für das Lösen spezifischer Probleme dar. Dadurch können externe, unabhängige Ressourcen für einzelne Projekte genutzt werden, ohne dabei Risiken einzugehen. Immerhin entstehen auch keine Kosten entstehen, wenn keine Lösungen gefunden werden. Es zielen auch immer mehr Vermittlungsplattformen auf derartige Bedürfnisse ab, wodurch es auch für kleine und mittelgroße Unternehmen immer einfacher wird, diesbezügliche Möglichkeiten zu nutzen. Allerdings sind hier auch Vorgaben der Gesetzgeber gefragt, um Lohndumping nach Möglichkeit zu vermeiden [Morabito 2015, S.9f].

Darüber hinaus wird, durch die zunehmende Verbreitung von Innovation Hubs, auch die Umsetzung kompletter Geschäftsideen in verteilter Kooperation unterstützt. Derartige 28

Plattformen helfen dabei, Kontakt zu potentiellen Kunden und Teammitgliedern aufzunehmen, sowie Unterstützung in Form von Mentoring- und Finanzierungsprogrammen zu finden. Crowdfunding-Plattformen stellen eine weitere Möglichkeit dar, Produkte und Dienste vorab zu finanzieren. So können Kunden und Interessenten Ideen unterstützen und deren Umsetzung ermöglichen. Hierbei tätigen die Nutzer entweder eine Spende, oder eine Art Vorbestellung und wenn ein gewisses Zahlungsziel erreicht wird, werden die gesammelten Mittel freigegeben und der Anbieter startet die Umsetzung der Idee. Ein prominentes Beispiel für einen Crowdfunding Dienst ist die Plattform Kickstarter.com, durch die schon viele Unternehmen gegründet und Ideen realisiert werden konnten. Auch in Fragen der Entwicklung und Gründung stellen Big Data Analysen im Vorfeld eine wichtige Informationsquelle dar. Zum einen helfen diese, den Bedarf des Marktes im Allgemeinen zu erfassen, zum anderen können spezifische Anregungen zur Produktentwicklung eingeholt werden [Kickstarter 2016; Morabito 2015, S.10].

Big Data und soziale Medien sind stark miteinander verbunden und profitieren auch gegenseitig sehr voneinander. Ideen, Prototypen, Produkte und Szenarien werden, in Zusammenarbeit mit einer Vielzahl an Individuen und Gemeinschaften, diskutiert, umgesetzt und stetig weiterentwickelt. Durch die Verwendung historischer Daten und Reaktionen und Meinungen, die beinahe in Echtzeit erfasst werden können, ist es wiederum möglich Konzepte ohne aufwendige Marktanalysen zu testen und Hypothesen zu verifizieren oder falsifizieren. Basierend auf den Ergebnissen der Analysen können existierende Ansätze weiterverfolgt, adaptiert, oder komplett verworfen werden, um das Produkt, beziehungsweise den Dienst, weitestgehend im Sinne der Kunden zu gestalten [Morabito 2015, S.10].

3.3.3 Big Data Geschäftsmodelle In den nächsten Kapiteln wird näher auf verschiedene Konzepte von Big Data Geschäftsmodellen eingegangen. Hierbei wird im Detail analysiert, inwiefern Unternehmen durch die Nutzung von Big Data einen besonderen Mehrwert generieren können, um sich von Konkurrenten abzugrenzen und somit Wettbewerbsvorteile zu generieren. Darüber hinaus werden gesamte Geschäftsbereiche analysiert und ausgewählte Geschäftsmodelle mittels eines Business Model Canvas genau untersucht. Wobei auch das Potential von Big Data für Mass Customization Lösungen, sowie der Personalisierung von Produkten und Diensten diskutiert wird. Außerdem werden neue Kooperationsmöglichkeiten, die durch Big Data erleichtert 29

beziehungsweise erst ermöglicht werden, untersucht, sowie die Auswirkungen die Big Data auf die Planung und Messung der Erreichung organisationaler Zielen hat, interpretiert. Abschließend wird das synergetische Potential mit anderen innovativen Technologien, wie 3D- Druck, Robotik und künstlicher Intelligenz betrachtet [Morabito 2015, S.65].

Big Data-getriebene Geschäftsmodelle beruhen auf der Nutzung von Big Data, um ein bestimmtes Nutzenversprechen anbieten zu können und somit einen Mehrwert anzubieten, welcher sich von den Angeboten der Konkurrenz abhebt. Derzeit wird Big Data zumeist eher dafür verwendet herkömmliche Geschäftsmodelle effizienter, effektiver und flexibler umzusetzen, allerdings bleibt die Grundstrategie oftmals unverändert. Nach und nach entstehen allerdings innovative Konzepte, deren Unique Selling Proposition (USP) auf Big Data Technologien basieren [Morabito 2015, S.66f; Hagen et al. 2013, S.3ff]. Die Unique Selling Propositions werden durch Innovationen in sozialen, wirtschaftlichen und technologischen Bereichen sowohl bezüglich des Wert-Angebots, als auch in der Vielfältigkeit der potentiellen Nutzungsmöglichkeiten kontinuierlich erweitert und bieten somit immer mehr Möglichkeiten für die Entwicklung innovativer Geschäftsmodelle [Morabito 2015, S.66f].

In Tabelle 1 wird ein Überblick über Branchen und zugehörige Einsatzgebiete gegeben, in denen Big Data bereits gegenwärtig genutzt wird, um bestehende Geschäftsmodelle zu transformieren, beziehungsweise deren Effizienz zu optimieren [Morabito 2015, S.67; Hagen et al. 2013, S.4]. Diese inkrementellen technologischen, sozialen, organisationalen und rechtlichen Veränderungen werden voraussichtlich einen signifikanten positiven Einfluss auf bestehende Organisationen und staatliche Institutionen haben, die Big Data zum Beispiel für die oben in Tabelle 1 angeführten Zwecke einsetzen. Auch wenn diese Einsatzgebiete keine fundamentalen Innovationen umfassen, so können durch Nutzung der Big Data-Hebeleffekte dennoch bedeutende Wettbewerbsvorteile generiert, beziehungsweise gesetzte Ziele effizienter erreicht werden [Hagen et al. 2013, S.3ff].

30

Einzelhandel Produktion Customer Betrugsprävention Produktforschung Prozess- & Relationship Qualitätsanalyse Management Filialstandort und Optimierung von Fertigungsanalyse Optimierung von Filialgestaltung Lieferketten Logistik & Vertrieb Dynamische Vorausschauende Preissysteme Wartung Finanzdienstleistungen Medien & Telekommunikation Algorithmischer Betrugsprävention Netzwerkoptimierung Churn-Prävention Handel Risikoanalyse Portfolioanalyse Kundenbewertung Betrugsprävention Werbung & Public Relations Energie Nachfrage- Stimmungsanalyse Intelligente Netze Operative Signalisierung Modellierung Zielgerichtete Kundenakquisition Exploration Stromleitungssensoren Werbung Staat & Behörden Gesundheitswesen & Biowissenschaften Marktkontrolle Ökonometrie Pharmakogenomik Pharmazeutische Forschung Waffen- & Medizinische Bioinformatik Klinische Schutztechnologien Informatik Ergebnisforschung

Tabelle 1: Durch Big Data erweiterte Geschäftsfelder [vgl. Morabito 2015, S.67; Hagen et al. 2013, S.4f]

Big Data bietet prinzipiell, wie in Abbildung 2 ersichtlich, verschiedene Hebeleffekte die von Organisationen genutzt werden können. Der Einsatz von Big Data kann strategisch sehr wertvoll sein, da entscheidungsrelevante Informationen in aufbereiteter Form schnell verfügbar sind, die ansonsten weder in der gleichen Qualität noch im gleichen Ausmaß vorliegen würden. Da Entscheidungsprozesse somit auch schneller durchgeführt werden können und negative Konsequenzen getroffener Entscheidungen und deren Ausmaß eher identifizierbar sind, besteht außerdem die Möglichkeit regelmäßigere Analysen durchzuführen und die Strategie, falls notwendig, jederzeit anzupassen. Darüber hinaus können auch vorrausschauende Analysen durchgeführt werden, um das Verhalten der Kunden und auftretende Marktdynamiken besser einschätzen zu können [Hagen et al. 2013, S.3ff].

31

Abbildung 2: Big Data-Hebel und -Hebeleffekte [ vgl. Hagen et al. 2013, S.4; Manyika et al. 2011, S.5]

Des Weiteren kann durch den Einsatz von Big Data auch die gesamte Effizienz einer Organisation maßgeblich gesteigert werden. Durch den Einsatz neuer Technologien wird es den Mitarbeitern ermöglicht, Probleme mittels neuer Lösungsansätze anzugehen, wobei auch bestimmte konventionelle Analyse- und Interpretationsaufgaben nicht mehr durch Personen direkt durchgeführt werden müssen, sondern automatisiert durchgeführt werden können. Somit ist es möglich Aktivitäten bestimmter Prozesse zu rationalisieren, wodurch die Abläufe im Allgemeinen einfacher und transparenter gestaltet werden können [Hagen et al. 2013, S.3ff].

Durch den Einsatz von Big Data und den geeigneten Technologien können auch einige Hebeleffekte entstehen, die einen direkten positiven Einfluss auf die operativen Tätigkeiten einer Organisation haben. Durch die zunehmende Vernetzbarkeit, die steigende Nummer an offen-verfügbaren Informationsquellen und Kooperationsplattformen, die einen einfachen Austausch ermöglichen, wird die kooperative Lösung spezifischer Probleme auch über Unternehmensgrenzen hinweg vereinfacht. Durch die Analyse komplexer Datensätze, wie diese zum Beispiel in sozialen Netzwerken vorliegen, können auch die Kunden in den 32

Wertschöpfungsprozess besser eingebunden werden, wodurch wiederum die Kundenzufriedenheit und somit der Unternehmenserfolg insgesamt gesteigert werden kann [Manyika et al. 2011, S.5ff]. Außerdem können neue Experimentiermethoden angewandt werden, um bestimmte Hypothesen schneller, exakter und kostengünstiger auf deren Wahrheitsgehalt zu testen. Je nach den eingesetzten Mess- und Analysewerkzeugen besteht hierbei auch die Möglichkeit, Antworten auf Fragen zu finden, die, zumindest primär, gar nicht gestellt wurden [McAfee & Brynjolfsson 2012, S.66f].

3.3.4 Business Model Canvas Damit die Herausforderungen, die mit der Integration von Big Data einhergehen, überkommen werden können, ist es notwendig neue Ansätze zu erforschen, sowie bestehende Geschäftsmodelle entsprechend zu adaptieren. In dieser Sektion werden Geschäftsmodelle, die in verschiedenen Branchen zum Einsatz kommen, untersucht und darüber hinaus, je nach Abstraktionsgrad, die Elemente eines Business Model Canvas analysiert, um zu zeigen wie sich der Wertschöpfungsprozess von Organisationen, unter Anwendung von Big Data, gestaltet [Muhtaroglu et al. 2013, S.1ff].

Business Model Canvas Schlüsselpartner Sc hlüsselaktivitäten Wertangebote Kunden - Kunden- beziehungen segmente Netzwerk von Wichtigsten Nutzen - Art der Segmentierung Partnern und Tätigkeiten der versprechen an Betreuung der nach Lieferanten Organisation die Kunden Kunden Anforderungen Schlüsselressourcen Vertriebskanäle der Kunden Strategische Physische, Kunden - Allianzen finanzielle, berührungs- intellektuelle, punkte menschliche Mittel Kostenstruktur Einnahmequellen Fixe und variable Kosten Eingehende Geldflüsse

Tabelle 2: Business Model Canvas [vgl. Osterwalder et al. 2010; Mesirca 2012]

Nach Ostweralder et al. (2010) ist ein Business Model Canvas ein strategisches Werkzeug, welches dabei hilft, die neun Grundbausteine eines Geschäftsmodells abzubilden. Diese 33

Grundbausteine beschreiben zusammengefasst das Leistungsversprechen, die Infrastruktur, die Kunden, sowie die Finanzen einer Organisation, beziehungsweise eines bestimmten Produkts oder eines Dienstes. Tabelle 2 bietet eine Übersicht zu den neun Komponenten eines Business Model Canvas inklusiver einer kurzen Beschreibung.

Die formale Beschreibung der Geschäftstätigkeiten bildet Ostweralder et al. (2010) zufolge die Basis für die Aktivitäten einer Organisation. In der folgenden Aufzählung sind die neun Hauptkomponenten eines Business Model Canvas im Detail beschrieben, die in die Kategorien Infrastruktur, Angebot, Kunden und Finanzen gegliedert sind:

Infrastruktur:

• Schlüsselaktivitäten: Hierbei handelt es sich um die wichtigsten Aktivitäten, von deren Ausführung die Erreichung des Nutzenversprechens abhängig ist. • Schlüsselressourcen: Diese Komponente umfasst die Mittel die notwendig sind, um einen bestimmten Wert für den Kunden generieren zu können. Die Ressourcen sind demnach prinzipiell erforderlich, um die Geschäftstätigkeiten zu ermöglichen und zu unterstützen. Die Ressourcen können sowohl von menschlicher, finanzieller, physischer, sowie intellektueller Art sein. • Schlüsselpartner: Um die operativen Tätigkeiten zu ermöglichen, beziehungsweise zu optimieren und die Risiken eines Geschäftsmodells zu minimieren, pflegen Organisationen Beziehungen zu einem Netzwerk an Kunden und Lieferanten, um bestimmte Dienste auszulagern und sich auf deren Kernaktivitäten konzentrieren zu können. Eine Spezialform bilden hierbei die Bildung komplementärer Allianzen, wie zum Beispiel von Joint Ventures oder anderer strategischer Partnerschaften, wobei die Schlüsselaktivitäten kooperativ ausgeführt werden [Osterwalder et al. 2010].

Angebot :

• Wertangebote: Hierbei handelt es sich um die Gesamtheit an Produkten und Diensten, die eine Organisation anbietet, um die Nachfrage ausgewählter Kundengruppen zu bedienen. Nach Ostweralder et al. (2010) ist das Wertangebot, beziehungsweise Nutzenversprechen, 34

jener Aspekt, der eine Organisation von seinen Mitbewerbern abhebt. Das Nutzenversprechen setzt sich je nach den angebotenen Diensten, oder auch Produkten aus verschiedenen Aspekten zusammen, wie zum Beispiel der Neuartigkeit, der Leistung, der Anpassbarkeit, dem Design, der Marke, dem Preis, dem Reduktionsfaktor der Kosten oder Risiken für den Kunden durch das Angebot, sowie dessen Verfügbarkeit und Zweckmäßigkeit. Das Nutzenversprechen kann prinzipiell zwei Ausprägungen annehmen, wobei die quantitative Form sich auf die Kosten und Effizienz bezieht und die qualitative Form das gesamte Kundenerlebnis in den Mittelpunkt stellt [Osterwalder et al. 2010].

Kunden:

• Kundensegmente: Um ein effektives Geschäftsmodell umsetzen zu können, ist es wichtig, dass die Organisation bestimmte Zielgruppen identifiziert, deren Nachfrage dem angebotenen Dienst, beziehungsweise Produkt, entspricht. Die dabei identifizierten Gruppen können auch in unterschiedliche Segmente unterteilt werden, um auf differierende Bedürfnisse der Kunden eingehen zu können. Zu den verschiedenen Segmentierungsarten zählen unter anderem: o Massenmärkte: Bei Massenmärkten verfolgt der Anbieter keine bestimmte Segmentierung, da das Angebot an ein weites Spektrum potentieller Kunden gerichtet ist. o Nischenmärkte: Im Fall von Nischenmärkten basiert die Segmentierung auf speziellen Anforderungen und Charakteristika der Kunden. o Segmentiert: Hierbei segmentiert eine Organisation bereits bestehende Kundensegmente in noch kleinere Gruppen, wobei die Segmentierung wiederum anhand bestimmter Charakteristika der Kunden durchgeführt wird. o Diversifiziert: Die Organisation bedient Kundensegmente mit verschiedenen Anforderungen und Charakteristika. o Mehrseitige Märkte: Bestimmte Organisationen bedienen verschiedene Kundensegmente die voneinander abhängig sind. Zum Beispiel bedienen Kreditkartenunternehmen sowohl Karteninhaber, als auch Dienstleister und Verkäufer, die deren Karten akzeptieren [Osterwalder et al. 2010].

35

• Vertriebskanäle: Eine Organisation kann seine Kunden durch verschiedene Kanäle erreichen. Hierbei besteht die Möglichkeit eigene Kanäle, wie zum Beispiel unternehmenseigene Verkaufsräume oder Partnerkanäle, beziehungsweise eine Kombination beider Formen, zu nutzen [Osterwalder et al. 2010]. • Kundenbeziehungen: Um den Erfolg eines Geschäftsmodells zu sichern, ist es wichtig, dass sich Organisationen entscheiden, welche Art von Beziehung zu welchen Kundensegmenten aufgebaut werden soll. Diese Beziehungsformen umfassen unter anderem folgende Ausprägungen: o Persönliche Betreuung: Diese Form der Betreuung beschreibt eine direkte Interaktion zwischen Angestellten der Organisation und Kunden, wobei diese sowohl während, als auch nach der Durchführung eines Verkaufes stattfinden kann. In speziellen Fällen werden ein oder mehrere Betreuer bestimmten Kunden, beziehungsweise Kundengruppen, zugeordnet, um auf deren Bedürfnisse direkt eingehen zu können. o Selbstbedienung: Hierbei findet die Interaktion zwischen Kunden und Anbieter indirekt statt. Die Organisation stellt den Kunden die Werkzeuge zur Verfügung, die diese benötigen, um das Angebot selbst nutzen zu können. o Automatisierte Dienstleistungen: Diese Form ähnelt der Selbstbediendung, jedoch wird der angebotene Dienst hierbei automatisiert an den Bedürfnissen der Kunden ausgerichtet. o Gemeinschaften: Gemeinschaftsplattformen erlauben den direkten Austausch zwischen unterschiedlichen Kunden, sowie dem Anbieter. Dadurch werden die gemeinschaftliche Diskussion von Problemen und die Teilung von Wissen ermöglicht. o Co-Creation: Hierbei können Kunden ihre Ideen und Vorschläge direkt an die Organisation richten, wobei diese nach bestimmten Auswahlverfahren selektiert werden und in das finale Produkt, beziehungsweise den finalen Dienst, einfließen können [Osterwalder et al. 2010].

36

Finanzen:

• Kostenstruktur: Die Kostenstruktur beschreibt die für das Unternehmen relevanten monetären Flüsse unter Berücksichtigung des angewandten Geschäftsmodells. o Klassen von Geschäftsstrukturen:  Kostenorientiert: Dieser Ansatz fokussiert die Minimierung der gesamten Kosten, die sowohl für Forschung, Entwicklung, sowie Vermarktung und Vertrieb anfallen.  Wertorientiert: Bei diesem Ansatz steht die Maximierung des Nutzens für den Kunden und die Hochwertigkeit des Angebots im Vordergrund [Osterwalder et al. 2010]. o Charakteristiken von Kostenstrukturen:  Fixkosten: Diese Kosten sind fixer Bestandteil der Gesamtkosten und fallen in jedem Fall an, um den Betrieb einer Organisation aufrechterhalten zu können.  Variable Kosten: Die variablen Kosten ändern sich abhängig von der Produktionsmenge, beziehungsweise dem investierten Produktionsaufwand, der für die angebotenen Produkte und Dienste anfällt.  Skaleneffekte: Hierbei sinken die Kosten verhältnismäßig, wenn mehr Produkte produziert und vertrieben werden.  Verbundeffekte: Dieser Effekt bezieht sich auf Kostenvorteile, die sich — trotz steigender Produktvielfalt — ergeben, da die Auslastung von Ressourcen, die zur Erbringung des Nutzenversprechens notwendig sind, optimiert werden kann [Osterwalder et al. 2010].  o Einnahmequellen:  Direkt-Verkäufe: Hierbei werden die Nutzungsrechte für einen Dienst oder ein Produkt direkt an den Kunden verkauft und ist im Normalfall mit einmaligen Kosten verbunden.  Nutzungsgebühren: Die Einnahmen werden durch die Inanspruchnahme eines bestimmten Dienstes und einer damit verbundenen Zahlung generiert.

37

 Abonnementgebühren: Einnahmen werden durch die kontinuierliche Inanspruchnahme eines bestimmten Dienstes generiert, wobei Benutzungsverträge zumeist nach einer bestimmten Vertragslaufzeit kündbar, beziehungsweise verlängerbar, sind.  Verleihung/Leasing/Vermietung: Hierbei werden Einnahmen generiert, indem für ein bestimmtes Gut ein exklusiver Zugang für eine im Vorhinein festgelegte limitierte Zeitperiode gewährt wird. Einzig beim Leasing wird, nach Erfüllung der gesamten Zahlungsverpflichtung, die zeitliche Limitierung bezüglich der Nutzungserlaubnis aufgehoben.  Lizenzvergaben: Einnahmen werden durch den Verkauf für Verwendungsberechtigungen geistigen Eigentums generiert.  Vermittlungsgebühren: Hierbei wird Gewinn erwirtschaftet, indem ein Vermittlungsdienst zwischen zwei Parteien angeboten wird.  Werbeanzeigen: Hierbei geht es um Einnahmen, die für das Anzeigen von Werbungen von Dritten verlangt wird [Osterwalder et al. 2010].

3.3.5 Geschäftsmodell Analyse Nachdem auf die theoretischen Aspekte von Big Data-Geschäftsmodellen, sowie auf die wichtigsten Hauptkomponenten eines Business Model Canvas im Detail eingegangen wurde, werden nun einige weiter gefasste Geschäftsfelder, sowie konkrete Geschäftsmodelle analysiert, wobei — je nach Anwendbarkeit — die wichtigsten Punkte eines Business Model Canvas abgehandelt werden. Die Speicherung und Analyse von großen Datenmengen kann branchenübergreifend Wettbewerbsvorteile mit sich bringen, die auch dazu genutzt werden können, in neue Märkte einzudringen. Die logische Konsequenz daraus wird sein, dass vor allem technologisch affine Großunternehmen durch Diversifizierung oder Akquisition aufstrebender kleinerer Unternehmen den Schritt in bestehende Neben- oder Nischenmärkte wagen, wobei das zusätzliche Wissen der eigentlichen Domäne bedeutende Vorteile gegenüber der dort bereits im Vorfeld vertretenen Konkurrenz mit sich bringen wird [Morabito 2015, S.10f].

Im Falle von Einzelhandelsunternehmen wird Big Data in den meisten Fällen lediglich für bereits behandelte Themen, wie zum Beispiel optimierte Online-Marketingkampagnen oder 38

Cross-Selling-Konzepte, eingesetzt. Potentiell wegweisende und innovative Geschäftsmodelle werden auch in diesem Sektor derzeit vorrangig von Technologie-Unternehmen verwirklicht. IBM hat zum Beispiel in Fluid, ein E-Commerce und Omni-Channel Unternehmen, gekauft und arbeitet an der Umsetzung einer virtuellen persönlichen Shopping-Applikation, die auf der von IBM entwickelten Watson-Technologie aufbaut, wodurch eine natürlichsprachliche Interaktion mit der Applikation ermöglicht werden soll [Dignan 2014].

Business Model Canvas Schlüsselpartner Schl üsselaktivitäten Wertangebote Kunden - Kunden - beziehungen segmente Anbieter von Erfassung und Natürlichsprachliche Persönliche Einzelhandels - Daten zur Analyse von Interaktions- Betreuung; unternehmen Optimierung des Sprachdaten; anwendung; mit Online- Algorithmus; Weiterentwicklung Shop; der Applikation;

Schlüsselressourcen Vertriebskanäle Interpretations - Vertriebs - algorithmus; abteilung; Sprachdaten; Mitarbeiter; Kostenstruktur Einnahmequellen F & E; Abonnementsgebühren; Marketing & Vertrieb; Einrichtungsgebühren; Mitarbeiter;

Tabelle 3: IBM-Fluid Interaktionsanwendung

Je nachdem welchen Ansatz IBM hierbei verfolgt, besteht entweder die Möglichkeit die Anwendung an Einzelhandelsunternehmen zu veräußern oder in der Branche selbst Fuß zu fassen und einen Online-Shop anzubieten, wobei die Applikation selbst die Unique Selling Proposition darstellt. Auf Grund der vielfältigen Einsatzmöglichkeiten erscheint es jedoch als sinnvoller, die Anwendung an Dritte zu veräußern und zum Beispiel mittels eines Abonnementmodels Umsätze zu generieren. In Tabelle 3 ist eine mögliche Ausprägung eines derartigen Geschäftsmodells dargestellt.

39

Ein weiteres Beispiel ist Google, die sich mit der Vermittlung von Reisebuchungen eine weitere Einnahmequelle aufbauen. Heutzutage werden bereits 70% der Buchungen von Reisen online durchgeführt, wobei etwa 70-90% der Marketingausgaben von Online-Reiseagenturen direkt an Google fließen. Allein Priceline und Expedia, zwei Anbieter im Tourismussektor, generieren beinahe 5% des gesamten Umsatzes von Google. Google besitzt den wichtigsten Kanal zur Kundenerreichung, und verfügt über das nötige Markt-Know How, qualifizierte Mitarbeiter, geeignete Infrastruktur, sowie einen sehr loyalen Kundenstamm. Daher befindet sich das multinationale Technologieunternehmen in einer sehr guten Ausgangslage, um bereits vertretenen Anbietern, die auf Google als Marketing-Partner angewiesen sind, Marktanteile streitig zu machen.

Business Model Canvas Schlüsselpartner Schl üsselaktivitäten Wertangebote Kunden - Kunden - beziehungen segmente Reiseveranstalter; Erfassung und Vermittlung von Automatisierte Diversifiziert; Analyse von Daten; Reisen; Dienstleistung; Optimierung der Anzeigen;

Schlüsselressourcen Vertriebskanäle Daten; Suchmaschine; Suchmaschine; Buchungs- Mitarbeiter; plattform; Kostenstruktur Einnahmequellen F & E; Buchungsgebühren, bzw. Mitarbeiter; Vermittlungsgebühren; Betrieb der IT-Infrastruktur;

Tabelle 4: Google Reisevermittlung

Auf Grund der immensen Datenmengen, die Google sowohl historisch, als auch beinahe in Echtzeit analysieren kann, hat Google einen Informationsvorsprung, den das Unternehmen nutzen kann, um in den verschiedensten Branchen selbst tätig zu werden [Brumley 2014]. In Tabelle 4 sind die Hauptkomponenten eines solchen Reisevermittlungs-Geschäftsmodells aufgelistet.

40

Allerdings birgt Big Data nicht nur für große Technologieunternehmen besondere Möglichkeiten. Ein neues, sich stetig weiter entwickelndes, Konzept ist jenes der Prosumenten. Hierbei repräsentiert die gleiche Gruppe von Personen sowohl Konsumenten, als auch Produzenten eines Produkts, beziehungsweise eines Dienstes. Ein Beispiel hierfür wären zum Beispiel Plattformen wie Youtube, die zu großen Stücken davon profitiert, dass deren Nutzer eigene Inhalte veröffentlichen, wobei diese Inhalte wiederum den Grund für die Zugriffe auf die Plattform darstellen. In Tabelle 5 ist eine mögliche Ausprägung eines Prosumenten- Geschäftsmodells illustriert.

Business Model Canvas Schlüsselpartner Schl üsselaktivitäten Wertangebote Kunden - Kunden - beziehungen segmente Nutzer; Analyse der Bereitstellung Selbstbedienung; Diversifiziert; Werbende; Nutzerbedürfnisse; der Plattform; Automatisierte Dienstleistung; Weiterentwicklung der Plattform; Schlüsselressourcen Vertriebskanäle Daten & Medien; Plattform; Plattform; Mitarbeiter; Kostenstruktur Einnahmequellen Mitarbeiter; Schaltung von Werbeanzeigen; Betrieb der IT-Infrastruktur;

Tabelle 5: Prosumentenplattform

Ein weiteres Thema das zunehmend an Bedeutung gewinnt, ist die flexible Kombinierbarkeit von modular umgesetzten Diensten, wobei die Module von den Kunden frei zusammengesetzt werden können. Damit derartige Konzepte ordentlich funktionieren können, ist es obligatorisch die Schnittstellen zu standardisieren, um die Kommunikation zwischen den Modulen gewährleisten zu können. Organisationen befassen sich bereits mit der Entwicklung Web- und Cloud-basierter interaktiver Umgebungen, die es den Nutzern ermöglichen Dienste bedarfsgerecht zusammenzusetzen [Morabito 2015, S.11].

41

In bestimmten Wirtschaftszweigen, wie im Bereich der Finanzdienstleistungen sind, ebenfalls durch Big Data, bereits gänzlich neue Geschäftsmodelle entstanden. Beim algorithmischen Handel werden zum Beispiel riesige marktbezogene Datenmengen beinahe in Echtzeit analysiert, wodurch günstige Kaufgelegenheiten direkt aufgezeigt werden können [Bharadwaj et al. 2013].

Business Model Canvas Schlüsselpartner Schl üsselaktivitäten Wertangebote Kunden - Kunden - beziehungen segmente Finanzexperten Analyse von Handels - Persönliche Nischenmärkte ; Marktdaten; empfehlungen Betreuung; Weiterentwicklung des Algorithmus; Schlüsselressourcen Vertriebskanäle Daten; Vertriebs - Mitarbeiter; abteilung; Kostenstruktur Einnahmequellen F & E; Abonnementgebühren oder Mitarbeiter; Nutzungsgebühren; Betrieb der IT-Infrastruktur;

Tabelle 6: Algorithmischer Handel

Damit die Empfehlungen möglichst vertrauenswürdig sind, sollten jedoch die aufbereiteten Daten noch von Domänenexperten bewertet werden, bevor diese an Kunden weitergeleitet werden. Darüber hinaus wäre es ebenfalls empfehlenswert, den Kunden direkte Ansprechpartner zur Verfügung zu stellen, damit Anfragen umgehend und vertraulich behandelt werden können [Hagen et al. 2013, S.3f]. Tabelle 6 gibt eine Übersicht, wie ein derartiges Geschäftsmodell aussehen könnte.

In der Einzelhandelsbranche ermöglichen Big Data Technologien das Kaufverhalten der Kunden ebenfalls beinahe in Echtzeit zu analysieren Dadurch können Verhaltensmuster, sowie eine sich verändernde Nachfrage schnell erkannt und die angebotene Ware, Lagerbestände, sowie Preise angepasst werden, um die Verkaufschancen zu maximieren [Hagen et al. 2013, S.3f]. Big Data kann darüber hinaus auch die Führungsebene bei der Findung von Entscheidungen unterstützen. Jeden Tag werden durch soziale Netzwerke, Cloud Computing,

42

mobile Geräte und das Internet der Dinge große Datenmengen generiert. Während in der Vergangenheit, auf Grund mangelnder Informationen oder unzureichender Informationsqualität, Entscheidungen oftmals basierend auf der Intuition von Führungskräften getroffen wurden, stellen heutzutage die starke Zunahme an Informationen und die erhöhte Konnektivität auch für die Führungsebene eine Vielzahl neuer Herausforderungen sowie Möglichkeiten dar [Bharadwaj et al. 2013].

Die Verbreitung mobiler Geräte hat ebenfalls die Umsetzung kontext-spezifischer Marketing Kommunikation in Echtzeit ermöglicht. Dies betrifft insbesondere Angebote, die sich auf spezifische Standorte, zu bestimmten Zeitpunkten, beziehen und somit auf spezielle Zielgruppen ausgerichtet werden können. Für derartige Zwecke existieren bereits einige Anbieter, jedoch geht das Potential der Anwendungsmöglichkeiten von Big Data in diesem Bereich noch weit über die derzeitig genutzten Möglichkeiten hinaus und das gesamte Potential ist bei weitem noch nicht ausgereizt [Morabito 2015, S.10f]. Auch wenn die soeben behandelten Aktivitäten maßgeblich zum Unternehmenserfolg beitragen können, stellen sie nur eine Unterstützungsfunktion der Hauptgeschäftstätigkeit dar und werden daher nicht mittels eines Business Model Canvas im Detail analysiert.

Big Data wird großen Einfluss auf verschiedenste Branchen ausüben und dazu beitragen, dass neue Bereiche erschlossen werden und damit das wirtschaftliche Wachstum beschleunigen. Geschäftsbereiche setzen sich hierbei aus einer gewissen Zahl an Unternehmen, beziehungsweise Geschäftseinheiten zusammen, deren Aktivitäten zur Wertschöpfung auf den gleichen oder ähnlichen Geschäftsmodellen basieren [Morabito 2015, S.67; Hagen et al. 2013, S.3ff]. Neben privatwirtschaftlichen Unternehmen werden auch staatliche Institutionen durch den Einsatz von Big Data profitieren. Dazu zählen unter anderem die Verbesserung und Erweiterung von angebotenen Bürgerdiensten, die Optimierung von Verwaltungs- und Besteuerungsaufgaben, sowie der Schutz von Bürgern durch bestimmte Waffen- und Schutztechnologien, wie unbemannte Fahr- und Flugzeuge [Hagen et al. 2013, S.3f].

Damit Big Data nicht nur dazu genutzt werden kann, um bestehende Geschäftsmodelle zu optimieren, bedarf es der Kombination mit innovativen Ideen und Konzepten. So könnten zum Beispiel im Bereich der Robotik, dem Internet der Dinge und Smart Homes in Komination mit Big Data-Analysetechniken innovative Lösungen entwickelt werden, die den Menschen das alltägliche Leben erleichtern. Hierbei werden durch Sensoren unterschiedlichste Vorgänge 43

registriert und autonom darauf reagiert, ohne dass eine humane Interaktion notwendig ist [Morabito 2015, S.68f; Feuilherade 2014].

Bei der Umsetzung intelligenter Städte können zum Beispiel Sensoren in alle möglichen Objekte wie Mülltonnen, Wasserleitungen, oder Verkehrsampeln integriert werden, um in Kombination mit künstlicher Intelligenz ein Netzwerk einer selbstverwalteten Städteinfrastruktur zu schaffen. Wobei wiederum große Technologieunternehmen wie IBM, Microsoft und Cisco bei den Ausschreibungen erster Pilotprojekte intelligenter Städte wichtige Rollen spielen werden [Ratti 2014]. Auch die landwirtschaftliche Produktion könnte gänzlich automatisiert, sowie ertragsbezogen optimiert werden. Sogar die Grenze zwischen dem öffentlichen Verkehrssystem und dem Individualverkehr könnte in der nahen Zukunft verschwinden. In Abu Dhabi gibt es zum Beispiel bereits eine Pod-basiertes Transport System in der Innenstadt, welches bedarfsorientiert gesteuert wird [Morabito 2015, S.68f; Feuilherade 2014].

Eine weitere innovative Technologie, die immer mehr an Bedeutung gewinnt, ist der 3D-Druck. Die Fähigkeit digitale Entwürfe automatisiert und präzise physisch umzusetzen, ermöglicht schnelles und effektives Prototyping und stellt speziell bei kleineren Losgrößen eine kostengünstige und flexible Alternative zu konventionellen Produktionsprozessen dar [Morabito 2015, S.135]. Wenn die physischen gedruckten Erzeugnisse einen bestimmten Zweck erfüllen müssen, für die eine möglichst exakte Form ausschlaggebend ist, werden oftmals im Vorfeld aufwendige Big Data-Analysen durchgeführt, um komplexe Digitale Vorlagen auszuarbeiten. Wenn das Design im Vordergrund steht ist es möglich, unstrukturierte Daten sozialer Netzwerke zu analysieren und somit Stimmungen und Feedback bezüglich bestimmter Erzeugnisse einzuholen [Morabito 2015, S.10ff].

Momentan wird 3D-Druck bereits in einer Vielzahl von Bereichen eingesetzt, von Kunstprojekten, dem Bauwesen, über medizinische Prothesen und andere Erzeugnisse, bis hin zu Nahrungsmittelerzeugern und Technologieanbietern — um nur ein paar zu nennen — sind alle möglichen Bereiche vertreten. Auch werden die Geräte, die für den Druck notwendig sind, immer erschwinglicher und je nach Anforderung und Anwendungsgebiet auch kleiner [Morabito 2015, S.10ff]. LIX, ein über Kickstarter finanziertes Projekt, ist zum Beispiel gerade dabei Schreibstifte zu produzieren, die es ermöglichen, 3D-Objekte per Hand zu erzeugen [LIX 2016]. Aber sogar in der Raumfahrttechnik wird Big Data in Kombination mit 3D-Druck 44

genutzt: Zum Beispiel werden bei der Produktion bestimmter Komponenten durch General Electric Big Data Echtzeit-Analysen durchgeführt, um die Qualität der hoch sensiblen und sehr kostspieligen 3D-Druck-Prozesse begleitend überwachen zu können [Morabito 2015, S.68].

Die soeben behandelten Geschäftsmodelle und Konzepte zeigen das große Potential auf, welches mit Big Data einhergeht. Wenn eine Organisation dazu tendiert, deren Geschäftsmodell durch Big Data zu optimieren, beziehungsweise zu erweitern, ist es obligatorisch, im Vorfeld eine sorgfältige Analyse durchzuführen, die die damit verbundenen Herausforderungen und Möglichkeiten offenlegt, bevor eine Entscheidung getroffen wird. Im folgenden Kapitel wird daher ein Vorgehensmodell präsentiert, dass eine abstrahierte Vorgehensweise zur Integration von Big Data in Organisationen beschreibt.

3.4 Vorgehensmodell zur organisationalen Integration von Big Data Durch die Erweiterung eines Geschäftsmodells durch Big Data können Kernprozesse, sowie Unterstützungsfunktionen optimiert, beziehungsweise erst ermöglicht und somit die organisationale Wertschöpfung maximiert werden. Damit festgestellt werden kann, welche Anforderungen erfüllt werden müssen und wie die Vorgehensweise auszusehen hat, ist es besonders wichtig, den Ist-Zustand einer Organisation und dessen Verbindungen zu seiner Umwelt sorgfältig zu untersuchen, sowie die gewünschten Ziele exakt zu definieren. Wird eine derart disruptive Technologie eingeführt, ist es unabdingbar, bereits im Vorfeld alle potentiellen Risiken zu analysieren, um alle Aspekte in eine Entscheidung miteinzubeziehen, sowie gegebenenfalls Präventivmaßnahmen ergreifen zu können [Vossen 2014, S.11].

Zu diesem Zweck bietet sich die Anwendung bestimmter Analyse-Methoden, wie der SWOT- Analyse an, wodurch Stärken, Schwächen, Möglichkeiten und Bedrohungen bezüglich der Einführung von Big Data identifiziert werden können. Auf Basis dieser Informationen ist es möglich, unter Einsatz begrenzter Mittel, bereits im Vorfeld festzustellen, ob die positiven Aspekte, die negativen Punkte überwiegen und mehr Ressourcen investiert werden sollen, um das Integrationsprojekt fortzuführen [Vossen 2014, S.11].

Je nach dem Umfang des Integrationsprojekts und der Komplexität einer Organisation, empfiehlt es sich eine Kontextanalyse durchzuführen, damit alle projektrelevanten Aspekte im Detail untersucht werden können. Bei einem Projekt handelt es sich prinzipiell um ein 45

komplexes sozio-technisches System, das aus einer Vielzahl an Elementen besteht, die in einer wechselseitigen Beziehung zueinander stehen und sich gegenseitig beeinflussen. Das Systemverhalten wird daher im Wesentlichen durch die Eigenschaften und den wechselseitigen Einfluss der Elemente bestimmt. Auf Grund dessen ist ein Verständnis über diesbezügliche Sachverhalte besonders wichtig, um den Verlauf eines Integrationsprojekts zu planen und potentielle Risiken bereits im Vorhinein möglichst weitgehend vermeiden, beziehungsweise mitigieren, zu können [Hagen 2008].

Nach Hagen (2008) zählen zu den Systemelementen eines Projekts alle involvierten Personen, sowie die Gesamtheit der sachlichen, vertraglichen, technischen und rechtlichen Rahmen- bedingungen, sowie allgemeingültiger Aspekte, die das Projekt potentiell direkt oder indirekt beeinflussen. Daher ist es von großer Bedeutung, auch die Bedürfnisse von Kunden und Geschäftspartnern, die Verfügbarkeit benötigter externer Datenquellen, sowie die allgemeine Marktsituation sorgfältig zu analysieren, bevor ein derartig disruptiver Technologiewechsel vollzogen wird. Eine Kontextanalyse kann in drei Betrachtungsdimensionen gegliedert werden, auf die in der folgenden Aufzählung näher eingegangen wird [Hagen 2008]:

• Zeitliche Dimension: Hierbei werden der Zustand und die Aktivitäten einer Organisation sowohl vor, als auch nach der Durchführung eines Projekts betrachtet. Ein wichtiger Punkt ist auch die Analyse und fortlaufende Beobachtung der Veränderungen, die das Projekt herbeigeführt hat [Hagen 2008]. • Sachliche Dimension: Diese Dimension konzentriert sich auf die vorhin beschriebenen Einflussfaktoren und Rahmenbedingung, die das Projekt beeinflussen. Darüber hinaus werden auch Entwicklungen und Trends beobachtet und deren Ursachen analysiert [Hagen 2008]. • Soziale Dimension: Auf der sozialen Ebene wird im Rahmen einer Stakeholder-Analyse untersucht, welche Personen direkt oder indirekt an einem Projekt beteiligt sind und inwiefern welche Personenkreise durch die Durchführung eines Projekts betroffen sind [Hagen 2008].

Im nächsten Schritt finden die spezifischen Planungsschritte der Umsetzung statt. So werden je nach Anforderungen bestimmte Hardware Komponenten oder Cloud-Dienste ausgewählt, sowie entsprechende Software, wie zum Beispiel eine bestimmte Apache Hadoop Implementierung, die für die Verarbeitung von Big Data eingesetzt werden sollen. Sobald alle 46

Anforderungen in angemessener Art und Weise erfüllt sind, kann die tatsächliche Umsetzung durchgeführt werden. Je nach Komplexität des Projekts, sollten Meilensteine festgelegt werden, wobei sowohl während der Durchführung, als auch bei deren Abschluss Monitoring- und Kontrollaufgaben wahrgenommen werden sollten, um den Erreichungsgrad der Ziele stets messen zu können. Darüber hinaus ist es wichtig, dass auch nach dem Abschluss eines Projektes kontinuierliche Kontroll- und Wartungsaktivitäten durchgeführt werden, um die sachgemäße Funktionsweise des Systems gewährleisten zu können [Vossen 2014, S.11f].

Abbildung 3: Integrationsstrategie für Big Data [vgl. Vossen 2014, S. 8]

In Abbildung 3 sind alle eben behandelten Schritte die zur Integration von Big Data in Organisationen nach diesem Vorgehensmodell empfehlenswert sind, noch einmal grafisch abgebildet. Es bleibt hervorzuheben, dass die Verwendung von Big Data auch für Organisationen von großem Wert sein kann, die nicht im IT-Bereich tätig sind.

Die Analyse großer Datenmengen und der Einsatz innovativer Business Intelligence Anwendungen helfen nicht nur dabei, die Vorgänge im Unternehmen selbst besser zu

47

verstehen, sondern auch das Verständnis der Umwelt bedeutend zu vertiefen. Dadurch ist es möglich, besser auf die Bedürfnisse aller Stakeholder einzugehen und damit Wettbewerbsvorteile zu generieren.

4 Technologische Dimension Damit die soeben behandelten Big Data-Geschäftsmodelle und Konzepte auch technologisch umsetzbar sind und das volle Potential aufkommender Business Intelligence-Ansätze genutzt werden kann, sind entsprechende Infrastrukturen und besondere Werkezeuge notwendig. Aus diesem Grund wird in diesem Kapitel näher auf Methoden und Technologien eingegangen, die im Laufe der letzten Jahre — speziell für den Umgang mit Big Data — entwickelt wurden. Insbesondere wenn Daten in derart großen Mengen vorliegen, sodass die lokale oder interne Speicherung und Verarbeitung keine Option mehr darstellen, sind innovative Technologien erforderlich. Daher sind auch herkömmliche Lösungen, bei denen eine zentrale Datenbank im Zentrum steht, in vielen Fällen nicht mehr zweckdienlich. Um dies zu untersuchen, werden erst die Anforderungen für die Big Data-Verarbeitung untersucht und infolgedessen Technologien diskutiert die diese Anforderungen erfüllen und auch operativ in Organisationen im Einsatz sind [Vossen 2014, S. 6; Dumbill 2012]. Nach Vossen (2014) können diese Anforderungen charakterisiert werden, wie folgt:

• Erhebliche Rechenleistung für komplexe Berechnungen; • Skalierbare, verteilte und fehlertolerante Datenverarbeitung, einschließlich temporaler oder wenn erforderlich permanenter Speicherung; • Unterstützung von paralleler Programmierung und bestimmter Verarbeitungsparadigmen, die dazu ausgelegt sind, große Mengen an Daten zu verarbeiten; • Entsprechende Implementierungen und Ausführungsumgebungen für derartige Programmiermodelle und -paradigmen [Vossen 2014, S. 6].

Durch sinkende Hardwarekosten, die Möglichkeit Cloud-Dienste zu nutzen und zunehmend weiter ausgereifter und verbreiteter Open Source Software wird auch Organisationen, denen weniger Ressourcen zur Verfügung stehen, die Nutzung von Big Data zu diversen unternehmerischen Zwecken ermöglicht [Manyika et al. 2011; Dumbill 2012]. In den folgenden Kapiteln wird näher auf die wichtigsten Big Data Technologien, Werkzeuge, sowie 48

spezielle Methoden eingegangen, um diese später im Kontext einer dimensionsübergreifenden Analyse miteinbeziehen zu können.

4.1 Big Data-Techniken und -Werkzeuge In den letzten Jahrzenten wurden unternehmerische Entscheidungen oftmals auf Grund von Transaktionsdaten, die in konventionellen, unternehmensinternen, relationalen Datenbanken gespeichert wurden, getroffen. Big Data bietet hierbei die Möglichkeit, tiefere Einblicke zu erhalten, indem semistrukturierte, sowie unstrukturierte Daten — wie zum Beispiel Weblogs, Beiträge in sozialen Netzwerken, Emails, von Sensoren erfasste Daten und Fotos — ebenfalls analysiert werden können, um daraus relevante Informationen zu extrahieren [Wu et al. 2014].

Bedeutende Business Intelligence Unternehmen, wie IBM, Oracle oder Teradata bieten ihren Kunden bereits Produkte an, um den Zugriff auf derartige Daten und deren Verarbeitung zu vereinfachen. Diese Werkzeuge können Organisationen dabei helfen, Big Data in bestehende, organisationsinterne Daten, sowie Prozesse zu integrieren, um dadurch zuvor verborgene Korrelation aufzuzeigen, sowie im Allgemeinen neue Erkenntnisse aus der aggregierten Datenmenge gewinnen zu können [Wu et al. 2014].

4.1.1 Big Data Mining Big Data Mining kann dabei helfen, essentielle Informationen aus großen Datenmengen zu extrahieren, wodurch wertvolle Einblicke gewonnen und Wissen erzeugt werden kann, um die Rahmenbedingungen für das Finden von Entscheidungen zu optimieren. Bei herkömmlichen Data Mining Systemen wird der Zugriff auf mindestens zwei Ressourcentypen benötigt, nämlich zu den Daten, die analysiert werden sollen, und zu Rechenprozessoren, auf denen die Mining-Aufgaben durchgeführt werden können. Für simple Data Mining Aufgaben kann bereits ein einzelner Desktop Computer ausreichen, um die erwünschten Data Mining Ziele zu erreichen. Daher gibt es auch eine Vielzahl an Algorithmen, die für derartige Problemstellungen optimiert sind [Wu et al. 2014].

Der Data Mining-Vorgang gestaltet sich jedoch deutlich aufwendiger, wenn größere Datenmengen mit komplexerer Struktur vorliegen. Um Daten, die aus verschiedenen Quellen stammen, effizient abfragen und aggregieren zu können, wird oftmals auf parallele Berechnung 49

oder kollektives Mining zurückgegriffen [Wu et al. 2014] . Bei Big Data ist die Durchführeng der Berechnungen auf einem einzelnen System, ungeachtet der Laufzeit, wegen des immensen Datenvolumens oftmals in der Praxis nicht möglich. Angesichts der Komplexität der Berechnungen, die sich auf Grund der Menge an Daten und deren spezieller Struktur ergibt, werden diese in den meisten Fällen auf Hochleistungs-Rechnerclustern ausgeführt und die benötigten Berechnungen parallelisiert ausgeführt. Des Weiteren besteht außerdem in einigen Anwendungsfällen der Bedarf, die Daten beinahe in Echtzeit weiterzuverarbeiten, wodurch die Bedeutung der Systemleistung weiter zunimmt [Wu et al. 2014; Dean & Ghemawat 2004]

Um Big Data Mining auf einem verteilten System zu ermöglichen, werden spezielle Programmiersprachen, wie die Enterprise Control Language (ECL) und bestimmte Werkzeuge, wie MapReduce eingesetzt [Wu et al. 2014]:

• Die Enterprise Control Language ist eine beschreibende, datenzentrierte Programmiersprache, die einem Team von Entwicklern erlaubt, Big Data über Hochleistungs-Rechnercluster zu verarbeiten, wobei von den unteren Schichten abstrahiert wird und somit auch die Tatsache, dass das System verteilt aufgebaut ist, verborgen wird [Yoo & Kaplan 2009]. • Bei MapReduce handelt es sich um ein Programmiermodell, das parallele Berechnungen über große Datenmengen auf Rechnerclustern ermöglicht. Das MapReduce-Verfahren verarbeitet die Daten in drei Phasen, nämlich Map, Shuffle und Reduce. Map und Reduce werden durch den Anwender spezifiziert, wodurch sich die Berechnungen parallelisieren und auf mehrere Rechner verteilen lassen [Dean & Ghemawat 2004; Vossen 2014, S. 8].

Die genaue Funktionsweise der Map-Reduce Berechnung gestaltet sich hierbei, wie folgt: Zuerst werden die Eingangsdaten, die normalerweise aus einem verteilten Dateisystem stammen, in eine bestimmte Anzahl an Datenblöcken unterteilt. Diese Datenblöcke werden dann an Mapping-Aufträge weitergeleitet, die von sogenannten Mapper-Komponenten durchgeführt werden. Die Mapper wandeln die Datenblöcke dann in eine Sequenz von Wert- Schlüssel-Paaren um. Der genaue Prozess der Generierung dieser Wert-Schlüssel-Paare hängt von den Mapping-Funktionen ab, die von den Nutzern selbst programmiert werden können. Die Wert-Schlüssel-Paare, die während des Mapping Vorgangs erzeugt wurden, werden im nächsten Schritt von einer Master-Controller Komponente nach deren Schlüsseln gruppiert. Die 50

Wert-Schlüssel-Paare, die den gleichen Schlüssel aufweisen und somit im vorherigen Schritt gruppiert wurden, werden nun jeweils an die gleiche Reduzierungskomponente übergeben. Die Reduzierungskomponenten kombinieren alle Werte, die mit einem bestimmten Schlüssel verknüpft sind, wobei die Reduzierungsfunktion wiederum von den Nutzern selbst programmiert werden kann [Vossen 2014, S. 8]. In Abbildung 4 ist das Prinzip einer MapReduce Berechnung noch einmal grafisch dargestellt.

Abbildung 4: Prinzip einer MapReduce Berechnung [vgl. Vossen 2014, S. 8]

Die Aufgabe des MapReduce-Algorithmus ist hierbei einzelne Data Mining Tasks, wie die Abfrage einer Datenbank mit Milliarden von Datensätzen, in viele kleinere Aufgaben aufzuteilen, wobei jede dieser Teilaufgaben wiederum auf einem oder mehreren Rechenknoten ausgeführt wird [Wu et al. 2014]. Damit derartig komplexe Berechnungen durchgeführt werden können, ist neben einer leistungsfähigen Infrastruktur, auch entsprechende Software notwendig, die die Verarbeitung derart großer Datenmengen ermöglicht. Wobei im nächsten Kapitel auf eine sehr weit verbreitete Open-Source Lösung eingegangen wird, die auch von namhaften Unternehmen, wie Adobe, IBM, Baidu, Facebook, ImageShack, Yahoo und AOL eingesetzt wird [Apache 2016b; IBM 2016].

4.1.2 Apache Hadoop Apache Hadoop ist ein Open-Source-Framework, welches die rechenintensive Verarbeitung von Big Data, durch Standard-Hardware Komponenten ermöglicht. Das Framework ermöglicht die Verteilung eingehender Datenströme an die einzelnen Knoten verteilter Systeme. Darüber hinaus umfasst das Framework ebenso Werkzeuge zur Analyse und weiteren Verarbeitung 51

dieser Daten [Morabito 2015; Luo et al. 2013; McAfee & Brynjolfsson 2012, S.66]. Die Plattform weist eine hohe Skalierbarkeit auf, wobei die technischen Möglichkeiten von der Bearbeitung durch einen einzelnen Server bis hin zu verteilten Berechnungen auf tausenden Geräten reichen. Des Weiteren ist die Software in der Lage, Fehler auf Applikationsebene zu entdecken und zu beheben, wodurch die Hadoop Plattform eine hohe Fehlertoleranz aufweist und sehr robust ausfällt. Daher sind die Nutzer des Frameworks auch nicht zwingend auf spezifische High-end Hardware Systeme angewiesen und können gegebenenfalls auch fehleranfälligere günstige Komponenten einsetzen [Morabito 2015].

Die Basis des Apache Hadoop Framework setzt sich aus folgenden Modulen zusammen [Apache 2016a]:

• Hadoop Common: Dieses Modul enthält Bibliotheken und Werkzeuge die von anderen Hadoop Modulen benötigt werden. • Hadoop Distributed File System (HDFS): Hierbei handelt es sich um ein verteiltes Datensystem, welches die Daten auf verteilten Systemen speichern und aggregiert eine potentiell sehr hohe Bandbreite über den gesamten Rechnercluster bieten kann. • Hadoop YARN: Diese Komponente kümmert sich um die Verwaltung von Computing- Ressourcen und teilt diese spezifischen Benutzeranwendungen zu. • Hadoop MapReduce: Bei diesem Modul handelt es sich um eine Implementierung des MapReduce Programmiermodells, welches es durch Anwendung eines verteilten Algorithmus ermöglicht, große Datenmengen effizient und parallel zu verarbeiten.

Jedoch bezieht sich der Begriff Hadoop nicht nur auf diese Hauptkomponenten, sondern auch auf die Sammlung zusätzlicher Softwarepakete, die entweder direkt auf dem Hadoop Framework aufsetzen oder nebenläufig integriert werden können [Apache 2016a].

Das Framework basiert prinzipiell auf dem, von Google entwickelten, MapReduce Algorithmus, sowie auf einigen Ansätzen des Google-Dateisystems [Apache 2016b; IBM 2016]. Bei MapReduce handelt es sich — wie bereits behandelt — um ein Programmiermodell, welches parallele Berechnungen über große Datenmengen auf verteilten Systemen ermöglicht. [Dean & Ghemawat 2004]. Allerdings bleibt hervorzuheben, dass der MapReduce-Algorithmus nach und nach durch Ausführungsverfahren, die auf gerichteten azyklischen Graphen basieren,

52

ersetzt wird, da sich diese für die meisten Anwendungsszenarien als effizienter erwiesen haben [Dean & Ghemawat 2004; Vossen 2014, S. 8].

Ausführungsverfahren, die auf gerichteten azyklischen Graphen basieren, ermöglichen es, verteilte Algorithmen effizient auszuführen. Bei einem gerichteten azyklischen Graphen handelt es sich um einen gerichteten Graph, der keine gerichteten Zyklen aufweist. Die modulare Architektur von Hadoop erlaubt hierbei, dass parallele Berechnungen nach diesem Modell ausgeführt werden können, ohne dass sich diese gegenseitig blockieren. In Abbildung 5 ist ein Beispiel für einen derartigen Graph, auf dessen Grundlage die Abarbeitungsreihenfolge von Berechnungen basiert, ersichtlich [Bang-Jensen & Gutin 2008].

Abbildung 5: Gerichteter azyklischer Graph [vgl. Bang-Jensen & Gutin 2008]

Da die Ausführung komplexer verteilter Algorithmen und die Speicherung derartig großer Daten mit sehr hohen Ressourcenkosten verbunden ist, entscheiden sich Organisationen zunehmend öfter zu dem Outsourcing dieser Aufgaben. Ein sehr weit verbreiteter Ansatz, sowohl für die ausgelagerte Speicherung, als auch für die Verarbeitung von Daten, stellt hierbei die Nutzung von Cloud Computing Dienstleistungen dar, auf die im nächsten Kapitel näher eingegangen wird [Vossen 2014, S. 7f].

53

4.2 Cloud Computing Cloud Computing beschreibt die Zurverfügungstellung von Ressourcen, die über das Netz zugänglich sind. Zu diesen Ressourcen zählen unter anderem Speicher, Netze und Rechner, sowie Entwicklungs- oder Laufzeitumgebungen, sowie nutzungsbereite Software. Das National Institute for Standards and Technology, kurz NIST, definiert Cloud Sourcing als die Nutzung von IT-Ressourcen eines Cloud Service Providers, welche durch die folgenden fünf Eigenschaften charakterisiert werden kann [Vossen 2014, S. 7f; Mell & Grance 2011, S.6]:

• On-Demand-Self-Service: Nutzer haben die Möglichkeit, benötigte Ressourcen automatisiert in Anspruch zu nehmen, ohne der Notwendigkeit einer zwischenmenschlichen Interaktion mit dem Provider [Mell & Grance 2011, S.6]. • Broad network access: Die Ressourcen werden über das Netzwerk zugänglich gemacht und können über standardisierte Schnittstellen erreicht werden. Wobei dadurch die homogene Nutzung sowohl durch Thin-, als auch durch Thick-Client-Plattformen gefördert wird [Mell & Grance 2011, S.6]. • Ressource Pooling: Die Ressourcen des Anbieters werden zusammengelegt, um mehrere Nutzer mittels eines „Multi-Tenant“-Modells zu bedienen. Je nach dem Bedarf der Nutzer, werden sowohl physische, als auch virtuelle Ressourcen dynamisch verteilt und zugewiesen. Es herrscht eine gewisse Standortunabhängigkeit vor, wobei Nutzer im Normalfall über keine Kontrolle oder Wissen bezüglich dem exakten Ort der angebotenen Ressourcen verfügen. Allerdings ist es den Kunden zum Teil möglich, den Ort der Ressourcen auf einer höheren Abstraktionsebene, wie zum Beispiel in geographischer Hinsicht oder der Eingrenzung auf ein spezifisches Rechenzentrum, zu bestimmen [Mell & Grance 2011, S.6]. • Rapid Elasticity: Ressourcen können schnell freigegeben und bereitgestellt werden. Dies kann komplett automatisiert erfolgen, wobei bedarfsgerecht die zugewiesene Leistung rapide skaliert werden kann, um Engpässe der Ressourcen für die Kunden zu vermeiden. Die Bedingungen und Verpflichtungen in Bezug auf die Ressourcennutzung werden in Dienstgütevereinbarungen festgelegt. Hierbei sind die Limitierungen zumeist so ausgelegt, dass auch bei intensiver Nutzung zumeist genügend Reserven verfügbar sind [Mell & Grance 2011, S.6].

54

• Measured Service: Cloud-Systeme kontrollieren und optimieren die Ressourcen- nutzung, indem bestimmte Messtechniken, auf einer gewissen Abstraktionsebene, die für die Anforderungen des angebotenen Dienstes angemessen ist, zum Einsatz kommen. Die Ressourcennutzung kann dadurch überwacht, kontrolliert und in Berichten zusammengefasst werden, um die in Anspruch genommenen Dienste sowohl für die Nutzer, als auch für die Anbieter transparent offenlegen zu können [Mell & Grance 2011, S.6].

Cloud Provider bieten für die unterschiedlichen Anforderungen der Nutzer verschiedene Cloud- Service-Modelle an, wobei diese sich vor allem durch den Outsourcing-Grad unterscheiden. Dies sind die verschiedenen Ausprägungen angebotener Cloud-Service-Modelle:

• Software as a Service (SaaS): In diesem Fall bietet der Dienstleister den Nutzern Applikationen an, die auf deren Cloud-Infrastruktur betrieben werden. Der Zugriff auf die Applikationen kann durch verschiedene Client-Endbenutzergeräte erfolgen, wobei dieser entweder durch einen Thin-Client, wie zum Beispiel einem Webbrowser, oder durch eine Programmschnittstelle realisiert werden kann. Die Nutzer haben im Grunde bei diesem Modell keine Kontrolle über die darunterliegende Infrastruktur der Cloud, in manchen Fällen ist es jedoch möglich, spezifische Einstellungen an der Applikation selbst vorzunehmen [Mell & Grance 2011, S.6]. • Platform as a Service (PaaS): Bei dieser Option ist es dem Nutzer möglich, eigens erstellte oder von Dritten erworbene Applikationen zu betreiben, die auf Programmiersprachen, Bibliotheken, Dienste und Werkzeuge zurückgreifen, die vom Cloud-Anbieter unterstützt werden. Die Nutzer haben hierbei ebenfalls keine Kontrolle über die darunterliegende Cloud-Infrastruktur, es ist jedoch möglich die installierten Anwendungen zu verwalten und zum Teil können Konfigurationseinstellungen an der Hosting-Umgebung der Applikationen vorgenommen werden [Mell & Grance 2011, S.6f]. • Infrastructure as a Service (IaaS): Dieses Service-Modell stellt den Nutzern Verarbeitungs-, Netzwerk, Speicher- und andere grundlegende EDV-Ressourcen zur Verfügung, auf denen die Nutzer eigenmächtig Software installieren und betreiben können. Die Nutzer haben wiederum keine direkte Kontrolle über die darunterliegende Cloud-Infrastruktur, können jedoch die Betriebssysteme, den Speicher und installierte 55

Anwendungen verwalten. Des Weiteren ist es in manchen Fällen möglich, eine eingeschränkte Kontrolle über die Netzwerkkomponenten zu erhalten [Mell & Grance 2011, S.7].

Nach Mell & Grance (2011) gibt es neben den Service-Modellen auch verschiedene Implementierungsmodelle, die von Cloud Providern angeboten werden, auf die in der folgenden Aufzählung näher eingegangen wird:

• Private Cloud: Bei einer Private Cloud wird die Infrastruktur exklusiv für eine einzelne Organisation bereitgestellt, die wiederum mehrere Nutzer und Nutzergruppen umfasst. Die Cloud kann entweder von der Organisation selbst oder einem externen Anbieter betrieben werden, wobei auch Mischformen möglich sind. Des Weiteren kann die Infrastruktur sowohl innerhalb, als auch außerhalb des Betriebsgeländes betrieben werden [Mell & Grance 2011, S.7]. • Community Cloud: Im Falle einer Community Cloud wird die Cloud-Infrastruktur exklusiv für bestimmte Gemeinschaften von Nutzern, verschiedener Organisationen freigegeben, die an der Lösung eines gemeinsamen Problems beteiligt sind [Mell & Grance 2011, S.7]. • Public Cloud: Bei dieser Form ist die Cloud offen konzipiert und für den Gebrauch der breiten Öffentlichkeit ausgelegt. Die Cloud selbst kann sich im Besitz von wirtschaftlichen, akademischen oder staatlichen Einrichtungen befinden, wobei auch hier wiederum Mischformen möglich sind. Außerdem wird die Cloud auch von eben dieser Entität, beziehungsweise diesen Entitäten, verwaltet und betrieben [Mell & Grance 2011, S.7]. • Hybrid Cloud: Dieses Implementierungs-Modell ist eine Kombination aus zumindest zwei der eben beschriebenen Cloud-Infrastrukturen, nämlich Private, Community und Public Clouds. Dabei arbeiten die jeweiligen Cloud-Infrastrukturen jedoch als getrennte Einheiten, die über standardisierte oder proprietäre Technologien miteinander verbunden sind, wodurch die Portabilität der Daten, sowie der Applikationen ermöglicht wird [Mell & Grance 2011, S.7].

Zumeist basieren die Systeme der Cloud-Provider auf Standard-Hardware, wobei die Zielsetzung darauf ausgerichtet ist, durch eine hohe Anzahl an Komponenten, leistungsfähige

56

verteilte Systeme, möglichst wirtschaftlich aufzubauen. Dabei werden oftmals konventionelle Prozessoren über das Ethernet oder preiswerte Switches verbunden, in Clustern angeordnet und in Rechenzentren repliziert [Vossen 2014, S. 7]. Nachdem nun die verschiedenen Ausprägungen von Cloud Computing beschrieben wurden, wird im nächsten Kapitel näher auf die speziellen Herausforderungen eingegangen, die im Speziellen im Zusammenhang mit verteilten Datenbanksystemen zu berücksichtigen sind.

4.3 Datenbanken/Speicherung Datenbanken, die nicht auf relationalen Tabellen aufbauen, existieren bereits seit den späten 1960er Jahren. Mit dem Aufkommen von Web 2.0 und der damit verbundenen zunehmenden Menge unstrukturierter Daten, steigerte sich die Nachfrage nach flexibleren Datenbanken maßgeblich und die Überbegriffe „NoSQL“, beziehungsweise „Relational+“ wurden für Datenbanken entwickelt, die es ermöglichen, skalierbare, weit verteilte und fehlertolerante, performante Anwendungen zu realisieren, allerdings müssen dadurch zum Teil Kompromisse bezüglich der durchgängigen Konsistenz der Daten eingegangen werden [Mohan 2013; Hagen 2013, S. 3]. Hierbei gibt es verschiedene Lösungsansätze, deren Konzepte, inklusive einiger Beispiele, der folgenden Liste entnommen werden können:

• Die Speicherung von Wert-Schlüssel-Paaren, wie zum Beispiel in den Implementierungen von Amazon’s SimpleDB, Dynamo oder LinkedIn’s Voldemort; • Column Stores, wie Google‘s , Apache’s Hbase, Cassandra oder Yahoo’s PNUTS; • Dokument-Datenbanken, wie MongoDB oder Couchbase; • Graph Datenbanken, wie Neo4J oder Allegro; • „NewSQL“ Datenbanken, wie Clustrix, NuoDB, VoltDB und das von Google entwickelte , die über die Skalierbarkeit von „NoSQL“ hinaus, allesamt zusätzlich verlässliche Transaktionen garantieren [Vossen 2014, S. 6].

Wenn es nicht mehr länger ausreicht die Daten nur lokal zu speichern, bieten sich, die bereits diskutierten, Cloud-Lösungen als Erweiterung oder Ersatz der lokalen, beziehungsweise internen Ressourcen an [Vossen 2014, S. 6]. Damit eine hohe Verfügbarkeit gewährleistet

57

werden kann, ist es besonders bei großen Datenmengen, wie bei der Verarbeitung von Big Data, obligatorisch verteilte Systeme einzusetzen.

Der Einsatz von verteilten Datenbanksystemen bringt jedoch auch eine Vielzahl an Herausforderungen mit sich. Je nach Zielausrichtung des Systems müssen gewisse Kompromisse eingegangen werden. Diese werden im folgenden Abschnitt diskutiert:

4.3.1 Herausforderungen verteilter Datenbanksysteme Mittels der Replikation homogener Teilsysteme ist es möglich, das gesamte System redundant aufzubauen, wodurch die Datenverarbeitung verlässlicher und fehlertoleranter gestaltet werden kann. Die Systemredundanz ermöglicht, selbst bei Ausfällen von Netzknoten, Anfragen dennoch zu beantworten, wodurch die Verfügbarkeit eines Systems drastisch erhöht und das Risiko von Datenverlusten minimiert werden kann. Die Umsetzung kann entweder als verteiltes Dateisystem, wie es bei dem „Hadoop Distributed File System“ (HDFS) der Fall ist, oder in Form einer global verteilten Datenbank, wie bei dem von Google entwickelten „Spanner“, erfolgen [Vossen 2014, S. 7f].

Neben Aspekten der Fehlertoleranz und der Verfügbarkeit, kann durch verteilte Systeme ebenfalls die parallele Verarbeitung effizienter gestaltet werden, speziell wenn es sich um abgrenzbare Teilmengen der Daten und aufteilbare Berechnungen handelt. Die Partitionierung eines Systems stellt hierbei den algorithmischen Schlüssel zur Verarbeitung und Verwaltung großer Datenmengen dar. Die Daten werden in voneinander unabhängige Partitionen unterteilt, wodurch Parallelisierungsmechanismen genutzt werden können, um komplexe Probleme in Teilschritten, auf voneinander unabhängiger Hardware, zu lösen. Diese Vorgehensweise basiert auf der Grundidee, des von Google entwickelten, MapReduce Algorithmus, welcher bereits im Detail betrachtet wurde. Bei einer Partitionierung des Systems sind die Daten auch oftmals über verschiedene Server-Cluster, beziehungsweise sogar über geographisch voneinander getrennte Datencenter verteilt [Vossen 2014, S. 7].

Das Datenmanagement in verteilten Datensystemen birgt spezielle Herausforderungen. Erstens gilt es, die Balance zwischen Konsistenz und Verfügbarkeit der Daten zu halten. Zweitens ist es wichtig, dass die Zuweisung der Ressourcen stets dynamisch angepasst und dabei das Aufkommen von Partitionierungsfehlern vermieden, beziehungsweise minimiert werden kann.

58

Die Konsistenz der Daten in verteilten Systemen zu jedem Zeitpunkt zu gewährleisten, ist eine sehr komplexe Aufgabe. Einerseits fallen durch das stetige Propagieren aktualisierter Datensätze sehr hohe Übertragungskosten an. Andererseits liegt es in der Natur verteilter Systeme, dass diese sowohl in Bezug auf die Software-, als auch bezüglich der Hardwarekomponenten sehr fehleranfällig sind. Da allerdings nicht jede Applikation, die in einem verteilten System, oder in einer Cloud, betrieben wird, durchgehend voll konsistente Daten, im Sinne der Serialisierbarkeit, benötigt, ist eine sogenannte schwache Konsistenz oftmals ausreichend. Bei dem Konzept der schwachen Konsistenz werden daher auch keinerlei Garantien bezüglich der durchgehenden Konsistenz der Daten abgegeben [Vossen 2014, S. 7f].

Das „CAP Theorem“ beruht auf einer Feststellung von Eric Brewer (2000) und wurde später in einer wissenschaftlichen Arbeit von Gilbert & Lynch (2002) nochmals bekräftigt. Das Theorem besagt, dass von den Aspekten Konsistenz, Verfügbarkeit und Partitionstoleranz jeweils nur zwei Eigenschaften gleichzeitig erfüllt werden können. Da es in einem Netzwerk, in dem Kommunikationsfehler auftreten können, für Webservices unmöglich ist, atomare Lese- und Schreiboperationen durchzuführen und gleichzeitig jede Anfrage garantiert zu beantworten [Gilbert & Lynch 2002, S.3]. Im Folgenden werden diese Eigenschaften näher beschrieben und daraufhin die möglichen Ausprägungen von verteilten Systemen analysiert:

Konsistenz (Consistency) Die Konsistenz eines verteilten Systems beschreibt die Wertgleichheit der Daten auf allen Knoten des Systems. Dies erfordert eine atomare Durchführung aller Operationen am System, sowie eine simultane Verteilung veränderter Datensätze an alle Knoten, die ein Teil des Systems sind, sodass alle Knoten bei Anfragen stets die gleichen Werte zurückgeben [Erb 2012; Gilbert & Lynch 2002, S.2].

Verfügbarkeit (Availability) Die Verfügbarkeit bezieht sich auf die Eigenschaft eines Systems, auch im Falle von Systemfehlern, beziehungsweise dem Ausfall gesamter Netzknoten, letztendlich jede Anfrage beantworten zu können. Dies gilt sowohl für Schreib-, als auch für Leseoperationen. In der Praxis werden zumeist maximale Zeitfenster, in denen die Antworten zu erfolgen haben, 59

definiert. Wobei Gilbert und Lynch die Gültigkeit des CAP Theorems auch für zeitlich ungebundenes Antwortverhalten bestätigt haben [Erb 2012; Gilbert & Lynch 2002, S.2].

Partitionstoleranz (Partition Tolerance) Die Partitionstoleranz beschreibt die Ausfalltoleranz in Bezug auf das System selbst. Hierbei ist wichtig, dass das System auch bei Verlust von Nachrichten, einzelnen Netzknoten oder Partitionen fehlerfrei weiterläuft und in seiner Funktionsweise nicht eingeschränkt wird. Dies hat auch einen direkten Einfluss auf die Verfügbarkeit und die Konsistenz eines Systems. Ein konsistentes System muss in der Lage sein, mit verlorenen Nachrichten umzugehen. Um die vollständige Verfügbarkeit eines Systems gewährleisten zu können, muss wiederum jeder Netzknoten, beziehungsweise eine redundante Kopie dieses Knotens, zu jedem Zeitpunkt verfügbar sein, damit alle potentiell eingehenden Anfragen beantwortet werden können [Erb 2012; Gilbert & Lynch 2002, S.2].

Wenn die zeitliche Latenz, die beim Schreiben eines neuen Wertes und dessen Propagierung an alle Netzknoten anfällt, als Partitionierung in einem zeitlichen Kontext angesehen wird, so kann in diesem Zeitraum nur entweder eine hohe Verfügbarkeit oder eine durchgängige Konsistenz erreicht werden. Dies lässt nach Messinger (2013) zwei Fälle zu:

• Systeme, die Lesezugriffe zulassen, bevor aktualisierte Werte an alle Netzknoten propagiert wurden, bieten eine hohe Verfügbarkeit [Messinger 2013]. • Systeme, die alle betroffenen Netzknoten während eines Schreibvorganges und der Propagierung des aktualisierten Wertes sperren, gewährleisten eine durchgängige Konsistenz [Messinger 2013].

Da, wie erörtert, nur zwei der eben beschriebenen Aspekte Konsistenz, Verfügbarkeit und Partitionstoleranz gleichzeitig erfüllt werden können, gibt es drei abgrenzbare Systemausprägungen, die in Abbildung 6 ersichtlich sind [Erb 2012].

60

Abbildung 6: Systemausprägungen nach dem CAP Theorem [vgl. Erb 2012]

Diese drei Ausprägungen weisen nach Erb (2012) signifikant unterschiedliche Eigenschaften auf, die im Folgenden näher beschrieben werden:

Consistency-Availability (CA) Bei diesem Ansatz wird die hohe Verfügbarkeit und die Konsistenz aller Netzknoten angestrebt. Da derartige Systeme auf hochverfügbaren Netzwerken und Servern aufbauen, ist es nicht zwingend notwendig, Partitionierungen effizient verwalten zu können. Ein weit verbreitetes Beispiel hierfür sind konventionelle Relationale Datenbankmanagementsysteme (RDBMS), wobei vor allem die Konsistenz der Daten hierbei einen besonders hohen Stellenwert einnimmt. Die Replikation ist ein bedeutender Faktor, um eine hohe Verfügbarkeit gewährleisten zu können und spezifische Protokolle, wie das Zwei-Phasen-Commit-Protokoll, werden angewandt, um die Konsistenz der Daten sicherzustellen [Erb 2012].

Die Unterteilung in Partitionen würde, auf Grund deren Isolation, in konfliktären Replikaten resultieren. Um dies vermeiden zu können, wäre ein Protokoll notwendig, welches die Partitionen aufeinander abstimmt und die Beantwortung von Anfragen verzögert, während ein partitionsübergreifender inkonsistenter Zustand besteht. Somit wäre in diesem Fall allerdings auch der Aspekt einer hohen Verfügbarkeit nicht mehr gegeben [Erb 2012]. 61

Consistency-Partition Tolerance Bei dieser Ausprägung, die auch als erzwungene Konsistenz bezeichnet wird, wird die Konsistenz der Daten gewährleistet, sowie darüber hinaus die Aufteilung in verschiedene Partitionen unterstützt. Allerdings können Netzknoten nicht auf Anfragen antworten, solange kein Konsens mit den anderen Knoten hergestellt wurde. Netzknoten sind in einem derartigen Zustand nicht in der Lage, Anfragen zu bearbeiten und sind somit potentiell temporär unerreichbar. Dadurch verletzt diese Konstellation wiederum Aspekte der durchgängigen Verfügbarkeit [Erb 2012].

In der Praxis wird dieser Ansatz verfolgt, wenn die Konsistenz der Daten oberste Priorität hat und der Nutzen eines Systems auf einer verteilten Architektur basiert. Dies gilt zum Beispiel für viele Anwendungen im Bereich von Finanzdienstleistern, wobei die Erhaltung konsistenter Datenzustände, selbst bei Störungen im Datenverkehr, obligatorisch ist. Die Verfügbarkeit der Dienste ist ein untergeordnetes Ziel, da fehlerhafte Transaktionen in jedem Fall zu vermeiden sind. Datenbanksysteme die auf diesem Ansatz aufbauen, basieren oftmals auf relationalen Datenbanksystemen. Um konsistente Zustände, selbst im Falle von Netzwerkfehlern, garantieren zu können, werden komplexe Algorithmen, wie das Paxos Protkoll, benötigt. Bei derartigen Algorithmen wird, im Falle inkonsistenter Datenzustände, ein konsistenter Zustand auf der Basis von mehrheitsbasierten Entscheidungen gewählt und an alle Netzknoten propagiert [Erb 2012].

Availability-Partition Tolerance Dieser Ansatz verfolgt eine hohe Verfügbarkeit und erlaubt gleichzeitig die Aufteilung in Partitionen. Jedoch kann dies dazu führen, dass erreichbare Netzknoten, zumindest temporär, einen inkonsistenten Zustand aufweisen. Dieser spezielle Kompromiss, der in Bezug auf die Konsistenz der Daten eingegangen wird, wird auch als eventuelle Konsistenz bezeichnet [Erb 2012]. Die eventuelle Konsistenz besagt, dass alle Daten eines Systems konsistent sein können, wenn einerseits über einen hinreichend langen Zeitraum keine Schreibvorgänge durchgeführt werden und andererseits keine Systemfehler auftreten. In diesem Zeitraum erreichen alle

62

Änderungen die betroffenen Datensätze, die noch im System sind, also bis dahin noch nicht gelöscht wurden. [Vossen 2014, S. 7f].

Auch wenn inkonsistente Daten nicht erstrebenswert wirken, so gibt es doch eine Vielzahl an Anwendungen, bei denen eine hohe Verfügbarkeit ein wesentlicher Aspekt des Leistungsversprechens ist und latente Datensätze verkraftbar sind. Jedoch muss die potentielle Inkonsistenz der Daten bereits während der Entwicklung berücksichtigt werden. Derartige Implementierungen kommen unter anderem bei DNS oder Web Caches zum Einsatz, bei denen veraltete Daten, bis zu einem gewissen Grad akzeptabel sind [Erb 2012]. Ein weiteres Einsatzgebiet stellt diesbezüglich das Cloud Computing dar. Cloud-Plattformen basieren oftmals auf einer Vielzahl kostengünstiger Komponenten, die nicht unbedingt ausfallssicher sind. Aufgrund dessen ist es notwendig, dass der Ausfall einzelner Netzknoten die Funktionsweise des gesamten Systems nicht einschränkt. Des Weiteren wird in den meisten Fällen auch eine hohe Verfügbarkeit gefordert, wodurch Cloud-Anwendungen, zumindest zu großen Teilen, oftmals ebenfalls in diese Kategorie fallen [Brewer 2012].

Nach wie vor werden in sehr vielen Fällen noch relationale Datenbankmanagementsysteme eingesetzt [Erb 2012]. Eine weitere Möglichkeit, die auch in Kombination mit Cloud Services genutzt werden kann, stellt ein Stream zu Datenverarbeitungssystemen dar, die keine nennenswerten lokalen Speicher benötigen, um große Datenmengen zu verarbeiten [Vossen 2014, S. 6]. Im folgenden Kapitel wird auf eben diese Datenstream-Managementsysteme näher eingegangen.

4.3.2 Datenstream-Managementsysteme Bei traditionellen Datenbank-Managementsystemen, kurz DBMS, werden die Daten in Tabellen, beziehungsweise Relationen, verwaltet. Abfragen können direkt an das System geschickt werden, wobei sowohl die Berechnung selbst, als auch die Produktion des Ergebnisses für jede Abfrage einzeln durchgeführt werden. Die Daten sind permanent gespeichert und werden, wenn benötigt, für die Berechnungen in den Cache geladen, welcher daraufhin wieder geleert, beziehungsweise überschrieben, werden kann [Vossen 2014, S. 6f; Carney et al. 2004].

63

Ein Datenstream-Managementsystem, kurz DSMS, muss darüber hinaus noch mit Datenstreams umgehen können und auf diesen Streams fortlaufende Abfragen ausführen. Die Daten werden hierbei nicht für längere Zeiträume gespeichert. Der konzeptuelle Unterschied zwischen herkömmlichen Datenbanksystemen und einem Datenstream-Managementsystem bezüglich der Verarbeitung von Daten ist in Abbildung 7 illustriert [Vossen 2014, S. 6; Carney et al. 2004].

Wie in Abbildung 7 ersichtlich, sind bei einem Datenstream-Managementsystem auch mehrere, gleichzeitig eingehende Datenströme möglich. Die Ausgangsströme stellen die relevanten Informationen dar, die durch die Abarbeitung der Nutzeranfragen ermittelt werden. Diese Ströme können je nach Anwendungsfall nun temporär oder längerfristig gesichert werden, oder verfallen — im Falle von Echtzeit-Anwendungen — nach deren Verwertung. Außerdem bleibt anzumerken, dass bei Aktualisierungen von Datenstream-Managementsystemen die gespeicherten Anfragen neu abgestimmt werden, wohingegen bei DBMS-Aktualisierungen in erster Linie neue oder aktualisierte Daten eingepflegt werden.

Abbildung 7: Datenverarbeitung in einem DBMS (a) und in einem DSMS (b) [vgl. Carney et al. 2004]. 64

In Tabelle 7 werden die Merkmale eines herkömmlichen Datenbank-Managementsystems und eines Datenstream-Managementsystems gegenübergestellt und verglichen:

Merkmale Datenbank-Managementsystem Datenstream- (DBMS) Managementsystems (DSMS) Datenbasis persistente Datenspeicherung flüchtige Datenstreams Zugriff direkter Zugriff sequentieller Zugriff Abfragen einmalige Abfragen kontinuierliche Abfragen Speicherart (theoretisch) unbeschränkter beschränkter Hauptspeicher Sekundärspeicher Relevanz der Daten Nur der aktuelle Zustand Berücksichtigung der Eingangsreihenfolge Update-Rate Eher niedrig Teils extrem hoch Zeitanforderungen Keine oder gering Echtzeit Datenstruktur Semi- und unstrukturierte strukturiert Daten

Tabelle 7: Vergleich der Merkmale eines DBMS und eines DSMS [vgl. Carney et al. 2004].

Wie bereits behandelt, muss ein Datenstream-Managementsystem mit Datenströmen umgehen können. Datenströme sind im Prinzip eine kontinuierlicher Folge von Zeit-Wertepaaren. Da Streams, im Normalfall, kein im Vorhinein definiertes Ende haben, werden diese vorübergehend in Relationen umgewandelt, um verarbeitet werden zu können. Genauso ist es umgekehrt möglich, diese Relationen wieder in Datenströme zurück zu wandeln. Die in Relationen umgewandelten Daten können hierbei mit den gleichen Methoden verarbeitet werden, die auch auf konventionelle Datenbanksysteme angewandt werden [Carney et al. 2004]. Der prinzipielle Aufbau eines Datenstream-Managementsystem ist in Abbildung 8 ersichtlich.

Da die Daten flüchtig sind, kann der Abfrageprozessor nur Abfragen abarbeiten, die bereits im Vorhinein registriert wurden. Auf Basis der Daten, die im jeweiligen Zeitfenster verfügbar sind, werden die Resultate berechnet und zurückgegeben. Oftmals werden die Abfragen jedoch mit Daten die in einem lokalen Speicher, beziehungsweise sogar in konventionellen 65

Datenbanksystemen gespeichert sind, komplettiert. Die Fähigkeit Daten zu verarbeiten, die nur als Stream verfügbar sind und einer hohen Aktualisierungsfrequenz unterliegen, wie dies bei den Messungen vieler Sensorsysteme der Fall ist, erfordert eine bestimmte Rechenleistung. Auf Grund der sich stetig weiter entwickelnden Hardware und den dafür anfallenden, kontinuierlich sinkenden Kosten, stellt dieser Aspekt jedoch kein allzu großes Problem mehr dar. Alternativ zur Nutzung eigener Infrastruktur, besteht auch wiederum die Möglichkeit spezielle Cloud- Dienste externer Anbieter in Anspruch zu nehmen [Vossen 2014, S. 7].

Abbildung 8: Aufbau eines Datenstream-Managementsystems [vgl. Carney et al. 2004].

Die Abfragen für Datenstream-Managementsysteme werden, wie bei herkömmlichen Datenbanksystemen, in einer deklarativen Sprache definiert, wobei deren Ausführung mittels eines Abfrageplans geregelt und optimiert wird. Gespeicherte Teilabfragen werden kombiniert, um Teilergebnisse mehrfach zu nutzen und somit möglichst viele Anfragen effizient und simultan abarbeiten zu können. Ein Abfrageplan enthält Operatoren, Warteschlangen und Zustände. Die Operatoren dienen unter anderem der Filterung, der Sortierung, der Verknüpfung, der Durchführung mathematischer Berechnungen, sowie der Ein- und Ausgabe von Datenströmen. Datenobjekte werden sequentiell in die Warteschlange geschrieben, wobei von den Operatoren, in einer im Abfrageplan definierten Reihenfolge, darauf zugegriffen und die Daten ausgelesen werden. Die Zwischenergebnisse werden als Zustände temporär 66

gespeichert und in den weiteren Schritten mit den neuen Zwischenergebnissen wieder überschrieben, so lange bis das Endergebnis berechnet wurde [Carney et al. 2004].

Zur technologischen Dimension lässt sich abschließend sagen, dass ungeachtet der im Einsatz befindlichen IT-Systeme, sich eine deutliche Tendenz zur zunehmenden Auslagerung sowohl von Datenverarbeitungs-, als auch von Datenspeicherungsaufgaben erkennen lässt. Hierbei übernehmen einerseits Dienstleistungsunternehmen, die auf die Verarbeitung großer Datenmengen spezialisiert sind und andererseits die vielen Endgeräte der Nutzer selbst, eine wichtige Rolle. Durch diese Entwicklung wird auch vielen kleineren Unternehmen ermöglicht, innovative, komplexe Applikationen anzubieten, ohne im Vorfeld hohe Investitionen tätigen zu müssen. Doch nicht nur die Speicherung und Verarbeitung großer Datenmengen stellen große Herausforderung im Umgang mit Big Data dar. Es existiert auch eine Vielzahl rechtlicher Aspekte, die berücksichtigt werden müssen, damit eine Organisation sich langfristig etablieren.

5 Rechtliche Dimension Nach Cavanillas et al. (2016) ist die Definion von Richtlinien für den Austausch und die gemeinsame Nutzung von Daten zwischen Behörden, sowie auch zwischen privatwirtschaftlichen Organisationen ein zentraler Faktor, um das volle Potential von Big Data ausschöpfen und dabei gleichzeitig die Bürgerrechte wahren zu können. Da sich die rechtlichen Grundlagen jedes Landes unterscheiden, gilt es für das Wohl der Gesamtheit, gemeinsame Rahmenbedingungen zu schaffen, um weltweit kooperieren und in den unterschiedlichsten Bereichen gemeinsam effizienter arbeiten und forschen zu können. Vor allem in einigen Forschungsgebieten, wie zum Beispiel der Medizin, können das Teilen von Daten und die gemeinschaftliche Forschung das Leben vieler Personen nachhaltig verbessern und in bestimmten Fällen sogar lebensrettend wirken. Doch speziell in Bereichen wie diesem, sind personenbezogene Daten sehr sensibel und müssen sorgfältig behandelt werden. Auch wenn Datensätze anonymisiert werden, muss darauf geachtet werden, dass diese nicht durch die Kombination unterschiedlicher Datensätze auf eine bestimmte Person rückführbar sind, um die Privatsphäre des Einzelnen zu wahren [Cavanillas et al. 2016].

Darüber hinaus ist es wichtig, dass Bürger sowohl über die Möglichkeiten, als auch über die Risiken bezüglich ihrer Privatsphäre und Sicherheit, die mit Big Data und der Analyse und

67

Speicherung ihrer Daten im Allgemeinen, einhergehen, genau informiert werden. In dieser Frage erscheint es notwendig, Bürgern in irgendeiner Form ein Wahlrecht einzuräumen, inwiefern staatlich erhobene Daten genutzt werden dürfen. Falls jeder Person das Recht zu einer individuellen Verwendungsbestimmung eingeräumt werden würde, wäre jedoch auch das bereits behandelte Problem der Selektionsverzerrung bei der Datenauswertung für bestimmte Forschungsprojekte zu berücksichtigen. Cavanillas et al. (2016) zu Folge, wird Big Data auch die Beziehung zwischen den Bürgern und dem Staat nachhaltig verändern. Indem die Bürger, auf Grund einer erhöhten Transparenz, ein tieferes Verständnis bezüglich politischer und sozialer Sachverhalte erlangen, werden diese nämlich dazu befähigt, mehr Einfluss auf lokale, regionale, nationale und globale Themen zu nehmen. Zu welchem Ausmaß sich dies in der Praxis auswirkt, wird sich jedoch erst in der Zukunft zeigen [Cavanillas et al. 2016].

Eine der größten Herausforderungen die Big Data mit sich bringt, ist die zwischen Ländern differierende und weitestgehend auch unzureichende rechtliche Regelung in Bezug auf die Handhabung von Daten. Damit diese Umstände geändert werden können, ist es notwendig, angemessene Rahmenbedingen zu schaffen, die den weltweiten Austausch von Daten, unter der Wahrung der Interessen aller involvierten Parteien, ermöglicht. Die Schaffung rechtlicher Klarheit in Bezug auf Themen wie des Eigentums und der Verwendung von Daten, dem Datenschutz, der Datenqualität, der Datensicherheit, der Haftung, der Cyber-Kriminalität, den Rechten geistigen Eigentums, sowie der Regelung von Konkursen und Insolvenzen, sind die Voraussetzung um dies erreichen zu können. Hierbei ist es wichtig, mit Domänen-Experten zusammenzuarbeiten, damit auch alle technologischen Aspekte mittels transparenter rechtlicher Vorgaben geregelt werden. In den folgenden Kapiteln wird näher auf eben diese Themen eingegangen und der momentane Status diesbezüglich untersucht [Cavanillas et al. 2016].

5.1 Dateneigentum Mit der Speicherung und Nutzung von Daten geht große Verantwortung mit einher. Jedoch ist es nicht in jedem Fall geklärt, welche Entität bei öffentlich zugänglichen Daten, dafür verantwortlich ist, deren eventuelle missbräuchliche Verwendung zu verhindern. Oftmals handelt es sich bei öffentlich zugänglichen Daten um Informationen über zivile Personen, über deren Lebensstil oder steht in Bezug zu staatlichen Dienstleistungen. Daraus lässt sich ableiten, dass die Verantwortung zur Definition und Umsetzung regulatorischer Vorgaben beim Staat, 68

sowie bestimmten öffentlichen Institutionen liegen sollte. So wären zum Beispiel auch Patente nutzlos, wenn diese nur im Besitz von Patentinhabern und Antragstellern wären und deren Existenz und Integrität nicht vom Staat geschützt werden würde [Morabito 2015, S.33].

Personenbezogene Daten können von einer Vielzahl an Quellen erzeugt werden, nämlich von Menschen, Maschinen und Endgeräten, die von Personen bedient werden, wobei der rechtmäßige Besitzer dieser Daten jene Autorität ist, die sich als echten Besitzer verifizieren kann. Wenn jedoch Endgeräte automatisiert Daten über unsere Verhaltensweisen sammeln und veröffentlichen, kann die Einhaltung dieses Grundsatzes, nach momentanen Begebenheiten, nicht garantiert werden. Zum einen kann die Erfassung Daten fehlerhaft sein, zum anderen können Daten auch manipuliert und Personen getäuscht werden. Hierbei ist es die Aufgabe des Staates und verantwortlicher Behörden, diesbezügliche Regelungen zu erweitern und eindeutige, rechtliche Rahmenbedingungen zu definieren, um derartige Konflikte unstrittig auflösen zu können [Morabito 2015, S.33].

5.2 Datenqualität Eine weitere Herausforderung stellt oftmals die niedrige Qualität von Daten dar, wobei dieser Umstand mehrere Ursachen haben kann. Sowohl bei der Erhebung als auch bei der Übertragung und Verarbeitung von Daten können Probleme auftreten. Jedoch spielt auch die menschliche Komponente eine Rolle, da vorliegende Zahlen auch interpretiert werden müssen, sodass Aussagen zu bestimmten Sachverhalten getroffen werden können. Allerdings werden Interpretationen stets durch die subjektive Sichtweise, der am Prozess beteiligten Personen, beeinflusst. So werden Korrelationen, also die wechselseitige Beziehung zwischen zwei Elementen, oftmals als Kausalitäten angesehen, wobei derartige Erscheinungen oftmals das Resultat stochastischer Ereignisse sind. Zusammenfassend muss betont werden, dass unabhängig von der Ursache minderer Datenqualität, beziehungsweise der falschen Interpretation von Daten, ernste Konsequenzen folgen können, die im schlimmsten Fall auch rechtliche oder gesundheitliche Auswirkungen auf Einzelpersonen oder Personengruppen haben können [Crawford 2013].

Big Data kann die Auswirkungen schlechter Datenqualität verstärken, daher stellt die Kontrolle der erhobenen Daten selbst, sowie der Kontrollmethoden, sowohl für den Staat als auch für

69

Privatpersonen, eine zunehmend wichtigere Angelegenheit dar. Erfasste Daten können eine Vielzahl verschiedenartiger Mängel aufweisen, unter anderem besteht die Möglichkeit, dass diese fehlerhaft, falsch kodiert, fragmentiert oder einfach unvollständig sind. Daher sollten Daten stets auf deren Vollständigkeit, Konformität, Konsistenz, Richtigkeit, Vervielfältigung, sowie Integrität überprüft werden, insbesondere dann, wenn eine hohe Qualität der Daten von erhöhter Bedeutung ist. Wenn privatwirtschaftliche Unternehmen Daten schlechter Qualität nicht berücksichtigen und für deren Analysen nur bereinigte Daten heranziehen, so sind die Ergebnisse in vielen Fällen dennoch zufriedenstellend. Analysiert zum Beispiel ein Einzelhändler bereinigte Daten über seine Kunden, um somit zukünftige Verkäufe vorauszusagen, so hat dies keine größeren Auswirkungen auf den einzelnen Kunden. Allerdings trifft dies bei besonderen Anwendungsfällen, wie dem Gesundheitswesen nicht zu. Im Speziellen wenn verunreinigte Daten in einer bestimmten Gegend, beziehungsweise bei einem bestimmten Standort vorliegen, kann so das Bild bedeutend verfälscht werden [Morabito 2015, S.34; Crawford 2013].

Nach Morabito (2015) können, neben der Erhebung von Daten, die Integration, die Vereinigung, sowie die Vermischung der Daten aus verschiedenen Quellen ebenfalls Qualitätsprobleme verursachen. Auf Grund der Diversität, sowie des Volumens der Daten, die mit Big Data einhergehen, stellt die Datenkontrolle eine sehr aufwändige Aufgabe dar. Um dies zu bewerkstelligen, werden zunehmend neue spezielle Prüfungsverfahren entwickelt, die auf Grid-Processing Technologien beruhen, wie diese zum Beispiel vom Hadoop-Framework im Einsatz sind, wodurch eine zeitgemäße Überprüfung der Daten ermöglicht wird [Morabito 2015].

Während Datenverwaltungs- und Datenkontrollverfahren Daten minderwertiger Qualität relativ gut bereinigen können, existiert jedoch noch ein weiteres Problem, nämlich verschiedene Verzerrungsarten, die sowohl das Gesamtbild, als auch detailbezogene Informationen bedeutend verfälschen können. Zu den verschiedenen Verzerrungsarten zählen die Konfundierungsverzerrung, Selektionsverzerrung, sowie Messungsverzerrung, auf die folgend näher eingegangen wird [Morabito 2015, S.34; Crawford 2013].

70

Konfundierungsverzerrung Die Konfundierung beschreibt den Vorgang, wenn zwei Ereignisse miteinander in Korrelation gesetzt werden, obwohl diese voneinander unabhängig erforscht wurden. Zum Beispiel wäre dies der Fall, wenn Informationen über individuelle Gewohnheiten von sozialen Netzwerken erhoben werden und mit davon losgelösten Informationen der Krankenkasse in Zusammenhang gebracht werden. Dies könnte dazu führen, dass fälschlicherweise angenommen wird, dass eine kausalitäre Beziehung zwischen bestimmten Verhaltensweisen und gewissen Krankheitsbildern besteht, obwohl tatsächlich andere Ursachen dafür verantwortlich sind [Morabito 2015, S.34; Crawford 2013].

Messungsverzerrung Messungsverzerrungen ergeben sich, wenn Messungen nicht korrekt, beziehungsweise nicht einheitlich durchgeführt werden. Die Herkunft der Daten, sowie die Integration von Daten aus verschiedenen Quellen, kann hierbei ein großes Problem darstellen. Das größte Problem stellt hierbei die Verwendung unterschiedlicher Geräte dar, durch die die Daten erhoben, verarbeitet und weitergeleitet werden, da diese eine unterschiedliche Messgenauigkeit, beziehungsweise Fehleranfälligkeit aufweisen können oder sogar mit verschiedenen Einheiten gerechnet wird, die nicht automatisiert vereinheitlicht werden. Die Auswahl der Gerätetypen durch die Nutzer wird von verschiedenen Faktoren, wie dem geographischen, sowie dem fachlichen Einsatzgebiet, oder von gesellschaftlichen Eigenschaften, wie dem Alter, oder dem Einkommen beeinflusst. Darüber hinaus kann auch die unsachgemäße Verwendung von Geräten zu messungsbezogenen Verzerrungen führen, die bei Analysen ebenso berücksichtig, beziehungsweise bereinigt, werden müssen [Morabito 2015, S.34; Crawford 2013].

Selektionsverzerrung Bei der Selektionsverzerrung handelt es sich um eine statistische Verzerrung, die auftritt, wenn Daten, beziehungsweise Subjekte ausgewählt werden, die für das zu untersuchende Thema nicht als repräsentativ angesehen werden können. Infolgedessen können die Ergebnisse statischer Analysen verfälscht und falsche Schlussfolgerungen gezogen werden. Daher ist es besonders wichtig Studien ordentlich vorzubereiten und verwendete Datenquellen mit Sorgfalt

71

auszuwählen. So ist zum Beispiel der Anteil älterer und sozial schwächer gestellter Gesellschaftsschichten, die mobile Geräte besitzen und bestimmte Applikationen benutzen, über die Daten gesammelt und ausgewertet werden können, im Vergleich zu anderen Bevölkerungsgruppen niedriger, woraus lediglich eine eingeschränkte Repräsentativität für die Gesamtheit resultiert. Je nach den Anforderungen einer Untersuchung sollten daher die Herkunft der Daten und deren spezielle Eigenschaften bei der Auswertung berücksichtigt werden und lediglich angemessene Schlussfolgerungen über bestimmte Sachverhalte oder Gruppen getroffen werden [Morabito 2015, S.34; Crawford 2013]. Auch wenn der prozentuale Anteil an Nutzern fortgeschrittener Technologien in der Gesellschaft stetig zunimmt, so bleibt offen, ob sich diese Entwicklung fortsetzt oder ob neue innovative Technologien, die dabei helfen das volle Potential von Big Data Anwendungen zu nutzen, wiederum für einen größeren Anteil bestimmter Bevölkerungsschichten nicht leistbar sind und sich somit der repräsentative Grad bestimmter Studien wiederum abnimmt [Crawford 2013].

In spezieller Hinsicht auf die Handhabung sensibler Daten öffentlicher Dienstleistungen, deren Missbrauch ernste rechtliche oder gar lebensbedrohliche Konsequenzen nach sich ziehen kann, bleibt hervorzuheben, dass es besonders wichtig ist, strenge Vorgaben für die Handhabung von Daten zu definieren und auch einzuhalten. Darüber hinaus gilt es, die beschriebenen Probleme, die bei der Erhebung und Integration von Daten anfallen, zu adressieren, um somit inkorrekten Analyseergebnissen und daraus resultierenden falschen Schlussfolgerungen vorzubeugen, damit Schäden vermieden werden können. Ein weiteres Thema bezüglich der Integration verschiedener Datenquellen ist auch die Erweiterung von herkömmlichen kleineren Studien, die auf qualitative Forschungsmethoden setzen, mit neuen innovativen Big Data Ansätzen, um Schlussfolgerungen zu bekräftigen oder gar neue Einblicke erhalten zu können. Durch diese Vorgehensweise könnte auch die Repräsentativität von Big Data Analysen maßgeblich erhöht werden, indem Teilnehmer der qualitativen Studien sorgfältig ausgesucht werden [Morabito 2015, S.34; Crawford 2013].

5.3 Datenschutz, Bürgerrechte und Gleichberechtigung Sowohl der Datenschutz, als auch die Bürgerechte stellen wichtige Werte dar, die geschützt werden müssen. Allerdings bildet deren Bewahrung eine komplexe Aufgabe, da jede Person, die in einer IT-unterstützten Gesellschaft lebt, digitale Spuren hinterlässt. Wenn diese Spuren 72

miteinander kombiniert werden, ist es in manchen Fällen möglich, einmalige Charakteristika zu identifizieren, die den Rückschluss auf Einzelne ermöglichen. Auf Grund von Informationen, wie zum Beispiel der Energienutzung in einem zeitlichen Kontext, oder die Orte, die wir regelmäßig besuchen, können bereits eine Menge Aussagen über eine Person getroffen werden. Damit diese Daten nicht missbraucht werden, bedarf es strengen Regelungen, die durch den Gesetzgeber initiiert werden müssen [Michael & Miller 2013, S.23].

Auf der anderen Seite kann durch bestimmte Big Data Anwendungen ein einzigartiger Mehrwert geboten werden, der weit über ein erweitertes Angebot an Dienstleistungen und neue Marketingmethoden hinausgeht. Besonders sensiblen und vertraulichen Daten, wie zum Beispiel den Krankenakten von Patienten, liegt gleichermaßen ein hohes Forschungspotential inne, das wiederum dazu beitragen kann, die Lebensqualität vieler Personen zu verbessern und in bestimmten Fällen sogar Leben zu retten, beziehungsweise zu verlängern [Morabito 2015, S.34f].

Bei der Erfassung personenbezogener Daten werden je nach Bedarf unterschiedlichste Informationen erhoben und analysiert — unter Anderem zählen Attribute wie der Standort, der gesundheitliche Zustand, der Bildungsgrad, der berufliche Hintergrund, bestimmte Gruppenzugehörigkeiten, Interessen, Präferenzen, Meinungen, sowie das Online-Verhalten dazu. Das mit der Analyse von Daten eng verbundene Profiling von Einzelpersonen birgt hierbei jedoch Risiken, die zur Diskriminierung, Ausgrenzung, oder eines kompletten Kontrollverlusts führen können. Die Bedeutung dieser Risiken wird zusätzlich verstärkt, wenn es sich um öffentliche Dienste handelt, da hierbei zumeist besonders sensible Daten betroffen sind. Eines der bedeutendsten Nutzenversprechen, das mit Big Data einhergeht, basiert auf der Erstellung von Prognosen, wodurch Verhalten vorhergesagt und Möglichkeiten geschaffen, sowie Risiken minimiert werden können. Wenn zum Beispiel mittels Big Data Analysen ein bestimmtes Gebiet als einbruchsgefährdet identifiziert wird, so können die Behörden reagieren, indem die Überwachung dieses Gebiets verstärkt wird, um derartigen Vorfällen vorzubeugen [Morabito 2015, S.34f]

Die Durchführung von Präventivmaßnahmen beruht — wie bereits erläutert — auf Prognosen und diese beruhen wiederum auf prognostischen Algorithmen, die personenbezogene Daten auswerten, wodurch allerdings Bürgerrechte, im Austausch für eine bessere Einschätzung von Risikowahrscheinlichkeiten, beschnitten werden. Mit der Fähigkeit präzisere Vorhersagen zu 73

treffen, erhöht sich auch die Verantwortung existierende Bedrohungen zu mitigieren. Dies kann wiederum dazu führen, dass Regierungen sozialen Risiken sehr konservativ entgegnen. Wenn zum Beispiel festgestellt wird, dass arbeitslose Jugendliche mit einer sehr hohen Wahrscheinlichkeit an bestimmten Verbrechen beteiligt sind, ist die Frage auf welche Art und Weise der Gesetzgeber darauf reagieren soll. Gleich ob die Entscheidung gefällt wird, die Freiheiten spezieller Zielgruppen einzuschränken oder nicht darauf zu reagieren, so wird es sich in jedem Fall um eine sehr kontroverse Entscheidung handeln, die schwer einschätzbare Konsequenzen nach sich ziehen wird. Es ist auch fraglich zu welchem Ausmaß polizeiliche Einsatzkräfte und die Öffentlichkeit über bestimmte Korrelationen informiert werden sollte, da dies ebenfalls zu der Diskriminierung bestimmter Gruppen führen könnte. Im schlimmsten Fall ist es auch möglich, dass derartige Diskriminierungen wiederum dazu führen, dass bestimmte Gruppen eher dazu neigen, ein ungewünschtes Verhalten an den Tag zu legen, beziehungsweise gegen Gesetze zu verstoßen [Morabito 2015, S.34f].

Ein weiteres wichtiges Thema ist auch die zukünftige Gleichberechtigung, in Bezug auf die Nutzbarkeit öffentlicher Dienstleistungen, von Individuen und Gruppen, die nicht aktiver Teil der Informationsgesellschaft sein können oder wollen. Statistiken über die digitale Spaltung zeigen, dass große Unterschiede bei der Technologienutzung zwischen verschiedenen Ländern, Altersgruppen, der sozioökonomischen Klassenzugehörigkeit, sowie städtischen oder ländlichen Gebieten bestehen. Das größte Risiko besteht hierbei, wenn sich staatliche Institutionen zukünftig zu sehr auf Big Data Analysen stützen und dass elektronische Informationen einen anteilsmäßig zu hohen Stellenwert einnehmen. Hierdurch könnte die Stimme von Nutzern neuer Technologien, über die relevante Informationen erhoben werden können, eine unverhältnismäßig größere Bedeutung haben und somit einen höheren Einfluss auf Entscheidungen der Regierung haben [Morabito 2015, S.35].

Die Vorgabe und Durchsetzung rechtlicher Rahmenbedingungen stellen jedoch nicht nur Herausforderungen dar, sondern können auch die Basis für wirtschaftliche Möglichkeiten bilden. Strengere Datenschutzbestimmungen, oder die Forderung und Durchsetzung transparenter Geschäftsbedingungen kann die Bereitschaft potentieller Kunden erhöhen, Dienste, die in bestimmten Ländern angeboten werden und somit strengeren Auflagen unterliegen, eher zu nutzen. Damit diese Aspekte auch Entscheidungsrelevanz besitzen, muss jedoch die logische Voraussetzung erfüllt werden, dass diesbezügliche Regelungen auch offen

74

kommuniziert werden und Privatpersonen somit auch bewusst gemacht werden. Im folgenden Kapitel, wird untersucht, inwiefern das Datenschutzbewusstsein von Privatpersonen, deren Online-Verhalten, sowie die Nutzung, beziehungsweise den Kauf, von Diensten und Produkten beeinflusst. Darüber hinaus wird ebenso der Einfluss von transparenten Geschäftsbedingungen, sowie von Werbeanzeigen und Kaufempfehlungen auf potentielle Kunden und diesbezügliche Auswirkungen evaluiert.

6 Soziale Dimension Neben den technischen, organisationalen und rechtlichen Herausforderungen, gibt es auch im sozialen Bereich einige wichtige Aspekte die berücksichtigt werden müssen. Mit neuen Big Data-Technologien können Analysen über unser Zuhause, unsere Arbeit und unser soziales Leben durchgeführt werden, deren Zweck weit über herkömmliche Marktsegmentierungen und Marketingmethoden hinausgeht. Dies könnte einen direkten Einfluss auf die Online-Aktivitäten und das Verhalten von Personen in überwachten Bereichen haben, da diese bestrebt sind, ihre Privatsphäre weitestgehend zu schützen. Die Verbreitung einer neuen Generation tragbarer Geräte, wie digitaler Uhren und Brillen, sind dazu konzipiert, potentiell eine durchgehende audiovisuelle Datenübertragung zu ermöglichen. Durch derartige Geräte werden auch die Überwachbarkeit, sowie die generierten Datenmengen stark zunehmen. Diese vermehrten Aufzeichnungen könnten wiederum die Privatsphäre von Einzelpersonen und Gruppen verletzen. Allerdings sind genaue Umsetzungen und die Akzeptanz der breiten Öffentlichkeit noch offen und diesbezügliche Entwicklungen müssen erst abgewartet werden [Michael & Miller 2013, S.23f].

Es ist jedoch gewiss, dass eine stetig ansteigende Menge an Daten automatisch generiert und gespeichert werden, wodurch die Grenzen zwischen öffentlichem und privatem Raum zunehmend verschmelzen werden. Im Allgemeinen ist noch unklar, inwiefern sich diese Veränderungen auf das Leben von Privatpersonen auswirken werden. Auch hier obliegt es dem Gesetzgeber, Regelungen zu treffen, um zu verhindern, dass das Potential von Big Data weder von Organisationen, noch vom Staat selbst zur Überwachung von Einzelpersonen missbraucht werden kann [Michael & Miller 2013, S.23f]. Im folgenden Abschnitt wird nun die Einstellung von Studenten und Absolventen informatiknaher Studiengänge zu Big Data bezogenen Themen

75

untersucht, wobei ein Schwerpunkt auf dem Einfluss von individuellem Datenschutzbewusstsein und Privatsphäre-Bedenken in Bezug auf die Nutzung, beziehungsweise den Kauf von Diensten und Produkten gelegt wird.

6.1 Hypothesen Fragebogen Im Zuge dieses Kapitel werden Hypothesen aufgestellt, welche dann durch die Auswertung des Fragebogens verifiziert oder falsifiziert werden. Zur Interpretation der Ergebnisse werden die Fragestellungen sowohl einzeln, als auch zum Teil kombiniert betrachtet, um mögliche Abhängigkeiten identifizieren zu können. Die Hypothesen lauten wie folgt:

Hypothese 1: Die Mehrheit der Nutzer von diversen Diensten akzeptiert nur bei bestimmten Diensten ein kostenpflichtiges Zahlungsmodell, wobei sowohl der Preis, als auch die Verfügbarkeit von kostenlosen Konkurrenzprodukten, beziehungsweise -diensten, eine wichtige Rolle spielen.

Hypothese 2: Wenn das soziale Umfeld einer Person einen bestimmten Dienst nutzt, so ist die Wahrscheinlichkeit höher, dass diese Dienste genutzt werden, obwohl vergleichbare Angebote eher deren Anforderungen entsprechen würden.

Hypothese 3: Die Tatsache, dass ein Dienst Daten sammelt, würde nur einen kleinen Prozentsatz an potentiellen Nutzern davon abhalten, einen Dienst zu nutzen. Darüber hinaus sind sich auch die meisten Personen bewusst, dass sie einen derartigen Dienst in Verwendung haben.

Hypothese 4: Ein Großteil der Nutzer gibt nur die minimal geforderten Daten an, um einen Dienst nutzen zu können. Wobei die Nutzer die mehr Informationen angeben, beinahe ausschließlich dazu gewillt sind, wenn Ihnen dadurch ein entsprechender Mehrwert entsteht.

Hypothese 5: Nutzer, die mehr Daten als unbedingt nötig angeben, geben auch korrekte Daten an.

Hypothese 6: Nutzer wissen nur sehr bedingt Bescheid, welche Daten von Diensten gesammelt und wofür diese Daten verwendet werden. Dennoch hat die überwiegende Mehrheit derartige Dienste in Verwendung.

76

Hypothese 7: Die Mehrheit der Nutzer lesen sich die allgemeinen Geschäftsbedingungen nicht oder nur oberflächlich durch. Hierbei besitzen transparentere Geschäftsbedingungen das Potential, die Auswahl von Diensten und das Nutzungsverhalten maßgeblich zu beeinflussen. Ob dieser Einfluss positiv oder negativ ausfällt, liegt an der inhaltlichen Ausgestaltung.

Hypothese 8: Strengere Datenschutzbestimmungen würden die Akzeptanz von Diensten, durch die Daten erhoben werden, deutlich erhöhen.

Hypothese 9: Nur ein geringer Teil bestehender Kunden hat die Nutzung eines Dienstes auf Grund der Übernahme durch ein anderes Unternehmen eingestellt.

Hypothese 10: Der Großteil der Nutzer verfügt nur über sehr eingeschränktes Wissen bezüglich der rechtlichen Rahmenbedingungen, die für die Erhebung und Verwendung ihrer Daten gelten.

Hypothese 11: Werbeanzeigen und Kaufempfehlungen sind zutreffender als in der Vergangenheit und werden daher als weniger störend empfunden.

Hypothese 12: Werbeanzeigen und Kaufempfehlungen führen zunehmend öfter zu der Nutzung, beziehungsweise dem Kauf, eines Dienstes oder Produkts.

Hypothese 13: Ein großer Teil der Nutzer verwendet Programme, um Werbung zu unterdrücken, beziehungsweise um ihr Online-Verhalten zu anonymisieren.

6.2 Auswertung Fragebogen Insgesamt nahmen 169 Studenten und Absolventen informatiknaher Studiengänge an der Umfrage teil. Diese Stichprobengröße kann auf Grund der speziellen Eingrenzung, als ausreichend repräsentativ angesehen werden. Es bleibt festzuhalten, dass es den Teilnehmern freigestellt war, einzelne Fragen zu überspringen. Darüber hinaus wurden gewisse Teilsektionen — auf Grund personenbezogener Irrelevanz — in bestimmten Fällen automatisch übersprungen.

77

Um die Umfrage besser zu strukturieren, wurde diese in vier Hauptthemen unterteilt, nämlich:

• Nutzung von Diensten, • Werbeanzeigen und Kaufempfehlungen, • AGBs und Transparenz, sowie • Datenschutz.

Im Zuge dieses Kapitels wird auf die gestellten Fragen und eingereichten Antworten im Detail eingegangen, wobei in einer jeweils direkt darauf folgenden Analyse die Auswertung der vorhin aufgestellt Hypothesen durchgeführt wird. Wenn Teilnehmer der Studie für bestimmte Fragen individuelle Antworten gegeben haben, dann werden diese, soweit möglich direkt in die Ergebnisinterpretation eingearbeitet und andernfalls zusätzlich erläutert.

6.2.1 Nutzung von Diensten In der ersten Sektion des Fragebogens wird das Verhalten zur Nutzung von Diensten der Befragten untersucht. Ein spezieller Schwerpunkt liegt hierbei auf deren jeweiliger Einstellung in Bezug auf Privatsphäre und Datenschutz, sowie diesbezügliche Auswirkungen auf deren Entscheidungen.

Die erste Frage richtet sich an die Zahlungsbereitschaft der Teilnehmer. Das Ziel hierbei war herauszufinden, wie groß der Anteil von Nutzern ist, die bereit sind, für einen Dienst eine gewisse Gebühr zu zahlen, um die Erhebung von Daten zu vermeiden, sowie werbefreie Inhalte nutzen zu können. Es wird angenommen, dass eine Zahlungsbereitschaft in diesem Kontext auch ein großes Bedürfnis nach Privatsphäre unterstreicht.

Wie in Abbildung 9 ersichtlich, sind 79,9% und somit der Großteil der Nutzer, bereit für, bestimmte Dienste eine gewisse Summe zu investieren, wobei davon für 18,9% niedrige Kosten ein sehr wichtiges Kriterium darstellen. Lediglich 2,4% dieser Gruppe bevorzugen in jedem Fall die Nutzung kostenpflichtiger Anwendungen, um dadurch zu vermeiden, dass Werbeanzeigen geschaltet und Daten über sie, beziehungsweise über ihr Nutzungsverhalten, gesammelt werden.

78

Abbildung 9: Nutzung kostenpflichtiger Dienste

Auf der anderen Seite schließen 20,2% der Befragten die Nutzung kostenpflichtiger Dienste aus, wodurch impliziert werden kann, dass diese Nutzer die Erhebung ihrer Daten akzeptieren, oder über derartige Vorgänge zumindest nicht im Detail Bescheid wissen.

Aus der Gesamtheit der Antworten lässt sich somit die erste Hypothese weitgehend verifizieren. Dieses Ergebnis legt die Durchführung weiterer Studien nahe, die der Frage nachgehen sollten, welche Anforderungen erfüllt werden müssen damit potentielle Kunden die Zahlung von Gebühren für den Schutz ihrer Daten und die Nutzung werbefreie Dienste favorisieren. Generell bleibt jedoch festzuhalten, dass die Mehrheit prinzipiell gewisse Einschränkungen in Kauf nimmt, um kostenlose Dienste nutzen zu können. Auf eben diese Einschränkungen und auf welche Art und Weise Nutzer damit umgehen, wird im Zuge dieses Fragebogens noch näher eingegangen.

Die zweite Frage untersucht den Einfluss des Verwandten- und Bekanntenkreis auf die Auswahl zur Nutzung bestimmter Dienste. Je niedriger hierbei der vergebene Wert ist, desto geringer ist diesbezüglich die Bedeutung des Umfelds für die jeweiligen Befragten. In Abbildung 10 ist ersichtlich, dass der Einfluss des Verwandten- und Bekanntenkreises auf die Nutzung bestimmter Dienste relativ moderat ausfällt, daher kann die zweite These nur bedingt bestätigt werden.

79

Kein Einfluss. Starker Einfluss.

Abbildung 10: Gesellschaftliche Beeinflussung des Nutzungsverhaltens

Diese Ergebnisse deuten ein Potential an, dass Organisationen sowohl zur Akquirierung zusätzlicher Kunden, als auch zu deren langfristiger Bindung nutzen könnten. Zum Beispiel könnte dies durch die Forcierung bestimmter Vorzugs-Modelle, bei denen sowohl anwerbende Kunden, als auch Angeworbene gleichermaßen profitieren, erreicht werden. Auch die Integration spezieller Funktionalitäten, die beispielsweise soziale Interaktion ermöglichen, stellt potentiell für einige Angebote eine Bereicherung dar, die die Kunden dazu bewegen, bestimmte Dienste eher zu nutzen, wenn diese von deren Bekanntenkreis verwendet werden.

Abbildung 11: Einfluss der Datenerhebung auf die Nutzung von Diensten

Beim dritten Punkt wurden die Teilnehmer befragt, ob es Sie von der Nutzung eines Dienstes abhalten würde, wenn Daten über die Anwender erhoben werden. Abbildung 11 zeigt, dass lediglich 5,3% der Befragten prinzipiell einen Dienst nicht nützen würden, wenn durch diesen 80

Daten erhoben werden. 7,1% würden einen derartigen Dienst bedenkenlos nutzen, wohingegen 46,8% Wert darauf legen, welche Daten erhoben und wofür diese verwendet werden. Die restlichen 40,8% würden einen entsprechenden Dienst lediglich nutzen, wenn ihnen dessen Nutzen hoch genug erscheint. Generell bleibt festzuhalten, dass die Mehrheit der Nutzer prinzipiell der Verwendung ihrer Daten zustimmt, solange der gebotene Wert als angemessen erscheint und deren Privatsphäre nicht empfindlich verletzt wird.

Ein Thema für zukünftige Forschung könnte hierbei sein, welchen Einfluss es auf die Auswahl von Diensten hat, wenn es alternative Angebote gibt, die sich entweder auf eine andere Art und Weise finanzieren oder sich auf die Erhebung und Verwendung unterschiedlicher Informationen, die dem Kunden als weniger sensibel erscheinen, konzentrieren.

Folgend wurde analysiert, wie groß der Anteil der Befragten ist, die auch tatsächlich einen Dienst in Verwendung haben, durch den Daten gesammelt werden.

Abbildung 12: Verwendung von datenzentrierten Diensten

Wie Abbildung 12 aufzeigt, ist sich, mit 86,3% der Befragten, die Mehrheit darüber bewusst, dass sie einen Dienst, der ihre Daten erhebt, in Verwendung haben. In gemeinsamer Betrachtung mit der vorhergehenden Frage kann daraus gefolgert werden, dass auch die dritte Hypothese zutrifft. 9,4% der Befragten sind sich, obwohl sie auf Grund ihres Studiums für eine derartige Thematik überdurchschnittlich sensibilisiert sind, nicht sicher, ob Sie einen derartigen Dienst verwenden. Dies deutet an, dass Allgemeine Geschäftsbedingungen oftmals zu komplex formuliert und zu umfangreich sind, um durchgearbeitet, beziehungsweise verstanden, zu werden. Außerdem bleibt auch bei den übrigen 4,4% fraglich, ob diese wirklich keinen Dienst

81

nutzen, durch welchen Daten erhoben werden, oder ob sich die Befragten zum Teil darüber nur nicht im Klaren sind.

In der fünften Frage wurde überprüft, ob die Befragten bei genutzten Diensten, auch vollständige Datenangaben machen. Die Untersuchung ergab hierbei, dass inklusive dem entsprechenden Anteil an individuellen Antworten, insgesamt 66% der Studienteilnehmer nur das Mindestmaß an Informationen angeben, die notwendig sind, um einen Dienst nutzen zu können. Wie in Abbildung 13 illustriert, geben bloß 0,7% der Befragten vollständige Informationen ein und 30,7 % sind nur gewillt mehr Informationen einzutragen, wenn sie dadurch einen entsprechenden Mehrwert erhalten. Somit kann auch die vierte Hypothese als bestätigt angesehen werden.

Abbildung 13: Datenangabe bei Diensten

Momentan bieten jedoch nur wenige Anbieter einen wirklichen Anreiz für die Nutzer, mehr Informationen anzugeben, obwohl die Erhebung personenbezogener Informationen und die Schaltung individualisierter Werbungen für eine Vielzahl an Unternehmen eine der Haupteinnahmequellen darstellt. Bei sozialen Netzwerken existiert ein derartiger Anreiz implizit, da Nutzer oftmals möglichst viele Daten angeben, um zum Beispiel leichter von Bekannten und Freunden gefunden zu werden oder ein aussagekräftigeres Profil präsentieren zu können. Jedoch könnten auch andere Dienste die Angabe von zusätzlichen Informationen attraktiver gestalten, indem beispielsweise, zusätzliche Funktionen freigeschaltet oder andere Privilegien angeboten werden. Bei einem derartigen Modell orientiert sich der Umfang des Angebots stets an der Menge der Informationen, die durch den Nutzer angegeben werden. Es bedarf jedoch weiterer Untersuchungen, beziehungsweise Experimenten, um das volle Potential 82

dieser Möglichkeit erforschen zu können. Darüber hinaus bleibt fest zu halten, dass die dritte Hypothese noch einmal bekräftigt wird, da lediglich 2,6% bei verpflichtender Angabe von Daten auf die Nutzung eines Dienstes verzichten würden.

Ein weiterer wichtiger Aspekt ist die Korrektheit der Daten, die von Nutzern angegeben werden, da durch diese Informationen weitere Prozesse beeinflusst werden und Ergebnisse verzerrt werden können. Wie vorhin bereits behandelt, ist es bei Datenanalysen wichtig, die Daten von unkorrekten Informationen zu bereinigen, um repräsentative Ergebnisse erhalten zu können. Um diesen Umstand zu evaluieren, wurde in der sechsten Frage überprüft, ob die Befragten bei genutzten Diensten auch korrekte Informationsangaben machen.

Auch wenn die Befragten insgesamt eher dazu tendieren, korrekte Daten anzugeben, so kann, aus den in Abbildung 14 ersichtlichen Ergebnissen, abgeleitet werden, dass die Angabe korrekter Daten bei einem Großteil der Nutzer vom jeweiligen Anwendungsfall abhängig ist. Es bleibt zu untersuchen, welche Voraussetzungen eine Anwendung erfüllen muss, damit deren Nutzer zutreffende Informationen angeben. Des Weiteren legt die Analyse der Antworten dieser und der vorhergehenden Frage nahe, dass Nutzer, die vollständige Informationen angeben, auch eher dazu tendieren, korrekte Informationen einzugeben. Dadurch wird die fünfte Hypothese unterstützt. Auch hier besteht der Bedarf nach einer genaueren Analyse, um diese Hypothese eindeutig verifizieren zu können.

Abbildung 14: Korrektheit von Datenangaben

83

Abbildung 15: Bewusstsein bezüglich der Datenverwendung

Die nächste Frage richtet sich an das Bewusstsein bezüglich der Verwendung von angegebenen Daten. Hierbei war es von besonderem Interesse, zu welchem Grad technisch versierte Personen über die Erhebungsvorgänge und Verwendungszwecke ihrer Daten Bescheid wissen. Wie Abbildung 15 zu entnehmen ist, sind sich zusammengerechnet 84,3% der Studienteilnehmer zumindest nicht in vollem Umfang darüber im Klaren, wofür ihre Daten verwendet werden. Da dennoch ein Großteil der Befragten Applikationen verwendet, durch die Daten erhoben werden, scheint es auf den ersten Blick keinen besonders negativen Einfluss auf die Nutzung derartiger Dienste zu haben, wodurch sich auch wiederum die sechste Hypothese bestätigen lässt. Jedoch könnte die Situation anders aussehen, wenn es eine größere Auswahl transparenter Anwendungen gibt, bei denen die allgemeinen Geschäftsbedingungen, beziehungsweise eine Zusammenfassung der wichtigsten Punkte, auch von Personen ohne juristischer Ausbildung, in annehmbarer Zeit, durchgearbeitet und verstanden werden können.

6.2.2 Allgemeine Geschäftsbedingungen und Transparenz Damit näher untersucht werden kann, aus welchen Gründen die Verwendungszwecke und Erhebungsmethoden von Daten derart unklar sind, befasst sich dieser Abschnitt mit der Verständlichkeit und Transparenz von allgemeinen Geschäftsbedingungen, sowie der Bereitschaft der Befragten, diese zu studieren.

Bei der achten Frage wurde hierzu hinterfragt, wie groß der Anteil der Teilnehmer ist, die sich überhaupt mit den allgemeinen Geschäftsbedingungen auseinandersetzen.

84

Abbildung 16: Durcharbeiten allgemeiner Geschäftsbedingungen

Abbildung 16 zeigt, dass lediglich 1,8% der Nutzer, unabhängig von der Anwendung, die allgemeinen Geschäftsbedingungen stets durcharbeiten. Bei 21,9% der Befragten kommt es auf die Anwendung an und 30,8%, inklusive der individuellen Antworten, lesen die AGBs nur oberflächlich durch, beziehungsweise nur bestimmte Aspekte. Die relative Mehrheit der Studienteilnehmer, nämlich 43,2%, lesen sich die AGBs, trotz der überdurchschnittlichen Sensibilisierung zu dieser Thematik, unabhängig von den genutzten Anwendungen in keinem Fall durch.

Dieses Resultat bekräftigt die These, die bei der Analyse der vierten Frage aufgestellt wurde, nämlich dass Allgemeine Geschäftsbedingungen oftmals zu komplex formuliert und zu umfangreich sind, um von den Nutzern durchgearbeitet, beziehungsweise verstanden, zu werden. Darüber hinaus wird durch die Verknüpfung der Personen, die angegeben haben, datenerhebende Anwendungen zu nutzen und den Nutzern, denen bewusst ist, wofür deren Daten verwendet werden, erkenntlich, dass das Datenschutzbewusstsein, zumindest oberflächlich betrachtet, bei der Auswahl von Diensten nur eine untergeordnete Rolle spielt. Auf Grund dieser Gegebenheiten kann gefolgert werden, dass die sechste Hypothese gültig ist.

Da die allgemeinen Geschäftsbedingungen nur von den Wenigsten in jedem Fall sorgfältig studiert werden und daher nur bedingt Einfluss auf die Auswahl von Diensten haben, wurde in der folgenden Frage untersucht, inwiefern eine höhere Transparenz in Bezug auf die Erhebung und Verwendung von Daten die Einstellung der Befragten zur Nutzung bestimmter Dienste beeinflussen würde.

85

Abbildung 17: Transparenz allgemeiner Geschäftsbedingungen

Wie in Abbildung 17 ersichtlich ist, nimmt eine höhere Transparenz der allgemeinen Geschäftsbedingungen potentiell einen sehr großen Einfluss auf die Nutzung von Diensten. 77,5% der Befragten würden ihre Nutzungsgewohnheiten gegebenenfalls ändern, wenn Sie den genauen Inhalt der AGBs kennen würden.

Die Anpassung der Nutzungsgewohnheit gestaltet sich hierbei, wie folgt:

• 18,3% würden gegebenenfalls die Nutzung bestimmter Dienste einstellen, wenn ihnen der Verwendungszweck der Daten nicht zusagt. • 22,5% tendieren dazu bestimmte Dienste eher zu nutzen, wenn bekannt ist für welche Zwecke deren Daten verwendet werden. • 43,2% würden durch einen höhere Transparenz sowohl bestimmte Dienste eher nutzen, als auch bestimmte Dienste nicht mehr zu nutzen.

Lediglich 16% der Teilnehmer würden hierbei in deren Nutzungsgewohnheiten nicht beeinflusst werden, woraus sich schließen lässt, dass transparentere Nutzungskonditionen, sehr wohl einen erheblichen Einfluss auf die Auswahl von Diensten durch die Nutzer ausüben können. Auf Grund dieses Ergebnisses lässt sich die siebte Hypothese verifizieren. Es bleibt zu erforschen in welchem Ausmaß transparente AGBs, beziehungsweise eine Zusammenfassung der wichtigsten Punkte, die auch von Personen ohne juristischer Ausbildung, in annehmbarer Zeit, durchgearbeitet und verstanden werden können, die Nutzung von Diensten in der Praxis wirklich beeinflussen würde.

86

6.2.3 Datenschutz In dieser Sektion wird der Einfluss von Datenschutzbestimmungen auf das Nutzungsverhalten evaluiert. Insbesondere wird auch analysiert, wie sich Änderungen, die den Datenschutz betreffen, auswirken würden und inwieweit das diesbezügliche Bewusstsein der Befragten geprägt ist.

Bei der zehnten Frage wurden die Teilnehmer befragt, inwiefern ihre Bereitschaft, einen bestimmten Dienst zu nutzen, beeinflusst wird, wenn strengere Datenschutzbestimmungen gelten, da zum Beispiel ein Unternehmen EU-Richtlinien unterliegt.

Kein Einfluss. Großer Einfluss. Abbildung 18: Einfluss strengerer Datenschutzbestimmungen

Auch wenn es, wie in Abbildung 18 ersichtlich, einer knappen Mehrheit der Nutzer relativ wichtig ist, dass strenge Datenschutzbestimmungen gelten, so ist dieser Aspekt nicht so bedeutend, wie in der achte Hypothese angenommen wurde, wonach diese falsifiziert, oder zumindest relativiert werden muss. Welchen Stellenwert strengere Datenschutzbestimmungen im Vergleich zu anderen Nutzenversprechen eines Dienstes einnehmen, bedarf einer genaueren Untersuchung. Es ist jedoch anzunehmen, dass die genauen Datenschutzbestimmungen von Diensten oftmals nicht in genauem Ausmaß registriert werden und daher eine eher untergeordnete Rolle spielen. Hierbei wäre ebenfalls wiederum der Aspekt der Transparenz eine interessante Variable, die dessen Bedeutung maßgeblich mitbestimmten könnte.

Daraufhin wurde untersucht, ob die Befragten die Nutzung eines bestimmten Dienstes bewusst eingestellt haben, da dessen Betrieb von einem anderen Unternehmen, mit potentiell kontroversen Datenschutzbestimmungen, übernommen wurde.

87

Abbildung 19: Einstellung der Nutzung von Diensten nach Übernahme

Abbildung 19 zeigt, dass lediglich 23,1% der Befragten die Nutzung von Diensten, nach einer Übernahme eines anderen Unternehmens, eingestellt haben. 39,1% der Teilnehmer haben zumindest bereits in Erwägung gezogen bei der Übernahme eines Dienstes, dessen Nutzung einzustellen. Auf der anderen Seite haben 34,9%, trotz einer diesbezüglichen überdurchschnittlichen Sensibilisierung, noch nicht einmal in Erwägung gezogen aus dem genannten Grund die Nutzung eines Dienstes einzustellen. Die Auswertung der individuellen Antworten hat gezeigt, dass Übernahmen zum Teil gar nicht wahrgenommen werden. Diese Annahme bedarf einer weiteren Analyse, um dessen tatsächliche Bedeutung feststellen zu können. Auch die Gründe für das angegebene Verhalten könnten die Basis für eine weiterführende Forschungsarbeit darstellen. Insgesamt lässt sich die neunte Hypothese daher nur bedingt verifizieren.

Die zwölfte Frage überprüfte, inwiefern die Befragten über die rechtlichen Rahmen- bedingungen bezüglich der Erhebung und Verwendung von Daten Bescheid wissen. In Abbildung 20 wird ersichtlich, dass der Großteil der Anwender, nämlich rund 79,8% der Befragten, nicht oder nur eingeschränkt, über die rechtlichen Rahmenbedingungen die bezüglich der Erhebung und Verwendung ihrer Daten gelten, Bescheid wissen. 20,2% geben hingegen an, dass sie sich darüber im Klaren sind, wobei der tatsächliche Wissensstand mittels einer simplen Multiple-Choice Frage nur schwer festgestellt werden kann.

88

Abbildung 20: Bewusstsein bezüglich rechtlicher Rahmenbedingungen für die Datenerhebung

Um dies überprüfen zu können, wäre es notwendig, aufwendige Interviews, die von juristisch ausgebildeten Experten geleitet werden, durchzuführen, in denen die Teilnehmer mit konkreten Sachverhalten konfrontiert werden. Die zehnte Hypothese kann dadurch jedoch sehr wohl verifiziert werden, es bleibt lediglich offen, auf welchem Stand die Kenntnisse jener Befragten sind, die angegeben haben nur beschränkt Bescheid zu wissen.

6.2.4 Werbeanzeigen und Kaufempfehlung In der letzten Sektion der Umfrage wurde der Einfluss von Werbeanzeigen und Kaufempfehlungen auf die Teilnehmer der Befragung untersucht. Hierbei werden auch eine diesbezügliche zeitliche Entwicklung und die Einstellung zu Programmen, die Werbung unterdrücken und Online-Verhalten anonymisieren, analysiert.

Die erste Frage dieser Sektion, war danach ausgerichtet, ob Online-Werbeanzeigen und -Kaufempfehlungen den Interessen der Befragten entsprechen.

Abbildung 21 verdeutlicht, dass bei der Personalisierung von Werbeanzeigen und Kaufanzeigen noch einiges an Potential vorhanden ist. Auch wenn bereits eine Vielzahl an Unternehmen auf personenbezogene Daten Zugriff haben und somit bestimmte Zielgruppen identifizieren können, so wäre es möglich durch eine stärkere Vernetzung das individuelle Kundenbild noch genauer zu bestimmen und Werbemaßnahmen dementsprechend weiter zu optimieren.

89

Nicht zutreffend. Sehr zutreffend.

Abbildung 21: Übereinstimmung von Werbeanzeigen und Kaufempfehlungen mit den Interessen

Mittels der vierzehnten Frage wurde evaluiert, ob Werbeanzeigen und Kaufempfehlungen, im Vergleich zur Vergangenheit, als weniger störend empfunden werden. Abbildung 22 zeigt, dass lediglich 9,5% der Befragten Werbeanzeigen und Kaufempfehlungen, im Vergleich zu den letzten Jahren, durchwegs als angenehmer empfunden werden, da diese eher deren Interessen entsprechen.

Abbildung 22: Störfaktor von Werbeanzeigen und Kaufempfehlungen

Immerhin 37,3% nehmen einen Teil der Anzeigen positiver wahr. Dennoch zeigt diese Verteilung auf, dass die angewandten Werbemethoden großteils nicht überzeugen können, daher kann die elfte Hypothese nicht verifiziert werden. Damit die restlichen 53,2% eine positivere Einstellung zu geschalteten Anzeigen haben, gilt es die Effizienz bestehender 90

Werbemethoden zu evaluieren, sowie neue Werbemethoden zu entwickeln, um die Akquirierung potentieller Kunden maximieren zu können.

Folgend wurden die Teilnehmer der Studie befragt, ob sich diese bereits auf Grund von Werbeanzeigen oder Kaufempfehlungen für den Kauf, beziehungsweise für die Nutzung, eines Produkts oder Dienstes entschieden haben.

Kein Einfluss. Großer Einfluss.

Abbildung 23: Entscheidungsrelevanz von Werbeanzeigen und Kaufempfehlungen

Anders als in Hypothese 12 angenommen, entscheidet sich lediglich ein relativ kleiner Anteil der Befragten auf Grund von Werbeanzeigen für den Kauf, beziehungsweise die Nutzung, eines Produktes oder Dienstes. 74,2% haben sich nach eigenen Angaben nie oder nur sehr selten diesbezüglich durch Anzeigen beeinflussen lassen. Allerdings lässt diese Untersuchung offen, ob Kunden unbewusst von derartigen Werbemethoden beeinflusst werden. Auch diese Zusammenhänge sollten Gegenstand zukünftiger Forschungsarbeit werden.

Abschließend wurde in der sechzehnten Frage die generelle Einstellung zu Programmen, die Werbung unterdrücken und das Online-Verhalten anonymisieren, untersucht. Wie in Abbildung 24 ersichtlich, verfügen 72,6% der Teilnehmer über ein Programm, welches dazu dient, Werbung zu unterdrücken oder das Online-Verhalten zu anonymisieren. 88,1% inklusive der individuellen Antworten, äußern in der Befragung eine positive Einstellung gegenüber der Verwendung von Werbeanzeigen unterdrückenden und Online-Verhalten anonymisierenden Programmen. Dies unterstützt die These, die bei den vorhergehenden Fragen aufgestellt wurde und unterstreicht die Notwendigkeit einer Evaluierung bestehender Werbemethoden, sowie der

91

Entwicklung neuer Maßnahmen, um möglichst viele Kunden durch Marketingaktivitäten zu erreichen.

Abbildung 24: Einstellung zu Programmen zur Werbungsunterdrückung und Anonymisierung des Online-Verhaltens

Insgesamt zeigen die Ergebnisse, dass eine erhöhte Transparenz in Bezug auf die Geschäftsbedingungen und Datenschutzbestimmungen einen erheblichen Einfluss auf die Nutzung von Diensten haben könnte. Auch wenn ein Großteil der Befragten momentan noch eher dazu tendiert, kostenfreie Dienste, trotz unklarer Bedingungen, zu nutzen, so bleibt abzuwarten, wie sich diesbezügliche Entwicklungen fortsetzen. Außerdem hat die Untersuchung gezeigt, dass Werbungen, die bei bestimmten Diensten eingebunden werden, deutlich effektiver sein könnten. Durch zunehmende Datenmengen, wird es hierbei auch möglich sein, komplexere Analysen durchzuführen und bessere Einsichten bezüglich der Effektivität von Werbemaßnahmen zu bekommen.

Die Einstellung von Einzelpersonen und Gruppen hat einen maßgeblichen Einfluss auf die gesamte Wirtschaft und damit auch auf vergangene und zukünftige Entwicklungen im Bereich Big Data, da sie sowohl Kunden, als auch Anwender und Entwickler repräsentieren. Wie bereits im Laufe dieser Arbeit ausgeführt wurde, existieren weitere Dimensionen mit wechselseitigen Einflüssen, die es zu berücksichtigen gilt. Mehr dazu im folgenden Kapitel.

92

7 Interdimensionale Wechselwirkungen Nach Cavanillas et al (2016) birgt die effiziente Nutzung von Big Data großes Potenial – sowohl für die Wirtschaft, als auch für die Gesellschaft. Damit dieses Potential auch genutzt werden kann, müssen einige Herausforderungen in verschiedenen Bereichen überkommen werden. Diese Bereiche, beziehungsweise Dimensionen, sind in Abbildung 25 illustriert, die damit verbundenen Herausforderungen werden folgend im Detail beschrieben [Cavanillas et al. 2016, S.8f].

Abbildung 25: Dimensionen eines Big Data Ökosystems [vgl. Cavanillas et al. 2016, S.9]

• Daten: Die Verfügbarkeit und die Zugänglichkeit von Daten stellt, neben den Nutzern, die Grundlage für jedes datenzentrische Ökosystem dar. Es existiert eine weite Bandbreite an verschiedenen Datentypen, nämlich: strukturierte, unstrukturierte, maschinen- und sensorgenerierte, sowie statische und dynamische Daten, die beinahe in Echtzeit erhoben und ausgewertet werden können. Diese Daten stammen wiederum aus den unterschiedlichsten Quellen, die sowohl privater, als auch öffentlicher Natur sein können. Hierbei kann auch die Wertschöpfung unterschiedliche Formen annehmen, unter anderem die Erhebung und Analyse von Daten, die Verbesserung der

93

Datenqualität, die Sicherstellung der Integrität von Daten, sowie die Bewahrung der Privatsphäre [Cavanillas et al. 2016, S.8f]. • Fähigkeiten: Wie bereits erwähnt, ist auch die Verfügbarkeit von qualifizierten Spezialisten ein besonders wesentlicher Aspekt, der nicht vernachlässigt werden darf. Hierbei ist es von großer Bedeutung, das Ausbildungsangebot anzupassen, sowie auch innerhalb von Organisationen Fortbildungen anzubieten. Darüber hinaus ist es wichtig, Daten- und Domänenexperten zusammenzubringen, damit diese gegenseitig von der Expertise des anderen profitieren können und somit die Wertschöpfung von Organisationen maximiert werden kann [Cavanillas et al. 2016, S.9]. • Rechtlich: Damit auf einer globalen Ebene miteinander kooperiert werden kann, ist es notwendig, dass entsprechende rechtliche Rahmenbedingungen definiert werden, damit die Interessen aller involvierter Parteien gewahrt und deren Rechte geschützt werden können. Hierbei muss rechtliche Klarheit in Bezug auf Themen wie dem Dateneigentum, der Verwendung von Daten, dem Datenschutz, der Datensicherheit, der Haftung, der Cyber-Kriminalität, dem geistigen Eigentums, sowie die Regelung von Konkursen und Insolvenzen herrschen [Cavanillas et al. 2016, S.9]. • Technologisch: Um den Anforderungen, die mit Big Data einhergehen, gerecht werden zu können, müssen auch in technologischer Hinsicht einige Herausforderungen überkommen werden. Zu diesen Herausforderung zählen unter anderem die Erhebung, die effiziente Speicherung, die Analyse in Echtzeit, die Aufbereitung, die Bereinigung und die Verlinkung großer heterogener Datenmengen, sowie die Visualisierung von Resultaten, um relevante Informationen möglichst gut sichtbar zu machen [Cavanillas et al. 2016, S.9]. • Anwendungen: Big Data hat das disruptive Potential, ganze Branchen und Bereiche nachhaltig zu verändern. Um dies zu ermöglichen, ist es jedoch notwendig, neue leistungsfähige Applikationen und Lösungen zu entwickeln, zu validieren und schlussendlich bereitzustellen, um aus den Daten auch einen entsprechenden Mehrwert extrahieren zu können [Cavanillas et al. 2016, S.9f]. • Wirtschaftlich: Wirtschaftlich gesehen, kann ein Big Data Ökosystem die Transformation bestehender Branchen und das Aufkommen neuer Geschäftsmodelle rapide vorantreiben, womit wahrscheinlich auch Impulse für Beschäftigung und Wirtschaftswachstum einher gehen würden. Damit dies erreicht werden kann, ist es 94

jedoch wichtig, dass alle hier behandelten Dimensionen bei jeder Planungsaktivität stets berücksichtigt werden [Cavanillas et al. 2016, S.10]. • Sozial: Im sozialen Bereich ist es besonders wichtig, dass Bürger nicht nur auf die Risiken, die mit Big Data einhergehen, aufmerksam gemacht werden, sondern dass auch die positiven Aspekte verdeutlicht werden. Besonders wichtige Themen sind hierbei die Steigerung der Effizienz im Gesundheitswesen, die Erhöhung der Lebensqualität in Städten, die transparente Gestaltung staatlicher Abläufe, sowie die Steigerung der Nachhaltigkeit in verschiedenen Bereichen [Cavanillas et al. 2016, S.10].

Damit sich Organisationen langfristig etablieren können, reicht es nicht nur, interne Vorgänge zu optimieren, sowie innovative Techniken zu evaluieren und gegebenenfalls einzusetzen: Es gilt auch das externe Umfeld zu analysieren und beides aufeinander abzustimmen. Wenn hierbei die stets aktiven Anpassungsprozesse betrachtet werden, lassen sich auch eine Vielzahl an Parallelen zu der Evolution natürlicher Ökosysteme erkennen, zu welchen im folgenden Kapitel entsprechende Assoziationen aufgezeigt werden [Yoo et al. 2014, S.338f].

7.1 Wirtschafts-Ökosysteme Natürliche Ökosysteme entwickeln sich im Laufe der Evolution stetig weiter und werden durch Offenheit, Vielfalt, sowie Interaktionen zwischen den Individuen und Gruppen geprägt. Hierbei agieren alle lebenden Organismen als autonome Individuen, die miteinander interagieren und kooperieren. Durch diese Verbindungen formen sich Netzwerke, die sich einerseits durch diese Koexistenz und andererseits durch den allgegenwärtigen Koevolutionsprozess auszeichnen. Ebenso wie natürliche Ökosysteme werden Geschäftsnetzwerke durch eine große Anzahl lose vernetzter Teilnehmer charakterisiert, die von ihrem direkten und indirekten Netzwerk abhängig sind, um effektiv funktionieren zu können [Yoo et al. 2014, S.338f].

Es bleibt jedoch festzuhalten, dass neben den grundlegenden Gemeinsamkeiten auch einige Unterschiede zwischen natürlichen Ökosystemen und der Umwelt einer Organisation beziehungsweise einem Wirtschafts-Ökosystem vorhanden sind. Die Akteure in Wirtschafts- Ökosystemen sind fähig zu planen, wodurch eine langfristige Orientierung und strategische Planungsaktivitäten einen hohen Stellenwert einnehmen. Außerdem konkurrieren die Mitglieder eines Wirtschafts-Ökosystems untereinander und es wird nach kontinuierlicher

95

Innovation gestrebt, wohingegen in natürlichen Ökosystemen das reine Überleben im Vordergrund steht und der Prozess der Evolution in erster Linie auch insbesondere diesem Ziel dient [Yoo et al. 2014, S.339]. Damit sich ein Unternehmen langfristig erfolgreich etablieren kann, ist es notwendig, dass das gesamte Ökosystem sorgfältig analysiert wird und dass auch Faktoren auf der Mikro- und der Makroebene in der Unternehmensstrategie weitgehend berücksichtigt werden. Für jede Organisation gibt es vier relevante Stakeholder, nämlich die Gesellschafter und Aktionäre, das Personal, direkte und indirekte Versorger, sowie die Abnehmer der erbrachten Leistung [Yoo et al. 2014, S.339].

J. F. Moore (1993) definiert Wirtschafts-Ökosysteme als eine ökonomische Gemeinschaft, getragen von einem Fundament interagierender Organisationen und Individuen, die Produkte und Dienste anbieten, die einen bestimmten Wert für deren Kunden haben. Diese Kunden sind wiederum auch ein Teil des Wirtschafts-Ökosystems. Die Mitgliedsorganisationen umfassen Lieferanten, Produzenten, Mitbewerber und weitere Stakeholder. Im Laufe der Zeit entwickeln und verändern sich die Fähigkeiten und Rollen der Wirtschaftsakteure, wobei der wechselseitige Einfluss, die die verschiedenen Akteure aufeinander haben, eine wichtige Rolle spielt [Moore 1993].

Des Weiteren tendieren Organisationen dazu, ihre Strategie an das Vorgehen der Marktführer anzupassen, wobei es hier Ausnahmen gibt. Entrepreneure und Innovatoren verfolgen hingegen oftmals einen kundenorientierten Ansatz und involvieren die Kunden in die Weiterentwicklung der angebotenen Produkte, beziehungsweise Dienste und gehen somit einen anderen Weg [Moore 1993; Heyne et al. 2010]. Die Organisationen, die die Rolle des Marktführers innehaben, können im Laufe der Zeit abgelöst werden. Allerdings ist die Funktion der Marktführer für die Gemeinschaft sehr wertvoll, da es den Mitgliedern des Wirtschafts- Ökosystems ermöglicht, unterschiedliche Sichtweisen anzunähern, um somit Investitionen koordinieren und wechselseitig unterstützende Rollen einnehmen zu können [Moore 1993].

Das Wirtschafts-Ökosystem kann in drei Schlüsselbereiche untergliedert werden: das Kerngeschäft, das erweiterte Geschäftsumfeld und das gesamtheitliche Wirtschafts- Ökosystem. Das Kerngeschäft kann wiederum in weitere Komponenten unterteilt werden, nämlich die Kernleistung, direkte Lieferanten und direkte Abnehmer. Das erweiterte Geschäftsumfeld unterstützt und umschließt das Kerngeschäft und bildet die Abhängigkeiten der eigenen Lieferanten und Kunden ab, also wiederum die Verbindungen zu deren Versorgern 96

und Abnehmern. Dies geht so weit, bis alle direkten und indirekten Abhängigkeiten abgebildet sind. Zu einem Wirtschafts-Ökosystem zählen neben den Stakeholdern der Organisationen auch staatliche Institutionen und Aufsichtsbehörden, die den regulatorischen Rahmen vorgeben. Darüber hinaus werden die direkten, sowie potentielle Konkurrenten des erweiterten Geschäftsumfelds ebenfalls miteinbezogen [Moore 2006]. In Abbildung 26 ist ein Model des eben beschriebenen Wirtschafts-Ökosystems nach J. F. Moore ersichtlich.

Abbildung 26: Wirtschaftsökosystem [ vgl. Moore 2006]

Im nächsten Kapitel werden wissenschaftliche Arbeiten, die Big Data-Ökosysteme behandeln, betrachtet. Die relevanten Aspekte dieser Modelle werden identifiziert und mit J.F. Moore’s Model des Wirtschafts-Ökosystems kombiniert, um auf dieser Basis ein Big Data- Wirtschaftsökosystem zu konstruieren und somit die Grundlage für eine umfassende Analyse einer gesamtheitlichen Sicht zu ermöglichen.

7.2 Big Data-Ökosysteme Big Data ist ein neuer Faktor der sich in das Wirtschafts-Ökosystem einfügt und einige Branchen bereits heute maßgeblich beeinflusst. Es dient als Plattform für Innovation und trägt zur Wertschöpfung in den unterschiedlichsten Unternehmensbereichen bei. Da die Möglichkeiten zur Nutzung von Big Data kontinuierlich zunehmen, weisen diesbezügliche 97

Märkte komplementär dazu ein rasantes Wachstum auf. Die Bedeutung von Big Data wird auch in umfangreichen Investierungsplänen verschiedener Staaten und einer Vielzahl an Unternehmen widergespiegelt, die darauf abzielen, industrielles Wachstum zu fördern, deren Marktanteile auszubauen und sich international zu behaupten [Yoo et al. 2014, S.337].

Es ist notwendig, das Big Data-Ökosystem zu verstehen, damit der Markt angemessen analysiert werden kann und somit das volle Potential der eng mit Big Data in Beziehung stehenden Branchen, wie dem Mobile Device- oder Cloud Computing-Markt, ausschöpfen zu können. Um Erkenntnisse bezüglich Big Data und industriellen Ökosystemen zu gewinnen, werden bedeutende wissenschaftliche Arbeitet analysiert, wobei naturwissenschaftliche Theorien, die sich auf natürliche Ökosysteme beziehen, einen speziellen Stellenwert einnehmen [Yoo et al. 2014, S.337].

In dem ersten Ansatz klassifizieren Ryan & Co Analysis (2013) die Akteure des Big Data- Ökosystems als Nutzer, Anbieter und die Daten selbst. Wobei die Nutzer als die Konsumenten von Big Data Diensten und die Anbieter als die Produzenten von diesen Diensten bezeichnet werden. Die Daten beschreiben in diesem Kontext das, zwischen den Entitäten gehandelte, Gut, welches wiederum entweder als private oder öffentliche Daten klassifiziert werden kann. Die Anbieter unterteilen sich in Service und Solution Provider. Bei Service Providern handelt es sich um IT-Dienstleistungsunternehmen, die ihren Kunden zumeist standardisierte Dienste anbieten. Solution-Provider bieten ebenfalls IT-Dienstleistungen an, wobei deren Angebot allerdings direkt auf die Bedürfnisse des jeweiligen Kunden ausgerichtet ist. Um dies bewerkstelligen zu können, ist es notwendig, dass der Anbieter über eine hohe fachliche Kompetenz verfügt und in der Lage ist, seinen Kunden gesamtheitliche Lösungen anzubieten [Ryan & Co Analysis 2013]. Bei Nutzern wird zwischen privaten Nutzern, Organisationen, staatlichen Behörden und Institutionen die als Fachgruppen fungieren, unterschieden. Wohingegen die Akteure des natürlichen Ökosystems in Produzenten, Konsumenten und Destruenten unterteilt werden [Yoo et al. 2014, S.338f]. Das Besondere an diesem Ansatz, welcher in Abbildung 27 im Vergleich zum natürlichen Ökosystem illustriert ist, ist, dass die Daten als einer der Akteure in dem Big Data-Ökosystem repräsentiert werden [Ryan & Co Analysis 2013].

98

Abbildung 27: Natürliches Ökosystem und das Ökosystem nach Ryan & Co Analysis 2013 [vgl. Yoo et al. 2014, S.341; Ryan & Co Analysis 2013 ].

In dem zweiten Ansatz von Cho et al. (2012) werden die Akteure des Big Data-Ökosystems als Nutzer, Werterzeuger und Big Data klassifiziert. Big Data wird hierbei wiederum in öffentliche, beziehungsweise staatliche und private Daten unterteilt, welche von Organisationen verschiedener Branchen und Privatpersonen generiert werden. Darüber hinaus werden auch weiterverarbeitete Daten, sowie die Beziehung zwischen den Daten selbst und den verschiedenen Erzeugungsquellen bei diesem Ansatz ebenfalls miteinbezogen. Nutzer werden in Big Data-Produzenten, die Daten erzeugen und Big Data-Verteiler unterschieden, die Daten Umlauf bringen [Cho et al. 2012]. In Abbildung 28 ist das Big Data-Ökosystem nach Cho et al. (2012), im Vergleich zum vorhergehenden Modell, abgebildet.

Abbildung 28: Das Big Data-Ökosystem nach Ryan & Co Analysis und nach Cho et al. [vgl. Ryan & Co Analysis 2013; Cho et al. 2012 ]

99

Der dritte untersuchte Ansatz stammt von der Big Data Working Group, des National Institute of Standards and Technology (NIST), welches in erster Linie gegründet wurde, um eine Technologie Roadmap zu erstellen. Die Roadmap wurde zu dem Zweck entworfen, Analysetechniken, die technologische Infrastruktur und die Verwendung der Daten abstrahiert und standardisiert zu definieren, um die Integration von Big Data für Organisationen einfacher und sicherer zu gestalten. Die Erzeugung von Big Data beruht nach NIST (2013) auf dem Konsens der Definitionen, der Taxonomien und Sicherheitsreferenzarchitekturen. Daher steht hierbei die Entwicklung eines Frameworks, welches die Wahl einer geeigneten Technologie und Infrastruktur erleichtert im Vordergrund. Dies würde Big Data Stakeholdern dabei helfen die, für die jeweiligen Anforderungen, am besten geeigneten Werkzeuge und Methoden und Technologien für die Analyse, Verarbeitung und Visualisierung auszuwählen [Grady et al. 2013].

Abbildung 29: Akteure des Big Data Ökosystems nach der NIST Big Data Working Group (2013) [vgl. Grady et al. 2013].

Der NIST Big Data Public Working Group (2013) zufolge sind die Akteure von Big Data in Datenanbieter, Datenanwender, System-Orchestratoren, Anbieter von Big Data-Anwendungen und Anbieter von Big Data-Frameworks unterteilt. Datenanbieter sorgen dafür, dass interne, sowie externe Daten für das System verfügbar gemacht werden. Datenanwender nutzen die Produktion des Systems, also Informationen, die durch die Verarbeitung und Analyse von Big Data generiert wurden. System-Orchestratoren obliegt es, Anforderungen zu definieren, Governance-Aufgaben zu erfüllen, sowie das Monitoring und den Support von Big Data- Anwendungen handzuhaben. Des Weiteren bietet der Provider des Big Data-Frameworks 100

unterstützende Ressourcen zur Leistungserbringung an. In Abbildung 29 ist das von der NIST Big Data Public Working Group entwickelte Konzept ersichtlich [Grady et al. 2013].

Der vierte Ansatz von Turck und Zilis (2012) wurde als Open-Source Projekt angelegt, damit dieses von dem Input externer Personen profitieren kann. Ziel des Projekts ist es, das sich rasant entwickelnde Big Data-Ökosystem und nach Möglichkeit all dessen Dimensionen zu erklären. Hierbei wurde das Ökosystem in folgende Segmente unterteilt: Infrastruktur, Analytik, Anwendungen, Open Source Projekt und Datenquellen. Diese Klassifizierung stützt sich einerseits auf die Datenanalyse von Unternehmen, deren Geschäftstätigkeiten durch die Verwendung von Big Data unterstützt werden oder darauf basieren und andererseits auf der Analyse bestehender Literatur. Das hierbei entwickelte Modell des Big Data-Ökosystems ist in Abbildung 30 ersichtlich [Turck & Zilis 2012].

Abbildung 30: Big Data-Ökosystem nach Turck & Zilis (2012) [vgl. Turck & Zilis 2012].

Die Produzenten und Konsumenten natürlicher Ökosysteme sind vergleichbar mit den Nutzern und Service Providern von Big Data-Ökosystemen. Wohingegen die Daten in einer ganz anderen Art und Weise dargestellt werden als die Destruenten natürlicher Ökosysteme. Dies verdeutlicht die einzigartige und bedeutende Rolle die von den Daten als Akteur in Big Data- Ökosystemen eingenommen wird. In den Studien von der NIST Big Data Public Working Group (2013), sowie von Turck und Zilis (2012) existieren noch weitere Akteure, nämlich Applikations- und Framework-Provider. Dies unterstreicht, dass eine sorgfältige Analyse des Umfelds eine elementare Rolle spielt, um das Big Data-Ökosystem möglichst exakt definieren zu können. Die Kern-Akteure eines Big Data-Ökosystems, die auf Basis der eben behandelten

101

Studien identifiziert wurden, umfassen Service Nutzer, Infrastruktur Anbieter, sowie Dateninhaber und sind in Abbildung 31 ersichtlich [Yoo et al. 2014, S.343].

Abbildung 31: Kernkomponenten eines Big Data-Ökosystems [vgl. Yoo et al. 2014, S.344].

Um das Wirtschafts-Ökosystem von Big Data zu beschreiben, wird Moore’s Klassifikation des Wirtschaftsökosystems herangezogen, welches — wie bereits erwähnt — in die drei Schlüsselbereiche Kerngeschäft, erweitertes Geschäftsumfeld und das gesamtheitliche Wirtschaftsökosystem unterteilt werden kann [Yoo et al. 2014, S.344]. Im folgenden Kapitel werden die Schlüsselakteure und deren Beziehungen untereinander untersucht, um infolgedessen das gesamtheitliche Big Data-Wirtschaftsökosystem zu konstruieren.

7.2.1 Schlüsselakteure des Big Data-Wirtschaftsökosystems Nach Yoo et al. (2014) speichern und verwalten Dateninhaber die Daten, die über deren Dienste und andere Geschäftsaktivitäten gesammelt werden, entweder automatisch oder manuell. Der wichtigste Akteur im Big Data-Ökosystem generiert oder schafft neuen Wert auf der Grundlage von Big Data. Daten, die sich im Besitz von nationalen Behörden befinden, unterliegen bestimmten datenschutzrechtlichen Bestimmungen, die das Potential der Generierung neuen Wertes durch die Verarbeitung von Big Data limitiert und werden auch als staatliche Daten bezeichnet. Ein Beispiel hierfür sind Daten des nationalen Gesundheitswesens, die sich normalerweise im Besitz staatlicher Krankenversicherungen befinden.

102

Private Daten können in zwei verschiedene Typen klassifiziert werden, nämlich in Daten, die sich im Besitz von Organisationen befinden und Daten im direkten Eigentum des Nutzers. Letztere können auch von einer Organisation gespeichert und speziell vertraulich gehandhabt werden – allerdings ist deren Verwendungsspektrum deutlich eingeschränkt. Es ist jedoch möglich, derartige Daten zu anonymisieren bevor sie analysiert und weiterverarbeitet werden, um somit die Privatsphäre des Einzelnen zu schützen. Dabei müssen bestimmte Aspekte berücksichtigt werden, damit es auch durch die Kombination diverser Datensätze nicht möglich ist, bestimmte Informationen spezifischen Individuen zuzuordnen. Ein weiterer Datentyp sind soziale Daten. Diese beziehen sich auf Daten, die durch die Nutzer in sozialen Netzwerken generiert werden und von Organisation zu verschiedensten Analyse-, sowie zu Werbe- und Marketingzwecken genutzt werden [Yoo et al. 2014, S.344].

Der Erhebungsprozess der Daten kann nach Yoo et al. (2014) in zwei Kategorien unterteilt werden. Erstens in die manuelle Erhebung von Daten, die einen im Vorhinein definierten Zweck erfüllt. Hierbei werden im Vorfeld das zu lösende Problem und soweit möglich die zu erwartenden Ergebnisse definiert. Zweitens die automatische Erhebung von Daten, die als Nebenprodukt der bestehenden Geschäftstätigkeiten anfallen und der Zweck der Datenerhebung — im Gegensatz zur manuellen Datensammlung — zumeist nicht im Detail festgelegt wird. Im Zuge der Verarbeitung der erhobenen Daten werden diese analysiert, um wertvolle Erkenntnisse herauszuarbeitenden, mit dem Ziel durch diese Informationen die Ziele einer Organisation effektiver und effizienter zu erreichen. Eine sehr verbreitete Form der Datenaufbereitung ist die Visualisierung der herausgearbeiteten Erkenntnisse. Dadurch werden die Ergebnisse greifbarer und sind bei der Entscheidungsfindung eine leichter zu nutzende Quelle der Unterstützung [Yoo et al. 2014, S.345].

Service Nutzer verwenden die, je nach deren Bedürfnissen, aufbereiteten Daten über einen Dienst. Die Nutzer, die diesen Mehrwert in Anspruch nehmen, können in staatliche Institutionen, sowie privatwirtschaftliche Organisationen und Privatpersonen unterteilt werden. Im Ökosystem stellen Service Nutzer also somit die Konsumenten dar, die die Big Data Dienste kostenpflichtig oder unentgeltlich in Anspruch nehmen. Im Falle einer unentgeltlichen Servicenutzung werden durch den Provider oftmals weitere Daten gesammelt, die für den Anbieter selbst oder andere Abnehmer einen gewissen Wert darstellen. Des Weiteren ist es

103

wichtig hervorzuheben, dass die Konsumenten, beziehungsweise Service Nutzer, oftmals auch die Rolle der Produzenten einnehmen und selbst Daten generieren [Yoo et al. 2014, S.344].

Staatliche und öffentliche Institutionen nutzen Big Data, um Risiken einschätzen zu können, Katastrophen vorherzusagen, die Lebensqualität durch verschiedene Maßnahmen zu verbessern oder Verwaltungsprozesse effektiver zu gestalten. Privatwirtschaftliche Unternehmen nutzen Big Data einerseits, um Marketingkampagnen zu personalisieren und somit individuell auf adressierte Personenkreise anzupassen. Andererseits werden durch die Analyse von Big Data neue Lösungsansätze entwickelt, um spezifische Probleme für Kunden zu lösen. Dabei reichen die Anwendungen von der Optimierung von Verkehrsrouten bis hin zu Kaufempfehlung für bestimmte Produkte und Dienste [Yoo et al. 2014, S.344f].

Service Provider sind mit den Produzenten natürlicher Ökosysteme vergleichbar, sie interagieren mit den Infrastruktur Providern, so wie die Produzenten natürlicher Ökosysteme dies mit ihrer Umwelt tun. Durch diese Interaktion wird ein bestimmter Wert generiert, der wiederum von Konsumenten, beziehungsweise Nutzern in Anspruch genommen wird. In Big Data-Ökosystemen reichen die Aufgaben des Service Providers von der Sammlung, der Speicherung, der Verarbeitung und der Analyse, bis hin zur Aufbereitung von Daten, die je nach den Anforderungen des Kunden, kombiniert oder als einzelner Dienst angeboten werden können [Yoo et al. 2014, S.345].

Infrastruktur Service Provider verwalten Technologien und Infrastrukturen, die den Betrieb von Big Data Diensten ermöglichen. Die Infrastruktur kann in Hardware-, Software- und Netzwerkinfrastruktur unterteilt werden. Die Infrastrukturanbieter sind hierbei ein treibender Faktor bei der Weiterentwicklung von Big Data, da sie die nötigen Speicherressourcen, die Rechenleistung und das Netzwerk mit einer entsprechenden Dienstgüte zur Verfügung stellen, die die Sammlung, Speicherung und Verarbeitung derart großer Datenmengen überhaupt erst ermöglichen [Yoo et al. 2014, S.345].

7.2.2 Das Wirtschafts-Ökosystem von Big Data Nachdem die Schlüsselakteure im vorhergehenden Kapitel identifiziert wurden, wird in diesem Abschnitt das gesamtheitliche Wirtschaftsökosystem von Big Data näher untersucht. Die Analyse basiert auf J.F. Moore‘s Wirtschafts-Ökosystemmodell, der in Anlehnung an allgemein

104

gültige Mechanismen natürlicher Ökosysteme, Aussagen über die Koevolution von Organisationen in deren Netzwerken trifft [Yoo et al. 2014, S.337f; Moore 1993].

Das Wirtschaftsökosystem von Big Data, wie es in Abbildung 32 ersichtlich ist, bildet eine Wirtschaftsgemeinschaft ab, die das Kerngeschäft, sowie das erweiterte Geschäftsumfeld umfasst. Darüber hinaus sind Standardisierungsgremien, staatliche Institutionen, Forschungs- einrichtungen und andere relevante Organisationen ebenfalls Teil des Ökosystems. Diese Gemeinschaft ist abhängig von ihrer Umwelt, Sicherheitsaspekten, Datenschutzregulationen, der Konkurrenz innerhalb des Marktes und vielen weiteren Faktoren. Das Kerngeschäft des Wirtschafts-Ökosystems bildet das Big Data-Ökosystem selbst. Neben den direkten Versorgern und Konsumenten innerhalb des Kerngeschäfts, gibt es auch noch indirekte Versorger und Konsumenten. Indirekte Versorger umfassen hierbei externe Datenquellen, wie Endgeräte, diverse Sensoren, das „Internet der Dinge“, soziale Netzwerke, sowie das Internet an sich. Zu den indirekten Konsumenten zählen staatliche Organe, der Finanz- und Kommunikationssektor, Vertriebsorganisationen, der Gesundheitssektor, sowie die Wissenschaft und Forschung [Yoo et al. 2014, S.345f].

Abbildung 32: Big Data-Wirtschaftsökosystem [vgl. Yoo et al. 2014, S.346]

105

7.2.3 Das Wirtschafts-Ökosystem von Big Data In diesem Kapitel werden zuerst die Konzepte und Akteure des Big Data-Ökosystems näher untersucht, um infolgedessen das Kerngeschäft eines Big Data-Wirtschaftsökosystems zu konstruieren und auf die davon abhängigen Faktoren im Detail eingehen zu können. Das Konzept des Wirtschaftsökosystems von Big Data beruht auf dem Verständnis der dynamischen Beziehungen zwischen den Akteuren des Big Data-Ökosystems. Basierend auf der Synthese der analysierten Literatur kann gefolgert werden, dass das Big Data-Ökosystem und somit das Kerngeschäft ein dynamisches Netzwerk ist, welches sich aus dem Dateninhaber, Service Nutzern, Service Providern und der Infrastruktur, sowie deren Anbieter zusammensetzt, die in ihrer Gesamtheit einen Mehrwert generieren [Yoo et al. 2014, S.345f].

Dateninhaber erheben und verwalten große Mengen an Daten, mögliche Datenquellen sind hierbei diverse Sensoren, sowie die Nutzer von Diensten selbst. Service Provider nutzen diese Daten und bieten den Service Nutzern, die deren Dienst in Anspruch nehmen, einen gewissen Mehrwert. Bei dem Anbieter der Infrastruktur handelt es sich um denjenigen Akteur, der die Hardware-, Software- und Netzwerk-Infrastruktur anbietet und somit dem Service Provider die Betreibung seiner Dienste und dem Dateninhaber die Speicherung, sowie gegebenenfalls die Vorverarbeitung seiner Daten ermöglicht. Hierbei bleibt anzumerken, dass ein Akteur in dem Ökosystem gegebenenfalls auch mehrere Rollen einnehmen kann. Zu dem vollständigen Wirtschaftsökosystem von Big Data zählen neben dem Kerngeschäft auch das erweiterte Geschäftsumfeld, sowie das gesamtheitliche Wirtschafts-Ökosystem. Das Kerngeschäft umfasst somit, wie in Abbildung 33 ersichtlich, Dateninhaber, Service Nutzer, Service Provider und Infrastruktur Provider [Yoo et al. 2014, S.346f].

106

Abbildung 33: Kerngeschäft eines Big Data-Wirtschaftsökosystem [vgl. Yoo et al. 2014, S.346].

Das Big Data-Wirtschaftsökosystem ist ein dynamisches Gefüge, das von einer Vielzahl an Faktoren beeinflusst wird. Damit sich ein Unternehmen langfristig etablieren, oder eine staatliche Institution effizient arbeiten kann, muss das Umfeld stets genau analysiert und — wenn nötig — strategische oder operative Anpassungen vorgenommen werden, um den internen und externen Anforderungen gerecht zu werden. Im speziellen beim Umgang mit Big Data gibt es besondere Aspekte zu berücksichtigen. Einerseits gilt es einen besonderen Mehrwert zu generieren und andererseits ist es notwendig, die Rechte aller involvierten Personen und Parteien zu wahren, sowie nach Möglichkeit die Bedürfnisse aller Stakeholder zu erfüllen.

8 Conclusio Die Menge an Daten, die weltweit erzeugt und abgespeichert werden, steigt exponentiell an, wodurch auch die Anforderungen an die IT-Infrastruktur stetig zunehmen. Gleichzeitig sinken kontinuierlich die Kosten für Hardwarekomponenten und es wird immer praktikabler Datenverarbeitungsaufgaben auszulagern. Aus diesen Gründen entscheiden sich zunehmend mehr Organisationen zu dem Outsourcing bestimmter Unterstützungsaktivitäten, nicht zuletzt, um sich auf ihr Kerngeschäft konzentrieren zu können. Eine verstärkte Tendenz zur Nutzung ausgelagerter Dienstleistungen lässt sich sowohl im Bereich der Datenverarbeitung, als auch im Bereich der Datenspeicherung erkennen, wobei hier oftmals Dienste von Cloud-Anbietern genutzt werden. Diese Entwicklung erlaubt auch kleineren Organisationen, denen weniger

107

Ressourcen zur Verfügung stehen, die aufwendige Verarbeitung großer Datenmengen zu bewerkstelligen, ohne im Vorfeld große Investitionen tätigen zu müssen. Dadurch werden sowohl direkt, als auch indirekt Innovationen in vielen Bereichen angeregt.

Ebenso spielen Endgeräte von Privatpersonen für die Verbreitung und Weiterentwicklung von Big Data eine immer wichtigere Rolle, da durch diese nicht nur Daten erhoben werden, sondern zum Teil auch bereits vorverarbeitet werden können. Überdies ist zu erwarten, dass das „Internet der Dinge“ diese Entwicklung weiter vorantreiben wird, da durch dieses Konzept Big Data zunehmend in alltägliche Abläufe eingebunden wird. Die Anzahl der „Dinge“, die mit dem Netzwerk verbunden sind, wächst — genauso wie die Menge an Daten — exponentiell an. Wodurch wiederum die Generierung und Verarbeitungsmöglichkeiten immer größerer Datenmengen ermöglicht werden. Die zunehmende Menge an Informationen schafft die Voraussetzung, um automatisiert präzisere Aussagen und Vorhersagen treffen zu können, sodass die Entwicklung autonom agierender Systeme ermöglicht wird. Derartige Systeme sind in der Lage komplexe Probleme eigenständig zu lösen und können gegebenenfalls die Kommunikation mit anderen Systemen selbst initiieren und koordinieren.

Die zunehmende Vernetzung erlaubt auch neue Formen der Kooperation, die wiederum potentiell die Zusammenarbeit zwischen Organisationen, anderen unabhängigen Gruppen oder Individuen vereinfachen werden. Ebenso können sowohl der Austausch, als auch die Analyse von Informationen durch Big Data Technologien deutlich effizienter realisiert werden. Aufgrund dessen wird es ermöglicht, Innovationsprozesse flexibler zu gestalten, wodurch auch eine offene Einbindung interner und externer Ressourcen ermöglicht wird. Damit derartige Big Data Konzepte, bei denen der Austausch und die Analyse von Daten im Fokus stehen, umgesetzt werden können, ist es notwendig, bestimmte gesetzliche Rahmenbedingungen einzuhalten.

Allerdings müssten in einigen Bereichen vom Gesetzgeber noch strengere gesetzliche Regelungen definiert werden, sodass die Interessen aller involvierten Akteure angemessen vertreten werden können. Eine besondere rechtliche Herausforderung stellt hierbei auch der Datenaustausch über Ländergrenzen hinweg dar. Die im Rahmen dieser Arbeit durchgeführte Studie unterstreicht die Bedeutung einer transparenten Ausgestaltung von rechtlichen Grundlagen und allgemeinen Geschäftsbedingungen für eine breitere Akzeptanz von Big Data

108

und der Nutzung von Daten im Allgemeinen. Auch Personen ohne juristischen Hintergrund sollten demnach dazu befähigt sein, deren Verpflichtungen und Rechte innerhalb einer angemessenen Zeitspanne erfassen zu können.

Durch strengere Datenschutzbestimmungen und die Forderung nach transparenten Geschäfts- bedingungen werden allerdings nicht nur Hürden, sondern auch Möglichkeiten zur Akquisition und langfristigen Bindung von Kunden geschaffen. Die Umfrage, die im Zuge dieser Arbeit durchgeführt wurde, zeigt auf, dass den meisten Nutzern strengere Datenschutzbestimmungen ein wichtiges Anliegen sind. Das steht in gewissem Widerspruch dazu, dass einem Großteil der befragten Personen die Ausgestaltung von allgemeinen Geschäftsbedingungen in Bezug auf Erhebungsmethoden und Verwendungszwecke von personenbezogenen Daten nicht oder nur bedingt bewusst sind. Eine transparente Aufgliederung der wichtigsten Verpflichtungen und Leistungen, sowie ein vertrauenswürdiges Auftreten könnten sowohl für potentielle, als auch für bestehende Kunden einen erheblichen Mehrwert darstellen. Dieser Mehrwert kann für Organisationen wiederum in einem bedeutenden Wettbewerbsvorteil gegenüber der Konkurrenz resultieren. Vertraulichkeit hat hierbei das Potential zu einem Geschäftsmodell: Wie im Zuge dieser Arbeit festgestellt wurde, wäre ein Großteil der Befragten bereit, für bestimmte Dienste, die Informationen vertraulich behandeln, einen gewissen Betrag auszugeben. Da im Rahmen der Studie, diesbezüglich jedoch nicht ausreichend in die Tiefe gegangen werden konnte, besteht hier noch weiterer Forschungsbedarf mit speziellem Schwerpunkt auf den Anforderungen potentieller Kunden in Hinblick auf das Leistungsversprechen.

Ein weiteres Forschungsthema wären auch die Auswirkungen kontroverser Datenschutz- bestimmungen auf die Nutzung von Diensten. Besonders wenn sich Geschäftsbedingungen empfindlich verändern, wie dies zum Beispiel bei einer Übernahme durch ein anderes Unternehmen der Fall sein kann. Im Zuge der Arbeit hat sich angedeutet, dass derartige Übernahmen oftmals nicht wahrgenommen werden. Um Privatpersonen in solchen Fällen besser zu schützen, deutet sich hier die Notwendigkeit strengerer gesetzlicher Regelungen an. Hierbei könnte festgelegt werden, dass für derartige Vorgänge eine frühzeitige Meldepflicht besteht, in deren Rahmen etwaige Änderungen in Bezug auf die Verpflichtungen und Rechte direkt an die Kunden weitergereicht werden müssen.

109

Die Studie hat außerdem aufgezeigt, dass der Verwandten- und Bekanntenkreis bisher nur einen bedingten Einfluss auf die Akquisition und Bindung von Kunden ausüben. Organisationen könnten darauf reagieren, indem sie zum Beispiel verstärkt Vorzugs-Modelle zur Anwendung bringen, bei denen sowohl anwerbende, als auch angeworbene Kunden gleichermaßen profitieren. Wie bereits bei der Auswertung des Fragebogens kurz behandelt, stellt auch die Implementierung spezieller Funktionalitäten, die zum Beispiel eine soziale Interaktionen unterstützen, einen potentiellen Mehrwert dar, der Kunden dazu bewegen könnte, bestimmte Dienste eher zu nutzen, wenn diese von Personen aus deren Umfeld verwendet werden.

Die Wirkung und Akzeptanz bestehender Werbemethoden erscheinen, nach Ergebnissen der Umfrage, ebenfalls als ausbaufähig. Deshalb gilt es, bestehende Werbemethoden zu evaluieren, sowie neue Werbemethoden zu entwickeln, um die Einstellung der Kunden bezüglich den Werbeanzeigen und angebotenen Diensten, sowie den Produkten selbst — soweit möglich — zu verbessern. Außerdem bietet sich als weiteres Forschungsthema die unbewusste Beeinflussung von Entscheidungsprozessen durch Werbeanzeigen und Kaufempfehlungen an — da diese ebenfalls einen wichtigen Aspekt darstellt, der zu dem Kauf, beziehungsweise der Nutzung von Produkten oder Diensten führen kann. Durch zunehmende Datenmengen, werden hierbei auch die Vorrausetzungen geschaffen, um direkt im operativen Bereich komplexere Wirksamkeitsanalysen durchzuführen und bessere Einsichten in Bezug auf die Effektivität von Werbemaßnahmen zu bekommen.

Die Analyse der Studienergebnisse brachte auch Erkenntnisse in Bezug zur Weitergabe von Informationen: Nutzer sind nur bei einem entsprechenden Mehrwert gewillt, mehr als die minimal zur Nutzung eines Dienstes geforderten Informationen, preiszugeben. Hierbei könnten in den verschiedensten Bereichen Modelle untersucht werden, bei denen ein Basisangebot initial genützt werden kann und weitere Funktionen erst durch die Angabe weiterer Informationen freigeschaltet werden können. Auch die Angabe falscher Informationen stellt ein großes Problem dar, denn dadurch werden oftmals Analyseergebnisse verfälscht und somit unbrauchbar gemacht. Dies legt ebenfalls die Einleitung weiterer Untersuchungen nahe, die sich auf den Entwurf von Geschäftsmodellen konzentrieren, bei denen die Mehrheit der Nutzer gewillt sind, zutreffende Informationen anzugeben. Einen potentiellen Mehrwert könnte hierbei die Verknüpfbarkeit mit anderen Geräten und Diensten darstellen.

110

Abschließend bleibt zu unterstreichen, dass die Bedeutung von Daten in unserer Gesellschaft stetig zunimmt. In der modernen Wirtschaft wären ohne den Produktionsfaktor Daten kaum wirtschaftliche Aktivitäten, Innovationen oder Wachstum möglich. Die unternehmerischen und wirtschaftlichen Möglichkeiten, die Big Data und die dadurch ermöglichten Neuerungen bieten, sind wichtige Themen mit denen sich sowohl Unternehmensleiter, als auch politische Entscheidungsträger mit zunehmender Dringlichkeit beschäftigen müssen. Auch wenn die Weiterentwicklung von Big Data in wissenschaftlichen Publikationen ein kontroverses Thema darstellt, so ist es sehr wahrscheinlich, dass sich Big Data in der globalen Wirtschaft in den unterschiedlichsten Bereichen weiter verbreiten wird — da durch den effektiven Einsatz von Big Data und dem damit verbundenen Informationsvorsprung, entscheidende Wettbewerbs- vorteile generiert werden können. Doch nicht nur in der Wirtschaft, sondern auch in sozialen und gesellschaftlichen Bereichen können durch den Einsatz von Big Data sowohl für Individuen, als auch für Gemeinschaften nachhaltig besondere Mehrwerte geschaffen werden.

111

9 Literaturverzeichnis [Apache 2016a] Apache: What Is Apache Hadoop?, http://hadoop.apache.org/, Zugriff am 28.01.2016.

[Apache 2016b] Apache: http://wiki.apache.org/hadoop/PoweredBy, Zugriff am 20.04.2016.

[Baden-Fuller & Morgan 2010] Baden-Fuller, C.; Morgan, M.S.: Business models as models. Long Range Planning 43 (2010), S. 156–171.

[Bang-Jensen & Gutin 2008] Bang-Jensen, J.; Gutin, G.: Theory, Algorithms and Applications, Monographs in Mathematics, 2. Auflage, Springer-Verlag, 2008, S. 32–34.

[Bharadwaj 2013]Bharadwaj, A.; Sawy, O.A.; Pavlou, P.A.; Venkatraman, N: Digital business strategy: toward a next generation of insights. MIS Q., 37 (2013), S. 471–482.

[Buhl et al. 2013] Buhl, H. U.; Röglinger, M.; Moser, F.; Heidemann, J.: Big Data. A Fashionable Topic with(out) Sustainable Relevance for Research and Practice? Springer Fachmedien Wiesbaden, 2013.

[Burkhart et al. 2012] Burkhart, T.; Krumeich, J.; Werth, D.; Loos, P.: Analyzing the Business Model Concept – A Comprehensive Classification of Literature. In: ICIS 2011 Proceedings. International Conference on Information Systems, Shanghai. 2012, S. 1–19.

[Brewer 2012] Brewer, E.: CAP Twelve Years Later: How the "Rules" Have Changed, http://www.infoq.com/articles/cap-twelve-years-later-how-the-rules-have-changed, Zugriff am 05.03.2016.

[Brumley 2014] Brumley, J.: Google just became a real problem for online travel agents. http://investorplace.com/2014/04/goog-stock-google-travel-booking/#.VvgDvnrUK4F, Zugriff am 24.03.2016.

[Caballero et al. 2014] Caballero, I.; Serrano, M.; Piattini, M.: A Data Quality in Use Model for Big Data. In: ER Workshops. Springer International Publishing, Switzerland, 2014, S. 65- 74.

112

[Carney et al. 2004] Carney, D.; Çetintemel, U.; Cherniack, M.; Convey, C.; Lee, S.; Seidman, G.; Stonebraker, M.; Tatbul, N.; Zdonik, S.: Monitoring Streams – A New Class of Data Management Applications. Brown Computer Science Technical Report, 2004.

[Cavanillas et al. 2016] Jose Marıa Cavanillas, Edward Curry, and Wolfgang Wahlster: The Big Data Value Opportunity, in New Horizons for a Data-Driven Economy: A Roadmap for Usage and Exploitation of Big Data in Europe, Springer, 2016.

[Cho et al. 2012] Cho, J.; Kim, T.; Park, K.C.; Lee, B.G.: An analysis of big data structure based on the ecological perspective. Korea Soc. IT Serv. 11 (2012), 4, S. 277–294.

[Chesbrough 2003] Chesbrough, H.W.: Open Innovation: The new imperative for creating and profiting from technology, Harvard Business School Press, Boston, 2003.

[Clark 2015] Clark, D.: Intel Rechisels the Tablet on Moore’s Law. Wall Street Journal Digits Tech News and Analysis, http://blogs.wsj.com/digits/2015/07/16/intel-rechisels-the-tablet-on- moores-law/, Zugriff am 31.07.2015.

[Crawford 2013] Crawford, K.: The hidden biases in big data (2013), https://hbr.org/2013/04/the-hidden-biases-in-big-data, Zugriff am 06.06.2016.

[Cukier 2010] Cukier, K.: Data, data everywhere. The Economist (2010), http://www.economist.com/node/15557443, Zugriff am 28.07.2015.

[Dean & Ghemawat 2004] Dean, J.; Ghemawat, S.: MapReduce: Simplified Data Processing on Large Clusters. OSDI'04: Sixth Symposium on Operating System Design and Implementation, San Francisco, CA, 2004, S. 107-113.

[Dignan 2014] Dignan, L.: IBM’s watson unit invests in fluid, eyes personal shopping applications (2014), http://www.zdnet.com/article/ibms-watson-unit-invests-in-fluid-eyes- personal-shopping-applications/, Zugriff am 24.03.2016.

[Dumbill 2012] Dumbill, E.: What is big data? An introduction to the big data landscape (2012), https://beta.oreilly.com/ideas/what-is-big-data, Zugriff am 27.07.2015.

[Erb 2012] Erb, B.: Concurrent Programming for Scalable Web Architectures (2012), http://berb.github.io/diploma-thesis/, Zugriff am 03.03.2016.

113

[Feuilherade 2014] Feuilherade, P.: Personal systems herald “smart mobility”. International Electrotechnical Commision (2014), http://iecetech.org/issue/2014-03/Personal-systems- herald-smart-mobility, Zugriff am 04.04.2016.

[Grösser 2016] Grösser, S.: Definition Geschäftsmodell, Gabler Wirtschaftslexikon (2016), http://wirtschaftslexikon.gabler.de/Archiv/154125/geschaeftsmodell-v10.html, Zugriff am 30.03.2016.

[Gilbert & Lynch 2002] Gilbert, S.; Lynch, N.: Brewer’s Conjecture and the Feasibility of Consistent, Available, Partition-Tolerant Web Services ACM SIGACT News 33(2002), 2, S. 51–59.

[Grady et al. 2013] Grady, N.; Balac, N.; Lister, E.: Definition and Taxonomy Subgroup Presentation. NIST Big Data Public Working Group, 2013.

[Greenwood et al. 2014] Greenwood, D.; Stopczynski, A.; Sweatt, B.; Hardjono, T.; Pentland, A.; The new Deal on Data: A Framework for Institutional Controls. In: Privacy, Big Data, and the Public Good: Frameworks for Engagement. Cambridge University Press, 2014.

[Hafkesbrink & Schroll 2011] Hafkesbrink, J.; Schroll, M.: Innovation 3.0: embedding into community knowledge - collaborative organizational learning beyond open innovation. Journal of Innovation Economics 7 (2011), 55, S. 55-92.

[Hagelauer et al. 1999] Hagelauer, R.; Bode, A.; Hellwagner, H.; Proebster, W.; Schwarzstein, D.; Volkert, J.; Plattner, B.; Schulthess, P.: Informatik-Handbuch. 2. Auflage, Pomberger, München, 1999, S. 298–299.

[Hagen 2008] Hagen: Kontextanalyse: Projekte als komplexe Systeme begreifen. http://pm- blog.com/2008/07/15/kontextanalyse/, Zugriff am 14.06.2016.

[Hagen et al. 2013] Hagen, C., Ciobo, M., Wall, D., Yadav, A., Khan, K., Miller, J., Evans, H.: Big data and the Creative Destruction of Today’s Business Models. AT Kearney Publishing, Chicago, 2013, S.1−18.

[Heyne et al. 2010] Heyne, P.; Boettke, P. J.; Prychitko, D. L.: The Economic Way of Thinking. Prentice Hall 12 (2010), 163, S. 317–318.

114

[Hilbert & López 2011] Hilbert, M.; López, P.: The world’s technological capacity to store, communicate, and compute information. Science 332 (2011), 6025, S. 60–65.

[Huberty 2015] Huberty, M.: Awaiting the Second Big Data Revolution: From Digital Noise to Value Creation, 2015.

[IBM 2016] IBM: Bringing big data to the enterprise, http://www- 01.ibm.com/software/data/bigdata/what-is-big-data.html, Zugriff am 25.06.2016.

[IBM 2016] IBM: What is the Hadoop Distributed File System (HDFS)?, http://www- 01.ibm.com/software/data/infosphere/hadoop/hdfs/, Zugriff am 28.01.2016

[Kickstarter 2016] Kickstarter.: http://www.kickstarter.com (2014), Zugriff am 23.03.2016.

[LIX 2016] LIX: The smallest circular 3D printing pen in the world, http://lixpen.com/, Zugriff am 06.05.2016.

[Luo et al. 2013] Luo, T.; Chen, G.; Zhang, Y.: H-DB: Yet Another Big Data Hybrid System of Hadoop and DBMS, Springer International Publishing, 2013.

[Manyika et al. 2011] Manyika, J.; Chui, M.; Bughin, J.; Dobbs, R.; Roxburgh C.; Byers A. H.: Big data: The next frontier for innovation, competition, and productivity. McKinsey Global Institute, 2011.

[McAfee & Brynjolfsson 2012] McAfee, A.; Brynjolfsson, E.: Big Data: The Management Revolution. In: Spotlight on Big Data. Harvard Business Review, 2012, S. 60-68.

[Michael & Miller 2013] Michael, K.; Miller, K. W.: Big data: new opportunities and new challenges. Computer 46 (2013), 6, S. 22–24.

[Mell & Grance 2011] Mell, P.; Grance, T.: The NIST Definition of Cloud Computing. Recommendations of the National Institute of Standards and Technology, U.S. Department of Commerce, Computer Security Division, Information Technology Laboratory, Gaithersburg, 2011.

[Mesirca 2012] Mesirca, M.: Business Model Canvas, http://www.offensivgeist.de/das- geschaeftsmodell-die-business-model-canvas/, Zugriff am 07.05.2016.

115

[Messinger 2013] Messinger, L.: Better explaining the CAP Theorem, Big Data Zone, https://dzone.com/articles/better-explaining-cap-theorem, Zugriff am 04.03.2016.

[Mohan 2013] Mohan, C.: History Repeats Itself: Sensible and NonsenSQL Aspects of the NoSQL Hoopla. Proc. 16th Int'l Conf. on Extending Database Technology, Italien, 2013.

[Moore 1965] Moore, G. E.: Cramming more components onto integrated circuits. Electronics 38 (1965), 8, S. 144-117.

[Moore 1993] Moore, J. F.: A New Ecology of Competition, Harvard Business Review, 1993.

[Moore 2006] Moore, J.F.: Business ecosystem and view from the firm. Antitrust Bull 51 (2006), 1, S. 31–75.

[Morabito 2015] Vincenzo Morabito: Big Data and Analytics: Strategic and Organizational Impacts. Springer, 2015.

[Muhtaroglu et al. 2013] Muhtaroglu, F.; Demir, S.; Obali, M.; Girgin, C.: Business Model Canvas Perspective on Big Data Applications, IEEE International Conference on Big Data, Türkei, 2013.

[Norwich University 2014] Norwich University: Characteristics of Successful Public Policy". Norwich University Public Administration, http://graduate.norwich.edu/resources- mpa/infographics-mpa/characteristics-of-successful-public-policy/, Zugriff am 19.02.2016.

[Osterwalder et al. 2005] Osterwalder, A., Pigneur, Y., Tucci, C.: Clarifying business models: origins, present, and future of the concept. Commun. Assoc. Inf. Syst. 15 (2005), S. 1–25.

[Osterwalder et al. 2010] Osterwalder, A.; Pigneur, Y.; Smith, A.: Business Model Generation, self published, Hoboken, New Jersey, 2010.

[Ratti 2014] Ratti, C.: Forget flying cars. Smart cities just need smart citizens. http://www.archdaily.com/author/carlo-ratti/, Zugriff am 28.03.2016.

[Ryan & Co Analysis 2013] Ryan & Co Analysis: Future society forecast based on Big Data and Analysis Consulting of Industrial ecosystem, 2013.

116

[Sarsfield 2009] Sarsfield, S.: The Data Governance Imperative. A business strategy for corporate data. IT Governance Ltd, 2009.

[Schäfer et al. 2012] Schäfer, A.; Knapp, M.; May, M.; Voß, A.: BIG DATA – Vorsprung Durch Wissen. Innovationspotenzialanalyse, Fraunhofer Institut für intelligente Analyse- und Informationssysteme IAIS, 2012.

[Stähler 2001] Stähler, P.: Geschäftsmodelle in der digitalen Ökonomie: Merkmale, Strategien und Auswirkungen, Josef Eul Verlag, Köln-Lohmar, 2001, S. 41f.

[Strohbach et al. 2016] Strohbach, M.; Daubert, J.; Ravkin, H.; Lischka, M.: Big data storage, in New Horizons for a Data-Driven Economy: A Roadmap for Usage and Exploitation of Big Data in Europe, Springer, 2016.

[Turck & Zilis 2012] Turck, M.; Zilis, S.: The Chart of the Big Data Ecosystem, 2012.

[Vossen 2014] Vossen, G.: Big data as the new enabler in business and other intelligence. Springer, Vietnam Journal of Computer Science 1(2014), 1, S. 3–14.

[Wu et al. 2014] Wu, X.; Zhu, X.; Wu, G.-Q.; Ding, W.: Data Mining with Big Data; IEEE Transactions on knowledge and data engineering 26 (2014), 1, IEEE Computer Society, S. 97- 107.

[Yoo & Kaplan 2009] Yoo, A.; Kaplan, I.: Evaluating Use of Data Flow Systems for Large Graph Analysis. MTAGS’09 Proceedings of the 2nd Workshop on Many-Task Computing on Grids and Supercomputers, ACM, New York, NY, 2009.

[Yoo et al. 2014] Yoo, S.; Choi1, K.; Lee, M.: Business Ecosystem and Ecosystem of Big Data. In: Web-age Information Management, Springer International Publishing, 2014.

117

Anhang Fragebogen zum Online-Verhalten und der Nutzung von Diensten

Der Fragebogen wurde an Studenten und Absolventen informatiknaher Studiengänge gerichtet, wobei als Dauer für die Beantwortung der Fragen ca. vier Minuten beantragt wurden.

- Kurze Vorstellung des Themas

- Vertraulichkeitserklärung bezüglich der Verwendung der Daten

- Fragestellungen

1. Nutzung von Diensten a. Wären Sie dazu bereit für Dienste Geld auszugeben, um keine Werbung zu erhalten und zu vermeiden, dass Daten erhoben werden? b. Hat ihr Verwandten- und Bekanntenkreis einen großen Einfluss darauf, welche Dienste Sie nutzen? c. Würde es Sie davon abhalten einen Dienst zu nutzen, wenn Daten über Sie gesammelt werden? d. Verwenden sie wissentlich Dienste die Daten über Sie sammeln? e. Geben Sie bei Diensten, die potentiell Ihre Daten sammeln, Ihre vollständigen Daten an? f. Geben Sie bei Diensten, die Sie nutzen, korrekte Daten an? g. Wissen Sie wofür die Anbieter von diversen Diensten Ihre Daten verwenden und ob diese an Dritte weitergegeben werden?

2. Allgemeine Geschäftsbedingungen und Transparenz a. Lesen Sie sich die Allgemeinen Geschäftsbedingungen (AGBs) von Diensten, die Sie nutzen, durch? b. Würde eine höhere Transparenz bezüglich der Erhebung und Verwendung von Ihren Daten Ihre Einstellung zur Nutzung bestimmter Dienste positiv oder negativ beeinflussen?

118

3. Datenschutz a. Erhöht es Ihre Bereitschaft einen bestimmten Dienst zu nutzen, wenn strengere Datenschutzbestimmungen gelten? (da zum Beispiel ein Unternehmen EU- Richtlinien unterliegt) b. Haben Sie bewusst die Nutzung eines bestimmten Dienstes eingestellt, da dessen Betrieb von einem anderen Unternehmen, mit potentiell kontroversen Datenschutz-bestimmungen, übernommen wurde? c. Wissen Sie über die rechtlichen Rahmenbedingungen bezüglich der Erhebung und Verwendung ihrer Daten Bescheid?

4. Werbeanzeigen und Kaufempfehlung a. Entsprechen Online-Werbeanzeigen und -Kaufempfehlungen Ihren Interessen? b. Empfinden Sie Werbeanzeigen und Kaufempfehlungen als weniger störend als noch vor ein paar Jahren? c. Haben Sie sich bereits auf Grund von Werbeanzeigen oder Kaufempfehlungen für den Kauf, beziehungsweise die Nutzung, eines Produkts oder Dienstes entschieden? d. Wie ist ihre Einstellung zu Programmen, die Werbung unterdrücken und ihr Online-Verhalten anonymisieren?

119