AUSWIRKUNGEN VON BIG DATA AUF DEN MARKT DER ONLINE MEDIEN IM RAHMEN DES ABIDA - FORSCHUNGSPROJEKTES D E S B B F FÖRDERKENNZEICHEN 01 | S 1 5 0 1 6 A ‐ F

01IS15016A- F

Goldmedia GmbH Strategy Consulting

Autoren: Prof. Dr. Klaus Goldhammer, Dr. André Wiegand, Tim Prien M.A., Ina Wylenga M.A.

Unter Mitarbeit von: Franziska Busse, Sophie Seyffert und Andrea Hamm

Oranienburger Str. 27, 10117 Berlin-Mitte, Germany Tel. +49 30-246 266-0, Fax +49 30-246 266-66

[email protected]

Datum: 28.02.2018

ABIDA - ASSESSING BIG DATA

PROJEKTLAUFZEIT 01.0 3 . 2 0 1 5 - 2 8 . 0 2 . 2 0 1 9 FÖRDERKENNZEICHEN 01 | S 1 5 0 1 6 A ‐ F

Westfälische Wilhelms-Universität Münster, Institut für Informations-, Telekommunikations- und Medienrecht (ITM), Zivilrechtliche Abteilung

Karlsruher Institut für Technologie, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)

Leibniz Universität Hannover Institut für Rechtsinformatik (IRI)

Technische Universität Dortmund, Wirtschafts- und Sozialwissenschaftliche Fakultät (WiSo) Techniksoziologie

Ludwig-Maximilians-Universität München, Forschungsstelle für Information, Organisation und Management (IOM)

Wissenschaftszentrum Berlin für Sozialforschung

www.abida.de

ABIDA - Assessing Big Data Über das Gutachten

Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für Bildung und Forschung erstellt. Der Inhalt des Gutachtens gibt ausschließlich die Auffassungen der Autoren wieder. Diese decken sich nicht automatisch mit denen des Ministeriums und/oder der einzelnen Projektpartner.

ABIDA lotet gesellschaftliche Chancen und Risiken der Erzeugung, Verknüpfung und Auswertung großer Datenmengen aus und entwirft Handlungsoptionen für Politik, Forschung und Entwicklung.

© 2018 – Alle Rechte vorbehalten

INHALTSVERZEICHNIS

Abbildungsverzeichnis ...... 3 Tabellenverzeichnis ...... 5 Abkürzungsverzeichnis ...... 6 1 Executive Summary ...... 7 2 Einleitung und Struktur des Gutachtens ...... 13 3 Technologische Grundlagen von Big Data: Künstliche Intelligenz und Neuronale Netzwerke ...... 16 3.1 Definition Künstlicher Intelligenz ...... 17 3.2 Taxonomie von Big Data ...... 18 3.3 Neuronale Netze als zentrale Methodik von Künstlicher Intelligenz...... 21 3.4 Deep Learning und weitere KNN-Topologien ...... 23 3.5 Relationale Datenbanken und verteilte Dateisysteme ...... 26 3.6 Statistisches Natural Language Processing und Natural Language Generation ...... 28 3.7 Hidden-Markov-Modelle ...... 31

4 Ausgewählte Beispiele von medienbezogenen Big-Data-Anwendungen im B2C-Markt...... 34 4.1 Personal Voice Assistants: KI-basierte Kommunikation und Transaktion ...... 34 4.1.1 Definition und Anwendungsbereiche ...... 35 4.1.2 Marktpotentiale ...... 37 4.1.3 Nutzerakzeptanz ...... 39 4.1.4 Zusammenfassung und Ausblick ...... 41 4.2 Chatbots und Social-Bots: Automatisierte (Massen-) Kommunikation ...... 43 4.2.1 Definition und Anwendungsbereiche ...... 44 4.2.2 Marktpotentiale ...... 45 4.2.3 Nutzerakzeptanz ...... 47 4.2.4 Zusammenfassung und Ausblick ...... 49 4.3 Algorithmische Optimierung von Empfehlungen in Onlinemedien und im E-Commerce ...... 52 4.3.1 Definition und Anwendungsbereiche ...... 52 4.3.2 Marktpotentiale ...... 55 4.3.3 Gesellschaftlicher Diskurs um ADM-Prozesse ...... 56 4.3.4 Zusammenfassung und Ausblick ...... 59

5 Auswirkungen von medienbezogenen Big-Data-Anwendungen im B2B-Markt ...... 62 5.1 Teil- und vollautomatisierte Prozesse bei der Produktion von Medieninhalten ...... 62 5.1.1 Definition und Anwendungsbereiche ...... 62 5.1.2 Marktpotentiale ...... 74 5.1.3 Zusammenfassung und Ausblick ...... 76 5.2 Innerbetriebliche Potentiale von Big Data bei Medienunternehmen ...... 78 5.2.1 Big-Data-Prozesse als neue Schlüsselaktivität ...... 78 5.2.2 Marktpotential und Anwendungsbereiche ...... 81 5.2.3 Zusammenfassung und Ausblick ...... 83 5.3 Datengewinnung für Akquise und Vertrieb ...... 88 5.3.1 Definition von personenbezogenen Daten ...... 89

1

5.3.2 Marktpotential und Anwendungsbereiche ...... 93 5.3.3 Zusammenfassung und Ausblick ...... 97 6 Auswirkungen von Big Data auf Onlinemedien: Beispiele und Case Studies ...... 99 6.1 Case Study: KI im Journalismus ...... 99 6.2 Case Study: KI-Factchecking ...... 100 6.3 Case Study: Content Blockchain...... 101 6.4 Case Study: Von Programmatic zu Predictive Advertising ...... 103 6.5 Förderinitiativen: Google Digital News Initiative ...... 106 6.5.1 FAZ9 ...... 107 6.5.2 Act2Access ...... 107 6.5.3 Journalism First ...... 107

7 Handlungsempfehlungen für die Politik & Fazit ...... 108 7.1 Handlungsempfehlungen für die Politik ...... 108 7.1.1 Sicherung der publizistischen Vielfalt ...... 108 7.1.2 Wahrung der Meinungsvielfalt ...... 109 7.1.3 Richtlinien zur Datensouveränität...... 109 7.1.4 Algorithmen- und KI-Audits ...... 110 7.1.5 PVA-Plattformregulierung ...... 110 7.1.6 Zusammenfassung der Handlungsempfehlungen ...... 111 7.2 Fazit und Ausblick ...... 111 8 Literatur und Quellen ...... 115 9 Anhang ...... 141 9.1 Marktübersicht: B2C-Anwendungen ...... 141 9.2 Marktübersicht: B2B-Anwendungen ...... 153

2

ABBILDUNGSVERZEICHNIS

Abb. 1: Resultate KI-basierter Erkennungsalgorithmen bei der Erkennung von visuellem Input ...... S. 17 Abb. 2: Übersicht zentraler Kategorien von Daten-basierten Problematiken ...... S. 18 Abb. 3: Visualisierung der Funktionsweise eines KNN am Beispiel der TensorFlow-Bibliothek ...... S. 24 Abb. 4: Schematische Darstellung eines Deep-Learning-Prozesses und einer Feedback-Schleife ...... S. 25 Abb. 5: Übersicht der vier Grundkomponenten eines NLG-Prozesses ...... S. 30 Abb. 6: Systematik der Dekodierung eines akustischen Signals in Phoneme ...... S. 32 Abb. 7: Ablauf einer Hidden-Markov-Kette am Beispiel der Wörter "one", "eight", und "zero" ...... S. 33 Abb. 8: Meilensteine in der Entwicklung von Personal Voice Assistants, 2011 bis 2017 ...... S. 35 Abb. 9: Geräte der Amazon Echo-Produktfamilie (Q3/2017) ...... S. 36 Abb. 10: Entwicklung und Anzahl von Alexa Skills 2015 bis 2017 ...... S. 37 Abb. 11: Taxonomie von Chatbots ...... S. 45 Abb. 12: Einsparpotential durch Einsatz von Chatbots nach Branchen in den USA, 2016, in Mrd. USD ...... S. 46 Abb. 13: KI-basierte Assistenten bzw. Chatbot-Plattformen von Technologiekonzernen, 2017 ...... S. 47 Abb. 14: Umfrage zur Nutzung von Chatbots, Frage: "Warum nutzen Sie ungern Chatbots?", 2016 .... S. 48 Abb. 15: Problembeispiele von Dialogen mit Facebook-Messenger-Chatbots, 2017-2018 ...... S. 49 Abb. 16: Gartner Hype-Zyklus für neue Technologien, Q2/2017...... S. 51 Abb. 17: Modell der Organisation algorithmisch strukturierter Öffentlichkeit ...... S. 61 Abb. 18: AX Semantics Inputraster in drei Sprachen und Beispielartikel ...... S. 63 Abb. 19: Ausschnitt aus der Datenbank „Homicide Report" ...... S. 65 Abb. 20: Visualisierung eines möglichen Textverlaufes eines Musikstücks über eine Markov-Kette, die auf Prosa trainiert wurde ...... S. 67 Abb. 21: Schematische Darstellung der Funktionsweise von Programmatic Creation ...... S. 68 Abb. 22: Schematische Darstellung der Funktionsweise von Programmatic Orchestration ...... S. 69 Abb. 23: Clustering von Keyframes eines Videos (aus Visualisierungsgründen auf 2D reduziert) ...... S. 70 Abb. 24: Visualisierung von Verbindungen in Datensätzen durch die Software Linkurious ...... S. 71 Abb. 25: Einsatz von ScatterBlogs während der Anschläge in Brüssel im März 2016...... S. 72 Abb. 26: Automatisierte Produktion von Videospielwelten - Interaktive Terrain-Modellierung ...... S. 74 Abb. 27: Workflow-Beispiel einer Big-Data-Analyse auf der DDS-Online-Plattform des Analytics Anbieters Dataiku ...... S. 80 Abb. 28: Online-Auswahlinterface des Sentient-Aware-Applets „My Frame Finder", 2017 ...... S. 82 Abb. 29: Mapping von deutschen Branchen in Bezug auf Zustimmung zur Nutzung von Big-Data- Analyseergebnissen zur Entscheidungsfindung in Unternehmen ...... S. 84

3

Abb. 30: Einsatzhäufigkeit von Big-Data-Analysen nach Unternehmensbereichen in Deutschland, in Prozent ...... S. 85 Abb. 31: Übersicht der Marktteilnehmer im Bereich Handel mit Adress- und anderen personen- bezogenen Verbraucherdaten (vereinfachte und beispielhafte Darstellung) ...... S. 88 Abb. 32: Investitionsvolumen und relevante Unternehmenskäufe im Bereich Künstliche Intelligenz, 2011-2017, in Mio. US-Dollar ...... S. 93 Abb. 33: Beispielhafte Darstellung einer mikrogeografischen Datenvisualisierung auf Hausebene ...... S. 96 Abb. 34: Vergleich der Methoden des LNR Concept Mapper und einer Hashtag-Analyse ...... S. 99 Abb. 35: Eingabemaske des Décodex Factcheck-Tools der Tageszeitung Le Monde ...... S. 100 Abb. 36: Menüansicht der Content Blockchain Testversion ...... S. 102 Abb. 37: Übersicht über die Struktur des Programmatic-Buying-Ökosystems ...... S. 103 Abb. 38: Datenquellen im Werbenetzwerk von Facebook, Stand 2016 ...... S. 104 Abb. 39: Google DNI: Top 10 der geförderten Projekt-Kategorien in 2017, in Prozent ...... S. 106

4

TABELLENVERZEICHNIS

Tab. 1: Auswahl von Definitionen des Big-Data-Begriffs, sortiert nach inhaltlichen Bezügen ...... S. 19 Tab. 2: Distinktionskriterien von Chatbots und Personal Voice Assistants ...... S. 43 Tab. 3: Funktionsweisen der Algorithmen des Netflix-Empfehlungssystems ...... S. 54 Tab. 4: Aspekte des zunehmenden Strukturwandels durch ADM-Prozesse ...... S. 59 Tab. 5: Übersicht von personenbezogenen Datenkategorien (Auswahl) ...... S. 89 Tab. 6: Einteilung der Big-Data-Datenset-Anbieter nach Geschäftsmodellen, Stand: 2016 ...... S. 94 Tab. 7: Relevante Datenbestände im Geschäftsbereich Risiko-informationen der untersuchten Adress- und Datenhändler in Deutschland ...... S. 97

5

ABKÜRZUNGSVERZEICHNIS

ADM ...... Algorithmic Decision Making

AI ...... Artificial Intelligence

API ...... Application Programming Interface

B2B ...... Business-to-Business

B2C ...... Business-to-Consumer

BI ...... Business-Intelligence

BVDW ...... Bundesverband Digitale Wirtschaft

CRM ...... Customer-Relationship-Management

DAI ...... Distributed Artificial Intelligence

DNI ...... Digital News Initiative

DS-GVO ...... Datenschutz-Grundverordnung

E-Commerce ...... Electronic-Commerce

HMM...... Hidden-Markov-Modellen

IoT ...... Internet of Things

KI ...... Künstliche Intelligenz

KNN...... Künstliche Neuronale Netze

NLG ...... Natural Language Generation

NLP ...... Natural Language Processing

NoSQL ...... Not only SQL

PVA ...... Personal Voice

SNLP ...... Statistisches Natural Language Processing

SQL ...... Structured Query Language

UI ...... User Interface

VCA ...... Video Content Analysis

XML ...... Extensible Markup Language

6

1 EXECUTIVE SUMMARY

Dieses Gutachten zu „Auswirkungen von Big Data auf den Markt der Onlinemedien“ wurde im Auf- trag der Westfälischen Wilhelms-Universität Münster (WWU) als Projektträger des interdisziplinären BMBF-Forschungsprojekts Assessing Big Data (ABIDA) von der Goldmedia GmbH Strategy Consul- ting am 28.02.2018 übergeben. Es kommt zu den folgenden Ergebnissen: KERNERGEBNISSE TECHN ISCH-STRUKTURELLE RAHMENB EDINGUNGE N: DEFINITIONEN UND BEG RIFFLICHKEITEN

▪ Der Begriff "Big Data" wird durch vier Komponenten beschrieben: Er bezeichnet den Umgang mit Datensets, a) die ein sehr hohes Volumen aufweisen, b) in ihrer Beschaffenheit unstruktu- riert oder anderweitig komplex sind, c) den Einsatz von flexiblen Datenbankmanagement-Sys- temen erfordern und d) deshalb eine Kapitalinvestition rechtfertigen. ▪ Künstliche Intelligenz (KI) bildet die technische Grundlage für Big-Data-basierte Anwendungen und bezeichnet computer-basierte, autonome Agenten, die ihre Umgebung in Form von Daten wahrnehmen und verarbeiten können. In der Praxis trägt Künstliche Intelligenz dazu bei, be- stimmte Gruppen von Problemen zu lösen – nämlich Probleme der Klassifikation, Regression, Gruppierung und Reduktion von Komplexität bei großen Datenmengen. ▪ Künstliche Neuronale Netze (KNN) stellen die zentrale Methodik von KI dar. Darunter werden in der Neuroinformatik Modelle verstanden, die eine Zielvorgabe nachbilden und durch Rück- kopplungen kontinuierlich lernen, um große Informationsmengen automatisiert zu strukturie- ren. ▪ Deep Learning ist die bekannteste und am häufigsten eingesetzte Lernanordnung von KNN. Als Lernanordnung (bzw. Topologie) eines KNN wird die Struktur bzw. die Anordnung der ein- zelnen Neuronen und der Neuronen-Schichten untereinander bezeichnet. Beim Deep Learning werden viele verborgene Zwischenschichten von KNN systematisch angeordnet. ▪ Datenbanken spielen bei der Betrachtung von Big Data eine zentrale Rolle. Verteilte Dateisys- teme (Hadoop) bieten dabei die Möglichkeit, auch unstrukturierte Datensets mit unterschied- lichen Datentypen verarbeiten zu können. ▪ Statistisches Natural Language Processing (auf Deutsch: maschinelle Verarbeitung natürlicher Sprache, SNLP) dient als Grundlage für die automatisierte Erstellung von textbasierten On- lineinhalten. SNLP wird durch Algorithmen des maschinellen Lernens realisiert und basiert auf dem Grundgedanken, dass jegliche Form von Sprache und Dateninput zunächst von einem artifiziellen Agenten erkannt werden muss, indem menschliche Sprache für Computer ver- ständlich übersetzt wird. ▪ Mit Hilfe von Hidden-Markov-Modellen (HMM) können im Rahmen von SNLP-Prozessen kon- tinuierliche Ereignisse wie gesprochene Sprache durch Computer antizipiert werden. Ein Ge- spräch kann in seinem Verlauf erfasst werden. Durch selbstlernende Prozesse können Texte von Computern dabei immer besser verstanden werden.

7

MEDIENBEZOGENE BIG -DATA- ANWENDUNGEN IM B2 C-MARKT : PERSONAL VOICE ASSIS TANTS UND C HATBOTS

▪ Die populärste medienbezogene Big-Data-Anwendung im Nutzermarkt stellen sog. Personal Voice Assistants (kurz PVA) dar. Solche persönlichen KI-gestützten Sprachassistenten wie bspw. oder Google Home lassen sich per Sprachbefehl einfach bedienen, er- leichtern dadurch alltägliche Aufgaben und fungieren gleichzeitig als neuer Distributionskanal. PVA bieten vielfältige Möglichkeiten für neue (Medien-)Produkte und Dienste und die Akquise neuer Nutzer: Dazu zählen vielfältige Audio- und Musikdienste, Nachrichtenservices (Wetter, Verkehr, Börse, Sport, Navigation usw.) und viele weitere Anwendungsbereiche. ▪ Hauptbedenken bei der Nutzung von PVA stellt die Angst vor Datenmissbrauch und zu hoher Transparenz gegenüber den US-basierten Anbietern dar. Eine Mehrheit der deutschen Nutzer befürchtet Datendiebstahl, Manipulation und Missbrauch. Die Angst, permanent abgehört zu werden, spielt ebenfalls eine entscheidende Rolle. ▪ Chatbot-Plattformen stellen eine weitere Variante der persönlichen Big-Data-gestützten As- sistenz dar. Nutzer können mit Chatbots direkt in Schriftform kommunizieren und interagieren. Chatbots imitieren mit Hilfe von SNLP dabei normale interpersonelle Kommunikation. So wer- den bereits klassische Nachrichten, aber auch Wetter- und Börseninformationen in Gesprächs- form zwischen Nutzer und Chatbot angeboten. ▪ Einfache Chatbot-Plattformen sind über Scriptsprachen (wie python oder VBA) programmiert, die auf eine vordefinierte Bibliothek an Inhalten zugreifen und diese bei einem erfolgreichen Vergleich mit dem eingegebenen Suchwort wieder ausgeben. Parallel dazu existieren fortge- schrittene Chatbot-Plattformen, die auf Algorithmen mit KI aufbauen. ▪ Für 2020 wird prognostiziert, dass bereits 85 Prozent aller Kundeninteraktionen mit Unterneh- men durch Chatbots erfolgen. Bereits 2016 betrug das Investitionsvolumen durch Risikokapi- talgeber in Chatbot-Entwickler und Bot Start-ups weltweit mindestens 170 Mio. Euro. ▪ Deutsche Nutzer erkennen praktische Vorteile von Chatbots wie das einfache Buchen von On- linetickets, automatisierte Terminplanung oder schnelle Verkaufsgespräche. Dennoch lehnt rund jeder zweite Nutzer in Deutschland die Konversation mit Chatbots ab, weil diese unper- sönlich, unzuverlässig und technisch zu unausgereift erscheinen. ALGORITHMISCHE EMPFE HLUNGSSYSTEME

▪ Algorithmische Empfehlungsmechanismen, wie sie von Onlinemedien und im E-Commerce eingesetzt werden, nutzen Big-Data-Prozesse: Von der Datenerfassung über die Datenanalyse bis zur Interpretation und der Ableitung einer Entscheidung werden in großem Umfang per- sonenbezogene Nutzerdaten durch selbstlernende KI-Mechanismen ausgewertet. ▪ Empfehlungssysteme gruppieren Personen mit ähnlichen Merkmalen. Ein zu dieser Gruppe passender neuer Nutzer erhält dann Vorschläge, welche Produkte von dieser Kundengruppe bereits gekauft wurden (Collaborative Filtering). Dabei wird unterstellt, dass Nutzer, die in der Vergangenheit die gleichen Artikel kauften, auch bei anderen Produkten ähnliche Vorlieben haben. ▪ Andere Algorithmen gehen inhaltsanalytisch vor und messen spezifische Eigenschaften bereits gekaufter Produkte. Auf Basis von Parametern wie Größe, Farbe, Material oder Form werden dann ähnliche Artikel empfohlen.

8

▪ Medien-Streaming-Dienste wie Netflix, Amazon Video oder Spotify arbeiten mit hybriden Empfehlungssystemen (Recommendation Engines), die Empfehlungen auf Basis von verschie- denen Algorithmen gleichzeitig offerieren. ▪ 2016 wurde der globale algorithmische Handelsmarkt bereits auf einen Wert von rund 9,5 Mrd. US-Dollar geschätzt. Marktexperten sehen automatisierte Preisgebungsverfahren und Emp- fehlungssysteme als die wichtigsten algorithmen-basierten Möglichkeiten zur Umsatzsteige- rung. ▪ Im Onlinemedien-Markt spielen Algorithmen auch bei der Mediaplanung und -buchung eine wichtige Rolle. Mit Hilfe von Algorithmen werden bereits seit einigen Jahren automatisierte Werbung (Programmatic Advertising) oder automatisierte Echtzeit-Werbeauktionen (Real- Time-Bidding) erfolgreich eingesetzt. Für beide Methoden ist eine erhebliche Marktdurchdrin- gung erkennbar, die dazu führt, dass klassische Buchungs- und Planungsmethoden durch KI abgelöst werden. ▪ Zudem werden immer mehr Werbeinhalte automatisch und kontextsensitiv durch Big-Data- Analysen und mit Hilfe selbstlernender Algorithmen erstellt (Programmatic Creation). Damit steht der deutschen Werbebranche der nächste Paradigmenwechsel kurz bevor.

9

MEDIENBEZOGENE BIG -DATA- ANWENDUNGEN IM B2 B-MARKT

▪ Die deutsche Medienbranche beginnt damit, durch den Einsatz von Big Data und KI mediale Inhalte zunehmend automatisiert zu erstellen. Dazu zählen die journalistische Recherche, die Analyse und Aufbereitung von Daten sowie die Produktion audiovisueller Inhalte oder auch die automatisierte Erstellung von Werbekommunikaten. Bei all diesen Prozessen kommen häu- fig Big-Data-Analysen und selbstlernende Algorithmen zum Einsatz. ▪ Für die automatische Generierung von Texten kommen SNLP- und NLG-Prozesse zum Einsatz. Hierbei folgen Algorithmen den von Menschen definierten Vorgaben und übersetzen die Da- tensätze in verständliche Prosa. Dazu werden zahlreiche Textbausteine und ggf. auch Drittda- ten kombiniert, die dann z.B. mit aktuellen Sportergebnissen, Börsenkursen oder Wetterdaten verknüpft werden zu neuen journalistischen Texten als Sport-, Börsen- oder Wetterbericht. ▪ Auch Videos werden bereits von vielen Onlinemedienanbietern in Deutschland automatisiert produziert. Dazu wird zumeist ein journalistischer Text mit Hilfe von Big-Data-Analysen nach spezifischen Stichwörtern durchsucht. Die Ergebnisse werden dann mit verschlagworteten Vi- deodatenbanken (wie bspw. Getty Images oder AP) abgeglichen. Dort werden dann kontextu- ell passende Bilder und Videoclips ausgesucht und automatisch ein Video zusammengeschnit- ten, das auf verschiedenen Social-Media-Plattformen in unterschiedlichen Auflösungen auto- matisch hochgeladen werden kann. ▪ Mit Hilfe von Algorithmen ist es ebenfalls möglich, Audioclips zu erstellen, die z.B. als Beglei- tung für Nachrichtenstrecken oder Sportinformationen dienen. Auf Basis von Schlagwörtern, die in einem Artikel vorkommen, können algorithmen-basierte Angebote eine Zusammenfas- sung des Artikels erstellen und sie über SNLP-gestützte Prozesse zu einem Audiobeitrag syn- thetisieren. ▪ Durch die Verwertung von großen Datenbanken mit populären Texten und Musiknotationen können mit Hilfe von HMM-gestützten Algorithmen auch Muster in Kompositionen identifi- ziert werden, die für das menschliche Ohr harmonisch klingen. Dadurch wird es Musikprodu- zenten möglich, ästhetisch wohlklingende Harmonien und Melodien leichter zu erkennen, zu testen und ebenfalls automatisch zu kreieren. ▪ Unter Zuhilfenahme von selbstlernenden Algorithmen wird es möglich, bei der Entwicklung von 3D-Inhalten für z.B. Computerspiele geomorphologische, landformende Prozesse nachzu- ahmen. Dazu müssen in den Entwicklerwerkzeugen nur einige grundsätzliche Eingaben durch Menschen getätigt werden, um automatisiert weitläufige 3D-Spielwelten in Sekunden zu ge- nerieren. ▪ Auch bei Spielen und interaktiven Filmen wird es durch Big-Data-Analysemethoden möglich, auf Basis der von Nutzern getätigten Handlungen, ihrer Charakter-Präferenzen und ihrer Ent- scheidungen ein automatisiertes dynamisches Storytelling zu realisieren. ▪ KI-gestützte Verfahren erlauben Publishern bereits die Extraktion relevanter Informationen aus Medieninhalten. Zusammenfassungen von Texten und Audiospuren können mit Hilfe von Schlagwörtern maschinell produziert werden, was einen grundlegenden Prozess für die auto- matisierte Produktion verschiedener Medieninhalte darstellt. Derartige Analysen beziehen sich auf Wörter und Phrasen, wobei auch semantische Verbindungen erkannt werden.

10

▪ Die breiten Analysemöglichkeiten, KI-optimierte Wertschöpfungsketten und die Kostenvor- teile der Automatisierung machen Big-Data-Anwendungen zu einem klaren Wettbewerbsvor- teil für Medienunternehmen. Umgekehrt drohen Unternehmen, die Big-Data-Initiativen nicht auf ihre Agenda setzen, mittelfristig erhebliche Wettbewerbsnachteile. ▪ Mit Hilfe von verteilten Dateimanagementsystemen lassen sich bei interdisziplinären journa- listischen Abteilungen sehr große Datensets durch leistungsfähige Datenbanken innerhalb von wenigen Stunden strukturieren, Ergebnisse organisieren und allen Teammitgliedern verfügbar machen. Entscheidend wird für Onlinepublisher, dass solche technologie-gestützten Work- flows ergebnisorientiert, dezentralisiert und auf Abruf organisiert werden können. ▪ Smart-Sales-Anbieter erweitern Vermarktungsprozesse für Verlage, indem sie durch Big-Data- Analysen klar sagen können, wer als Individuum welches Produkt eines Medienunternehmens erwirbt und zu welchem Zeitpunkt bzw. mit welcher Motivation. ▪ Durch das Zusammenspiel von KI und Sensordaten aus dem Internet of Things entstehen in- telligente Plattformen, die viele Arbeitsschritte der klassischen Werbeplanung und des Ver- triebs von z.B. Abonnements, Premiuminhalten und anderen digitalen Produkten automatisie- ren. ▪ Von der Entwicklung und dem Wachstum von Big-Data-Dienstleistern profitieren vor allem die nachgelagerten Märkte des Daten- und Adresshandels sowie der Markt für Risikoinformatio- nen, die mit dem Verkauf und der Vermietung von personenbezogenen Datensets Big-Data- Initiativen im Onlinemedienmarkt erst ermöglichen.

11

HANDLUNGSEMPFEHLUNGE N

▪ Für die Politik kann ein hoher Grad an potentiellem Handlungsbedarf in Bezug auf Big-Data- und KI-gestützte Algorithmen im Markt der Onlinemedien festgestellt werden. Zahlreiche In- stitutionen sehen ein klares Defizit in der Regulierung von KI-basierten Anwendungen wie Per- sonal Voice Assistants oder Chat- sowie Social-Bots. Dieser Handlungsbedarf liegt jedoch we- niger im Bereich der Gesetzgebung oder Regulierung, sondern vielmehr im Diskurs zur Ent- wicklung journalistischer Standards, Selbstkontrollen und Kennzeichnungsgeboten. ▪ Hier bietet es sich an, den Grad an Automatisierung von Medieninhalten in der Medienwirt- schaft zu beobachten und sich z.B. für ein Kennzeichnungsgebot für automatisierte Artikel ein- zusetzen. Um die Meinungsvielfalt zu wahren, könnten Maßnahmen zur Kennzeichnung von autonomen Agenten durch öffentlich-rechtliche Onlinemedien oder durch die größten Infor- mationsintermediäre in Deutschland (Google, Facebook, YouTube, WhatsApp und Twitter) überprüft werden. ▪ Im Kontext der zunehmenden Auslagerung von Kunden- und Nutzerdaten an Drittfirmen zur Datenanalyse oder -anreicherung könnte eine Zertifizierung zur Absicherung des Datenschut- zes angeregt werden. Durch ein Zertifikat könnte dem Endnutzer/Kunden signalisiert werden, dass eine Plattform, die personenbezogene Daten speichert, die Vorgaben der europäischen Datenschutz-Grundverordnung sowie die in Deutschland geltenden Datenschutzrichtlinien über die gesamte Wertschöpfungskette hinweg einhält. ▪ Eine generelle Empfehlung an Unternehmen wäre: Da algorithmische Mechanismen aktuell nicht hinreichend beschrieben und verstanden werden können und Unternehmen ihre Algo- rithmen nicht publizieren, empfiehlt es sich für jedes datengetriebene Onlinemedienunterneh- men, Strategien und Guidelines für den Umgang mit algorithmenbasierten oder KI-assistierten Dienstleistungen zu entwickeln. Dazu zählen auch KI-Audits: Bei Einsatz von komplett automa- tisierten, Big-Data-basierten Dienstleistungen sollten KI-Prozesse, Trainingsdatensätze und Modelle durch ein KI-Audit kontinuierlich auf systematische Bias sowie technische Fehler über- prüft werden. ▪ Eine konkrete rechtliche Möglichkeit bestünde darin, im Rahmen der Auslegung der europäi- schen Datenschutzgrundverordnung bzw. auf Basis von nationalem Datenschutzgesetz/Tele- mediengesetz die Einhaltung des Datenschutzes konkret auf sprachbasierte Assistenzsysteme in sog. Smart-Devices zu übertragen. Dies könnte die verpflichtende Erneuerung der Einwilli- gung zur Datenerhebung und zur Datenverarbeitung bei Verbindung eines weiteren Gerätes (wie z.B. Personal Voice Assistants) mit bestehenden Nutzerkonten von Online-Diensten be- deuten. ▪ Ein weiterer rechtlicher Aspekt ergibt sich aus dem Quasi-Oligopol der Anbieter von Personal Voice Assistants, die Mediennutzer an eigene technologische und mediale Ökosysteme bin- den. Da PVA-Plattformen zukünftig eine wichtige Rolle bei der Auswahl von Medieninhalten spielen werden, wird es wichtig zu prüfen, ob die Plattformen ihr Angebot auf wenige große Mediendienste einschränken oder die zusätzliche Implementierung von externen Diensten er- schweren. Hier drohen etablierten Mediendienstanbietern Wettbewerbsnachteile. Im Zuge der Plattformregulierung der Landesmedienanstalten könnten Probleme im Dialog geklärt werden, bevor es zu wettbewerbsrechtlichen Auseinandersetzungen kommt.

12

2 EINLEITUNG UND STRUKTUR DES GUTACHTENS

Big-Data-Technologien werden in vielen Branchen bereits als effektives Instrument zur Optimierung von Geschäftsprozessen eingesetzt, wie beispielsweise in der Marktforschung oder Medizin. Unter Big Data werden dabei unstrukturierte, große Datensets verstanden, sogenannte Massendaten, wel- che mit speziellen Analysemethoden ausgewertet werden können. Populär wurde der Begriff aller- dings vor allem durch den Markt der Onlinemedien, in welchem in den letzten Jahren ein stetig wachsender Einfluss von Big Data beobachtet werden konnte. Die Integration neuer Technologien und die automatisierte, algorithmenbasierte Auswertung großer Mengen von Nutzerdaten führt zu tiefgreifenden Veränderungen bei der Interaktion von Medienanbietern und deren Nutzern.

Längst etabliert sind beispielsweise Personalisierungsprozesse bei der Einblendung von Werbung und der Zusammenstellung inhaltlicher Angebote auf Plattformen wie Google, Facebook, Netflix oder Amazon. Mit Hilfe von Predictive Analytics können Anbieter aus dem Verhalten von Nutzern auf zukünftiges Konsumverhalten schließen, wobei in speziell eingerichteten Analyseabteilungen stetig an der Zuverlässigkeit der Prognosen gearbeitet wird. So wird es zukünftig bspw. möglich sein, zu erkennen, ab wann ein Rezipient kostenloser Inhalte bereit ist, für ein Angebot zu zahlen. Aktuell erweist sich die Refinanzierung digitaler Angebote als prekär, da Finanzierungsstrategien wie Abonnements oder Paywalls nur bedingt von Kunden angenommen werden. Durch die Kom- bination von Big-Data-Analysemethoden mit neuen technischen Möglichkeiten wie etwa Block- chain und digitale Zahlungssysteme werden neue, dynamische Zahlungsmodelle ermöglicht. So ist es denkbar, dass Micropayments, mit denen einzelne Artikel, Videos oder andere Inhalte erworben werden können, mit Hilfe von Big Data plötzlich rentabel werden.

Neben der voranschreitenden Personalisierung sind Sprachassistenten ein prominentes Beispiel für die gewinnbringende Nutzung umfangreicher Datensets. Personal Voice Assistants von Konzernen wie Apple, Google oder Microsoft, die spätestens seit der Geräteserie Amazon Echo mit dem Sprachassistenzdienst Alexa massenmarkttauglich geworden sind, greifen auf Datenbanken mit Nutzerinformationen und formalisiertem Wissen zu und verwenden Big-Data-Technologien, um die richtigen Befehle auszuführen oder passende Antworten zu finden. Über Schnittstellen können auch andere Geräte im Haus angesteuert werden, was bspw. das individuelle Mediennutzungsverhalten beeinflussen könnte und zusätzlich dem Mikrofon als Gerätesteuerungselement wachsende Bedeu- tung verleiht. Traditionelle Eingabegeräte wie Maus, Tastatur oder Touchpad werden im gleichen Zug vermutlich an Relevanz verlieren. Weiter entstehen durch Voice Search auch im Marketing neue Herausforderungen, da Suchergebnisse zunehmend bildschirmlos ausgegeben werden. Auch Ein- kaufen und Bezahlen via Sprachsteuerung könnten sich als disruptive Innovationen verstärkt durch- setzen.

Viele weitere Möglichkeiten, die sich durch Big Data und Künstliche Intelligenz ergeben, werden den Onlinemedienmarkt in den nächsten Jahren stark beeinflussen. Denkbar ist etwa die teil- oder vollautomatisierte Produktion und Analyse von Medieninhalten oder die vollständige Abwicklung der Kundenkommunikation über Chatbot-Plattformen. Mit Hilfe Künstlicher Intelligenz und maschi- nellem Lernen werden viele Prozesse innerhalb von Medienhäusern optimiert und ganze Wert- schöpfungsketten nachhaltig transformiert. Auch die massenhafte Gewinnung von personenbezo- genen Daten und Sensordaten aus dem Internet of Things trägt ihren Teil dazu bei. Von einem medienökonomischen Standpunkt betrachtet, werden Daten zu einer Schlüsselressource und Big-

13

Data-Initiativen zu einer Schlüsselaktivität, die Onlinemedien auf lange Sicht in ihre Unternehmens- struktur eingliedern müssen, um wettbewerbsfähig zu bleiben. Diese Veränderungen haben auch tiefgehende Implikationen für die Politik, denn der Einsatz von autonomen Agenten in der Medi- enwirtschaft darf vor dem Hintergrund von Wahlkampfmanipulationen, potentiellen Verzerrungen der öffentlichen Meinungsbildung sowie Oligopol-artigen Marktstrukturen nicht unbeachtet blei- ben.

Im Rahmen des vorliegenden Gutachtens wird ein systematischer Überblick erarbeitet, der aufzeigt, inwiefern der Einsatz von Big-Data-Technologien die Marktstrukturen der deutschen Onlinemedien beeinflusst. Aus ökonomischer Perspektive heraus werden dabei durch Big Data hervorgerufene Veränderungen im Wettbewerbs- und Kundenbereich sowie im öffentlichen Diskurs beleuchtet. Übergreifend spielen dabei auch Datenqualität und -vermarktung eine wesentliche Rolle.

In einem ersten Schritt sollen in Kapitel 3 zunächst die technologischen Grundlagen abgesteckt werden, die das Arbeiten mit großen Datensets überhaupt erst ermöglichen. Dazu wird das funda- mentale Konzept der Künstlichen Intelligenz betrachtet und menschliches Handeln dem computer- basierten gegenübergestellt. Anschließend erfolgt eine Abgrenzung des vielschichtigen Begriffs Big Data, welcher in verschiedenen wissenschaftlichen Disziplinen und Anwendungsfeldern unter- schiedlich definiert wird. Darüber hinaus werden weitere zentrale Technologien und Methodiken der datengestützten Analysen vorgestellt, wozu unter anderem Neuronale Netze, Deep Learning und die computerbasierte Verarbeitung natürlicher Sprache gehören.

Im sich anschließenden Kapitel 4 werden die wichtigsten Big-Data-Anwendungen im Business-to- Consumer (B2C) Segment analysiert. Tiefgreifende Veränderungen werden aktuell vor allem durch Sprachassistenten, Chatbots sowie die Nutzung von Algorithmen zur Optimierung von Empfehlun- gen auf Medienplattformen hervorgerufen. Dementsprechend werden diese Technologien detail- liert untersucht und verschiedene Anwendungsbereiche veranschaulicht. Anschließend wird einer Abschätzung der Potentiale der einzelnen Anwendungen auf dem Onlinemedienmarkt eine Analyse der Nutzerakzeptanz gegenübergestellt. Dabei werden verschiedene Ebenen betrachtet und sowohl Meinungen auf Seiten des Mediennutzers als auch umfassendere gesellschaftliche Debatten einbe- zogen. In einem Ausblick folgt eine Bewertung der Nachhaltigkeit der jeweiligen Entwicklung.

In Kapitel 5 stehen die deutschen Medienunternehmen im Fokus. Die Implementierung von Big- Data-Initiativen führte bereits in den letzten Jahren zu Transformationen im Business-to-Business (B2B) Markt und auch zukünftig können technologiebedingte Neuordnungen in verschiedenen Ge- schäftsbereichen erwartet werden. Dabei spielt insbesondere die Prozessautomatisierung eine große Rolle, da die Integration der teil- bzw. vollautomatisierten Produktion von Medieninhalten große Wettbewerbsvorteile schaffen kann. Inwiefern die maschinelle Herstellung verschiedener In- halte wie Texte, Videos, Audiospuren oder auch Onlinespiele den Markt bereits beeinflusst hat und welche Potentiale die Technologien weiterhin bieten, wird daher detailliert betrachtet. Im darauf- folgenden Schritt werden weitere innerbetriebliche Tätigkeiten der Medienunternehmen unter- sucht, die durch Big-Data-Technologien unterstützt oder modifiziert werden. Es kann davon ausge- gangen werden, dass Big Data insbesondere bei Kundenakquise und Vertrieb einen Wandel her- beiführen wird, weswegen sich diesen Bereichen daraufhin separat gewidmet wird.

Bei den Betrachtungen und Analysen des B2C- und B2B-Marktes werden bereits vielfach konkrete Big-Data-Anwendungen herangezogen, um deren Potentiale und Risiken praxisnah zu veranschau- lichen. In dem sich anschließenden Kapitel 6 werden weitere Case Studies erläutert, die Big Data im Onlinemedienmarkt verorten und dessen Bedeutung verdeutlichen.

14

Auf die Analysen und Fallstudien aufbauend, werden in Kapitel 7 Handlungsempfehlungen für die Politik entwickelt, wobei sich diese sowohl generell mit publizistischer Vielfalt und Meinungsvielfalt auseinandersetzen als auch auf die Regulierung von Datensouveränität und der Nutzung Künstli- cher Intelligenz sowie Algorithmen abzielen. Abschließend erfolgt eine Zusammenfassung, wobei auch ein Ausblick darüber gegeben wird, inwiefern die fortschreitende Entwicklung und Implemen- tierung von Big Data den Markt der Onlinemedien mittelfristig beeinflussen könnte.

15

3 TECHNOLOGISCHE GRUNDLAGEN VON BIG DATA: KÜNSTLICHE INTELLIGENZ UND NEURONALE NETZWERKE

Seit der Markteinführung von dezentralen Datenbankarchitekturen wie MapReduce oder Apache Hadoop in den frühen 2000er Jahren hat sich der Begriff "Big Data“ nicht nur in der Wissenschaft, sondern auch in der Wirtschaft fest etabliert1. Big-Data-gestützte Abfragen und Analysen erfüllen viele komplexe Aufgaben, die mit der Verarbeitung von unstrukturierten (bzw. schwer zu verarbei- tenden) Datensets und der Automatisierung von Prozessen zusammenhängen (vgl. Kap. 3.5). Durch die kontinuierliche Fortentwicklung computerbasierter Technologien wie z.B. Künstlicher Neurona- ler Netzwerke (vgl. Kap. 3.3) und des maschinellen Lernens (etwa durch die Deep-Learning-Lernan- ordnung vgl. ebd.) können mit Hilfe algorithmischer Prozesse enorme Datenmengen in Echtzeit verarbeitet werden2.

Diese neue analytische Performanz ist nicht nur nützlich, sondern auch notwendig, da die verfüg- baren Datenmengen jedes Jahr eine fast logarithmisch-wachsende Wachstumskurve erzeugen. Be- reits im Jahr 2013 wurden weltweit insgesamt zwei Zettabyte an Daten erzeugt. 2012 existierte erst ein Zehntel dieser Datenmenge3. Bis 2025 erwarten Marktforscher, dass der Umfang auf 180 Zetta- byte ansteigen wird4. Hinzu kommt, dass der größte Anteil dieser Daten (IBM-Schätzung in 2016: rd. 80 Prozent5) unstrukturiert bleibt und mit klassischen relationalen Datenbankmodellen kaum zu verarbeiten ist. Deswegen basieren Abläufe in Branchen, die hauptsächlich mit unstrukturierten Da- ten arbeiten – z.B. Finanzindustrie, Mikrobiologie oder E-Commerce (vgl. Kap. 4.3) –, bereits aus- schließlich auf Big-Data-gestützten Infrastrukturen wie verteilten Dateisystemen und skalierbaren Server-Clustern.

Von der starken Skalierung der analytischen Rechenleistung profitieren auch neue Marktakteure. Der Einsatz von Big Data im Zusammenspiel mit einem sprunghaften Anstieg der analytischen Per- formanz durch neue Datenbankarchitekturen eröffnet auch gänzlich neue Einsatzgebiete für Künst- liche Intelligenz. So können etwa autonom fahrende PKWs durch Erkennungsalgorithmen alltags- tauglich gemacht werden und ohne menschlichen Einfluss auf der Straße fahren. Dabei können sogar bestimmte Teilaspekte des audiovisuellen Dateninputs wie z.B. Straßenverkehrsschilder, das Verhalten anderer Verkehrsteilnehmer und der Straßenverlauf erkannt werden. Mit anderen An- wendungen lassen sich auch bspw. die Anordnungen von Falten auf Kleidung, Tiere (vgl. dazu Abb. 1) oder Schrift auf Oberflächen sowie bestimmte Tonfrequenzen erfassen (vgl. Kap. 3.7)6.

Hinter den zunächst simpel klingenden Funktionen des Big-Data-basierten „Erkennens“, „Analysie‐ rens“ und „Auswertens“ von audiovisuellem Input verbirgt sich jedoch ein transdisziplinäres Pasti- che aus dutzenden technologischen Prozessen, welche, je nach Forschungsstand und Konfiguration,

1 Bollier & Firestone (2010), S. 1ff. 2 Mayer-Schönberger & Mayer-Schönberger (2013), S. 8 3 Vgl. Jüngling, T. (2013a) 4 Vgl. Press, G. (2016) 5 Vgl. Schneider, C. (2016) 6 Zeiler, M.D./ Fergus, R. (2013), S. 3

16

die gewünschten Ergebnisse von Analysen mit einer für die Privatwirtschaft zufriedenstellenden Konsistenz wiedergeben.

Abb. 1: Resultate KI-basierter Erkennungsalgorithmen bei der Erkennung von visuellem Input

Quelle: Deepvis Toolkit Implementation nach: Yosinski et al. (2015)

Aufgrund der Breite von Anwendungsgebieten und der zahlreichen wissenschaftlichen Disziplinen, die sich mit dem Gegenstand von Big Data auseinandersetzen, werden in den nächsten Kapiteln der Gegenstand des von Werbe-Kommunikation geprägten Begriffs von Big Data erläutert und die zentralen Technologien hinter daten-gestützten Analysen vorgestellt. 3.1 DEFINITION KÜNSTLICHE INTELLIGENZ

Als Grundlage von Big-Data-basierten Anwendungen dient das Prinzip der Künstlichen Intelligenz (ferner: KI) bei dem es darum geht, den menschlichen Verstand virtuell nachzubauen. Konkreter handelt es sich dabei um die Idealvorstellung von Computer-basierten, autonomen Agenten, die ihre Umgebung in Form von Daten wahrnehmen, in Form von Algorithmen selbstständig Muster erkennen und darauf basierend handeln können7.

Ein Schwerpunkt bei der Entwicklung von KI liegt daher auf der Nachahmung von Methoden und Verfahren, die bisher nur das menschliche Gehirn bewerkstelligen konnte oder in denen Menschen den Computern überlegen sind. Mit dieser Thematik beschäftigen sich zahlreiche wissenschaftliche Disziplinen wie bspw. die Informatik, die Neurowissenschaft oder auch die Kognitionswissenschaft. Bei der Analyse menschlichen Denkens und Handelns, dessen Vereinfachung durch Modelle und schließlich der Nachahmung sollen neben dem wissenschaftlichen Erkenntnisgewinn meist auch andere Lösungen generiert werden: Durch Prozess-Automatisierung steht immer auch die damit einhergehende Erleichterung des Alltags für Privatpersonen und Wirtschaftsakteure im Vorder- grund.

7 Russell & Norvig (2010), S. 1f.

17

Abb. 2: Übersicht zentraler Kategorien von Daten-basierten Problematiken

Quelle: Vgl. SciKit-learn Developers (2017)

Durch die artifizielle Modellierung von sprachlichen und kognitiven Prozessen soll künstlichen In- telligenzen die Wahrnehmung und Verarbeitung bestimmter Umgebungen (in Form von Daten o- der Textkorpora) ermöglicht werden. Entsprechend der Definition von Russel und Norvig8 kann das Ziel von KI entsprechend der zwei Dimensionen "menschliches Verhalten gegenüber rationalem Verhalten" und "Denken gegenüber Handeln" in vier Klassen von Ansätzen unterteilt werden: menschliches Denken, rationales Denken, menschliches Handeln und rationales Handeln.

Während "menschlich" bedeutet, dass das Ziel einer KI ist, den Menschen nachzuahmen, signalisiert "rational" ein zielorientiertes Vorgehen, bei dem KI effizient bestimmte Werte identifiziert (z.B. bei einer Kostenoptimierung o.ä.). Für marktrelevante Anwendungsszenarien sind natürlich die „ratio‐ nalen“ KI-Kategorisierungen besonders entscheidend.

In der Praxis soll dieses Modell dazu beitragen, bestimmte Probleme zu lösen. Konkret soll KI bei der Klassifikation, der Regression, der Gruppierung und der Reduktion von Komplexität Abhilfe schaffen (vgl. Abb. 2). Hierbei meint Klassifikation die Identifikation und Zuordnung von Datenmen- gen in bestimmte Kategorien; Regression bedeutet die Bestimmung und Prognose fortlaufender Werte in Abhängigkeit von anderen Werten; durch Gruppierung kann eine Menge an Objekten oder Daten in disjunkte Sets aufgeteilt werden; mit Hilfe von Reduktion kann eine Reihe an zufälligen Variablen reduziert werden, um Komplexität bei großen Datenmengen zu minimieren. 3.2 TAXONOMIE VON BIG DATA

Angesichts der unterschiedlichen Zielvorgaben, die Big-Data-Analysen vorliegen, und der involvier- ten Wissenschaftszweige, Konzepte sowie Methoden existieren in der wissenschaftlichen Literatur zahlreiche Big-Data-Begriffsdefinitionen. Wie De Mauro et al. (2015) es in ihrer Übersicht aufzeigen,

8 Russell & Norvig (2010), S. 49ff.

18

orientieren sich diese meistens an konkreten Forschungsfragen oder am Rahmen der jeweiligen wissenschaftlichen Disziplin. Wenige der in Tabelle 1 vorliegenden Auslegungen versuchen, den Gegenstand von Big Data vollständig und überschneidungsfrei zu beschreiben.

Tab. 1: Auswahl von Definitionen des Big-Data-Begriffs, sortiert nach inhaltlichen Bezügen

DEFINITIONEN BEZÜGE

INFOR- TECHNO- ME- RELE- MATION LOGIE THODE VANZ Beyer/Laney: "High volume, velocity and variety information assets that demand cost-effective, innovative forms of information pro- X X X cessing for enhanced insight and decision making." Dijcks : "The four characteristics defining big data are Volume, Veloc- X X ity, Variety and Value."

Intel Corp.: "Complex, unstructured, or large amounts of data." X

Suthaharan: "Can be defined using three data characteristics: Cardi- X nality, Continuity and Complexity." Schroeck/Shockley/Smart/Romero-Morales/Tufano: "Big data is a combination of Volume, Variety, Velocity and Veracity that creates X X an opportunity for organizations to gain competitive advantage in today’s digitized marketplace." NIST Big Data Public Working Group: "Extensive datasets, primarily in the characteristics of volume, velocity and/or variety, that require X X a scalable architecture for efficient storage, manipulation, and analy- sis." Ward/Barker: "The storage and analysis of large and or complex data sets using a series of techniques including, but not limited to: X X X NoSQL, MapReduce and machine learning." Microsoft News Center: "The process of applying serious computing power, the latest in machine learning and artificial intelligence, to se- X X X riously massive and often highly complex sets of information." Dumbill: "Data that exceeds the processing capacity of conventional X X database systems." Fisher/DeLine/Czerwinski/Drucker: "Data that cannot be handled and X X processed in a straightforward manner."

Shneiderman: "A dataset that is too big to fit on a screen." X

Manyika/Brown/Bughin/Dobbs/Roxburgh/Byers: "Datasets whose size is beyond the ability of typical database software tools to cap- X X X ture, store, manage, and analyze." Chen/Chiang/Storey: "The data sets and analytical techniques in ap- plications that are so large and complex that they require advanced X X X and unique data storage, management, analysis, and visualization technologies."

19

DEFINITIONEN BEZÜGE

INFOR- TECHNO- ME- RELE- MATION LOGIE THODE VANZ Boyd/Crawford: "A cultural, technological, and scholarly phenome- non that rests on the interplay of Technology, Analysis and Mythol- X X X ogy." Mayer-Schönberger/Cukier: "Phenomenon that brings three key shifts in the way we analyze information that transform how we un- X X X derstand and organize society: 1. More data, 2. Messier (incomplete) data, 3. Correlation overtakes causality."

Quelle: De Mauro et al. (2015), S. 102

Als Big Data können demnach Datensets definiert werden, die entweder "Zu groß sind, um auf einen Bildschirm zu passen" oder auch "In Bezug auf Volumen, Geschwindigkeit und/oder Vielfalt, eine skalierbare Architektur für effiziente Speicherung, Manipulation und Analyse erfordern" (vgl. alle Zitate mit Tab. 1). Die Spannweite dieser Definitionen verdeutlicht die Komplexität der Thematik.

Nichtsdestotrotz ist es möglich, auf Basis der existierenden Definitionen die Taxonomie des Big- Data-Gegenstands zu bestimmen. Zwischen ideologischen, technologischen und mengenbasierten Definitionen kann nämlich in Anlehnung an die relativ disjunkte Definition von Ward/Barker eine Herangehensweise formuliert werden, die Big Data in dem Spannungsfeld von kontextuellen Bezü- gen verortet. Diese Bezüge setzen sich wie folgt zusammen:

1. Beschaffenheit von Daten (Art, Hierarchie und Umfang eines Datensets) 2. Grad an struktureller Komplexität und Integrität 3. Eingesetzte Technologien 4. Kreation von ökonomischem Mehrwert 1.) Das erste definitorische Kriterium beschreibt die Beschaffenheit von Daten. Diese Kategorie er- scheint damit als passender Indikator im Rahmen einer wissenschaftlichen Betrachtung, da alle a priori definierten Eigenschaften von Daten qualifizierbar sind. Sowohl die Länge eines Datensets, als auch seine möglichen Metatags oder Strukturmerkmale leisten im Kontext zu anderen vergleich- baren Daten mit anderen Attributen die nötige erste Identifikationsarbeit. So können bei einem quantitativen Vergleich der Eigenschaften eines Petabyte-großen unstrukturierten Datensets und einer relationalen Datenbank beide Datensätze auf ihre Qualifikation als Big Data getestet werden9.

9 Ein konkreterer Wert zu dem zu verarbeitenden Datenvolumen, der darüber entscheidet, ob die vorliegen- den Daten als Big Data klassifiziert werden können oder nicht, kann a priori nicht bestimmt werden. Auf- grund der jährlich steigenden Reichenleistung von Computerprozessoren und den parallel dazu steigenden Bandbreiten sowie stetig besser werdenden Kompressionsalgorithmen kann eine Datenmenge X, die zu einem Zeitpunkt auf einem industriellen Niveau nicht schnell verarbeitet werden kann, bereits im nächsten Jahr in einem Bruchteil der Zeit von einem privaten Computer verrechnet werden. Als groben Anhaltspunkt lässt sich z.B. eine B2B-Umfrage des Marktforschungsinstituts IDC aus dem Jahr 2012 heranziehen. Dem- nach galt für 17 Prozent der befragten IT-Entscheider ein Datenvolumen ab 10 bis 50 Terabyte, für 31 Prozent ein Volumen ab 50 bis 100 Terabyte, für 33 Prozent ein Volumen von 100 bis 1.000 Terabyte und für 13 Prozent ein Volumen von 1.000 Terabyte und mehr als Big Data. Vgl. IDC (2012)

20

2.) Um den Gegenstand von Big Data weiter zu qualifizieren, sollte im zweiten Schritt die strukturelle Komplexität der Daten und ihres Einsatzkontextes als Bezug herangezogen werden. Die Kompo- nente "Big" in Big Data beschreibt nicht nur die a priori definierte Kondition der Daten, sondern zugleich den Grad an Komplexität, welcher sehr umfangreichen Datenmengen innewohnt. Darüber hinaus spielt es auch eine Rolle, ob Daten systematisch erhoben werden oder ob sie das Ergebnis einer willkürlichen, unstrukturierten Aggregation sind. Eine zentrale Aufgabe von Big-Data-Analy- sen ist die Strukturierung von unstrukturierten Datensets. Dabei kann die Komponente der Kom- plexität wichtiger sein als die erste Komponente der Beschaffenheit. Ein Datensatz kann zwar einen geringen Umfang haben, aber gleichzeitig auch einen sehr hohen Grad an Komplexität in Form von unstrukturierten Attributen aufweisen, was eine Big-Data-Analyse notwendig macht.

3.) Besonders die Kategorie der eingesetzten Technologien schafft eine deutliche Abgrenzung zu anderen Datenverarbeitungsmethoden: Sowohl Oracle als auch Microsoft haben in ihren offiziellen Stellungnamen den Begriff Big Data durch die Abhängigkeit des Einsatzes bestimmter Technolo- gien definiert. Demnach bedarf es zu der Abgrenzung von Big Data zur bisherigen Norm der Da- tenanalyse des Einsatzes von stark skalierbaren, verteilten Datenbank-Infrastrukturen wie Hadoop, MongoDB oder Cassandra sowie einer Auswahl von Analyseinstrumenten wie den R-Analyse Pro- grammpaketen, HIVE, PIG oder visuellen Analysepaketen.

4.) Final bietet es sich ebenfalls an, den ökonomischen Mehrwert einer Big-Data-Analyse als Defi- nitionskriterium heranzuziehen, da die notwendigen Ressourcen für diese Art von massenhafter Auswertung von Daten immer eine monetäre Investition voraussetzen. Der Aufbau von IT-Infra- struktur, aktivem Serverbetrieb, Datenspeicherungsmöglichkeiten und der Erwerb von Lizenzen für Analysewerkzeuge sind stets mit Kosten verbunden. Natürlich sind Ausnahmen denkbar wie etwa bei Big-Data-Analysen im Rahmen von Non-Profit-Untersuchungen oder gemeinnütziger For- schung. Nichtsdestotrotz erübrigen sich diese Kosten nicht und müssen in diesen Fällen subventi- oniert werden. Im Kontrast dazu stehen Analyseverfahren und Methoden, die einen weitaus gerin- geren Ressourceneinsatz benötigen.

Fazit: Vor diesem Hintergrund kann der Gegenstand von Big Data als Umgang mit Datensets be- zeichnet werden, die ein sehr hohes Volumen aufweisen, in ihrer Beschaffenheit unstrukturiert oder anderweitig komplex sind, den Einsatz von flexiblen Datenbankmanagement-Systemen erfordern und eine Kapitalinvestition rechtfertigen. 3.3 NEURONALE NETZE ALS ZENTRALE METHODIK VON KÜNSTLICHER INTELLIGENZ

Als Künstliche Neuronale Netze (KNN) werden in der Neuroinformatik Modelle bezeichnet, welche die Topologie von biologischen Neuronen entsprechend einer Zielvorgabe nachbilden, durch Rück- kopplungen kontinuierlich lernen und große Informationsmengen automatisiert strukturieren10. Die Anwendungsgebiete von KNN reichen dabei von der Erkennung von Mustern in unstrukturierten Datensets bis zur Erstellung von Wachstumsprognosen von Mikroorganismen11. Im Markt für Onli- nemedien werden KNN häufig für Analysen im Rahmen von Sprach- und Texterkennung sowie als Grundlage für Empfehlungsalgorithmen verwendet (vgl. Kap. 4.1 und Kap. 4.3).

10 Bishop (2006), S. 225ff. 11 Najjar et al. (1997), S. 27

21

Strukturell betrachtet, stellen KNN eine Ansammlung aus dicht untereinander vernetzten Elementen dar, die im Stande sind, parallel zueinander kontinuierlich Daten zu verarbeiten12. Diese vernetzten Elemente bilden den Kern von KNN und sind modellhaft an menschliche Neuronen-Zellen ange- lehnt. Die besondere Eigenschaft, die ein KNN auszeichnet, ist, dass der Dateninput extern einge- speist und auch aus einem anderen Neuron innerhalb desselben KNN stammen kann. Damit lässt sich unter anderem ein Rückkopplungs-Effekt realisieren, durch den der rekurrente Datenfluss die einzelnen Neuronen kontinuierlich anpasst bzw. trainiert, bis eine Zielausgabe möglichst präzise approximiert werden kann13. Diese methodische Eigenschaft sorgt dafür, dass KNN über Trainings- daten trainiert werden und dadurch aktiv lernen können - ein Vorgang, der den Erfolg von den heute im Medienmarkt eingesetzten Innovationen überhaupt erst ermöglicht.

Als Beispiel für die Funktionalität eines Künstlichen Neuronalen Netzwerkes kann hier der Vorgang der automatisierten Texterkennung einer Smartphone-Tastatur angeführt werden14. Als Dateninput fungieren hierbei von einem Nutzer handgeschriebene Buchstaben auf dem Smartphone-Display. Die Zielvorgabe für einen KNN-gestützten Erkennungsalgorithmus lautet, aus einer Vielzahl von höchst unterschiedlich geschriebenen Buchstabensymbolen die Eingabe des Nutzers als mind. eine von 26 oder mehr Buchstaben des jeweiligen Alphabets zu identifizieren und dem intendierten Buchstaben möglichst akkurat zuzuordnen.

In einem ersten Schritt wird jede Nutzereingabe in ein Raster von Pixeln runtergebrochen und je- dem Pixel ein Wert zugewiesen. Das Pixelraster und somit der geschriebene Buchstabe werden in dem nächsten Schritt in kleinere Teilbereiche aufgespalten, für deren Analyse jeweils ein anderes Neuron zuständig ist. Durch die parallele Bearbeitung der einzelnen Teilbereiche durch mehrere Neuronen, kann der Algorithmus den Analysevorgang nämlich schneller durchführen. Die Summe der Werte der einzelnen Teilbereiche eines Rasters wird nachfolgend mit einer Datenbank von Sum- menwerten abgeglichen, die sich aus den Buchstaben des Alphabets speisen. Stimmt ein Wert mit dem Wert aus der Datenbank überein, wirkt er aktivierend. Somit kann ein Neuron durch den Ver- gleich der jeweiligen Werte bestimmte Muster eines Buchstabens als korrekt identifizieren. Zum Schluss werden die einzeln erkannten Bestandteile des Pixelrasters zu einem einzelnen Symbol zu- sammengesetzt und mithilfe des Summenwerts aller einzelnen Pixel ein konkreter Buchstabe aus der Buchstabendatenbank approximiert15.

Dabei kann es natürlich vorkommen, dass durch eine besondere Schreibweise der Buchstabe nicht korrekt erkannt wird und der Nutzer den resultierenden Output korrigiert. Dadurch wird eine Rück- kopplungsschleife durch alle KNN erzeugt, welche die jeweiligen Aktivierungsschwellen entspre- chend an die eingegebenen Werte des jeweiligen Nutzers anpasst. Damit findet ein Lernvorgang statt, bei dem die aktivierenden Neuronen sich die Korrekturen merken und bei einer weiteren Ein- gabe eher auf die angepassten Werte zurückgreifen, anstatt auf die standardisierten Ursprungs- werte. Damit bringt ein Smartphone-Nutzer dem Erkennungsalgorithmus die Erkennungsroutine für seine persönliche Handschrift bei.

12 Basheer & Hajmeer (2000), S. 3f. 13 Hecht-Nielsen (1988), S. 445ff. 14 Bishop, C. M. (1995), S. 1-9 15 Jaderberg, M. et al. (2014), S. 3f.

22

Zusammengeführt in Lernanordnungen und systematisiert in einem algorithmischen Modell, lassen sich also durch KNN Analyseprozesse vereinfachen, indem zuvor unstrukturierte Datenmengen sys- tematisiert und strukturiert werden16. Um diese Funktionalität für Problemlösungs-Szenarien in der Wirtschaft zu optimieren (wie z.B. bei der Vorhersage von Kundenverhalten im Marketing), benöti- gen manche Lernanordnungen von KNN wie etwa das im nachfolgenden Unterkapitel beschriebene Deep Learning bis zu 100.000 Trainingsdaten-Beispiele17, obgleich auch kleinere Mengen im Be- reich von 1.000 Trainingsbeispielen für leichtere Klassifikationsaufgaben ausreichen können18. 3.4 DEEP LEARNING UND WEITERE KNN-TOPOLOGIEN

Als Topologie eines künstlichen Neuronalen Netzes wird die Struktur bzw. die Anordnung der ein- zelnen Neuronen und der Neuronen-Schichten untereinander bezeichnet (vgl. Abb. 3 und Abb. 4). Da ein KNN aus mehreren hundert netzwerkartig verbundenen Neuronen bestehen kann, ist es notwendig, das Geflecht an Neuronen in Schichten zu ordnen und die Attribute der Verbindungen festzulegen.

Unter allen möglichen Lernanordnungen existieren vor allem zwei zentrale Klassifikationen von Strukturen. Die sogenannten "Feedforward Netze" verarbeiten die eingespeisten Informationen nur in eine Richtung gerichtet. Diese Art von Netzen kann eine oder mehrere Schichten von Neuronen besitzen. "Rekurrente Netze" besitzen dagegen die Eigenschaft, den eingespeisten Informationsin- put auch rückgerichtet verarbeiten zu können oder ihn gleich in den namensgebenden rekurrenten Schleifen zu gewichten. In der Praxis kommen dabei oft mehrere Schichten an Neuronen zum Ein- satz, da für eine Feedback-Schleife eine minimale Zeitverzögerung notwendig ist und diese erst durch mehrere Schichten möglich wird. Die zwischengeschalteten Neuronen-Schichten werden als Hidden-Layer bzw. als "Verborgene Schichten" bezeichnet (vgl. Abb. 3). Sie erhalten den Input der Eingabe-Neuronen-Schicht, extrahieren daraus entsprechend ihrer Gewichtung Daten mit den re- levanten Attributen und leiten diese an die Ausgabe-Neuronen-Schicht weiter. In der Praxis lassen sich mithilfe solcher Deep Learning-gestützten Analysemodelle z.B. Muster inmitten von Datensets zu Kundenverhalten identifizieren. Damit kann ein KNN-Model trainiert werden Kaufabsichten am Beispiel der vorher recherchierten Artikel auf einer Website zu erkennen. Durch massenhafte Aus- wertung von Tausenden solcher Vorgänge lassen sich aus Datensets zu Online-Kundenverhalten Wahrscheinlichkeiten ableiten, mit der Nutzer auf Basis ihrer Interessen ähnliche Produkte in naher Zukunft werden kaufen wollen.

16 Hastie et al. (2009), S. 9-41 17 Vgl. Frank (2017) 18 Halevy et al. (2009), S. 9ff.

23

Abb. 3: Visualisierung der Funktionsweise eines KNN am Beispiel der TensorFlow Bibliothek

Quelle: Vgl. TensorFlow (2018)

Als eine der bekanntesten Lernanordnungen gilt das Deep-Learning-Verfahren, bei dem viele ver- borgene Zwischenschichten systematisch und rekurrent angeordnet werden. Über jede neue Schicht werden die Informationen aus der Eingabeschicht systematisch verarbeitet, immer besser systematisiert und an die jeweils nächste Schicht weitergegeben19.

Konkret nimmt jede Schicht eine einfache Gewichtung vor und reduziert damit graduell die Kom- plexität für die nächste Schicht (vgl. Punkt 1 in Abb. 4). In Summe bildet sich durch dieses Lernver- fahren mit jeder Schicht eine immer besser zu verstehende Struktur aus, die final eine vereinfachte Klassifizierung und Analyse von hochkomplexen Datensets erlaubt. Nachdem die Informationen einmal in der Ausgabeschicht angekommen sind, werden die Daten durch eine Rückkopplung rück- wärts durch die gesamte KNN-Struktur gesendet (vgl. dazu Punkt 2 in Abb. 4). Mit jeder neuen Rückkopplung werden die Gewichte der Neuronen erneut präziser gewichtet, bis der Trainingsda- tensatz kaum Datenverluste produziert und somit die eingehenden Informationen möglichst genau sortiert werden können, um das zu approximierende Problem zu lösen. Durch diesen Prozess zeigt sich das adaptive Potential der Deep-Learning-Lernanordnung, das verstärkt im Rahmen von ma- schinellem Lernen Anwendung findet.

Mithilfe von maschinellem Lernen und vor allem auf Basis der Deep-Learning-Anordnung können schon heute viele selbstlernende Anwendungen realisiert werden, um komplexe Vorgänge schneller zu analysieren und für Anwender repetitive Prozesse zu automatisieren. Beispielsweise konnte Googles Künstliche Intelligenz AlphaGo Zero innerhalb von drei Tagen alle Regeln des sehr kom- plexen Brettspiels Go lernen und nur durch dieses Grundwissen und ohne weitere Erfahrung die besten professionellen menschlichen Go-Spieler besiegen20.

19 Vgl. Goodfellow et al., S. 164-175 20 Vgl. Cellan-Jones (2017)

24

Abb. 4: Schematische Darstellung eines Deep-Learning-Prozesses und einer Feedback-Schleife

Quelle: Goldmedia Analyse (2018) nach: LeCun et al. (2015), S. 437

Mit Hilfe von Deep Learning ist es des Weiteren Wissenschaftlern gelungen, in Echtzeit das Wetter und die Jahreszeit in Videos zu manipulieren, einer KI beizubringen, eine eigene KI zu programmie- ren, einer KI beizubringen, eigenständig Computerspiele perfekt spielen zu lernen, oder etwa Fahr- zeugen das autonome Fahren zu ermöglichen.

Darüber hinaus existieren mehrere andere Lernparadigmen, wie z.B. das der "General Adversarial Networks" (auf Deutsch: antagonistisch-kompetitive Netzwerke), die andere Strukturen von Infor- mationsverarbeitung und damit weitere Daten-Optimierungsvorgänge ermöglichen. Unter einer solchen Anordnung werden z.B. mindestens zwei KNN verstanden, die in ihrer Funktionsweise bei der Verarbeitung von Daten im Rahmen eines Nullsummenspiels gegeneinander arbeiten21. Das erste KNN soll dabei als Zielvorgabe alle als "schlecht“ definierten Ergebnisse vermeiden. Die Auf‐ gabe des zweiten KNN besteht darin, das erste KNN dazu zu bringen, schlechte Antworten zu ge- nerieren22. Damit werden sukzessive die Trainingsergebnisse des ersten KNNs verbessert und die Ergebnisse präziser.

Ein weiteres prominentes Beispiel stellt das "Reinforcement Learning" dar (oder auf Deutsch: be- stärkendes Lernen). Damit wird eine KNN-gestützte Methode bezeichnet, bei der ein Algorithmus durch Belohnungen konditioniert wird, eine möglichst optimale Lösung (Nutzenfunktion) zu errei- chen. Die Belohnungen können dabei negativer oder positiver Natur sein, sodass der Algorithmus

21 Radford et al. (2015), S. 1f. 22 Goodfellow et al. (2016), S. 327-339

25

in Abhängigkeit von der Vorgabe approximieren kann, welchen Wert er maximieren oder minimie- ren muss23.

Zusammenfassend lässt sich feststellen, dass KNN und Lernanordnungen wie Deep Learning integ- rale Bestandteile von Big-Data-Prozessen geworden sind und auch die Grundlage für Künstliche Intelligenzen bilden. Mit Hilfe der Automatisierung, Geschwindigkeit und der Menge an Daten, die autonom verarbeitet werden kann, sorgen diese Technologien bereits dafür, dass sich Anwendun- gen zur Text-, Bild-, und Spracherkennung global etablieren konnten. 3.5 RELATIONALE DATENBANKEN UND VERTEILTE DATEISYSTEME

Eine weitere zentrale Rolle spielen Datenbanken bei der Betrachtung und der Definition des Ge- genstandes von Big Data. Wenn KNN als das metaphorische Gehirn der Künstlichen Intelligenz an- gesehen werden können, so stellen Datenbanken und verteilte Dateisysteme das Herz- und das Kreislaufsystem dar. Nach der Entwicklung von hierarchischen24 und netzwerkbasierten Datenbank- typen25 in den 1960 Jahren26, gelten relationale Datenbanken seit den 80er Jahren sowohl in der Informatik als auch in der Wirtschaft als Industriestandard für die elektronische Verwaltung von Daten27. Ihre zentrale Aufgabe ist es, eine definierte Obermenge an strukturierten Daten aufzuneh- men, sie in Form von Listen in Tabellen zu speichern und eine Teilmenge dieser Daten bei einer Abfrage an den Nutzer wiederzugeben28. Relationale Datenbanken können in vielen Formen und Datenbankmanagementsystemen erstellt und abgerufen werden. Die gängigsten Datenbankmana- gementsysteme werden in den Sprachen "Structured Query Language" (kurz SQL) und "Not only SQL" (kurz NoSQL) formuliert29.

In jeder Zeile einer relationalen Datenbank können beliebig viele Daten gespeichert werden. Über sogenannte "Keys", "IDs" bzw. "Schlüssel" können die namensgebenden Relationen in einer Daten- bank zwischen anderen Sets und Tabellen hergestellt werden. Dies geschieht, indem alle Datensets gleichmäßig strukturiert sind und ein Attributwert als Schlüssel definiert wird. So können etwa An- gaben zu den Mitarbeitern einer Firma in Zeilen abgespeichert werden. Attribute wie Name, Ge- schlecht, Adresse etc. werden in Spalten organisiert. Eines dieser Attribute kann dabei als Schlüssel definiert werden, sodass es möglich wird, über die erste Spalte einer relationalen Datenbank z.B. über die Abfrage einer Identifikationsnummer Informationen über jeden Mitarbeiter abzurufen. Bei Privatanwendungen und kleineren Datensets mit einer Speichergröße von bis zu zehn Terrabyte können relationale Datenbanken relativ kosteneffizient betrieben werden30.

Bei einer direkten Datenbankabfrage werden Daten entsprechend der vorgegebenen Datenbank- struktur aus einer Ausgangstabelle in eine passende Zieltabelle überführt, die nach demselben At-

23 Zell (1994), S. 95 24 Abiteboul & Hull (1986), S. 3-7 25 Bachman (1973), S. 269f. und Chen (1976), S. 9f. 26 Brosey & Shneiderman (1978), S. 625f. 27 Codd (1979), 397ff. und Sauer (2002), S. 13 28 Ebd. S. 20-23 29 Goldmedia Analyse (2018) nach: Google Trends (2018) 30 Russom (2013), S. 20

26

tributschema aufgebaut sein muss. Darüber hinaus müssen der Ausgangsdatentyp und der Zielda- tentyp einander entsprechen. Wird nämlich etwa eine Liste an zehnstelligen Telefonnummern ab- gefragt, erwartet das Datenbankmanagementprogramm auch, dass es diese Nummern als Ausgabe bekommt. Folgen z.B. stattdessen Namendatensätze, gibt es ein Problem und die relationale Da- tenbank kann die angeforderten Informationen nicht verarbeiten. Diese strikten Vorgaben von re- lationalen Datenbankarchitekturen dienen vor allem dem Zweck, die Richtigkeit der abgefragten Daten zu sichern.

Verteilte Dateisysteme (wie z.B. "Apache Hadoop") setzen an dieser Stelle an und umgehen die Problematik, indem sie auch unstrukturierte Datensets mit unterschiedlichen Datentypen verarbei- ten können (dies allerdings zu Kosten der Datenintegrität). Die Technologie hinter verteilten Datei- systemen wurde ab 1997 von dem Medienkonzern Yahoo als "Projekt Lucene" entwickelt31, von Google im Jahre 2004 unter dem Namen "Google File System" implementiert32 und als Open Source Technologie von anderen schnell wachsenden Unternehmen wie z.B. Facebook adaptiert.

Neben der Möglichkeit, unstrukturierte, verschiedene Datensets mit geringerem Aufwand zu verar- beiten, bieten verteilte Dateisysteme den Vorteil, dass sie bei größeren Datenabfragen sehr viel Bandbreite durch Komprimierung und parallele Verarbeitung von Datenabfragen einsparen. Mit diesem konzeptuellen Problem sahen sich in den frühen 2000er Jahren die meisten der heutigen Technologie- und E-Commerce-Konzerne konfrontiert.

Die Indexierungsalgorithmen von Google mussten zunehmend wachsende Quantitäten an Daten speichern und abrufen, Amazon war als global wachsende E-Commerce-Plattform angewiesen, mehrere Hundert Terrabyte an Suchanfragen und Empfehlungsvorschlägen auszuspielen, und Fa- cebook musste seine Rechenzentren sowie Bandbreiten aufgrund des starken Nutzerwachstums kontinuierlich ausbauen. Für diese Art von Big-Data-Aufgaben eignen sich zwar auch relationale Datenbanken auf SQL-Basis, doch die singuläre und lineare Natur der Verarbeitung von Datenab- fragen ist mit hohen Kosten verbunden, die zwischen 2002 und 2005 für die damals noch jungen Unternehmen nicht finanzierbar waren.

Mit Hilfe von "MapReduce", einer Weiterentwicklung des Google File Systems, wurde eine Methode entwickelt, mit deren Hilfe sich große Quantitäten von strukturierten oder unstrukturierten Daten parallel über mehrere Computer-Cluster hinweg mit hoher Geschwindigkeit verarbeiten lassen. Das Verfahren basiert dabei auf der Unterteilung von einer Aufgabe in mehrere Unteraufgaben deren Zwischenergebnisse nachher zusammengefasst werden33.

Die Effizienz eines MapReduce-Prozesses äußert sich vor allem darin, dass die notwendige Band- breite um ein Zehnfaches und die benötigte Rechenleistung um ein 54-Faches reduziert werden kann34, da sich die parallele Verteilung der Arbeitspakete zumindest theoretisch auf unendlich viele Server und Rechenkerne skalieren lässt. Ferner stellen MapReduce-gestützte Datenbank-manage- mentsysteme eine kostengünstige Alternative zu SQL-Servern dar, da die einzelnen Server durch die skalierbare Serverlast nicht aus besonders leistungsstarken (respektive teuren) Komponenten bestehen müssen.

31 Vgl. Entwickler.de (2009) 32 Vgl. Ghemawat et al. (2003) 33 Dean & Ghemawat (2008), S. 109-112 34 Chu, C. T. et al. (2007), S. 288

27

Zusammenfassend lässt sich feststellen, dass verteilte Dateisysteme gegenüber relationalen Daten- banksystemen in Bezug auf die Verarbeitung von Daten den linearen Prozess-Flaschenhals durch parallele und extrem skalierbare Prozesse umgehen, jedoch zu Kosten der Präzision der ausgege- benen Daten. Diese methodischen und wirtschaftlichen Vorteile haben verteilte Datenbanksysteme als Standard zur Analyse von Big Data in den Bereichen des Data Mining, wissenschaftlicher Simu- lationen und Finanzanalysen etabliert35. 3.6 STATISTISCHES NATURAL LANGUAGE PROCESSING UND NATURAL LANGUAGE GENERATION

Als Grundlage für die automatisierte Erstellung von (journalistischen) Onlineinhalten dient die Me- thode des Statistischen Natural Language Processing (auf Deutsch: maschinelle Verarbeitung na- türlicher Sprache; ferner SNLP). Es handelt sich dabei um ein relativ junges Forschungsfeld, das sich ab 2013 durch die Fortschritte in der Forschung um KNN von dem klassischen Natural Language Processing abgespalten hat36. Da es sich bei dem Begriff SNLP um einen Oberbegriff für mehrere Methoden der computerbasierten Analyse und Verarbeitung handelt, die auf mehreren theoreti- schen Forschungszweigen und Technologien basieren, gibt es keine universale Definition. Als lang- jährige SNLP-Forscherin und Pionierin auf diesem Gebiet formulierte E.D. Liddy deswegen eine vor allem auf Textkorpora fokussierte Definition:

"Als Natural Language Processing (NLP) kann ein breites Spektrum an computergestützten Tech- nologien bezeichnet werden, die für die linguistische Analyse von natürlich vorkommenden Texten verwendet werden, um eine menschenähnliche Sprachverarbeitung für eine Reihe von Aufgaben oder Anwendungen zu erreichen."37

Die Methode des SNLP wird durch Algorithmen des maschinellen Lernens realisiert und basiert auf dem Grundgedanken, dass jegliche Form von Sprache und Dateninput zunächst von einem artifizi- ellen Agenten (wie z.B. einem Computer, Sprachassistenten, Eingabemaske etc.), erkannt werden muss. Deswegen bilden Dokumentenkorpora bzw. Arten von Semantiken in Daten die strukturelle Basis für eine SNLP-basierte Analyse38. Erst wenn ein Algorithmus weiß, in welcher linguistischen Umgebung er eingesetzt wird (z.B. Website, Sprache, Audiodatenbank etc.) und die Regeln der Um- gebung als Handlungsmaßstab definiert werden, kann der Analyseprozess einen Kontext und eine Syntax verstehen.

Die maschinell lernenden SNLP-Algorithmen versuchen somit nicht, für jedes Problem eine Lösung zu finden, sondern sie lernen allgemeine Muster, mit deren Hilfe sie individuelle Fragestellungen bearbeiten oder ganze Diskurse analysieren können39. Als prominentes SNLP-Beispiel gilt Google Translate, dessen Algorithmen gesprochene oder geschriebene Sprache automatisch erkennen und sinngemäß übersetzen können. Ein anderes Beispiel sind fortgeschrittene, KI-basierte Chatbot- Plattformen oder Personal Voice Asisstants wie oder Alexa. Als übergeordnetes Ziel von SNLP-

35 Vgl. Litzel (2017) 36 Vgl. Mikolov et al. (2013) 37 Liddy (2001), S. 1 38 Vgl. ebd. S. 2f. 39 Chowdhury (2003), S. 4ff.

28

Algorithmen kann die Automatisierung von linguistischen Prozessen und die Reduktion der dahin- terstehenden Rechenkomplexität bezeichnet werden40.

Darüber hinaus kann festgestellt werden, dass in einer systematischen Betrachtung des Big-Data- Gegenstandes SNLP nicht nur für den Input und die Verwertung von Daten verwendet wird, sondern auch für die automatisierte Generierung von Inhalten. So kann zwar keine allgemeine technische Einführung gegeben werden, dafür aber ein Überblick darüber, wie im Speziellen automatisierte Textgenerierung und -ausgabe in der Medienbranche technisch umgesetzt wird:

Automatisierte Textgenerierung ist die zentrale technische Komponente, die automatisierten Jour- nalismus erst ermöglicht41. Als Teilgebiet von SNLP ist Natural Language Generation (NLG) als tech- nische Applikation definiert, die automatisch natürliche Sprache aus der datengestützten Präsenta- tion von Informationen generiert42. Die Umsetzung wird im Rahmen der Funktionsweise von künst- lichen neuronalen Netzwerken folgendermaßen beschrieben43: „Strukturierte, digitale Daten wer‐ den von Algorithmen selektiert, gewichtet und es wird ihnen je nach Programmierung und Beschaf- fenheit der Datensets Relevanz (Priorisierung und Kontextualisierung der Daten) zugewiesen.“ Die Daten werden in Folge des zitierten Prozesses damit zuerst in eine semantische Struktur gebracht und anschließend in einen Text mit natürlicher und grammatikalisch korrekter Sprache verwandelt. Nach der anfänglichen Programmierung und dem Training der Anwendung kann diese relativ au- tonom und fehlerfrei journalistische Texte erstellen, veröffentlichen und auf verschiedenen Plattfor- men verbreiten.

40 Mikolov et al. (2013), S. 4 41 Dörr (2016), S. 700f. 42 Reiter & Dale (2000), S. 2-4 43 Dörr et al. (2017), S. 123

29

Abb. 5: Übersicht der vier Grundkomponenten eines NLG-Prozesses

Quelle: Goldmedia Analyse (2018) nach: Bateman & Zock (2003), S. 5f.

Basierend auf der Grundlage der vorangehend beschrieben SNLP-Prozesse, kann die algorithmische Textgenerierung modellhaft in Form eines Input-Throughput-Output-Modells formuliert werden44. Ausgangspunkt für den Gebrauch der Textgenerierung für den Journalismus ist eine Datenbank, beispielsweise mit Daten zu Wetter, Sport oder Finanzen – dem Input. Während des Throughput werden diese gemäß vordefinierter linguistischer und statistischer Regeln ausgewählt und verar- beitet. Als Output entsteht ein Text in natürlicher Sprache. Der Prozess der eigentlichen Textgene- rierung ist in vier Stufen unterteilt: 1. Macroplanning, 2. Microplanning, 3. Surface Realization und 4. Physical Representation (vgl. Abb. 5).

Während des Macroplanning werden die Daten ausgewählt, die für die Textgenerierung notwendig sind, in eine Struktur gebracht und in einem sog. Text Plan organisiert45. Sie werden über öffentliche Schnittstellen zur Anwendungsprogrammierung (APIs) oder private Datenbanken bezogen. Öffent- liche Schnittstellen zur Anwendungsprogrammierung oder auch Programmierschnittstellen sind ein Programmteil eines Softwaresystems, das anderen Programmen ermöglicht, auf das eigene System zuzugreifen, also beispielsweise auf eigene Datenbanken.

Darüber hinaus sind Regeln und Codes – als Anforderungen an den Text – schon zu Beginn festge- legt. Diese umfassen beispielsweise die Textlänge, Tonalität oder das Genre und sorgen dafür, dass das Ergebnis der Textgenerierung schon vordefiniert ist. Im zweiten Schritt – dem Microplanning – wählen Algorithmen aus, welche Elemente eines Datensets und welche linguistischen Strukturen verwendet werden sollen. Dies bestimmt die grobe Struktur eines Satzplans und die Realisation des späteren Texts. In der dritten Stufe – der Surface Realization (auf Deutsch: Oberflächenausführung) – kommt dies schließlich zum Einsatz: Welche Worte werden gewählt und in welcher Reihenfolge werden sie angeordnet? Das Ergebnis ist ein syntaktisch korrekter Text in natürlicher Sprache, der

44 Latzer et al. (2014), S. 395-425 45 Bateman & Zock (2003), S. 5f.

30

meistens automatisch veröffentlicht wird. Darüber hinaus kann noch ein vierter Schritt berücksich- tigt werden, bei dem aus reinem Text und Textbausteinen konkrete Artikel oder Audiobeiträge vor- formatiert werden. Hier werden das Layout und etwaige Bilder für das Zielmedium entsprechend den Corporate-Design-Vorgaben aufgearbeitet. 3.7 HIDDEN-MARKOV-MODELLE

Als letztes grundlegendes Konzept für die Entwicklung und vor allem Implementierung von Künst- licher Intelligenz werden die Hidden-Markov-Modelle betrachtet, auf denen alle Spracherken- nungsanwendungen aufbauen46. Benannt nach dem russischen Mathematiker A.A. Markov, wurde der stochastische Markov Prozess Ende der 60er Jahre im Rahmen der Erforschung von maschineller Spracherkennung in Form von Hidden-Markov-Modellen weiterentwickelt47. Ein normaler Markov- Prozess beschreibt die prognostische Güte von Datensets48. Das Wetter kann an einem jeden ge- gebenen Tag zu X Prozent sonnig, zu X Prozent wolkig oder zu X Prozent regnerisch ausfallen. Die zentrale Aussage dabei lautet, dass die Prognosegüte sich mit einer ansteigenden Kenntnis von historischen Daten nicht verändert49.

Dies bedeutet, dass lediglich mit einer Teilmenge von Daten ähnlich gute Ergebnisse erzielt werden können wie mit einem kompletten Datenset50. Kennt man die Wahrscheinlichkeit des Prozentsatzes, mit dem es regnen wird, und den, mit dem das Wetter sonnig ausfällt, kann man per Inferenz auch die Wahrscheinlichkeit von Regen ermitteln, ohne diese vorher wissen zu müssen.

Mit Hilfe von Hidden-Markov-Modellen (HMM) können dagegen auch kontinuierliche Ereignisse beschrieben werden51. Zwar ist ein HMM auch als ein endliches Modell definiert, doch beschreibt es eine Wahrscheinlichkeitsverteilung über eine unendliche Anzahl von möglichen Sequenzen. Das bedeutet bei einer praktischen Anwendung, dass nicht nur z.B. drei Zustände des Wetters ermittelt werden können, sondern dass kontinuierliche Vorgänge wie z.B. ein Gespräch in seinem Verlauf erfasst werden kann, ohne vorher zu definieren, wie viele Wörter lang es sein wird. Durch selbstre- flexive Schleifen können in einem nächsten Schritt Algorithmen formuliert werden, die mit Hilfe von Textkorpora und Lexika gesprochene Texte für Computer verständlich machen.

Gesprochene Sprache bzw. ein konkreter Satz wie "Ich möchte Milch bestellen" kann als ein akusti- sches Signal dargestellt werden und in einem finiten Frequenzspektrum abgebildet werden. Dabei werden jedes Wort und seine Frequenz getrennt und isoliert analysiert. Durch einen Abgleich mit einer Datenbank von Phonemen (den kleinsten bedeutungsunterscheidenden Einheiten des Laut- systems einer Sprache52) kann jedes Wort als Zustand betrachtet werden. Innerhalb dieses Zustan- des wird die Frequenz des Phonems mit einer Datenbank aller Phoneme abgeglichen und anhand der Dauer der Aussprache über eine HMM bestimmt, um welches Phonem es sich handelt53.

46 Gales & Young (2008), S. 197 47 Basharin et al. (2004), S. 12ff. 48 Stewart (1994), S. 4f. 49 Eddy (1998), S. 755f. 50 Schomaker (2012), S. 1ff. 51 Rabiner & Juang (1986), S. 7 52 Meibauer (2007), S. 82 53 Waibel et al. (1989), S. 332

31

Abb. 6: Systematik der Dekodierung eines akustischen Signals in Phoneme

Quelle: Vgl. Kohler & Jurafsky (2017)

Im nächsten Schritt wird nach einer erfassten Pause (bzw. ausschlaggebender Übergangswahr- scheinlichkeit) in der Frequenz das nächste Phonem analysiert und danach das nachfolgende (Vgl. Abb. 9). Jeder Zustand im Verlauf der Analyse kann symbolisch als einzelnes Glied betrachtet wer- den, und die Summe aller analysierten Zustände im Zeitverlauf ergibt die namensgebende (Hidden- Markov-Modell-) Kette54.

Parallel zu diesem Vorgang versucht ein Algorithmus, diese einzelnen Zustände zusammenzusetzen und zu einem Wort zusammenzufügen55. Über anschließende SNLP-Prozesse wird der semantische Inhalt aller identifizierten Wörter des gesprochenen Satzes ("Ich möchte Milch bestellen") für den Computer verständlich übersetzt. In einem letzten Schritt verwandelt der Algorithmus das ur- sprüngliche akustische Signal in eine potentielle Arbeitsanweisung für nachgelagerte Prozesse - wie z.B. einen E-Commerce-Auftrag zur Bestellung von Milch (vgl. dazu den Ablauf eines HMM-basier- ten Erkennungsalgorithmus in Abb. 7).

54 Rabiner (1990), S. 266 55 Gales & Young (2008), S. 204

32

Abb. 7: Ablauf einer Hidden-Markov-Kette am Beispiel der Wörter "one", "eight", und "zero"

Quelle: Vgl. Kohler & Jurafsky (2017)

3.8 ZUSAMMENFASSUNG

Bei Big Data und allen unter diesem Themenfeld einzuordnenden Technologien, die in den voran- gehenden Artikeln beschrieben wurden, handelt es sich im Rückblick um relativ junge Technologien, die erst vor zehn bis zwölf Jahren im Zuge der Digitalisierung und durch steigende Rechenleistung sowie durch wachsende Datenbestände in der Forschung erst richtig Beachtung gefunden haben. Umso beeindruckender erscheint es, dass diese Konzepte bereits ihre Synthese in marktreifen Pro- dukten erleben - sowohl im Privatkunden - als auch im Unternehmenssegment.

KNN-gestützte Algorithmen in der Deep Learning-Anordnung bilden bei Produkten, die Künstliche Intelligenz einsetzen (wie z.B. bei der Texterkennung, dem Data-Mining oder in Finanzanalysesoft- ware) die funktionale Grundlage für automatisierte Lern- und Optimierungsprozesse. Mithilfe von verteilten Datenbankarchitekturen können diese Technologien auf ein globales Niveau skaliert wer- den, sodass auch Privatanwender von den Vorteilen automatisierter Prozesse in Form von etwa persönlichen Sprachassistenten oder schnellen Suchmaschinenabfragen profitieren können. Hierbei kommen insbesondere solche Technologien wie SNLP oder Hidden-Markov-Modelle zum Einsatz, die überhaupt erst eine Mensch-Maschine-Interaktion ermöglichen, indem sie menschliche Signale wie gesprochene Sprache oder geschriebene Texte für Computer verständlich übersetzen. In den folgenden Kapiteln soll das Zusammenwirken dieser Technologien weiter an konkreten Beispielen und Produkten aus dem Markt für Onlinemedien untersucht werden.

33

4 AUSGEWÄHLTE BEISPIELE VON MEDIENBEZOGENEN BIG-DATA- ANWENDUNGEN IM B2C-MARKT

Durch die stetige Weiterentwicklung und die steigende marktseitige Akzeptanz von Künstlicher In- telligenz, Künstlicher Neuronaler Netze und Statistical Natural Language Processing beginnen sich Big-Data-Anwendungen in allen Bereichen der traditionellen und digitalen Wirtschaft zu etablieren. Um die Auswirkungen von Big-Data-gestützten Innovationen auf den Markt der Onlinemedien voll- ständig und überschneidungsfrei zu untersuchen, werden nachfolgend die Marktpotentiale der drei wichtigsten Entwicklungen in dem Business-to-Consumer- (B2C) Segment des deutschen Medien- marktes dargestellt, die Nutzerakzeptanz der jeweiligen Technologien untersucht und in einem Aus- blick die Nachhaltigkeit der Innovationen bewertet. 4.1 PERSONAL VOICE ASSISTANTS: KI-BASIERTE KOMMUNIKATION UND TRANSAKTION

Seit dem Erscheinen der IBM-Software „ViaVoice“ und der Privatkunden-Version der Software „Dra‐ gon NaturallySpeaking“ im Jahr 1997 hat sich der Markt für digitale Sprachassistenz und Spracher- kennung nicht nur dramatisch weiterentwickelt, sondern mit Personal Voice Assistants (ferner PVA) auch eine komplett neue Produktkategorie geschaffen (vgl. Abb. 11). Bei PVA handelt es sich um fortgeschrittene Chatbot-Plattformen, deren Aufgabe es ist, sprachliche Eingaben des Benutzers im Rahmen eines imitierten Dialogs in Handlungsanweisungen umzusetzen und dadurch dem Benut- zer zu assistieren. Zum Beispiel kann ein Nutzer einen PVA fragen, welches Wetter gegenwärtig herrscht, und der PVA gibt ihm auf Basis der geolokalisierten Position das Wetter für die unmittel- bare Umgebung wieder. PVA können je nach Ausführung entweder als Hardware in Form eines Lautsprechers oder als Software auf einem Smartphone benutzt werden. Während des Zeitraumes, in dem sie in Betrieb sind, müssen sie fortlaufend mit dem Internet verbunden sein, da die KI-Kom- ponente auf einer Plattform ausgeführt wird, die sich nicht auf dem jeweiligen Endgerät, sondern auf den externen Servern der Anbieter befindet.

Aus einer methodologischen Perspektive betrachtet, stellen PVA die Kulmination der wissenschaft- lichen Erkenntnisse rund um Big Data dar. In ihrer Funktionsweise bieten sie Privatkunden den Zu- gang zu der am höchsten entwickelten Form von Künstlicher Intelligenz, die es auf dem B2C-Markt gibt. Als technologische Grundlage, auf der die KI hinter den PVA aufbaut, dient dabei die Summe aller in Kapitel 3.3 bis Kapitel 3.7 untersuchten Modelle der Mensch-Maschine-Interaktion: Während die Sprachaufzeichnungen über HMM definiert und prognostiziert werden, verarbeiten SNLP-Pro- zesse sie in für Computer lesbare Rohdaten, die über in der Deep-Learning-Anordnung aufgebaute und durch Millionen von anderen Datensets trainierte KNN gespeist werden, um als logisch-kon- sistente Befehle auf den Servern der Anbietern ausgeführt zu werden. Dabei finden alle beschrie- benen Vorgänge in Echtzeit auf verteilten Dateisystemen statt, die in Sekundenbruchteilen Tau- sende von Befehlen filtern, analysieren und an die von den final eruierten Befehlen adressierten Anwendungen von externen Dienstleistern weiterleiten.

34

Und genau diese Anwendungen, welche die jeweiligen Anfragen der Nutzer über PVA beantworten, tragen maßgeblich zu dem Erfolg dieser neuen Big-Data-basierten Technologie bei. Denn die Funk- tionalität der PVA geht über simple Assistenz hinaus und verbindet den Nutzer mit zahlreichen Onlinemedien und E-Commerce-Anbietern. Die PVA dienen daher in ihrer primären Funktion als Intermediär zwischen Nutzern und externen Anbietern von Dienstleistungen – oder anders formu- liert als „Lead-Up-Channels“. Der kommerzielle Erfolg solcher PVA wie Amazon Echo oder Google Home basiert auf ihrer beinahe barrierefreien Weiterleitung der Nutzerinteressen an Medien- dienste, die über PVA ihre Unterhaltungsangebote über einen zusätzlichen Distributionskanal mo- netarisieren können.

Abb. 8: Meilensteine in der Entwicklung von Personal Voice Assistants, 2011 bis 2017

Quelle: Goldmedia Analyse (2018) nach: Selbstangaben der Unternehmen 2011-2017

Wenn der Zeitraum von 1997 bis 2010 als Start- und Wachstumsphase definiert werden kann, dann stellen die Jahre 2011 bis 2016 eine Experimentalphase für Spracherkennung und Sprachapplikati- onen dar. Nach dem Launch von Apples Siri im Jahr 2011 und dem Start von 2012 war die Marktresonanz verhalten – vermutlich wegen der mangelnden Spracherkennungsqualität. Aber "… [t]he hunger to experiment was profound“, resümiert ein Bericht des Unternehmens VoiceLabs und bezeichnet den Markteintritt der digitalen Sprachassistenten Amazon Echo im Jahr 2015 und Google Home im Jahr 2016 als den Urknall für die Verbreitung von kommerziellen Personal Voice Assistants56.

2016 verkündete Sundar Pichai (CEO von Google Inc.), dass bereits 20 Prozent der mobilen Such- anfragen per Spracheingabe erfolgen. Für das Jahr 2017 wird die Anzahl der verkauften Voice-First- Geräte auf etwa 24,5 Mio. geschätzt, womit die Gesamtzahl der im Umlauf befindlichen Voice-First- Geräte etwa 33 Mio. beträgt57. Im Vergleich zum Vorjahr wäre das ein Anstieg von gut 35 Prozent. Das amerikanische Marktforschungsunternehmen Gartner nennt Sprachassistenten als einen der zehn technologischen Trends für das Jahr 2017 und prognostiziert, dass bis 2020 etwa 30 Prozent der Internetrecherchen per Sprachsteuerung erfolgen werden58. 4.1.1 DEFINITION UND ANWENDUNGSBEREICHE

In dem Markt der Personal Voice Assistants konkurrieren inzwischen die größten Technologie-Un- ternehmen um Marktanteile. Als erster kaufte Apple das 2007 gegründete Siri Inc. im Jahr 2010 auf und brachte im folgenden Jahr den ersten Endkunden-orientierten Sprachassistenten in seinem iPhone heraus.

56 Alpine.AI (2017), S. 4 57 Vgl. ebd. 58 Vgl. Pemberton & Levy (2016)

35

Als erster Konkurrent stieg 2012 das Unternehmen Google mit dem eigenen Sprachassistenten Google Now in den Wettbewerb ein. Da der Fokus von Google Now vor allem auf der Sprachsuche lag, ersetzte Google ihn im Jahr 2016 durch den verbesserten, intelligenten Sprachassistenten , der darauf spezialisiert ist, seinen Nutzer kennenzulernen und mit ihm zu kom- munizieren. Seit 2016 vertreibt Google auch smarte Lautsprecher, den Google Home und den Google Home mini.

Im Jahr 2014 folgte Microsoft mit einem PVA-Angebot, seiner Sprachassistentin . Erst 2015 stieg Amazon mit der derzeit wohl bekanntesten Sprachassistentin Alexa und dem dazugehörigen Amazon Echo in diesem Markt ein. Obwohl Amazon als letzter Big Player in Erscheinung trat, zählt sein Angebot an vernetzten Endgeräten 2017 zu den breitesten, die über Amazons PVA Alexa ge- steuert werden können (vgl. Abb. 12).

Abb. 9: Geräte der Amazon Echo-Produktfamilie (Q3/2017)

Quelle: Vgl. Newman (2017)

Die zentralen Anwendungsbereiche von PVA können mit Hilfe einer repräsentativen Bevölkerungs- befragung der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC im Juni 2017 zu intelligenten Lautsprechern dargestellt werden: An erster Stelle nennen die Befragten den Wunsch, die Sprach- assistenten für das Abspielen von Musik einzusetzen. Direkt danach folgen mit 48 Prozent die all- gemeine Informationssuche zu beispielsweise Nachrichten und Wetter und die Beantwortung von Wissensfragen mit 44 Prozent. Darüber hinaus werden Sprachassistenten auch als Unterstützung bei Organisationsaufgaben, wie bei der Terminplanung und Terminverwaltung (37%) oder Planung von Fahrten und Routen (31%), eingesetzt. Von besonderem Interesse ist der Einsatz der Sprachas- sistenten bei der Smart-Home-Steuerung, wo knapp ein Drittel der Deutschen Interesse an der Nutzung zeigt.

Insgesamt werden die intelligenten Lautsprecher bzw. Sprachassistenten vor allem also für Basis- Funktionen eingesetzt59. Ihr Einsatz bei komplexen Aufgaben, wie bspw. die Durchführung von Bankgeschäften oder die Buchung von Tickets, findet derzeit noch eher selten statt60. Nutzer sehen die Sprachassistenten stattdessen größtenteils als unterhaltsames Gimmick, das hauptsächlich für

59 Eresult GmbH (2017b), S. 11 60 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 5

36

einfache Aufgaben verwendet wird61: "[...] they did not attempt complex tasks (particularly without visual confirmation) or tasks where they perceived a high social cost to failure":

In Bezug auf Nutzerzahlen lässt sich beobachten, dass die Anzahl der Alexa Skills in den letzten Jahren zwar enorm angestiegen ist, jedoch nur ein geringer Teil dieser tatsächlich verwendet wird. Die Anzahl der Skills für Alexa ist von etwa 1.000 Skills im Juni 2016 auf rd. 25.000 Ende November 2017 angestiegen62 (für eine Darstellung der Entwicklung von Alexa Skills vgl. Abb. 10). Nur 31 Prozent der Skills weisen jedoch mehr als einen Nutzerreview auf, was Analysten als Anzeichen dafür sehen, dass es sich bei vielen der Skills um nicht genutzte "Zombie Skills“ handelt63. Es besteht demnach eine große Diskrepanz zwischen Quantität und Qualität.

Abb. 10: Entwicklung und Anzahl von Alexa Skills 2015 bis 2017

Quelle: Vgl. Kinsella (2017)

4.1.2 MARKTPOTENTIALE

Eine im Jahr 2017 von Accenture durchgeführte Nutzerbefragung in 26 Ländern bestätigt die Ver- mutung, dass KI bereits jetzt eine zentrale Rolle im Leben vieler Konsumenten spielt und Sprachas- sistenten routinemäßig in den Alltag integriert werden64. Als größte Nutzergruppe identifizierte die Studie die Altersgruppe der 14- bis 17-Jährigen, bei denen mehr als die Hälfte (51 Prozent) anga- ben, sprachgesteuerte digitale Assistenten in Smartphones und Laptops zu nutzen. Die Befragung zeigte, dass sich innerhalb der Altersgruppen deutliche Unterschiede erkennen lassen: Je älter die befragten Teilnehmer waren, desto geringer die Anzahl der Sprachassistentennutzer. Während es bei den 18- bis 34-Jährigen noch 38 Prozent waren, lag der Anteil der PVA-Nutzer bei den 35- bis 55-Jährigen nur noch bei 27 Prozent und bei den über 55-Jährigen lediglich bei 15 Prozent. Doch bereits ein Drittel (31 Prozent) der 14- bis 17-Jährigen gab an, Sprachassistenten bereits regelmäßig zu nutzen.

61 Luger & Sellen (2016), S. 5291 62 Alpine.AI (2017), S. 6 63 Vgl. ebd. S. 8 64 Sovie et al. (2017), S. 3

37

Laut Accenture sei dies ein positives Zeichen für die Entwicklung zukünftiger Nutzerzahlen. Eben- falls auf einen zukünftigen Anstieg der Nutzerzahlen deutet das Interesse über alle vier Altersgrup- pen an der neuen Technologie hin. So gab in allen Segmenten etwa ein Drittel der Befragten an, dass sie sich für eine zukünftige Nutzung von Sprachassistenten interessieren65. Auch der "Com- manding Media"-Report des Marktforschungsunternehmens GfK kam zu dem Ergebnis, dass 76 Prozent der befragten US-Bürger bereits Sprachsteuerung auf verschiedenen Geräten ausprobiert haben und eine von neun Personen einen digitalen Sprachassistenten besitzt. Von den Personen, die einen Sprachassistenten besitzen, beschreiben 19 Prozent ihr Nutzungsverhalten mit rund um die Uhr und 46 Prozent als sehr regelmäßig bis fast jederzeit66. Die Ergebnisse zeigen: Wer einen Sprachassistenten besitzt, nutzt diesen meist auch regelmäßig.

Auch in Deutschland führte der Digitalverband BITKOM im Oktober 2016 zum Thema Sprachassis- tenten eine repräsentative Befragung unter Bundesbürgern ab 14 Jahren durch. Sieben von zehn Personen gaben bei der Befragung an, bereits von Sprachassistenten gehört zu haben, und 39 Pro- zent, dass sie sich vorstellen könnten, Sprachassistenten in Zukunft zu nutzen67. Somit scheint auch in Deutschland das Interesse an Sprachassistenten zu wachsen und einen Punkt erreicht zu haben, "an dem ein Produkt wie der Echo mit dem Assistenten Alexa bereits eine recht breite Käuferschicht erreichen kann"68. Prognosen gehen davon aus, dass sowohl die Bedeutung als auch die Nutzer- zahlen von Sprachassistenten in Zukunft stark ansteigen werden. Während die Nutzerzahl laut Prog- nosen weltweit zurzeit etwa auf 710 Mio. Nutzer geschätzt wird, soll sich diese Zahl bis 2021 mehr als verdoppeln, womit die prognostizierte Nutzerzahl bei 1,8 Mrd. Nutzern läge69.

Ein ähnliches Potential lässt sich auch auf finanzieller Ebene beobachten: Experten erwarteten, dass der Umsatz mit Personal Voice Assistants weltweit von rd. 90 Mio. Euro im Jahr 2016 auf rd. 590 Mio. Euro im Jahr 2017 steigen wird. Bis 2021 sollen digitale Assistenten sogar einen Umsatz von bis zu zehn Mrd. Euro erwirtschaften. VoiceLabs prognostizierte für 2017, dass weltweit insgesamt 25 Mio. Geräte mit integrierten PVA verkauft wurden70. Damit würde sich der Absatz gegenüber 2016 versechsfacht haben.

Unter allen angebotenen PVA-Lautsprechern dominiert in den USA laut einer eMarketer Umfrage der Amazon Alexa Echo mit rd. 70 Prozent Marktanteil71. Mit 24 Prozent folgt darauf das Konkur- renzprodukt Google Home. Da der Amazon Alexa Echo und der Echo Dot in Deutschland bereits seit 2016 verfügbar sind, der Google Home sowie der Google Home Mini aber erst in der zweiten Hälfte 2017 in den Handel kamen, kann angenommen werden, dass die Marktanteile ähnlich verteilt sind wie in den Vereinigten Staaten.

65 Vgl. ebd. S. 3-5 66 Vgl. GfK (2017) 67 Vgl. Prescher & Lutter (2016) 68 Vgl. Tißler (2017) 69 Vgl. Tractica (o. D.) 70 Alpine.AI (2017), S.4 71 Vgl. eMarketer (2017)

38

4.1.3 NUTZERAKZEPTANZ

Da der Mensch schneller spricht als er schreibt72, bedeutet eine Interaktion durch die Stimme einen "raschen Zugriff auf Informationen und eine deutlich leichtere Bedienung vieler technischer Ge- räte"73. Laut der Bevölkerungsbefragung des Unternehmens PwC sind dies aus Sicht der Befragten die beiden Hauptvorteile von intelligenten Lautsprechern: der schnelle Zugang zu Informationen (46 Prozent Zustimmung) und die bequeme Sprachsteuerung (43 Prozent Zustimmung)74. Dass die Bedienung per Sprache als so angenehm empfunden wird, könnte daran liegen, dass die "Nutzung von Sprache als Eingabe- und Ausgabesignal eine nahezu [syntaktisch] bruchlose und somit natür- liche Kommunikation mit Computerprogrammen ermöglicht"75. Sprache als intuitive, universelle Bedienschnittstelle offeriert viele neue Möglichkeiten und ist besonders für Menschen, die in ihrer Mobilität eingeschränkt sind, von großem Vorteil. Freihändige Bedienbarkeit ist für viele Nutzer laut Umfragen ein großer Komfortgewinn und für 70 Prozent der Befragten der Hauptgrund für die Nutzung von Sprachassistenten76. Wenn die Hände anderweitig in Benutzung sind, beispielsweise beim Autofahren oder Kochen, können Sprachassistenten eine große Unterstützung sein und Mul- titasking ermöglichen77. Für den Großteil der Nutzer stellt auch die Zeitersparnis einen Hauptvorteil von Sprachassistenten dar78.

Sprachassistenten lassen sich also zusammenfassend nicht nur einfach bedienen, sondern erleich- tern für Nutzer den Alltag und für Anbieter den Zugang zu ihren Dienstleistungen. In manchen Aspekten bevorzugen Menschen sogar die Interaktion mit computerbasierten Applikationen, wie eine Befragung von Accenture im Jahr 2017 zeigt. Vorteile gegenüber der Interaktion mit Menschen sehen 84 Prozent der Befragten darin, dass die Sprachassistenten jederzeit verfügbar sind, 68 Pro- zent, dass sie weniger voreingenommen sind, und 64 Prozent empfinden die Kommunikation mit Sprachassistenten sogar als höflicher79. Auffällig ist, dass sich viele der genannten Vorteile unter dem Stichwort "Benutzerfreundlichkeit" zusammenfassen lassen. Der Erfolg von Sprachassistenten scheint zum großen Teil vom Ausmaß der Benutzerfreundlichkeit abhängig zu sein. Marktexperten schätzen, dass PVA sich nur dann im Massenmarkt durchsetzen werden, wenn die Nutzung der Assistenten eine positive, überzeugende Nutzererfahrung mit sich bringt und auch die Integration von digitalen Inhalten wirklich gelingen sollte80.

Doch nicht alle sind von den Vorteilen der Sprachassistenten überzeugt. Eine Studie des Marktfor- schungsunternehmens YouGov im Jahr 2017 zeigt, dass der "Gedanke an eine Zukunft mit digitalen Assistenten [...] nur bei einem von fünf Deutschen (21 Prozent) positive Gedanken hervor[ruft]",

72 Vgl. Thomas (2017) 73 BfDI (2017), S. 1 74 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 6 75 Ferdinand & Jetzke (2017), S. 2 76 Eresult GmbH (2017b), S. 5 77 "As one might expect, the principle use-case for the CA was ‘hands free’, which was tied strongly to the theme of timesaving and convenience", vgl. dazu Luger & Sellen (2016), S. 5291 78 Eresult GmbH (2017b), S. 5 79 Sovie et al. (2017), S. 3-5 80 Vgl. Eresult GmbH (2017a)

39

knapp die Hälfte der Befragten (47 Prozent) sieht einer solchen Zukunft negativ gestimmt entge- gen81. In Bezug auf Sprachassistenten scheint in der deutschen Bevölkerung also eine gewisse Skep- sis zu herrschen. Auch der weltweite Vergleich deutet darauf hin: Laut der Befragung von Accenture im Jahr 2017 zählt Deutschland mit 28 Prozent zu den sog. "low-usage countries". Im Vergleich hierzu liegt der Nutzeranteil von PVA in den USA, die zu den "high-usage countries" gezählt werden, bei rd. 46 Prozent. Diese Unterschiede lassen sich durch die spätere und teilweise noch nicht er- folgte Markteinführung in Deutschland erklären.

Doch die nachfolgend zitierten Studien zeigen, dass auch besonders Datenschutz, Privatsphäre und Sicherheit eine große Rolle bei der Ablehnung von Sprachassistenten in Deutschland spielen. Laut der repräsentativen Umfrage des Digitalverbands BITKOM im Jahr 2016 hängen die Hauptbedenken vieler Nutzer gegenüber Sprachassistenten mit ihrer Datensicherheit zusammen. So begründen 73 Prozent der Befragten, die kein Interesse an der Nutzung von Sprachassistenten haben, ihren Ent- schluss damit, dass sie ihre Daten nicht an Unternehmen abgeben wollen82. Aber auch die Daten- sicherheit gegenüber Dritten spielt eine Rolle, und 61 Prozent sorgen sich, "dass Hacker die Geräte manipulieren und mithören könnten"83.

Ähnliche Befunde zeigt auch die PwC-Befragung aus dem Jahr 2017, bei der als Hauptbedenken die Angst vor Datenmissbrauch und vor zu hoher Transparenz genannt wurden. Fast drei Viertel der Befragten sorgten sich vor Datendiebstahl, Manipulation und Missbrauch zum Beispiel durch Ha- cker. Aber auch die Angst, abgehört zu werden, spielte für zwei Drittel eine entscheidende Rolle84.

Die Bedenken zum Datenschutz begründen sich in der Funktionsweise der Sprachassistenten: Damit diese auf Zuruf reagieren können, müssen sie omnipräsent eingeschaltet sein und das Gesagte auf- zeichnen: "Sprachassistenten hören permanent die Umgebung ab und zeichnen Befehle über Mik- rofone auf"85. Man müsse sich der Dauerüberwachung im Klaren sein, schreibt die Bundesbeauf- tragte für Datenschutz und Informationsfreiheit, und sich mit den damit verbundenen Nachteilen beschäftigen86. Denn häufig ist für den Nutzer nicht nachvollziehbar, wie und wo erfasste Informa- tionen gespeichert und genutzt werden: "Das wohl größte Problem ist nach Meinung vieler Kritiker die 'Black Box', also die fehlende Transparenz darüber, wann die Geräte was und wieviel aufzeich- nen, wohin die Daten übermittelt werden, wer sie für welche Zwecke analysiert, wer welche Schlüsse daraus zieht, welche Konsequenzen sich daraus für den Anwender ergeben und ob die Daten bzw. die daraus generierten Bewegungs- und Persönlichkeitsprofile überhaupt jemals wieder gelöscht werden."87

Man muss nicht einmal selbst aktiv Sprachassistenten nutzen, um mit den Problemen konfrontiert zu sein. Personen, die Sprachassistenten im Haushalt oder im öffentlichen Raum nutzen, könnten unbeabsichtigt und unwissend Daten von unbeteiligten Dritten aufzeichnen und speichern88. Ihr

81 Vgl. Inhoffen (2017) 82 Vgl. Prescher & Lutter (2016) 83 Vgl. ebd. 84 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017), S. 6 85 Vgl. BfDI (2017) 86 Vgl. ebd. 87 Vgl. Lederer (2017) 88 Vgl. BfDI (2017)

40

Einsatz sollte also immer "umfassende Informiertheit aller Anwesenden und echte Wahlfreiheit vo- raus[setzen]"89.

Sprachassistenten basieren ihre Funktionalität auf einem stetigen Zufluss an Informationen, und je mehr Daten sie über ihre Nutzer haben, desto besser funktionieren sie. Es besteht eine "Ambivalenz zwischen latenter Verfügbarkeit auf der einen sowie einer etwaigen Einbuße von Privatsphäre auf der anderen Seite"90. Gespeicherte Daten sind insofern ein Problem, als dass es für Konzerne wie Amazon oder Google besonders leicht ist "Sprachinformationen [...] mit Daten aus anderen Online- Quellen zu detaillierten Nutzerprofilen für Marketing und Marktforschung [zusammenzuführen]"91. Besonders für Amazon ist es durch Alexa und den Amazon Echo möglich "einzigartige Daten über die Nutzer zu sammeln und auszuwerten" und in ein "stark individualisiertes Voice Marketing flie- ßen" zu lassen92. In den Medien wurden PVA in diesem Zusammenhang mit dem Begriff "Trojani- sches Pferd" bedacht93. Denn um funktionieren zu können, müssen Sprachassistenten dauerhaft mit dem Internet verbunden sein. Dies schürt bei vielen Nutzern die Angst, sie könnten von Unterneh- men oder Hackern abgehört und manipuliert werden94, und Experten warnen vor Cyberkriminalität wie Identitätsdiebstahl oder Bankkontobetrug95.

Dagegen fand eine BITKOM-Studie zu dem Thema Datenschutz in der digitalen Welt heraus, dass viele Deutsche Online-Dienste nutzen, obwohl sie Bedenken bezüglich ihrer Datensicherheit ha- ben96. So nutzen laut der Untersuchung 87 Prozent der Befragten solche Dienste, obwohl sie kein volles Vertrauen haben, dass der Dienst die gesetzlichen Vorgaben in Deutschland zur Verarbeitung persönlicher Daten einhalte. Als Begründung, die Personal Voice Assistants trotzdem zu verwenden, nennen hier 72 Prozent, dass sie diese nützlich finden, und 21 Prozent, dass ihnen der Datenschutz einfach nicht so wichtig ist97. Nimmt man diese Befunde als Indikator, könnte sich das Verhalten vieler in Bezug auf Sprachassistenten ähnlich entwickeln: Man ist sich der Gefahren bewusst, nimmt diese jedoch aufgrund des Komfortgewinns und der Bequemlichkeit in Kauf. 4.1.4 ZUSAMMENFASSUNG UND AUSBLICK

Selbstlernenden Personal Voice Assistants sprechen Technologiekonzerne wie Google oder Apple ein großes Potential zu, die Gesellschaft und ihre Interaktion mit Computern vollkommen zu revo- lutionieren und zu einer ähnlich großen Umwälzung zu führen wie zu ihrer Zeit Touchscreens oder das Mobile Web98. Tißler betrachtet in diesem Zusammenhang die Entwicklung der Benutzerober- flächen von Computern und kommt zu dem Schluss, dass diese sich mit Hilfe von SNLP- und KNN-

89 Vgl. Thomas (2017) 90 Ferdinand & Jetzke (2017), S. 1 91 BfDI (2017), S. 2 92 Mendet (2017), S. 19 93 Vgl. Schmundt (2015) 94 Vgl. Prescher & Lutter (2016) sowie PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft (2017) 95 Vgl. BfDI (2017) und Mendet (2017) 96 Rohleder (2015), S. 12 97 Vgl. ebd. 98 Vgl. Tißler (2017)

41

gestützten Techniken immer mehr der Art annähern, wie Menschen miteinander und mit ihrer Um- gebung interagieren. Sprachen und Gesten als Bedienform wären seiner Ansicht nach ein logischer und natürlicher Entwicklungsschritt in diese Richtung99.

Es wird davon ausgegangen, dass Spracherkennung und Sprachsteuerung in den Bereichen Auto- mobilindustrie, Smart Home, Unterhaltung, Shopping, Gesundheitswesen und Übersetzung zu um- fangreichen Neuerungen und Transformationen führen werden. Bei dem aktuellen Marktkampf der großen Technikfirmen geht es langfristig gesehen um Kontrolle (z.B. durch Lock-in-Effekte) und Macht (in Bezug auf den Wettbewerb): "Wer den Assistenten kontrolliert, kontrolliert auch den Zu- gang der Nutzer zum Internet – und damit mittelfristig auch den Zugang zu Informationen, E-Com- merce, Marketing-Botschaften und der Produktion"100. Hierbei zeigen aktuelle Studien, dass es zu- gleich eher unwahrscheinlich ist, dass ein Haushalt mehrere Sprachassistenten beziehungsweise smarte Lautsprecher unterschiedlicher Anbieter verwenden wird und vermutlich das "Winner Takes It All"-Prinzip greifen wird101. Fraglich bleibt jedoch, ob es tatsächlich, wie multilateral prognosti- ziert, zu Voice-First kommt und grafische Benutzeroberflächen wie der Touchscreen oder die Tas- tatur in Zukunft durch Sprache ersetzt werden.

Spracherkennungssysteme stoßen heute in noch vielen Bereichen an ihre Grenzen, wie die Nutzer- befragung von PwC zeigt. Zwar können sie bei einer Vielzahl von Aufgaben im Alltag unterstützen und durch Zeitersparnis und das Ermöglichen von Multitasking eine große Hilfe darstellen, jedoch reicht der Funktionsumfang in vielen Bereichen noch nicht aus. Auch die Unsicherheiten potentieller Nutzer in Bezug auf Datensicherheit und Schutz der Privatsphäre führen dazu, dass von einer all- gemeinen Akzeptanz im Alltag und einer regelmäßigen Nutzung von Sprachassistenten 2017 noch nicht die Rede sein kann. Dennoch sind die Verkaufszahlen für Sprachassistenten in den letzten Jahren angestiegen (von 6,5 Mio. Einheiten auf 24,5 Mio. Einheiten weltweit102), und immer mehr große Technikunternehmen wie Apple investieren in diesen Bereich. Auf der Seite der Nutzer sind es nicht mehr nur die sogenannten Early-Adopter, die sich für das Thema interessieren, sondern eine immer breiter werdende Masse aus allen Altersschichten.

Auch wenn in vielen Aspekten, wie beispielsweise dem Datenschutz, noch Klärungsbedarf besteht, werden Sprache und Sprachassistenten in der Zukunft sehr wahrscheinlich eine wichtige Rolle bei der Interaktion mit smarten Endgeräten einnehmen. Kritisch zu betrachten bleibt weiterhin die Aus- sage, dass Sprache zur ausschließlichen Bedienschnittstelle wird. Stattdessen kann eher davon aus- gegangen werden, dass sie eine wichtige Ergänzung zu bisherigen Benutzeroberflächen darstellen wird.

99 Vgl. ebd. 100 Vgl. Thomas (2017) 101 Vgl. Klotz (2017) und VoiceLabs (2017a) 102 Vgl. Alpine.AI (2017)

42

4.2 CHATBOTS UND SOCIAL-BOTS: AUTOMATISIERTE (MASSEN-) KOMMUNIKATION

Im Bereich der digitalen KI-gesteuerten Assistenz existiert neben der Kategorie der Personal Voice Assistants ebenfalls die Kategorie der sog. Chatbots, mit welchem Nutzer ebenfalls direkt kommu- nizieren und interagieren können, wenn auch zumeist in Schriftform. Generell ist unter dem Begriff Chatbot eine Softwareanwendung zu verstehen, welche während einer direkten oder indirekten Interaktion mit einem Nutzer online interpersonelle Kommunikation imitiert. Chatbots werden da- bei von Personal Voice Assistants anhand der folgenden Aspekte unterschieden:

Tab. 2: Distinktionskriterien von Chatbots und Personal Voice Assistants

KRITERIUM CHATBOTS PVA

Plattformzugang Offene Technologie Geschlossene API-Plattformen

Technik Scripted-KI, Applet, Datenbank KI, Deep Learning, KNN

Personalisierung Kaum/Nicht vorhanden Stark/Kernelement

Use Cases Wenige (v.a. monothematisch) Viele (selten monothematisch)

Service Fokus auf den Service Fokus auf den Nutzer

Zugang Auffindbarkeit herausfordernd Integriert in digitale Ökosysteme

Nutzer Lock-In Gering Potentiell stark

Quelle: Goldmedia Analyse (2018) nach: VDZ (2017), S. 15

Diese Art von Kommunikation wird in der Wirtschaft vor allem im Rahmen von Customer-Relati- onship-Management (kurz CRM) angewendet: Chatbots nehmen online erste Anfragen von Kunden entgegen und beantworten simple Fragen zum Unternehmen oder zu Produkten. Sie werden oft aus ökonomischen Gründen eingesetzt, um Kosten für Call-Center-Angestellte einzusparen und um die Erreichbarkeit zu erhöhen.

Darüber hinaus existiert im Markt für Social-Media-Dienstleistungen eine Subkategorie von Chat- bots, die speziell für Massenkommunikation konzipiert ist und in kurzer Zeit ganze Nutzergruppen erreichen soll. Solche automatisierten Agenten werden auch als Social Bots bezeichnet. Die Funkti- onsweise basiert zumeist auf einer Texteingabemaske, in der ein Nutzer seine Nachricht oder Frage verfasst. Der Social Bot analysiert mit Hilfe von KNN-basierten Datenbanken (etwa durch KNN Mus- tererkennung bzw. "Pattern Matching“-Algorithmen) die Eingaben und gibt auf Basis seiner Analyse eine Antwort an den Nutzer wieder. In sozialen Netzwerken fungieren sie oftmals nicht als Kunden- betreuer, sondern als Bewerber von Dienstleistungen und Services. So sind Social Bots im Zuge der US-Präsidentschaftswahl in die Schlagzeilen geraten, weil mehreren politischen Organisationen vor- geworfen wurde, mit Hilfe solcher Chatbots maßgeblich die Wahl beeinflusst zu haben.

43

4.2.1 DEFINITION UND ANWENDUNGSBEREICHE

Chatbots kommen in vielen Variationen vor und können anhand unterschiedlicher Merkmale wie z.B. ihres wirtschaftlichen Zwecks, ihres technischen Grundgerüsts oder durch ihre Performanz un- terschieden werden. Da Chatbots in ihrer grundlegenden Funktion aktiv Inhalte produzieren müs- sen und responsiv sein sollen, werden sie in der Sozialwissenschaft durch die Komponente der Hy- peraktivität klassifiziert: Das definitorische Identifikationskriterium für einen Chatbot ist derartig an- gesetzt, dass ein Bot auf Twitter mehr als 50 Tweets pro Tag generieren muss103. Neben diesem relativ simplen Kriterium existieren auch differenziertere Definitionen, die nicht nur die Frequenz der Bot-Aktivität berücksichtigen, sondern Chatbots nach ihrer soziopolitischen Funktion, Ziel- gruppe und eingesetzten Technologie klassifizieren. Demnach existieren Gruppen von

1. legitimen Chatbots, die sich bzw. ihr Unternehmen hauptsächlich selbst vermarkten (Mar- keting-Bots), 2. hochaktiven Accounts mit einer geringeren Anzahl von Followern, 3. plattformübergreifenden Sharing-Bots, die Inhalte von anderen sozialen Netzwerken oder Websites kopieren, und 4. hochentwickelten Bots, die auch mit Halb-Mensch-Halb-Bot-Konten gemischt werden (nach Ferrara al. 2017).

In der Informatik werden Chatbots in Form von automatisierten Agenten definiert, die durch einen Algorithmus gesteuert werden, um Nachrichten zu verbreiten und menschliches Verhalten nachzu- ahmen, während sie ihre Bot-Identität verbergen können104. Technisch betrachtet, kann ein Chatbot mehrere Social-Media-Accounts kontrollieren, um simultan eine große Menge an Menschen oder Gruppen zu erreichen. Als Kommunikationskanal können hierbei Messenger-Anwendungen, Web- suchmaschinen, Unternehmenswebseiten, Apps, PVA oder soziale Netzwerke dienen. Durch die zu- grundeliegende Technik können Chatbots in einfache und fortgeschrittene Exemplare aufgeteilt werden.

Als einfache Bot-Plattformen fungieren dabei meist Scriptsprachen-Applets (z.B. "python" oder "VBA"), die auf eine finite, vordefinierte Bibliothek an Inhalten zugreifen und diese bei einem er- folgreichen Vergleich mit dem eingegebenen Suchwort wieder ausgeben. Parallel dazu existieren fortgeschrittene Bot-Plattformen, die auf Algorithmen mit Künstlicher Intelligenz aufbauen. Sie greifen zurück auf Elemente des maschinellen Lernens und dahinter geschaltete künstliche Neuro- nale Netzwerke in der Deep-Learning-Anordnung. Der audio-textuelle Input und Output wird durch NLP-Mechanismen organisiert und verarbeitet. Ihre Funktionalität geht über das simple Beantwor- ten von Fragen hinaus und ermöglicht eine fortgeschrittene Mensch-Maschine-Interaktion mittels Sprache oder Texteingaben. Im Idealfall soll der Mensch nicht merken, dass er sich mit einem Chat- bot unterhält.

Inhaltlich lassen sich Bots in unterschiedliche Kategorien gliedern, z.B. Informieren über das Wetter oder Verkehrsverspätungen, ein Unternehmen, ein Produkt oder eine politische Partei zu fördern.

103 Vgl. Howard & Kollanyi (2016) 104 Vgl. dazu Ferrara et al. (2017) und Bessi & Ferrara, (2017)

44

Daher arbeiten nicht alle Bots interaktiv oder beteiligen sich an Diskussionen. Sie können auf legi- time Weise als Dienstwerkzeuge verwendet werden, z.B. für die Öffentlichkeitsarbeit, und sind per se nicht schädlich105.

Abb. 11: Taxonomie von Chatbots

Quelle: VDZ (2017), S.10

4.2.2 MARKTPOTENTIALE

Offiziell werden in Deutschland von zahlreichen Unternehmen, Institutionen und sogar Parteien Chatbots in unterschiedlichem Umfang betrieben. So nutzt z.B. die CSU bei Facebook den Social Bot "Leo Bot". Auf der Homepage der Bundesregierung gibt es einen virtuellen Chatbot-Adler. Die FDP und SPD setzen wiederum Chatbots ein, die über Amazons Sprachassistenten Alexa zu errei- chen sind. Das konkrete Marktpotential wurde noch nicht offiziell erhoben. Analysten haben jedoch geschätzt, dass 2016 der US-Wirtschaft durch den theoretischen Ersatz von Arbeitsplätzen mit Chat- bots ein Einsparpotential in Höhe von 65 Mrd. Dollar entstanden wäre (vgl. Abb 12).

Wie im vorangehenden Kapitel beschrieben, hat sich in den letzten Jahren besonders die Kategorie der fortgeschrittenen Bot-Plattformen mit Hilfe von maschinellen Lerntechniken und Verbesserun- gen in der Verarbeitung natürlicher Sprache stark weiterentwickelt. Das Marktpotential und die mit dem Einsatz von Chatbots verbundenen Einsparungen sind für Technologiekonzerne sehr groß, da sich autonome Agenten in die meisten Interfaces wie Websites, mobile Anwendungen wie Messen- ger, Assistant Devices u.v.m. integrieren lassen (vgl. Abb. ). Vor diesem Hintergrund erscheint es plausibel, dass Tech-Riesen wie Google, Amazon, Apple etc. (vgl. Abb. 13) viele Ressourcen darauf aufwenden, Bot-Plattformen zu trainieren und zu perfektionieren. Berichten zufolge arbeiten allein bei Amazon rund 5.000 Entwickler daran, Alexas KI zu trainieren und auszubauen106. Die wirtschaft- lichen Perspektiven für den Einsatz von Chatbots sind groß: Gartner prognostizierte bereits 2011,

105 Vgl. Ferrara et al. (2016) 106 Vgl. Buxton (2017)

45

dass 2020 bereits 85 Prozent aller Kunden-Unternehmen-Interaktionen durch Chatbots erfolgen107. 2016 betrug das Investitionsvolumen durch Risikokapitalgeber in Chatbot-Entwickler und Bot Start- ups weltweit mindestens 170 Mio. Euro108. Abb. 12: Einsparpotential durch Einsatz von Chatbots nach Branchen in den USA, 2016, in Mrd. USD

Quelle: Vgl. Business Insider (2016)

Darüber hinaus sorgen Chatbots für eine neue Art von Kundenkonversionskanal im Rahmen des "Sales-Funnel"-Ansatzes109, indem sie Nutzer direkt in die Onlineshops der jeweiligen Unternehmen weiterleiten. Illustrative Beispiele sind der ChatShopper-Bot Emma von Zalando, Jana, der Chatbot der Deutschen Post, der Ray-Ban Chatbot auf Facebook oder intelligente, persönliche Assistenten wie Siri, Alexa oder Google Home. Nutzer haben die Möglichkeit, direkt über die Konversation mit einem Chatbot zu einer Produktauswahl in einem Onlineshop zu gelangen oder sogar direkt in der Konversation mit dem Bot ein Produkt zu erwerben.

Somit beginnen Chatbots und PVA im Marketing-Mix von E-Commerce-Unternehmen einen festen Platz einzunehmen. Das Onlineverzeichnis Chatbots.org indexiert mittlerweile rund 1.338 aktive Chatbots (Stand 03.01.2018). Rd. 500 davon sind der Kategorie "Branded Conversation" zugeordnet - sie werden also im Zuge von gezielter Markenkommunikation für E-Commerce-Sales eingesetzt. Zudem hat sich nach eigener Aussage die Anzahl von integrierten Facebook-Messenger-Bots von 11.000 Chatbots im Juni 2016 auf 100.000 im April 2017 fast verzehnfacht110.

Deren Funktionalität zielt ebenfalls darauf ab, entweder "Sponsored Messages" zu verbreiten oder dem Nutzer direkt bzw. indirekt Waren zu verkaufen. Bei rund 23 Mio. aktiven Facebook-Nutzern in Deutschland ergibt sich demnach für Händler ein enormes Marktpotential über einen komplett neuen Absatzkanal.

107 Gartner Inc. Customer 360 Summit (2011), S. 2 108 Vgl. Rahgozar (2016) 109 "Ein Vertriebs- oder Sales-Funnel ist ein Trichter zur Identifikation von Verkaufsabschlüssen. Er stellt sicher, dass die Umsatzplanung eines Vertriebsmitarbeiters oder -leiters mit einer Wahrscheinlichkeit von nahezu 100 Prozent auch in Vertriebserfolge umgesetzt wird", Vgl. dazu: Ahlers (2016) 110 VDZ (2017), S. 6

46

Abb. 13: KI-basierte Assistenten bzw. Chatbot-Plattformen von Technologiekonzernen, 2017

Quelle: VDZ (2017), S.14

4.2.3 NUTZERAKZEPTANZ

Nutzer sehen Chatbots dagegen bisher noch skeptisch. 2016 gab bei einer Befragung von 1.500 Onlinekunden noch jeder zweite Nutzer an, Chatbots ungern zu nutzen. Als Gründe hierfür gaben 62 Prozent an, dass Chatbots zu unpersönlich seien; die dahinterliegende Technik der Text-/Sprach- erkennung zu ungenau sei (41 Prozent), die Bedienung zu umständlich ist (25 Prozent) oder der Nutzen hinter dem Chatbot-Konzept nicht erkannt wurde (24 Prozent). Ein Sechstel aller Befragten gab an, dass sie sich beobachtet fühlten111.

In einer Umfrage des BITKOMs aus demselben Jahr112 zeigte sich ebenfalls, dass mehr als die Hälfte aller Befragten (54 Prozent) Chatbots ablehnen. Davon kritisierten 63 Prozent, dass sie nicht mit einem Computer kommunizieren wollen; 54 Prozent zweifelten, dass Chatbots ihre Anfragen zuver- lässiger als Menschen bearbeiten würden; 49 Prozent zweifelten, dass Chatbots zuverlässig sind und 47 Prozent fanden, dass die Technologie für Chatbots noch nicht ausgereift sei (vgl. Abb. 14). Eine repräsentative Umfrage von YouGov zu "Vorbehalten gegenüber Chatbots aus Kundensicht" ergab 2017, dass neben den oben genannten Kritikpunkten nunmehr auch die Gefahr von Falsch- meldungen (45 Prozent), die Gefährdung von Arbeitsplätzen (41 Prozent) und die mangelnde Un- terscheidung von Mensch vs. Maschine (32 Prozent) eine Rolle spielen113.

Trotz aller Vorbehalte finden sich in der YouGov-Studie auch Hinweise auf ein hohes Marktpoten- tial: Von den 49 Prozent der Nutzer, die Chatbots akzeptieren, finden rund zwei Drittel, dass Chat- bots ihnen eine gewisse Unabhängigkeit gegenüber Öffnungszeiten verschaffen und sich mit ihrer Hilfe Warteschleifen vermeiden lassen. 40 Prozent der Befragten waren zufrieden, dass sie durch Chatbots keinen Zeitdruck empfanden, wie sonst bei Service-Mitarbeitern.

111 Alle Angaben vgl. Fittkau & Maaß Consulting (2016) 112 Vgl. BITKOM (2016a) 113 Vgl. YouGov (2017)

47

Aber Nutzer sehen Chatbots nicht nur als Kundenservice-Tool: Laut einer Befragung des BITKOM 2016 gaben zwar 41 Prozent der Chatbot-Befürworter an, diese im Bereich des Kundenservice zu sehen. Abb. 14: Umfrage zur Nutzung von Chatbots, Frage: "Warum nutzen Sie ungern Chatbots?", 2016

Quelle: Vgl. BITKOM (2016b)

Die Mehrheit der Befragten sah diese allerdings eher als Assistenten, welche die persönliche Ter- minplanung übernehmen (68 Prozent), Veranstaltungstickets reservieren (64 Prozent) und Reisen sowie Flüge online buchen (58 Prozent)114.

Im Gegensatz zu den legitimen Marketing-Bots (vgl. hierzu Kap. 4.2.1) kann die Funktion der sog. Social Bots, die hauptsächlich in sozialen Netzwerken wie Facebook, Twitter oder Instagram anzu- treffen sind, übergeordnet als öffentlichkeitswirksame Verstärkung der digitalen Agenda von Parti- kularinteressen verstanden werden (im positiven als auch im negativen Sinne). Sie werden nicht nur im Rahmen des politischen Framing eingesetzt, sondern auch für dezentrale Kampagnen von zah- lenmäßig kleinen Interessensgemeinschaften. Da eine technisch fortgeschrittene Social-Bot-Platt- form (vgl. Kap. 4.2.10) problemlos simultan mehrere (hundert) Social-Media-Accounts steuern kann und damit potentiell Unmengen an negativen Inhalten über deren Ziele an eine digitale Öffentlich- keit ausspielen kann, werden solchen Bot-Kategorien rufschädigende Meinungsbildung vorgewor- fen115.

Nicht zuletzt vor dem Hintergrund des US-Wahlkampfs im Jahr 2016 und der Fake-News-Debatte im Journalismus hat die Akzeptanz der Nutzer von Social Bots sehr gelitten. Bereits im Januar 2017 wurde im Deutschen Bundestag deswegen ein Thesenpapier des Büros für Technikfolgen-Abschät- zung diskutiert, das unter anderem die Notwendigkeit einer Regulierung von Social Bots fordert, da "Social Bots […] zur Veränderung der politischen Debattenkultur im Internet bei[tragen] und […]

114 Vgl. BITKOM (2016a) 115 Vgl. Woolley (2016)

48

durch die massenweise Verbreitung von (Falsch-)Nachrichten zu einer Desinformation und 'Klima- vergiftung' im öffentlichen Diskurs führen [können]. Social Bots bergen das Potential, das Vertrauen in die Demokratie zu unterlaufen"116. 4.2.4 ZUSAMMENFASSUNG UND AUSBLICK

Chatbots stehen als kommerzielles Produkt vor einem großen Problem: Auf der einen Seite genie- ßen sie als Kommunikationskanal nur eine schwache Nutzerakzeptanz, und auf der anderen Seite genießen sie einen zweifelhaften Ruf als Manipulationswerkzeuge in sozialen Netzwerken. Laut ei- ner repräsentativen Onlinebefragung der Developer Week aus dem Mai 2017 stoßen Chatbots als Kommunikationskanäle im deutschen Markt kaum auf Interesse: 71 Prozent aller deutschen Inter- netznutzer ab 18 Jahren wollten Chatbots 2017 noch nicht nutzen und 46 Prozent wussten gar nicht, was Chatbots überhaupt sind. Darüber hinaus ist ein Drittel der Befragten der Meinung, dass Chat- bots in ihrer Funktionalität unausgereift sind117.

Abb. 15: Problembeispiele von Dialogen mit Facebook-Messenger-Chatbots, 2017-2018

Quelle: Übersicht von problematischen Dialogen mit Chatbots (#1: Shop Spring Bot, #2: Poncho.is, #3: 1–800-Flowers Bot, und #4 SureBot), Vgl. chatbot.fail (2018)

Ihre Funktionalität zeichnet sich marktseitig als der zentrale Faktor ab, welcher für ihre geringe Ak- zeptanz seitens der Kunden sorgt. Als neuartiger Kommunikationskanal für Kundenakquise soll ein Chatbot im Sinne eines Sales-Funnel eine direkte Konversion schaffen118. Dieser Vorgang ist auf

116 Vgl. Kind et al. (2017) 117 Alle Statistiken der Developer Week (DWX) nach: Fitschen & Maaß Consulting (2017), S. 12, 13,16 118 In der Disziplin des Marketings die Bezeichnung der Veränderung des Status einer nicht zahlenden Person zu einem (Marken-) Kunden. Vgl. dazu Patterson, L. (2007), S. 185ff.

49

allen Ebenen mit Akquisitionskosten verbunden, und nur ein kleiner Bruchteil der adressierten Ziel- personen kommt durch einen Sales-Funnel und sorgt für ein positives Return-on-Investment für das Unternehmen119.

Dabei ist entscheidend, dass der Konversionsvorgang optimal ablaufen kann, sodass negative Er- fahrungen einen unentschlossenen Kunden nicht verprellen. Wenn jedoch ein Drittel aller deut- schen Internetnutzer der Meinung ist, dass die Chatbot-Technologie noch nicht ausgereift ist, und 70 Prozent sie gar nicht erst nutzen möchten, dann stellt dies das grundlegende Konzept eines Chatbots in Frage. Wenn ein Kunde mitten in einem Dialog mit dem Chatbot steht, welcher aber nicht versteht, was der Kunde von ihm will oder demselben Kunden grundsätzlich falsche Informa- tionen zuliefert, kann die Konversion nicht optimal ablaufen (vgl. dazu Abb. ).

Um eine optimale Qualitätskontrolle gewährleisten zu können, müssen die Chatbots durch Ser- vicemitarbeiter überwacht werden, was wiederum für viel zu hohen Mehraufwand sorgen würde. Aus diesem Grund hat bspw. Facebook beschlossen, seine sehr profilierte Chatbot-Plattform "M" einzustellen120. Facebook-Messenger-Chatbots konnten automatisiert nur auf rd. 30 Prozent der Kundenanfragen antworten121 und benötigten für die restlichen 70 Prozent der Anfragen einen menschlichen Intermediär.

Während nutzerseitig die mangelnde Akzeptanz von Chatbots die Entwicklung aufhält, hindert un- ternehmensseitig die mangelnde Erfolgs-Messbarkeit von Chatbots eine tiefergehende Integration in den Marketing-Mix122. Bereits 2017 fand das Marktforschungsinstitut Forrester heraus, dass zwar rd. 57 Prozent aller Unternehmen weltweit Chatbots für CRM-Prozesse nutzen oder zu nutzen pla- nen123. Im Fazit aber kamen die Marktforscher zu dem Schluss, dass die meisten Unternehmen die Chatbots schlecht und unwirtschaftlich betreiben würden124. Und in der Tat lässt sich ein Return- on-Investment nicht genau kalkulieren, wenn man keine Ziele, Erfolgskennzahlen oder andere Met- riken wie Verweildauer oder Konversationslänge quantifizieren kann. In ihrer gegenwärtigen Form bieten die meisten Anbieter diese Tracking-Dienstleistungen nicht an125. Da die Implementierung von Chatbots jedoch immer ein Budget voraussetzt, wird es für Werbungtreibende und Sales-Ab- teilungen in Unternehmen schwer, ein Investment in eine Produktkategorie wie Chatbots zu ver- antworten - insbesondere, wenn diese kaum Anklang beim Nutzer findet.

Von der Kategorie der Social Bots kann angenommen werden, dass sie ihr Nischendasein in dem Bereich des politischen Microtargeting zum Zweck der gezielten Wähleransprache weiter fortsetzen wird. Der oft mit dem Gesetz konfligierende Einsatz von Big-Data-gestützten Social-Bot-Plattfor- men durch politische Randgruppen und die darauf folgenden staatlichen Ermittlungen126 haben autonomen, KI-getriebenen Akteuren einen enormen Imageschaden verpasst. Der Technologiekon-

119 Vgl. Botteri (2008) 120 Vgl. Fiegermann (2018) 121 Vgl. Orlowski (2017) 122 Vgl. Porcellana (2018) 123 Vgl. Wang, X. et al. (2017) 124 Vgl. Boutin (2017) 125 Eine Ausnahme bilden externe Dienstleister wie z.B. "AirPR", die eine mediale Reichweite von Chatbots messen können, vgl. dazu AirPR (2018) 126 Vgl. Holland (2017)

50

zern Microsoft war sogar gezwungen, seinen selbstlernenden Twitter-Social-Bot "TAY" abzuschal- ten, nachdem dieser durch gezielte Manipulationen am Informationsinput durch eine organisierte Randgruppe zu rassistischen und rechtsnationalen Äußerungen konditioniert wurde127.

Abb. 16: Gartner Hype-Zyklus für neue Technologien, Q2/2017

Quelle: Vgl. Panetta (2017)

Insgesamt lässt sich zusammenfassen, dass Chatbots und Social-Bots zwar ein starkes Marktpoten- tial aufweisen, dieses jedoch im Gegensatz zu PVA nicht so bald monetarisieren werden können, da sie wenig akzeptiert sind und die Technologie hinter den Bot-Plattformen noch nicht gänzlich aus- gereift ist. Zwar gibt es vereinzelt auch positive Beispiele wie den Microsoft Bot128, der in täglich eine Zielgruppe von 40 Mio. Nutzern erreicht, oder den preisgekrönten Mitsuku Bot, welchem eine der fortschrittlichsten KI attestiert wird und der täuschend ähnliche Dialoge mit Men- schen führen kann129. Gartner Inc. aber verortete die Technologie von Chatbots und Smart Robots im Rahmen seiner Hype-Zyklus-Analyse für neue Technologien sehr nahe am Gipfel der überzoge- nen Erwartungen (vgl. dazu Abb. ). Diese bedeutet, dass Chatbots und Social Bots voraussichtlich schon sehr bald im Tal der Enttäuschungen landen werden, da sie nicht alle Erwartungen von Un- ternehmen und Kunden gleichermaßen erfüllen können. Erst in fünf bis zehn Jahren ist laut Gartner mit einer (für die Wirtschaft) erfolgreichen und produktiven Implementierung dieser Technologie zu rechnen.

127 Vgl. Lee, P. (2016) 128 Vgl. Microsoft (2017) 129 Mitsuku Bot gewann in den Jahren 2013, 2016, und 2017 den Loebner Preis als menschenähnlichster Chat- bot, vgl. dazu Mitsuku Bot (2018)

51

4.3 ALGORITHMISCHE OPTIM IERUNG VON EMPFEHLUNGEN IN ONLINEMEDIEN UND IM E- COMMERCE

Algorithmen gelten als unverzichtbarer Bestandteil für die Ordnung immenser Datenmengen. Im Onlinemedien-Markt sind sie insbesondere für digitale Dienste relevant, die zwischen Inhaltsange- boten und Nutzern vermitteln – sogenannte Intermediäre130. Sie üben mittlerweile einen großen Einfluss auf viele Bereiche unseres Alltags aus und werden bereits in den verschiedensten Gebieten eingesetzt131. Besonders bewusst sind uns Algorithmen bei der Informationssuche über bspw. Google, Facebook oder YouTube132.

Diese Plattformen nutzen Prozesse der algorithmischen Entscheidungsfindung (algorithmic deci- sion making, nachfolgend: ADM) für die nutzerspezifische Zusammenstellung von Informationen. ADM umfasst dabei "den Gesamtprozess von der Datenerfassung über die Datenanalyse bis hin zur Deutung und Interpretation der Ergebnisse und der Ableitung einer Entscheidung oder einer Ent- scheidungsempfehlung aus den Ergebnissen"133. Lernende Algorithmen können durch die Be- obachtung vieler Fälle dabei Regeln ableiten und auf neue Fälle anwenden134.

Nachfolgend wird anhand ausgewählter Beispiele erläutert, auf welche Informationen Algorithmen im Bereich Onlinemedien und E-Commerce zugreifen. Anschließend wird auf die Akzeptanz von ADM-Prozessen durch die Nutzer eingegangen, wobei auch die Konzepte Filter Bubble und Echo Chamber beleuchtet werden. Darüber hinaus werden Potentiale auf dem Markt bewertet sowie ein Ausblick gegeben. 4.3.1 DEFINITION UND ANWENDUNGSBEREICHE

Generell stellen algorithmische Systeme zur Entscheidungsfindung proprietäre Technologien dar, die von Medienunternehmen eingesetzt werden, um ihren Nutzern oder Kunden die Auswahl von Produkten zu erleichtern. Onlinemedien setzen sie vornehmlich ein, um Nutzern auf Basis von be- reits konsumierten Musikstücken, Filmen oder Artikeln inhaltlich ähnliche Vorschläge anzubieten, damit diese im Endeffekt mehr Zeit auf den jeweiligen Plattformen verbringen. Im E-Commerce dienen sie dazu, dem Kunden auf Basis von bereits gekauften Produkten und getätigten Suchan- fragen, Produktvorschläge zu unterbreiten. Die Implementierung von ADM-Prozessen dient hier zur Steigerung des Absatzes. Als Technologie hat ADM bereits die Marktreife erreicht und wird weit- läufig im deutschen Markt für Onlinemedien eingesetzt. Darüber hinaus lassen sich durch ADM auch weitere Probleme auf der Anbieterseite lösen.

130 Schulz & Dankert (2016), S. 17 131 Insbesondere in den USA bspw. in Universitäten (Vergabe von Hochschulplätzen), im Finanzsektor (Bestim- mung von Kreditausfallrisiken, Portfoliomanagement für Finanzanleger), für Kriminalitätsprognosen und Predictive Policing, in Smart Home-Anwendungen, für Einkaufsassistenten, automatisierte Preissetzung, autonomes Fahren u.a. (vgl. Lischka & Klingel, 2017) 132 Ecke (2016), S. 21 133 Vieth & Wagner (2017), S. 10 134 Vgl. ebd., S. 10f.

52

Die Warenwirtschaftssysteme von Händlern sind z.B. immer häufiger an Onlineshops oder Markt- plätze wie eBay oder Amazon angebunden, um neue Märkte und Regionen erschließen zu können. Die Nutzer dieser Plattformen werden demzufolge mit einer stetig wachsenden Produktpalette kon- frontiert, aus der die zu individuellen Bedürfnissen passenden Artikel gefunden werden müssen. Zur Erleichterung der Auswahl werden insbesondere auf großen Marktplätzen verschiedene Algorith- men eingesetzt, die auf Benutzerdaten basieren. Seit der erstmaligen Vorstellung derartiger Ent- scheidungshilfen im Jahr 1992 durch Goldberg et al.135 wurden viele verschiedene Verfahren und Technologien entwickelt. Die meisten aktuell angewandten Methoden empfehlen Artikel mit der höchsten Kaufwahrscheinlichkeit.

Das gängigste Empfehlungssystem, genannt "Collaborative Filtering", gruppiert Personen mit ähn- lichen Merkmalen und schlägt von dieser Kundengruppe gekaufte Produkte vor136. Annahme hier- bei ist, dass Nutzer, die sich in der Vergangenheit beim Kauf von Artikeln einig waren, auch beim Kauf anderer Produkte ähnliche Vorlieben haben. Neben diesem nutzerbasierten wird auch das ar- tikelbasierte Verfahren angewendet. Das Verfahren führt zu Empfehlungen von mit bereits gekauf- ten Produkten zu verwandten oder gleichartigen Erzeugnissen. Bekanntheit erwarb die Methode durch die Plattform Amazon, welche mit dem Hinweis „Das könnte Sie auch interessieren“ weitere Artikel anbietet. Diese Verfahren stoßen allerdings schnell an ihre Grenzen. Denn: Personen mit gleichen Verhaltensmustern zu gruppieren, ist nur in einem gewissen Rahmen möglich und auch bei sehr großen Gruppen ist schnell eine gewisse Berechnungsdauer erreicht. Sowohl die nutzer- als auch die artikelbasierte Gruppierung sind Formen des sogenannten Collaborative Filterings. Bei beiden Clustermethoden werden die Empfehlungen durch andere Nutzer beeinflusst137.

Eine weitere Methode stellt das sog. "Content-Based Filterings" dar. Dieser Algorithmus geht in- haltsanalytisch vor und misst spezifische Eigenschaften bereits gekaufter Produkte. Auf Basis von Parametern wie Größe, Farbe, Material oder Form werden ähnliche Artikel empfohlen. Ein Nachteil hier ist, dass dem Nutzer dabei hauptsächlich bereits Bekanntes präsentiert wird. Zudem sind be- stimmte Produktgruppen wie etwa Musik oder Bilder schwer zu analysieren. Zur Optimierung der Empfehlungen werden die Verfahren des Collaborative und Content-Based Filterings daher häufig zusammen angewendet – bspw. auch von Amazon. Noch einen Schritt weiter gehen Data-Mining- Verfahren, welche auf den Filter-Methoden basieren und zusätzlich Assoziationsanalysen anwen- den138. Aus diesen gehen Assoziationsregeln hervor, welche Korrelationen zwischen dem Kauf ver- schiedener Produkte beschreiben. Eine weit verbreitete Methode zur Findung dieser Regeln ist der Apriori-Algorithmus, welcher sich insbesondere bei kleinen oder mittleren Datenmengen anbietet. Für sehr große Datensets führt die Komplexität der Assoziationsregeln allerdings zu langen Lauf- zeiten, was zu den modifizierten Verfahren "AprioriTID" und "AprioriHybrid" führte139.

Bei Streamingdiensten wie Netflix, Amazon Video oder Spotify greifen aufgrund ihrer besonderen Eigenschaften diese Methoden nur bedingt. Deshalb arbeiten Streaming-Media-Dienste an ande- ren ausgeklügelten Empfehlungssystemen. Basierten bspw. die Empfehlungen von Netflix früher allein auf der Nutzerbewertung ausgeliehener DVDs von eins bis fünf Sternen140, steht der Plattform

135 Vgl. Goldberg et al. (1992) 136 Linden et al. (2003), S.76f. und Guo et al. (2017), S. 2 137 Linden et al. (2003), S. 77. und Guo et al. (2017), S. 3 138 Guo e.a. (2017), S. 3 139 Lazcoretta (2008), S. 1422f. 140 Gomes-Uribe & Hunt (2016), S. 2

53

heute aufgrund umfangreicher Nutzerdaten ein Vielfaches mehr an Möglichkeiten zur Verfügung. In der Regel halten die Unternehmen die Details der algorithmischen Entscheidungsprozesse aber unter Verschluss (vgl. Kapitel 0). Der Musik-Dienst Spotify erklärt seinen Usern lediglich, dass das Unternehmen die Musik-Empfehlungen auf Basis deren Geschmacks auswählt und sich dabei unter anderem an Künstlern orientiert, die zuvor gehört wurden141. Für die nutzbringende Auswertung von Userdaten gründete das Unternehmen eine speziell ausgerichtete Analyse-Abteilung und ar- beitet mit vielen Datenspezialisten zusammen142. Netflix versucht, das Empfehlungsverfahren trans- parenter zu gestalten und veröffentlichte Anfang 2016 die Funktionsweisen der Algorithmen des unternehmenseigenen Empfehlungssystems (vgl. Tab. 3).

Tab. 3: Funktionsweisen der Algorithmen des Netflix-Empfehlungssystems

ALGORITHMUS FUNKTIONSWEISE Personalized Sortiert Genres sowie der Videos darin mit Hilfe von persönlichen Nutzervorlieben so- Video Ranker wie (unpersönlicher) Beliebtheit. Top N Video Empfiehlt besonders gut zu persönlichen Vorlieben passende Filme innerhalb der ein- Ranker zelnen Genres. Trending Now Empfiehlt kurzzeitig spezifische Filme auf Grundlage von (1) saisonalen Effekten wie etwa dem Valentinstag, der zu steigendem Interesse an Romantikfilmen führt, oder (2) einmaligen Ereignissen wie bspw. Umweltkatastrophen, nach denen häufiger Doku- mentarfilme zum Thema rezipiert werden. Continue Wat- Empfiehlt kürzlich abgebrochene Filme, sofern diese anhand verschiedener Kriterien ching darauf schließen lassen, dass der Nutzer sie gern weitersehen möchte (seit dem Ab- bruch verstrichene Zeit, Zeitpunkt des Abbruchs im Film, Anzahl und Art der in der Zwischenzeit gesehenen Videos, genutzte Endgeräte). Video-Video- Der unpersonalisierte Algorithmus erstellt zu jedem Film einen Katalog ähnlicher Titel. Similarity Dem Nutzer wird eine Auswahl davon mit Hilfe des Personalized Video Rankers ange- (Because You zeigt. Watched) Page Unter Beachtung schwankender Interessen bei der Nutzung (etwa aufgrund der Tei- Generation lung von Accounts in einem Haushalt, Anlass und Zeitpunkt der Nutzung sowie ver- schiedener Stimmungslagen) stellt der Algorithmus eine Filmauswahl zusammen, die ein schnelles Überspringen eventuell uninteressanter Filme ermöglichen soll. Evidence Wählt personalisiert hilfreiche Informationen zu einem Film aus (bspw. Bilder, prog- Selection nostizierte Bewertung des Films oder Informationen zum Film wie Awards, Besetzung oder andere Metadaten). Search Mehrere Algorithmen optimieren die Suchfunktion. Zu dem eingegebenen Begriff werden gesucht: (1) Filmtitel, (2) Konzepte wie z.B. Genres und (3) Filmtitel innerhalb der identifizierten Konzepte.

141 Vgl. Spotify (2018) 142 Vgl. Seed Scientific (2015)

54

Quelle: Gomes-Uribe & Hunt (2016), S. 2ff.

Soziale Netzwerke nutzen Algorithmen für die Zusammenstellung des Newsfeeds – so auch die Plattform Facebook, welche in Deutschland von rund 23 Millionen Menschen täglich und weltweit von circa zwei Milliarden Menschen genutzt wird143. Um für den Nutzer interessante Inhalte zusam- menzustellen, werden dessen Vorlieben analysiert. Dabei spielen insbesondere die Kontakthäufig- keit mit Facebook-Freunden eine Rolle, das Liken und Kommentieren von Inhalten144 sowie die Aktualität von Beiträgen145. Zudem können User durch verschiedene Auswahlmöglichkeiten in den Einstellungen auch selbst Einfluss nehmen146. Es wird geschätzt, dass durchschnittlich nur 35 Pro- zent der Freunde eines Nutzers dessen Post sehen können. In den Algorithmus, der ehemals unter dem inoffiziellen Namen "EdgeRank" bekannt wurde, fließen vermutlich noch weitaus mehr Fakto- ren ein147. Dass diese unter Berufung auf die Wahrung von Geschäftsgeheimnissen nicht offenge- legt werden, steht unter starker Kritik (vgl. Kapitel 0). Fehlende Transparenz wird dabei nicht nur bei Newsfeed-Algorithmen wie beispielsweise von Facebook oder Linked-In gesehen, sondern auch bei Suchalgorithmen wie etwa von Google. 4.3.2 MARKTPOTENTIALE

Moderne Analysemethoden haben ein hohes Potential für die signifikante Verbesserung wichtiger Unternehmenskennzahlen wie bspw. Wachstum, Effizienz und Effektivität148. In einer weltweiten Be- fragung McKinseys gaben 43 Prozent der befragten Verkaufsorganisationen an, Analytics zur Opti- mierung ihrer Geschäftsprozesse zu nutzen. Schnell wachsende Unternehmen149 nutzten derartige Analyseverfahren dabei häufiger als langsam wachsende150 (53 Prozent im Vergleich zu 37 Prozent). Die Kombination von Analytics und intelligenter Automation führt laut befragter Unternehmen zur häufigeren Erkennung und Nutzung von Verkaufsmöglichkeiten. Denn so können insbesondere Produkte mit der höchsten Verkaufswahrscheinlichkeit sowie der optimale Zeitpunkt der Kunden- ansprache identifiziert werden. Ein IT-Dienstleistungsunternehmen gab bspw. an, mit Hilfe von Ana- lytics die Lead-Conversion Rate um 30 Prozent gesteigert zu haben151. Zwar bezog sich die Befra- gung auf Geschäftsbeziehungen im B2B-Bereich, jedoch lassen sich die Erkenntnisse auch auf den B2C-Markt übertragen.

Auch Online-Shoppingportale setzen umfangreiche Analyseverfahren zur Umsatzsteigerung ein. Ei- nem Interview mit dessen Vizepräsident Misra zu Folge beschäftigt Snapdeal ein Team von 50 In- genieuren mit dem Schreiben von Algorithmen. So konnten die algorithmisch initiierten Verkäufe innerhalb eines Jahres von 15 auf bis zu 40 Prozent gesteigert werden152. Das Verfahren hat das Potential, das Kaufverhalten von Kunden vielleicht sogar besser vorhersagen, als der Kunde selbst. So gab es bereits 2012 einen aufmerksamkeitsstarken Fall von prognostizierten Konsumwünschen

143 Vgl. Facebook (2017a) 144 Vgl. Facebook (2015) 145 Goldsborough (2017), S. 61 146 Vgl. Facebook (2015) 147 Goldsborough (2017), S. 61 148 Atkins et al. (2016), S. 1 149 Jährliche Wachstumsrate von über sechs Prozent 150 Jährliche Wachstumsrate von unter fünf Prozent 151 Atkins et al. (2016), S. 2f. 152 Vgl. Misra (2015) in: Singh (2015)

55

in den USA, als eine Supermarktkette die Schwangerschaft einer Minderjährigen erkannte noch be- vor es der Vater tat. Aufgrund des Kundenkartensystems und implementierter Algorithmen wurde das veränderte Konsumverhalten des Mädchens erkannt und an Schwangere gerichtete Werbung an sie versandt153.

Auch für den Onlinemedien-Markt spielen Algorithmen eine wichtige Rolle, z.B. im Bereich des Be- havioral Targetings. Automatisierte Werbung (oder auch "Programmatic Advertising") und Echtzeit- Werbeauktionen (oder auch "Real-Time-Bidding") sind bereits seit einigen Jahren etablierte Ver- fahren in der Werbeindustrie. Beim Programmatic Advertising werden automatisiert sehr zielgrup- penspezifische und damit hochwertige Nutzergruppen auf Basis der Nutzerdaten von Publishern über Nachfrageseiten-Plattformen angefragt und über Angebotsseiten-Plattformen vermarktet – entweder über Festpreise oder über Real-Time-Bidding-Auktionen. Solche Werbeplatzierungen in sehr spezifischen Zielgruppen konnten in der Vergangenheit nur über direkte (aufwändige) Ver- handlungen mit Premium-Publishern und spezialisierten Werbenetzwerken realisiert werden154.

Um die Zielgenauigkeit des Targetings weiter zu erhöhen, werden die First-Party-Daten des Publi- shers in unterschiedlichem Umfang mit Third-Party-Daten zum Browserverlauf des Nutzers kombi- niert, die Werbenetzwerke über Tracker-Cookies generieren. Abhängig vom Browserverhalten des Nutzers wird Werbung eingeblendet, wodurch Streuverluste und Kosten minimiert werden können. Mit Algorithmen kann berechnet werden, wie gut Werbeinhalte und Nutzer zusammenpassen. Chen und Stallart zeigen in ihrer Studie, dass sich der Umsatz im Vergleich zu traditionellen Anzeigen verdoppeln kann155. Für das Jahr 2017 wurde für automatisierte Werbung in Deutschland insgesamt ein Umsatz von rund zwei Mrd. Euro geschätzt, was einen Marktanteil von etwa 45 Prozent an digi- taler Display-Werbung ausmacht156. 4.3.3 GESELLSCHAFTLICHER D ISKURS UM ADM-PROZESSE

Der Video-Streaming-Dienst Netflix verschaffte den Empfehlungs-Algorithmen bereits im Jahr 2006 internationale Aufmerksamkeit, indem er den Netflix Prize ausschrieb. Gegenstand des Wettbe- werbs war die Verbesserung des Collaborative Filtering-Algorithmus zur Vorhersage der Nutzerbe- wertung von Filmen. Rund 50.000 Teilnehmer bewarben sich und diskutierten im öffentlichen On- line-Forum des Netflix Prizes Fortschritte und Probleme bei der Entwicklung. Drei Jahre später wurde der Gewinner gekürt und erhielt eine Mio. US-Dollar157. Der öffentliche Diskurs um das ge- naue Vorgehen der ADM-Prozesse erscheint als Ausnahme – häufiger wird mangelnde Transparenz kritisiert.

Spätestens seitdem der Internetaktivist Eli Pariser im Jahr 2011 das Buch Filter Bubble veröffent- lichte, werden algorithmische Empfehlungen kontrovers diskutiert. Laut Pariser würden mit Hilfe von Personalisierungsalgorithmen Filterblasen geschaffen, in denen sich allein die Interessen des Nutzers widerspiegeln und die Informationsvielfalt eingeschränkt wird158. In Bezug auf soziale Netz- werke hat sich zudem das Konzept der Echokammer etabliert, welches eine Weltsichtverengung

153 Vgl. Duhigg (2012) 154 Vgl. Simons, J. (2016): Programmatic Advertising (Digitalwiki) und Absatzwirtschaft (2015): Werbebudgets verlagern sich in Richtung Programmatic zulasten des TV 155 Vgl. Chen & Stallaert (2014) 156 Vgl. Gillner (2017) 157 Vgl. Netflix (2009) 158 Vgl. Pariser (2011)

56

aufgrund des Umgangs mit Gleichgesinnten beschreibt. Die im Online-Raum befindlichen Meinun- gen würden so verstärkt werden, wobei der fehlende Widerspruch zu Gruppenpolarisierungspro- zessen führen könne159.

In späteren Studien konnte die Filterblase allerdings weder in Bezug auf Google160, noch auf Face- book161 festgestellt werden. Eine im Dezember 2017 auf dem Chaos Communication Congress vor- gestellte Analyse von Twitter-Inhalten stellt das Konzept ebenfalls in Frage. Untersucht wurde die Verbreitung von Fake News mit rassistischem Hintergrund. Dass deren Richtigstellung auch auf der Timeline der eng vernetzten, politisch eher rechtsgesinnten Gruppe der Fake-News-Verbreiter auf- taucht, spricht gegen eine Filterblase. Für den Austausch an Informationen sorgten vor allem klas- sische Medien wie Spiegel Online oder die Welt, denen die Gruppe ebenfalls folgte162.

Pariser räumte in einem Interview im Mai 2017 ein, dass er beim Schreiben seines Buchs das Wachs- tum der Medienorganisationen nicht ausreichend bedacht habe und dass diese die Blasen durchaus durchdringen können163. Hinsichtlich der politischen Polarisierung konnte sogar ein negativer Zu- sammenhang zur Internet- bzw. Social Media-Nutzung festgestellt werden. Zwar wird dem Internet eine Rolle in Polarisierungsprozessen nicht abgesprochen. Eine Verstärkung von Meinungsunter- schieden wurde allerdings vor allem bei Personen höheren Alters festgestellt – einer Gruppe, in der die Internetnutzung am niedrigsten ist164.

Unabhängig von der Existenz von Filterblase und Echokammer werden Plattformen wie Google, Facebook oder Linked-In als wichtige Quellen zur kulturellen und politischen Meinungsbildung be- trachtet. Mit ihren Such- und Newsfeed-Algorithmen selektieren sie vor und nehmen somit Ga- tekeeper-Funktionen ein165. Mögliche Auswirkungen der Algorithmen-Anwendung werden in der Wissenschaft und Öffentlichkeit kontrovers diskutiert. Die Wissenschaftlichen Dienste des Deut- schen Bundestags etwa gehen davon, dass "die Informationsbeschaffung und damit die Meinungs- bildung durch nicht klar erkennbare algorithmische Mechanismen beeinfluss- und sogar manipu- lierbar werden"166.

Tatsächlich machte der Facebook-Konzern im Jahr 2014 negative Schlagzeilen mit manipulierten Timelines167. Wissenschaftler untersuchten, welchen Einfluss soziale Netzwerke auf die Emotionen der User ausüben und reduzierten dafür bei rund 700.000 Usern eine Woche lang positive oder negative Inhalte. Insbesondere die Verringerung negativ konnotierter Beiträge im Newsfeed wies Effekte aus: Die Versuchsgruppe postete im Vergleich zur Kontrollgruppe mehr positive Inhalte168 und weniger negative169. Die Effektstärke ist zwar gering, doch durch die hohe Mitgliederanzahl Facebooks sind durch derartige Emotionsübertragungen dennoch viele Menschen betroffen.

159 Vgl. Moscovici & Zavalloni (1969) und Sunstein (2009) 160 Vgl. Kraft et al. (2017) 161 Vgl. Stark (2017) 162 Vgl. Kreil (2017) und Meineck (2017) 163 Vgl. Pariser (2011) in: Hempel (2017) 164 Vgl. Boxell et al. (2017) 165 Vgl. ebd., S. 4 166 Wissenschaftlicher Dienst des Deutschen Bundestags (2017), S. 6 und Oertel (2017), S. 13 167 Vgl. dazu z.B. Dambeck (2014) 168 (t = −5.63; p<.001, Cohen’s d = 0,02) Vgl. dazu: Kramer et.al. (2014) 169 (t = +2,71; p<0.05; d = 0,001) Vgl. ebd.

57

Darüber hinaus können Algorithmen in sozialen Netzwerken auch demokratische Grundprinzipien berühren. Im Rahmen eines Experiments im Jahr 2010 wurde beispielsweise festgestellt, dass über Facebooks Newsfeed auch das Wahlverhalten beeinflusst werden kann. Konkret wurde von Face- book zur Wahl aufgerufen, was 0,14 Prozent der Wahlberechtigten (340.000 Personen) animierte, tatsächlich wählen zu gehen170.

In einer Studie der Bertelsmann Stiftung wird festgehalten, dass durch Algorithmen zum Teil "eine massive Divergenz zwischen inhaltlicher Qualität und algorithmisch ermittelter Relevanz ent- steht"171. Journalistische oder wissenschaftliche Qualitätskriterien würden sich in der Regel nicht mit durch ADM-Prozessen Bedeutung verliehenen Kriterien decken. Die deskriptive Funktionsweise der Algorithmen, das heißt die Orientierung an vergangenem Verhalten, wird von Nutzern zudem häufig normativ wahrgenommen172. Es wird resümiert, dass Intermediäre "einen großen, aber bis- lang nicht entscheidenden Einfluss auf die öffentliche Meinungsbildung" ausüben173.

Allerdings spielen ADM-Prozesse eine zentrale Rolle bei der Strukturierung von Öffentlichkeit und beeinflussen auch die Arbeit klassischer Medien (vgl. Kapitel 0). Aktuell wird im Rahmen des Projekts "Algorithmischer Strukturwandel der Öffentlichkeit" (AlgStrOeff) untersucht, inwiefern algorithmi- sche Selektionsmechanismen die politische Informationskompetenz beeinflussen. Das Projekt ent- stand aus dem durch das Bundesministerium für Bildung und Forschung veranstalteten Forum für "Innovations- und Technikanalyse (ITA) 2017", welches Chancen und Risiken der Digitalisierung dis- kutierte.

Insgesamt werden der mögliche Einfluss, den Intermediäre durch die Anwendung von Algorithmen ausüben könnten, sowie die Notwendigkeit und deren Kontrolle zunehmend diskutiert. Heiko Maas, Bundesminister der Justiz und für Verbraucherschutz, sprach sich bereits 2015 für die Einführung eines "Algorithmen-TÜVs" aus, welcher zu mehr Transparenz und Vertrauen führen könne. "Jeder Algorithmus basiert auf Annahmen, die falsch oder gar diskriminierend sein können", so Maas. Zu- dem bestehe die Gefahr der Einschränkung von Handlungs- und Entscheidungsfreiheit174. Auch die Verbraucherzentrale Bundesverband empfiehlt die Einrichtung eines staatlich legitimierten, umfas- senden Kontrollsystems in seinem im Dezember 2017 veröffentlichten Positionspapier175.

Im Gegensatz dazu betont Matthias Spielkamp von der Institution Algorithm Watch in einem Inter- view, dass verstärkt auf die Durchsetzung bereits bestehender Antidiskriminierungsgesetze geach- tet werden müsse. Eine Institutionalisierung der Algorithmenkontrolle erachtet er als nicht notwen- dig176. Ebenso weisen die Wissenschaftlichen Dienste darauf hin, dass das Telemediengesetz und das Wettbewerbsrecht auf algorithmengesteuerten Plattformen bereits Anwendung finden. Den- noch sehen sie einen Bedarf an zusätzlichen gesetzlichen Regelungen177.

Neben dem Einfluss, den ADM-Prozesse auf Meinungsbildung, Entscheidungsfreiheit und andere Vorgänge ausüben könnten, wird häufig auch deren Funktionalität diskutiert und kritisiert. Der Net- flix-Algorithmus schlage zum Beispiel monatelang die gleichen Inhalte vor und behalte auch Filme

170 Vgl. Bond (2012) 171 Vgl. Lischka & Stöcker (2017), S. 11 172 Vgl. Ebd. 173 Vgl. Lischka & Stöcker (2017), S. 61 174 Vgl. Maas (2015) 175 Vgl. Verbraucherzentrale Bundesverband e.V. (2017), S. 8 176 Vgl. Spielkamp in: Beuth (2017a) 177 Wissenschaftlicher Dienst des Deutschen Bundestags (2017), S. 16

58

in der Empfehlungsliste, die bereits gesehen wurden. Stern-Redakteur Fröhlich betitelte den Algo- rithmus als "Zwangsbeglückung" und forderte eine Block-Funktion von Inhalten und die Möglich- keit des gänzlichen Zurücksetzens. Zu Facebook lassen sich im Internet Beiträge finden, die zu er- klären versuchen, wie der Newsfeed-Algorithmus umgangen werden könne178. Im Bereich des Mu- sikstreamings scheinen algorithmisch optimierte Empfehlungen tendenziell besser anzukommen, bspw. bei Spotify179. Öffentliche Umfragen zur Zufriedenheit der Nutzer mit Empfehlungen bzw. der Auswahl an Informationen existieren derzeit noch nicht. 4.3.4 ZUSAMMENFASSUNG UND AUSBLICK

Im Jahr 2016 wurde der globale algorithmische Handelsmarkt auf einen Wert von rund 9,5 Mrd. US- Dollar geschätzt. Hinsichtlich der jährlichen Wachstumsrate schwanken die Schätzungen von Exper- ten von 3,7 bis zu zehn Prozent innerhalb der nächsten drei bis sieben Jahre180. Laut Gartner sind das automatisierte Preisgebungsverfahren und die Optimierung von Empfehlungen die bedeu- tendsten algorithmenbasierten Möglichkeiten zur Umsatzsteigerung181. Insgesamt müssten bei Un- ternehmensgründungen verstärkt algorithmische Geschäftsmodelle bedacht werden, so Steve Prentice. Der ehemalige Vizepräsident Gartners geht davon aus, dass Algorithmen eine stärkere Disruption hervorrufen werden als die Digitalisierung. Dabei zieht er einen Vergleich zu den Verän- derungen, die mit dem Aufkommen von mobilen Geräten und Appstores im Softwaremarkt bewirkt wurden182.

Speziell für den Onlinemedien-Markt können ein immer stärkerer Einfluss algorithmischer Selekti- ons- und Empfehlungsmechanismen sowie eine zunehmend personalisierte Auswahl an Inhalten erwartet werden. Nutzerreaktionen wie Kommentare, Likes oder das Teilen von Inhalten werden eine immer größere Rolle bei der Themenauswahl klassischer Medien spielen. In Tab. 4 werden die Veränderungen herausgestellt, die den Medienmarkt zum Teil bereits durch Digitalisierungspro- zesse beeinflusst haben und durch ADM-Prozesse zunehmend beeinflussen werden. Dabei wird sowohl auf potentielle Chancen als auch auf Risiken eingegangen.

Tab. 4: Aspekte des zunehmenden Strukturwandels durch ADM-Prozesse

ASPEKT BESCHREIBUNG CHANCEN RISIKEN Entkopplung von Jeder kann veröffentlichen. Größere, leichter Vielfaltsverengung bei Veröffentlichung Aber nicht jeder findet ein zugängliche Filterlogik durch und Reichweite Publikum. Aufmerksamkeit Medienvielfalt, weil Dominanz weniger entsteht erst durch das Gatekeeper nicht über Intermediäre und ADM- Zusammenwirken von Veröffentlichung Prozesse. Menschen und ADM- bestimmen. Prozessen (Dobusch 2017).

178 Vgl. Fröhlich (2016) 179 Vgl. Ballein (2017) 180 Vgl. z.B.: QY Research Group (2017) oder Research and Markets (2017) oder TechNavio (2016) 181 Vgl. van der Meulen (2016) 182 Vgl. Prentice in: van der Meulen (2016)

59

Entbündelung Reichweite wird auf Größere Medienvielfalt. Schwächung von von Beitragsebene Chancen auf Publikationen als Publikationen ausgehandelt, Platzierung Aufmerksamkeit breiter Qualitätsmarker. innerhalb einer Publikation gestreut. Medien Geringere Chancen für zieht Beiträge bei können diverses unpopuläre, aber Intermediären weniger mit. Publikum segmentieren. relevante Themen. Personalisierung Nutzer erfahren mehr über Vertiefte Information, Filterblasen ihre Interessengebiete. stärkere Mobilisierung. Echokammern Größerer Einfluss Nutzerreaktionen Demokratisierung durch Verengung der des Publikums beeinflussen ADM-Prozesse größeren Aufmerksamkeit auf in auf Reichweiten insgesamt und Reichweite Publikumseinfluss. ADM-Prozessen jedes Beitrags. Größere Dynamik der chancenreiche Themen Agenda. und Tonalitäten. Zentralisierung Weniger Intermediäre als Leichter zugängliche Vielfaltsverengung bei der redaktionell kuratierte Medienvielfalt. Filterlogik. Auswahlinstanzen Medien. Wechselwirkung Redaktionell kuratierte Größere Chancen auf Irrige Annahmen über zwischen Medien nutzen Reaktionen Verbreitung für neue, Repräsentativität der redaktioneller in Intermediären als Signal nicht etablierte Themen algorithmisch und maschineller für Publikumsinteresse. und Akteure in priorisierten Aussagen Kuratierung redaktionell kuratierten und Akteure. Medien.

Quelle: Lischka & Stöcker (2017), S. 18

In Abb. 20 werden Zusammenhänge zwischen Intermediären, ADM-Prozessen und klassischen Me- dien graphisch veranschaulicht. Dabei wird deutlich, wie algorithmisch strukturierte Plattformen wie Facebook oder Google mit Hilfe von Personalisierungsprozessen Nutzerreaktionen beeinflussen können. Beispielsweise erfährt ein Thema eine höhere Resonanz, wenn ihm durch den Intermediär eine hohe Relevanz beigemessen und es vielen Nutzer an prominenter Stelle angezeigt wird. Dadurch werden wiederum Medienhäuser beeinflusst, welche dem Thema ebenso ein höheres Ge- wicht verleihen. Auf diesem Wege wirkt nicht mehr nur die Medienagenda, sondern in einem wei- teren Schritt auch die Agenda der Intermediäre auf die Öffentlichkeit ein.

60

Abb. 14: Modell der Organisation algorithmisch strukturierter Öffentlichkeit

Quellen: Lischka & Stöcker (2017), S. 62 und Dobusch (2015)

61

5 AUSWIRKUNGEN VON MEDIENBEZOGENEN BIG-DATA-ANWENDUNGEN IM B2B-MARKT

Schon heute finden sich zahlreiche automatisierte und durch Algorithmen gesteuerte Prozesse z.B. bei der Evaluation von Bildungsangeboten, dem Aktienhandel, politischen Kampagnen oder der öffentlichen Sicherheit aber auch im Sozialwesen. Und auch der heutige Journalismus und die deut- sche Medienbranche werden maßgeblich von Big-Data- und KI-gestützte Anwendungen und Dienstleister beeinflusst. Nachfolgend sollen die Wertschöpfungsprozesse und organisationalen Bereiche im Business-to Business (B2C) Segment des deutschen Onlinemedienmarktes systematisch untersucht werden, um das paradigmatische Potential von Big Data herauszuarbeiten. 5.1 TEIL- UND VOLLAUTOMATISIERTE PROZESSE BE I DER PRODUKTION VON M EDIENINHALTEN

Mit zunehmender Digitalisierung etablierte sich der Begriff des Online-Journalismus, welcher sich vordergründig auf den Übertragungsweg bzw. Vertriebskanal bezieht und Grenzen zu Rundfunk und Print zog. Im Zuge voranschreitender Digitalisierungsprozesse unterliegt jedoch auch die jour- nalistische Praxis zunehmend einem Wandel, da sich Berufsfelder stärker technisieren und zudem die Interaktion mit Rezipienten eine immer größere Rolle spielt. Dieser Strukturwandel, welcher auch unter dem Begriff des "Digitalen Journalismus" gefasst wird, birgt sowohl Chancen als auch Herausforderungen. Veränderungen in journalistischen Prozessen wirken sich auf kommunikativer, handwerklicher, technischer und wirtschaftlicher Ebene aus, und insbesondere die Ermöglichung von teil- und vollautomatisierten Prozessen führt zur Veränderung von Abläufen innerhalb der Me- dienhäuser183. 5.1.1 DEFINITION UND ANWENDUNGSBEREICHE

Generell wird der Umgang von Journalisten mit Datenbeständen zwecks Anfertigung von datenba- sierten textuellen Beiträgen als "Data Driven Media" bzw. "Datenjournalismus" bezeichnet. Die Kompetenz ist dem Bereich der Produktion zuzuordnen und beschreibt den "Hybrid an der Schnitt- stelle zwischen (digitaler) Recherche, journalistischer Auswertung und digitaler Darstellung"184. Hierunter zählen dementsprechend automatisierte Vorgänge in den Bereichen Recherche, Analyse und Datenaufbereitung.

Dagegen kann die automatisierte Erstellung von Medieninhalten mit Hilfe von Algorithmen als weit- gehend autonom betrachtet werden. Dem Menschen kommen hier in der Regel nur wenige vor- oder nachgelagerte Aufgaben zu, bspw. die Erfassung der zu verwertenden Daten oder die Sichtung und Kontrolle der erstellten Inhalte. Umgangssprachlich wird häufig auch von "Roboterjournalis- mus" gesprochen. Das kann irreführend sein, da nicht menschenähnliche Maschinen, sondern Pro- gramme für die Generation von medialen Produkten verantwortlich sind185. Im Folgenden werden

183 Lilienthal et al. (2015), S. 30 184 Vgl. ebd., S. 35 185 Vgl. Hestermann in: Tusch (2017)

62

grundlegende Techniken der computer-basierten Produktion verschiedener Medieninhalte sowie automatisierte Analyseverfahren unter Einbeziehung von Anwendungsbeispielen erläutert. AUTOMATISIERTE TEXT - UND VISUALPRODUKTIO N

Für die automatische Generierung von Texten kommen NLP- und NLG-Prozesse zum Einsatz (vgl. dazu Kap. 3.6). Im Rahmen von NLP folgt der Algorithmus den von Menschen definierten Vorgaben und übersetzt Datensätze in verständliche Prosa. Entsprechend werden Textbausteine benötigt, die mit Daten wie beispielsweise Sportergebnissen oder Wetteraussichten verknüpft werden. Bei NLG handelt es sich um einen technisch weiterentwickelten Prozess: Das Programm wird befähigt, aus großen Samples von Texten zu lernen, indem er sie auf Muster in der Sprachanwendung hin analy- siert. Der selbstlernende Algorithmus kann diese Beispiele daraufhin anwenden (vgl. Kapitel 3.7).

Aktuell können durch Algorithmen vor allem Texte produziert werden, die sich auf strukturierte Daten in maschinenlesbarem Format beziehen186. Die wiederkehrend verwendbaren Textfragmente müssen zuvor durch Menschen verfasst und es müssen auch Anweisungen zur Verwendung gege- ben werden. Dementsprechend wird das Verfahren vor allem in den informationsjournalistischen Themenbereichen Sport, Finanzen, Wetter, Events oder für Geschäftsberichte sowie Produktbe- schreibungen (vgl. Abb. 15) eingesetzt.

Abb. 15: AX Semantics Inputraster in drei Sprachen und Beispielartikel

Quelle: Vgl. AX Semantics (2017)

Erkennt der auf NLP basierende Algorithmus bspw. ein unentschiedenes Mannschaftsspiel, wählt er automatisch die passende Formulierung für den Sportbericht wie etwa "Mannschaft 1 und Mann- schaft 2 trennten sich X:X unentschieden". Mannschaftsnamen und die Anzahl der Tore werden dabei automatisiert in vorgesehene Platzhalter eingesetzt187.

Standardisierte Nachrichten und Berichte, für die bei der Erstellung keine Kreativität erforderlich ist, lassen sich so schnell und vollautomatisiert produzieren. Ein weiterer Vorteil der Algorithmen be- steht darin, dass durch die Implementierung statistischer Methoden interessante Zusammenhänge in den Daten gefunden werden können. Die sinnvolle Interpretation der Korrelationen ist allerdings

186 Graefe (2016), S. 8 187 Hestermann in: Tusch (2017)

63

nicht bzw. nur stark eingeschränkt möglich, da maschinell keine Sinnzusammenhänge hergestellt werden können. Zudem stellen nicht hundertprozentig zuverlässige Datengrundlagen die automa- tisierte Textproduktion vor eine Herausforderung188. Ebenfalls datenbasiert können auch Abbildun- gen automatisiert erstellt werden, bspw. Tabellenübersichten mit Sportergebnissen189. Damit wir- ken die Texte weniger einfach bzw. langweilig.

In der Massenproduktion schneiden durch ein Programm erstellte Texte insgesamt oft besser ab als von Menschen produzierten Darstellungen, da Algorithmen u.a. systematisch Wiederholungen vermeiden können190. Der Journalistik-Professor Hestermann stellte 2017 in einem Forschungspro- jekt sogar fest, dass Rezipienten maschinell und von Menschenhand erstellte Texte z.T. nicht unter- scheiden können191. Im Rahmen seiner Studie staunte eine Probandin über einen maschinell erstell- ten Text derartig, weil dieser ihrer Meinung nach wie Shakespeare klinge. Und tatsächlich arbeitete der Algorithmus der Software, die den Text erstellt hatte, mit Elementen des Werkes des Dichters und mischte diese neu auf192.

Ebenfalls bestätigte eine Untersuchung des Forscherteams rund um Graefe, dass algorithmisch pro- duzierte, datenbasierte Texte von durch Menschen erstellten nicht zu unterscheiden sind. In ihrer Studie mit 986 Probanden fanden die Forscher sogar heraus, dass computergenerierte Texte glaub- würdiger erscheinen und mehr Fachkenntnis bei der Erstellung vermutet wurde als in von Journa- listen geschriebenen Artikeln. Dagegen wurde die Lesbarkeit, auf welche u.a. auch die Struktur und sprachliche Gestaltung des Berichts Einfluss nahm, bei von menschlichen Autoren geschriebenen Artikeln insgesamt höher bewertet193.

Ein weiteres Beispiel für den effizienten Einsatz von Algorithmen zur Textproduktion ist das Pro- gramm "Quakebot", welches v.a. im Jahr 2014 Aufmerksamkeit erlangte. Direkt nach dem Erdbeben in Los Angeles wurde automatisiert folgende Nachricht erstellt, die von Journalisten nur wenige Minuten nach dem Vorfall veröffentlicht werden konnte:

"A shallow magnitude 4.7 earthquake was reported Monday morning five miles from Westwood, California, according to the U.S. Geological Survey. The temblor occurred at 6:25 a.m. Pacific time at a depth of 5.0 miles. According to the USGS, the epicenter was six miles from Beverly Hills, Cali- fornia, seven miles from Universal City, California, seven miles from Santa Monica, California, and 348 miles from Sacramento, California. In the past ten days, there have been no earthquakes mag- nitude 3.0 and greater centered nearby. This information comes from the USGS Earthquake Notifi- cation Service and this post was created by an algorithm written by the author. Read more about Southern California earthquakes."194

In einem ähnlichen Verfahren erstellt die Software "Homicide Report" Texte für die Los Angeles Times als Teil des Programms "Uniform Crime Report". Die Software listet alle Fälle von Mord und Totschlag in Los Angeles auf und dient gleichzeitig als Datenbank, Blog und interaktive Karte. Mit

188 Graefe (2016), S. 27f. 189 Vgl. z.B. Norkon Computing Systems (2018) 190 Vgl. Hestermann in: Tusch (2017) 191 Vgl. New York Times (2015) 192 Vgl. Hestermann in: Tusch (2017) 193 Graefe et al. (2016), S. 10 194 Vgl. Holland (2014)

64

deren Hilfe können Tötungsdelikte in verschiedenen Gegenden angezeigt und nach Todesursache, Ethnizität, Alter, Geschlecht, Wochentag und anderen Variablen gefiltert werden195.

Abb. 16: Ausschnitt aus der Datenbank „Homicide Report"

Quelle: Vgl. Cruz (2017)

Auch im Bereich der visuellen Kunst entstehen mit Hilfe von Algorithmen neue Inhalte. Aufsehen erregte Anfang 2016 das kunsthistorische Projekt „The Next Rembrandt", in welchem 350 Original- Werke des Malers aus dem 17. Jahrhundert durch 3D-Scans analysiert wurden.

In Zusammenarbeit mit dem Museum Het Rembrandthuis und Microsoft gelang es Wissenschaft- lern und Ingenieuren der Delft University of Technology Rembrandts Malstil, Farben, Formen und typische Attribute so zu erfassen, dass ein 3D-Drucker ein komplett neues Werk erschaffen konnte. Auf dem mit dreizehn Farbschichten erstellten Bild im Rembrandt-Stil ist ein Mann in der Mode des 17. Jahrhunderts zu sehen – in schwarzer Kleidung mit weißer Halskrause, großem Hut und Bart196. AUTOMATISIERTE VIDEO PRODUKTION

Auch im Bereich der Videoproduktion hat sich in den letzten Jahren einiges entwickelt. Plattformen wie Wochit und Wibbitz197 erlauben es, entweder komplett automatisiert oder mit wenigen Arbeits- schritten Videobeiträge auf Grundlage von Artikeln zu erstellen. Durch eine Kombination der NLP- und KNN-Verfahren können derartige Softwareplattformen Texte nach Stichwörtern durchsuchen. Aus verschlagworteten Videodatenbanken wie bspw. Getty Images oder The Associated Press wer- den kontextuell passende Bilder und Clips ausgesucht und ein Video erstellt. Zum Teil ist es auch möglich, animierte Bildunterschriften einzubauen – ein Format, welches insbesondere für content- basierte soziale Netzwerke wie Instagram oder Snapchat interessant sein dürfte, da Rezipienten

195 Vgl. Los Angeles Times - The Homicide Report (2018a) 196 Vgl. The next Rembrandt (2018) 197 Vgl. Wochit (2018) und Wibbitz (2018)

65

Videos häufig auch ohne Ton ansehen. Auch computergestützte oder menschliche Voice-Over-Op- tionen werden angeboten198. Der Grad an Automatisierung ist variabel: Es sind sowohl kleine als auch umfangreiche Bearbeitungen, das Einfügen von zusätzlichem Original-Material oder auch die gänzlich automatisierte Erstellung möglich.

Auf diese Weise können Medienorganisationen ohne großen Zeitaufwand und zusätzliche Video- bearbeitungskenntnisse Artikel oder andere Texte multimedial und für verschiedenen Plattformen aufbereiten. Michael Ferro, Vorsitzender der US-Zeitung und des Zeitschriftenverlags Tronc (ehe- mals Tribune Publishing), erwähnte in der New York Times, dass im Unternehmen täglich zwar nur einige hundert Videos produziert werden, aber ein Bedarf an rund 2.000 bestehe199. Derartige Grö- ßenordnungen verdeutlichen das enorme Potential, das durch Videoautomatisierung entsteht. Wei- tere Unternehmen, die die Möglichkeit der automatisierten Videoproduktion bereits nutzen, sind bspw. Time Inc., The Huffington Post, CBS Interactive, Rotten Tomatoes, NowThisNews, Bonnier Magazines und Hearst200. AUTOMATISIERTE AUDIO PRODUKTION

Ähnlich wie bei der automatisierten Produktion von Videocontent ist es mit Hilfe von Algorithmen möglich, Audioclips zu erstellen, bspw. als Begleitung für Nachrichtenstrecken oder Sportinforma- tionen. Die Methode hinter der Automatisierung ist dieselbe wie in der Texterstellung: Auf Basis von Schlagwörtern, die in einem Artikel vorkommen, können algorithmenbasierte Angebote eine Zusammenfassung des Artikels erstellen und sie über NPL-gestützte Prozesse zu einem Audiobei- trag synthetisieren. Mit Hilfe großer Datenbanken mit populären Texten und Musiknotationen kön- nen KNN darüber hinaus auch Muster in Kompositionen identifizieren, die für das menschliche Ohr harmonisch klingen. Die automatisierte Audioproduktion wird aktuell insbesondere für musikali- sche Werke genutzt.

Als Beispiel hierfür kann Plattform IBM genannt werden, über welche Künstler ihre Musik- kompositionen optimieren oder sogar vollständig automatisieren können201. Mit Hilfe einer Sprach- API wurden dafür zunächst nicht nur musikalische sondern auch kulturelle Inhalte der letzten fünf Jahre analysiert. Aus Songtexten, Filmzusammenfassungen, Reden von Nobelpreisträgern oder Ar- tikeln der New York Times wurden so zentrale Themen identifiziert. Um Meinungen und Stimmun- gen zu diesen Themen zu erfassen, erfolgte die zusätzliche Analyse von Inhalten aus sozialen Netz- werken mit einer weiteren API. Für sog. kognitive Musik wurden neben diesen textbasierten Inhalten auch musikalische Werke analysiert. Mit Hilfe der Plattform bzw. des Programms "Watson Beat" konnten Musiktrends untersucht werden, wobei Machine-Learning-Algorithmen Faktoren wie Ton- art und -höhe, ganze Tonfolgen, Anschlagsstärke und andere Bestandteile in beliebten Liedern auf- schlüsseln. Auch musikpsychologische Theorien über Reaktionen auf Musik flossen schließlich in die Komposition gänzlich neuer Stücke, welche je nach gewünschter Stimmung variieren können.

Mit Hilfe von Markov-Ketten (vgl. Kapitel 3.7) ist es außerdem möglich, automatisiert semantisch kohärente Texte zu produzieren, die in ihrem Charakter zur vordefinierten Musik passen (vgl. Abb. 17). Der amerikanische Musikprofessor David Cope nutzte diese bereits in den 1980er Jahren für

198 Vgl. z.B. Wibbitz (2018) 199 Vgl. Ferro in: Herrman (2016) 200 Vgl. Herrman (2016) 201 Vgl. Amini (2016)

66

seine Software "Experiments in Musical Intelligence" (EMI), durch die er bekannt wurde. Die Soft- ware untersuchte Symphonien auf Gesetzmäßigkeiten und erstellte neue Stücke im gleichen Stil. Heute läuft der Prozess mit Hilfe von Programmen wie Alda, Avid Sibelius First oder Liquid Notes sehr viel schneller ab202. Letzteres bietet besonders viele Funktionen aus einer Hand und beschreibt das Tool als Instrument, das "Komponisten, Songwriting-Partner, Arrangeur, Electronic Artist, Pro- ducer und Live DJ"203 vereint.

Abb. 17: Visualisierung eines möglichen Textverlaufes eines Musikstücks über eine Markov-Kette, die auf Prosa trainiert wurde

Quelle: Vgl. McDonald (2017)

Obwohl die Erzeugung von Tonabfolgen durch Algorithmen auch kritisch betrachtet wird – hier wird v.a. die fehlende Innovation und Kreation von Neuartigem missbilligt 204 – heben andere Stim- men hervor, dass musikalischer Erfolg u.a. auch stark mit statistischen Zusammenhängen einher- geht. Denn auch Musik folgt bestimmten Regeln wie z.B. der Harmonielehre, welche Ton- und Ak- kordfolgen beschreibt, oder der Kompositionstechnik des Kontrapunkts, welche die Gegenstimme zu einer Melodie regelt205. AUTOMATISIERTE PRODU KTION VON WERBEINHAL TEN

Mit Hilfe von Big Data und maschinellem Lernen ist es nunmehr möglich, detaillierte Nutzerprofile zu erstellen, die Informationen über Affinitäten zu speziellen Produktgruppen oder Services enthal- ten. Auf dieser Grundlage wird sog. Programmatic Advertising möglich, also das programmatisch gesteuerte, zielgerichtete Ausspielen von Werbeinhalten an bestimmte Nutzer. Mit Hilfe neuer Technologien können Onlinebesucher bestimmter Web-Services in ihrem unmittelbaren Nutzungs- kontext erreicht werden. Die Produktinformationen werden dabei in Echtzeit ausgeliefert und sind in Inhalt und Design an die Nutzungssituation bzw. Umgebung angepasst bzw. personalisiert. Die- ses Prinzip der direkten Erstellung von Werbeinhalten heißt "Programmatic Creation". Die Gestal- tung funktioniert wie ein automatisierter modularer Kreationsbaukasten ("Atomic Design") und konfiguriert die einzelnen Elemente des Mediums. Homepages können so in bis zu fünf Ebenen

202 Vgl. Alda (2018), Avid Sibelius First (2018), Liquid Notes (2018) 203 Vgl. Liquid Notes (2018) 204 Vgl. Lanz (2017) 205 Vgl. Scherer (2017)

67

unterteilt werden: Atome (1) sind die Grundelemente wie bspw. Schriften oder Farben und bilden gruppiert Moleküle (2), die kleine Bedienelemente wie Suchfelder oder Buttons beschreiben. Aus diesen setzen sich wiederum Organismen (3) zusammen, z.B. eine Leiste aus Bedienelementen. Auf diesen Ebenen basierend, existieren ganze Vorlagen (4) und fertige Produkte (5). Im Rahmen von Programmatic Creation wird die Werbebotschaft in diese Ebenen gegliedert und mit Hilfe von Big Data und KI in Echtzeit modifiziert, konfiguriert und an den Nutzer angepasst.

Zudem können Daten zu Ort und Geschlecht des Nutzers, Uhrzeit und Wetter mit in die Erstellung einbezogen werden (vgl. Abb. 18). So kann einer Person zu einem bestimmten Zeitpunkt an einem bestimmten Ort z.B. ein Museum empfohlen werden, sofern es regnet, oder ein Biergarten, wenn die Sonne scheint. Mit Hilfe von NLP werden darüber hinaus auch automatisierte Videos und Audi- ospuren ermöglicht. Aktuell werden zunehmend programmatische Werbeinhalte gebucht. Für Google, YouTube und Facebook ist Programmatic Creation bereits ein Standardverfahren206.

Abb. 18: Schematische Darstellung der Funktionsweise von Programmatic Creation

Quelle: Diffferent Strategieagentur (2015), S. 24

Auf diesem Prinzip aufbauend, soll in einigen Jahren zudem die "Programmatic Orchestration" er- möglicht werden, wodurch Werbung kanalübergreifend, interaktiv und selbstlernend wird. Mit Hilfe von Algorithmen wird aus Reaktionen des Nutzers auf gesehene Inhalte gelernt und zukünftige Werbemaßnahmen werden variiert. Die Synchronisation der Touch Points ermöglicht so transme- diales Storytelling: gefällt dem Nutzer Gesehenes nicht, kann bei der nächsten Interaktion auf eine andere Storyline mit variierender Tonalität oder Botschaft oder ganz auf andere Produkte gesetzt werden (vgl. Abb. 19).

Für eine Etablierung des selbstlernenden iterativen Systems ist zunächst der weitere Ausbau der technischen Infrastruktur notwendig, um die eindeutige Nutzeridentifikation über Gerätegrenzen hinweg zu gewährleisten. Darüber hinaus müssen gesellschaftliche und juristische Bedenken gere- gelt werden207.

206 Vgl. Petereit (2016), Prien (2017) 207 Diffferent Strategieagentur (2015), S. 25

68

Abb. 19: Schematische Darstellung der Funktionsweise von Programmatic Orchestration

Quelle: Diffferent Strategieagentur (2015), S. 26 AUTOMATISIERTE ANALY SE VON MEDIENINHALTE N

Durch moderne Technologien wird auch die Extraktion relevanter Informationen aus Medieninhal- ten optimiert. So können mit Hilfe von Schlagwörtern Zusammenfassungen von Texten und Audi- ospuren rasch maschinell produziert werden. Derartige Analysen beziehen sich auf Wörter und Phrasen, wobei auch Verbindungen erkannt werden können. Die automatisierte Bild- und Video- analyse bietet sehr viel mehr Möglichkeiten, was aufgrund der zunehmenden Kommunikation über Bilder – bspw. in sozialen Netzwerken – besonders relevant erscheint. Die automatisierte Analyse von Bewegtbild-Inhalten ist besonders komplex, da Bilder, Sprache und Text über einen längeren Zeitraum hinweg gleichzeitig analysiert werden müssen. Sie wurde algorithmisch bereits Anfang der 2000er Jahre ermöglicht. Das Forscherteam um Ekin stellte schon 2003 ein System zur voll au- tomatisierten Erfassung von Fußballspielen in Echtzeit vor, wobei die Präsentation von Zusammen- fassungen auch an Nutzervorlieben angepasst werden konnte208. Algorithmen dienten dabei vor allem der Wahrnehmung und Erfassung von Bewegungen. In Verbindung mit KI wird das Interpretieren und Schlussfolgern sowie das Lernen aus dem Erfassten möglich. So können Bewegungen einem Objekt zugeschrieben und auch der Kontext verstanden werden. Seit einigen Jahren wird die Video Content Analysis (VCA) bereits auch zur Objektüberwa- chung eingesetzt, da auffällige Aktivitäten von Personen oder Fahrzeugen erkannt werden können und die automatisierte Meldung an Sicherheitspersonal möglich ist. In verschiedenen Verarbei- tungsschritten werden dafür einzelne Bildausschnitte analysiert und auf Veränderungen hin unter- sucht209. Die Möglichkeit der Gesichtserkennung und der automatische Abgleich mit Fotos in einer Datenbank stellt eine weitere Möglichkeit der VCA dar, auch das Zählen von Menschen bspw. in Warteschlangen oder die Analyse der Frequentierung von Verkaufsflächen210. Auf Grundlage von VCA-Techniken wurde die Methode des Content-based Video Retrieval entwi- ckelt, die der textuellen Zusammenfassung von Videoinhalten dient. Dafür werden zunächst soge-

208 Vgl. Ekin et al. (2003) 209 Vgl. Gagvani (2008) 210 Vgl. Artech Technologies AG (2018)

69

nannte Keyframes ermittelt, das heißt Bildausschnitte aus jeder Kameraeinstellung, die diese opti- mal wiedergeben. Die Bilder werden mit Hilfe von Bildverarbeitungsalgorithmen analysiert und vi- suelle Merkmale erfasst, die mit Hilfe einer Datenbank indexiert werden. Auf diese Weise müssen Schlagworte und Metainformationen von Videos nicht mehr manuell erzeugt werden, was den Vor- teil der höheren Objektivität bietet. Zudem kann mit Hilfe der Keyframes bei Recherchen schnell die Relevanz von Videos ermittelt werden. Sie können entweder als Mosaik dargestellt oder auf tem- porär-visueller Ebene gemappt werden (vgl. Abb. 20)211. Darüber hinaus wird an intelligenten Sys- temen gearbeitet, die multimodal vorgehen und gleichzeitig Video sowie Tonspuren und Textele- mente analysieren. So können sogar Emotionen von Personen untersucht werden, welche in Videos auf Plattformen wie Facebook oder YouTube eine zunehmende Rolle spielen, etwa im Rahmen von Influencer-Beiträgen. Erreicht werden kann dies vordergründig durch die zusätzliche Implementie- rung der Analyse von Gesichtsausdrücken, welche mit Ton, Kontext und Metainformationen kom- biniert wird212.

Abb. 20: Clustering von Keyframes eines Videos (aus Visualisierungsgründen auf 2D reduziert)

Quelle: Borth e.a. (2009), S. 51

Auf der Entwicklerkonferenz "Microsoft Build" wurde im Mai 2017 der "Video Indexer" für Azure vorgestellt, mit welchem Keyframes extrahiert und Szenen, Personen sowie Sprachen analysiert wer- den können. Das Programm ist in der Lage, Gesichtern Sprache zuzuordnen, diese zu transkribieren und zu übersetzen. Außerdem kann es Gesichter erkennen und diesen positive oder negative Stim- mungen zuordnen213. Ähnliche Funktionen bietet Googles Cloud Video Intelligence API, welche nur wenige Wochen vor Microsofts Dienst angekündigt wurde214.

Mit Hilfe solcher automatisierter Analyseverfahren können inzwischen Projekte mit außerordentli- chem Umfang realisiert werden. Ein Beispiel jüngerer Vergangenheit sind die sog. Panama Papers,

211 Vgl. Borth et al. (2009) 212 Vgl. Poria et al. (2015) 213 Vgl. Gada (2017) 214 Vgl. Li (2017)

70

welche kürzlich rund 400 Journalisten in 80 Ländern beschäftigten. 2,6 Terabyte umfassten die 11,5 Mio. Dokumente, die weltweite Strukturen von Steuerhinterziehungen aufdeckten. Ohne Big-Data- Analysen wäre die detaillierte Auswertung der unstrukturierten Inhalte nicht möglich gewesen. Für die Aufbereitung der Daten, also das Auslesen gescannter Ausweise, unterschriebener Verträge usw., wurde die Software "Nuix"215 genutzt, welche auch international in Ermittlungsbehörden zum Einsatz kommt216. Ebenfalls wurden mit derselben Software die maschinenlesbaren Inhalte inde- xiert, wodurch die systematische Suche nach Personen und Firmen ermöglicht wurde.

Abb. 21: Visualisierung von Verbindungen in Datensätzen durch die Software Linkurious

Quelle: Vgl. Linkurious (2018b)

Das "International Consortium for Investigative Journalists" (ICIJ) setzte weitere Tools für die Da- tenverarbeitung und -konvertierung ein, mit welchen das gemeinsame Arbeiten an Dokumenten ermöglicht wurde und auch Verwandtschaftsverhältnisse schneller aufgedeckt werden konnten. So wurde schnell erkannt, dass Politiker zwar selten selbst Scheinfirmen in Steueroasen gründeten, jedoch häufig deren Angehörige. Die Nutzung der Graphdatenbank "Neo4j"217 sowie der Visuali- sierungssoftware Linkurious218 (vgl. Abb. 21) ermöglichten darüber hinaus die Veranschaulichung der komplexen Beziehungen der Akteure untereinander. Noch vor zehn Jahren wären derartig de- taillierte Analysen dieser enormen Datenmengen unmöglich gewesen219.

Durch diese Anwendungen werden Trends erkennbar, die auf einen starken Einfluss der automati- sierten Medieninhalts-Analyse auf journalistisches Arbeiten hindeuten. Aktuelle Entwicklungen zie- len z.B. auf die Erkennung von Fake News ab. Mit diesem Phänomen kämpft u.a. das soziale Netz-

215 Vgl. Nuix (2018) 216 Vgl. Torinus (2016) 217 Vgl. Neo4j (2018) 218 Vgl. Linkurious (2018a) 219 Vgl. Torinus (2016)

71

werk Facebook und will daher verstärkt auf eventuelle Falschmeldungen hinweisen und Gegendar- stellungen anzeigen, wenn der Wahrheitsgehalt einer Nachricht angezweifelt wird220. Aktuell wird hinter vermeintlich anzweifelbaren Texten auf Facebook (in den USA) ein rotes Warndreieck ange- zeigt. Dafür arbeite Facebook mit externen Nachrichtenseiten zusammen221.

In eine ähnliche Richtung geht das "Social Listening Tool" namens Crowdalyzer von Wafana. Die erste digitale Fact-Checking-Agentur Deutschlands beschäftigt sich mit Verifizierungsstrategien und wird dabei vom Media Lab Bayern unterstützt. Der Crowdalyzer identifiziert mit Hilfe von Al- gorithmen nachrichtenrelevanten User-generated Content und überprüft die Glaubwürdigkeit zu- gehöriger Accounts222.

Auch das vom Bundesministerium für Wirtschaft und Energie und der EU geförderte Projekt Scat- terBlogs widmet sich der Extraktion relevanter Nachrichten. Mit Hilfe des Tools können soziale Platt- formen wie Facebook, Twitter und Co. in Echtzeit überwacht und wichtige Ereignisse lokalisiert wer- den. Im Anschluss werden Nutzer und Ort verifiziert und die Erstellung eines Lagebilds ermöglicht (vgl. Abb. 22)223.

Abb. 22: Einsatz von ScatterBlogs während der Anschläge in Brüssel im März 2016

Quelle: Vgl. Scatterblogs (2018b)

In Bezug auf das Rezeptionserleben und Personalisierung von Medieninhalten antizipieren Bran- chenexperten starke Entwicklungstendenzen in den kommenden Jahren. Je nach persönlichen Ei- genschaften des Konsumenten können schon heute verschiedene Inhalte erstellt und angezeigt werden. Doch der Strategiechef der Washington Post etwa geht davon aus, dass durch die auf ein- zelne Kunden zugeschnittene Personalisierung von Inhalten Leser im Rahmen von Kundenbin- dungsmaßnahmen länger an Onlinemedienangeboten interessiert bleiben.

Mit Hilfe von Nutzerdaten könnten z.B. der Bildungsstand erkannt und die passende Version eines Artikels eingeblendet werden224. Mit der Weiterentwicklung der automatisierten Textproduktion

220 Vgl. dpa (2017) 221 Vgl. Karon (2017) 222 Vgl. Crowdalyzer (2018) 223 Vgl. Scatterblogs (2018a) 224 Vgl. Gilbert in: Jannasch (2017)

72

muss diese Optimierung nicht zwingend Mehrarbeit für die Medienhäuser bedeuten, bietet aber Mehrwert für die Kunden. AUTOMATISIERTE PRODU KTION VON VIDEOSPIEL - WELTEN

Der Games-Writer Chet Faliszek, der durch das Schreiben von Handlungssträngen kommerziell er- folgreicher Spiele Bekanntheit erlangte, arbeitet aktuell an KI-getriebenem Storytelling225. Damit soll die Geschichte und Struktur eines Spieles nicht mehr festen Vorgaben folgen, sondern sich auf Grundlage der Handlungen des Spielers entwickeln. So könnte bspw. ein mit einer anderen Figur im Spiel gestarteter Konflikt das Spiel eines Nutzers über Wochen oder Monate beeinflussen, wäh- rend ein anderer Nutzer, der diesem Charakter einen Gefallen erwies, diese Figur vielleicht niemals wiedersähe226. Konsequenzen sollen auf die verschiedensten Handlungen erfolgen.

Laut Faliszek ist es dafür aber zunächst wichtig, die Wahrnehmung des Spielers zu verstehen. Mit Hilfe analytischer Verfahren ist es bspw. sehr einfach, zu definieren, ob ein Spieler kämpft oder nicht. Inwiefern er aber glaubt, in einer Liebesgeschichte zu sein, ist sehr viel schwieriger. Insbesondere Nuancen und Konnotationen bei Dialogen stellen eine große Herausforderung dar. Auch der Infor- mationsübermittlung kommt zunehmende Bedeutung zu, denn auch das bewusste Entscheiden gegen Optionen und Konsequenzen stellt eine Handlung dar. Derartige Personalisierungen sind in Spielen bisher kaum implementiert, da das Erstellen der Inhalte kostspielig ist. Zukünftig ist laut Faliszek KI-basiert das automatisierte Entstehen personalisierter Geschichten denkbar227. Derartige Spiele sollen durch tiefgründigere Geschichten einen größeren Umfang aufweisen als bisher Be- kannte und auf spezielle Nutzer zugeschnitten sein228.

Doch auch mit den neuesten Techniken stellt das Modellieren von virtuellen Umgebungen Spiele- entwickler vor große Herausforderungen. Auch unter Zuhilfenahme umfangreicher Algorithmen sind geomorphologische, landformende Prozesse nur schwierig nachzuahmen. Verschiedene exis- tierende Methoden generieren entweder geologisch fehlerhafte Modelle, erlauben eine nur unge- nügend Nutzerinteraktion oder replizieren ausschließlich importierte Beispiele. Problematisch ist zum Teil auch die Berechnungsdauer. Fortschritte im Bereich Deep Learning ermöglichten es einem Forscherteam jedoch kürzlich, derartige Probleme zu minimieren. So müssen in dem von ihnen entwickelten Programm nur einige grundsätzliche Anforderungen durch den Menschen angegeben sowie einigen Linien eingezeichnet werden. Auf diesen Grundlagen erstellt das Programm selbst- ständig Flächenprofile (vgl. Abb. 23)229.

225 Vgl. Zelada (2017) 226 Vgl. Faliszek in: Zelada (2017) 227 Vgl. ebd. 228 Vgl. Cornillon in: Zelada (2017) 229 Guérin et al. (2017), S. 1f.

73

Abb. 23: Automatisierte Produktion von Videospielwelten - Interaktive Terrain-Modellierung

Quelle: Guérin e.a. (2017), S. 2 AUTOMATISIERTE ANALY SE DE S MEDIENNUTZUNGSVERHAL TEN S, SPEZIELL: IN DER SPI ELE- INDUSTRIE

Mit der zunehmenden Nutzung von Smartphones und sozialen Netzwerken breiten sich auch neue Spieleplattformen aus, insbesondere kostenfreie Spiele etablieren sich zunehmend. Gewinn wird bei den sog. Free-to-Play-Spielen mit Hilfe von In-Game-Verkäufen generiert, mit denen bspw. Le- benszeit oder Ressourcen für das Spiel erworben werden können. Während des Spielens hinterlas- sen Nutzer Unmengen an Daten. Hierbei ist die Herausforderung, die Informationen automatisiert zu protokollieren und auszuwerten, die dem Spielehersteller tatsächlich von Nutzen sind, um etwa die In-Game-Performance und Nutzererfahrung zu verbessern, die Spieldauer zu verlängern oder mehr Verkäufe zu erzielen230.

Zwischen 40 und 60 Prozent der Spieler von kostenfreien Anwendungen wenden sich nach nur einer Session bereits wieder vom Spiel ab. Gründe dafür liegen im ungenügend ausbalancierten Schwie- rigkeitsgrad und zu aufdringlichen In-App-Kaufangeboten231. Die Nutzung moderner Analytics-An- gebote ermöglicht Aufschluss darüber, ob Nutzer die ersten Level zu schwierig finden – oder spä- tere Level zu einfach. So können auch zu schwierige Stellen, die zur Aufgabe des Spiels führen (sog. Flaschenhälse), aufgedeckt werden. Besonders unbeliebte und optimierbare Elemente werden ebenso ersichtlich wie sehr beliebte. Peaks in der Serverauslastung werden mittels Nutzerdaten- Auswertungen vorhersehbar und ein plötzlicher Anstieg an Online-Spielern nicht mehr zu Kapazi- tätsproblemen hinsichtlich der Serverauslastung. Schließlich wird auch Aufschluss ermöglicht, in- wiefern die Nutzung verschiedener Endgeräte (Tablet oder Smartphone, XBox oder PlayStation) die Spielerfahrung beeinflusst und ob Anpassungen im Spiel vorgenommen werden sollten232. 5.1.2 MARKTPOTENTIALE

Spätestens seit Associated Press, eine der weltweit größten Nachrichten- und Presseagenturen, au- tomatisch generierte Nachrichten in Quartalsberichten verwendet, setzt sich die automatisierte Pro- duktion von Inhalten immer stärker durch. Mit dem Automated Insight-Programm Wordsmith pro- duziert AP derzeit rund 15.000 Berichte pro Jahr – ungefähr 14-mal mehr, als die Redakteure zuvor produzieren konnten233. Inzwischen arbeiten Unternehmen weltweit an Softwarelösungen zur au- tomatisierten Erstellung von Nachrichten, darunter unter anderen Forbes, The New York Times, Los Angeles Times und ProPublica. Da Nachrichtenorganisationen in aller Regel Kostenminimierung bei

230 Vgl. Gutierrez (2016) 231 Vgl. ebd. 232 Vgl. van Rijmenam (2017) 233 Vgl. Wölbert (2017)

74

gleichzeitiger Erhöhung der Nachrichtenanzahl anstreben, ist zu erwarten, dass sich die maschinelle Produktion weiter in Redaktionen etablieren wird. Auch die zunehmende Verfügbarkeit strukturier- ter Datengrundlagen gilt als Treiber der automatisierten Contentproduktion234.

Insbesondere aufgrund der vermehrten Entwicklung intelligenter Gegenstände wird die systemati- sche Erfassung verschiedenster Arten von Daten zunehmen235. Im Rahmen des sogenannten Inter- net of Things (IoT) werden physische Objekte mit Technologien wie Mikroprozessoren und Senso- ren ausgestattet, die dem Messen des Zustandes von Gegenständen oder deren Umwelt dienen. Damit werden auch Alltagsgegenstände dazu befähigt, weitestgehend autonom Daten über Netz- werke weiterzuvermitteln236 – von Waschmaschinen über Straßenbahnen, Autos, Straßenlaternen, Fabriken bis hin zu ganzen Städten. Im Jahr 2020 sollen weltweit rund 21 Mio. Gegenstände vernetzt sein237. So können vor allem verstärkt Nachrichten automatisiert erstellt werden, in denen aufgrund der verschiedensten intelligenten Objekte eine enorme thematische Breite erreicht werden kann. Vordergründig wird zwar zunächst das verarbeitende Gewerbe von IoT profitieren, da vernetzte Maschinen und Geräte sowie Kontrollsysteme große Effizienzgewinne mit sich bringen. Doch auch industrieübergreifend wird ein erheblicher Mehrwert erwartet. Für das Jahr 2020 wurde vom Markt- forschungsunternehmen Deloitte für das Industriesegment Kommunikation, Medien und Service ein durch IoT generierter Umsatz von rund 880 Mio. Euro prognostiziert238. In der Vergangenheit stieg die Anzahl der vernetzten Gegenstände im Medien- und Unterhaltungssektor um 120 Prozent (2013 zu 2014), womit das Wachstum nur in der Fertigungs- (204 Prozent) und Finanzbranche (128 Prozent) noch höher lag239. Analysten erwarten, dass IoT-relevante Investments vor allem in Unter- nehmen aus den Bereichen Reisen und Transport, Fertigung, Medien und Unterhaltung sowie Te- lekommunikation getätigt werden.

Durch die intelligenten Gegenstände werden Datengrundlagen zunehmenden Umfangs erzeugt, die für die automatisierte Contenterstellung genutzt werden können. Konkret sollen im Jahr 2025 IoT-getrieben 180 Zettabytes (180 Billionen Gigabytes) an Daten entstehen240. Generell wird der maschinellen Produktion von Medieninhalten ein enormes Potential zugeschrieben. Maschinen er- zeugen schneller und mit weniger Fehlern umfangreichere Inhalte als Menschen. Dabei kann eine einzige Datenbasis als Grundlage für mediale Angebote in verschiedenen Sprachen dienen, wobei Ausführungen aus unterschiedlichen Perspektiven erfolgen und diese zusätzlich an Nutzerpräferen- zen angepasst werden können241. Die Digitalisierung, die seit Beginn der 2000er Jahre viele Medi- enhäuser mit einem Rückgang der Leserzahlen und sinkenden Werbeeinnahmen konfrontierte, könnte mit Hilfe von Automatisierung und Personalisierung so wieder neuen Aufschwung bringen: Zum einen können Publisher durch die automatisierten Prozesse Kosten einsparen, zum anderen besteht die Möglichkeit, Inhalte so zu personalisieren, dass bei Nutzern eine höhere Zahlungsbe- reitschaft erzeugt wird242.

234 Graefe (2016), S. 9f. 235 Vgl. Press (2016) 236 Technologiestiftung Berlin (2017), S. 10f. 237 Vgl. Gartner (2015) 238 Deloitte (2016), S. 9 239 Verizon Communications (2015), S. 6 240 Vgl. Press (2016) 241 Graefe (2016), S. 10 242 Vgl. dazu Premium-Onlineangebote wie Bild+, Spiegel Plus, FAZ Plus etc.

75

Die Vorlieben der Nutzer wiederum können sowohl mit Hilfe von IoT als auch im Rahmen des On- line-Nutzerverhaltens umfassend protokolliert werden, was eine zielgenaue Kreation und Einblen- dung von Werbung ermöglicht. Mit Hilfe von Algorithmen kann zudem berechnet werden, wie gut Werbeinhalte und Nutzer zusammenpassen, um Streuverluste zu minimieren. Chen und Stallaert zeigen in ihrer Studie, dass sich bei personalisierter Werbung der potentielle Umsatz im Vergleich zu traditionellen Anzeigen verdoppeln kann243. Das Verfahren der automatisierten Werbung, wel- ches sich vor allem am jeweiligen Nutzungskontext der Personen orientiert, ist bereits seit einigen Jahren ein etabliertes Verfahren der Werbeindustrie. Für das Jahr 2017 wurde für Programmatic Advertising in Deutschland insgesamt ein Umsatz von rund zwei Mrd. Euro geschätzt, was einen Marktanteil von etwa 45 Prozent an digitaler Display-Werbung ausmacht244. Durch detailliertere Profile potentieller Käufer könnte die automatisierte Werbekommunikation zukünftig noch effizi- enter gestaltet werden.

Neben dem zielgerichteten Marketing werden automatisiert erfasste Nutzerdaten auch zu einem besseren Verständnis der Kunden führen. Insbesondere im Videospiel-Sektor birgt die Analyse der richtigen Daten enorme Umsatzpotentiale. Der weltweite Umsatz im Markt mit Videospielen wächst stetig245, und insbesondere in China, den USA und Japan werden hohe Handelsumsätze erzielt. Innerhalb Europas ist in Deutschland der größte Spielemarkt zu finden: Jährlich werden bis zu 3,3 Mrd. Euro mit digitalen Spielen erwirtschaftet. Damit liegt die Computer- und Videospielbranche zwar hinter den Umsätzen des Buchhandels (9,2 Mrd. Euro), jedoch vor denen des Musikmarkts (1,6 Mrd. Euro) und des Kinofilmmarkts (1,2 Mrd. Euro)246. Die Nutzerdaten von weltweit rund zwei Mrd. Spielern bieten das Potential, das Marktwachstum überproportional zu steigern. 5.1.3 ZUSAMMENFASSUNG UND AUSBLICK

Dass sich die 47. IFRA World Publishing Expo (WPE) in Berlin im Oktober 2017 erstmals zusammen mit der Digital Content Expo (DCX) präsentierte und dabei thematisch die Integration von KI domi- nierte, verdeutlicht deren Relevanz in der Medienbranche. "Künstliche Intelligenz und Roboterjour- nalismus erobern den Content-Markt" lautete die Schlagzeile der anschließenden Pressemittei- lung247. Medienschaffenden und Content-Managern wurden zahlreiche, auf KI basierende Lösun- gen und Angebote präsentiert. Die Messe verdeutliche, "wie Algorithmen und Automatisierungslö- sungen den Markt der Medien, Nachrichten und Content-Provider aufmischen"248.

Es wird geschätzt, dass aktuell bereits rund 70 Prozent einer Tageszeitung automatisiert erstellt werden könnten249. Allerdings stehen Rezipienten maschinell erstellten Inhalten bisher zum Teil noch skeptisch gegenüber250, zudem sind auch Algorithmen fehleranfällig. Laut Tony Emerson, dem Managing Director des Bereichs "Media and Cable" bei Microsoft, seien die Fehlerquoten aber durchaus mit denen von Menschen zu vergleichen – so können Übersetzungsleistungen maschinell

243 Vgl. Chen, J./Stallaert, J. (2014) 244 Vgl. Gillner (2017) 245 Vgl. VentureBeat (2015) 246 Castendyk, & Müller-Lietzkow (2017), S. 89f. 247 Vgl. IFRA World Publishing Expo & DCX Digital Content Expo (2017) 248 Vgl. ebd. 249 Vgl. Alkan in: Meier (2017) 250 Vgl. z.B. Graefe et al. (2016)

76

derzeit mit rund 90 Prozent Genauigkeit geleistet werden251. Zudem kann erwartet werden, dass sich die Qualität automatisierter Inhalte insbesondere durch Fortschritte im Bereich der NLG-Tech- nologien noch weiter stark verbessern wird252. Die Associated Press bspw. will bis 2020 80 Prozent ihres Nachrichtenangebots automatisiert erstellen und so Journalisten mehr Raum geben, sich in- vestigativem Journalismus oder neuen Formen wie Virtual Reality zu widmen253.

Das größte Potential wird derzeit in der Automatisierung kleiner und einfacher Aufgaben gesehen, und Computerprogramme werden vor allem als Zuarbeiter betrachtet254. Auf der anderen Seite wurden mit Hilfe von KI in den USA bereits ein Drehbuch255, in Japan ein Roman256 und in Großbri- tannien ein Marketing-Magazin verfasst257. Algorithmen können aktuell zwar keine neuen Phäno- mene oder kausale Beziehungen erklären und sind in journalistischen Tätigkeiten nur begrenzt ein- satzfähig258. Vermutlich können diese Einschränkungen aber mit der fortschreitenden technischen Entwicklung in einigen Jahren aufgehoben werden.

251 Vgl. Emerson in: Leitner (2017) 252 Graefe (2016), S. 10 253 Lobe (2017), S. 1; Marconi in: Leitner (2017) 254 Lobe (2017), S. 2; Unsworth in: Leitner (2017) 255 Vgl. Neewitz (2016) 256 Vgl. Olewitz (2016) 257 Vgl. Writer (2016) 258 Graefe (2016), S. 10

77

5.2 INNERBETRIEBLICHE POTENTIALE VON BIG DATA BEI MEDIENUNTERNEHMEN

Mit der fortschreitenden Digitalisierung in den Onlinemedien verändert sich nicht nur die Art und Weise, wie mediale Inhalte erstellt werden. Vor allem auf der Anbieterseite birgt Big Data das Po- tential, die gesamte Organisationsstruktur der Medienbranche grundlegend und nachhaltig zu ver- ändern. Wie in den vorangehenden Kapiteln beschrieben wurde, lassen sich KI-gestützte Anwen- dungen und Prozessautomatisierung bereits in die meisten Bereiche der Wertschöpfungskette in- tegrieren (vgl. dazu Kap. 5.1.2).

Analysten erwarten, dass in der Forschung und Entwicklung durch den Einsatz von KI Kostenreduk- tionen in Höhe von zehn bis 15 Prozent realisiert werden können. Neue Produkte können so schnel- ler konzipiert und auf ihre Qualität getestet werden, was dazu führt, dass sie rd. zehn Prozent früher in den Markt eingeführt werden können259. Dadurch entwickeln sich Big-Data-Prozesse aus einer strategischen Perspektive zu distinktiven Wettbewerbsvorteilen. Repetitive Arbeiten können ver- mieden und durch die freigesetzten Ressourcen neue Wertschöpfungsfelder erschlossen werden.

Um die zukünftigen Auswirkungen innerbetrieblicher Big-Data-Optimierung auf den Onlinemedi- en-Markt abschätzen zu können, werden nachfolgend datenbasierte B2B-Angebote als Schlüssel- aktivitäten untersucht260. 5.2.1 BIG-DATA-PROZESSE ALS NEUE SCHLÜSSELAKTIVITÄT

Als Schlüsselaktivitäten werden die primären Tätigkeiten eines Unternehmens bezeichnet, die dazu dienen, Kernprodukte und Dienstleistungen zu erstellen. Im Kontext von Onlinemedien handelt es sich dabei vor allem um die Bereiche der Anfertigung von Inhalten, Kundenmanagement und des Verkaufs von Werbung zur Refinanzierung. Doch auch andere Schlüsselaktivitäten werden von Big- Data-gestützten Anwendungen erfasst.

Big-Data-Recherchen und Analysen wurden in den letzten Jahren im Kontext von Wikileaks-Veröf- fentlichungen zur NSA-Spionage261 oder dem Wirtschaftsskandal um die sog. Panama Papers (vgl. Kap. 5.1.1) zu den wichtigsten Werkzeugen des investigativen Journalismus. Neue, ortsungebun- dene Datenanalyse-Abteilungen, bestehend aus internationalen Datenspezialisten, bieten das Po- tential, journalistische Recherche- und Analysearbeit als Schlüsselressource für Medienunterneh- men stark aufzuwerten. Zusammen mit Journalisten, Redakteuren und Grafikern können nunmehr auch Datenwissenschaftler, Datentechniker und Big-Data-Analysten multidisziplinäre Teams für in- teraktive Medienproduktionen bilden.

259 McKinsey & Company Inc. (2017), S. 35f. 260 In Anlehnung an die Methodik des Business Model Canvas Modell nach: Osterwalder & Pigneur (2010), S. 14ff. 261 Vgl. WikiLeaks (2016)

78

Einige solcher hybriden Onlinemedien-Magazine wie vox.com, fivefortyeight.com oder das New York Times Datenjournalismus-Portal theupshot.com implementieren seit einigen Jahren erfolg- reich dieses Geschäftsmodell262. Was sich im Rahmen von Big Data jedoch für Unternehmen ändern wird, ist die Organisation und das Management dieser Schlüsselaktivität.

Über Plattformen wie z.B. "Kaggle" werden Gigabyte-große Datensets frei verfügbar gemacht und können von Datenforschern aus unterschiedlichsten Redaktionen aus der ganzen Welt dezentral bearbeitet werden263. Alle Schritte und Werkzeuge zur Erstellung, A/B Prototyp-Prüfung, Ausfüh- rung und Wartung von datengesteuerten Anwendungen werden durch KI-Automatisierung in einer Plattform vereint. Auch ein öffentlicher Austausch von selbst programmierten Analysepaketen ist möglich. Da verteilte Dateimanagementsysteme (wie z.B. Apache Hadoop) und ihre respektiven Analysesprachen (HIVE, R-Pakete oder SPARK) modular und geografisch dispers eingesetzt werden können, bieten andere kollaborative Online-Plattformen wie z.B. "Dataiku"264 mehreren dezentral organisierten Gruppen die Möglichkeit, gemeinsam und in Echtzeit an einer Analyse zusammenzu- arbeiten (vgl. Abb. 24).

Zentral für das Versprechen der Automatisierung ist, dass innerhalb solcher Plattformen Datensets aus allen verfügbaren Datenbanksystemen aggregiert, strukturiert und sortiert werden können. In den vorangehenden Jahren mussten sich Unternehmen für einen Datenstandard entscheiden und kostenintensiv durch IT-Firmen implementieren lassen. Heute können Programmierer diese Daten mit Hilfe von relationalen oder unstrukturierten Datenbanken innerhalb von wenigen Stunden or- ganisieren und allen Teammitgliedern verfügbar machen, sodass Webentwickler diese visualisieren und interaktiv aufbereiten können. Entscheidend wird für Online-Publisher, dass diese Form von datengetriebener Analyse ergebnisorientiert und dezentralisiert organisiert werden kann. Somit können Medienhäuser schnell neue Formate testen, publizieren und ihre Performance überprüfen, ohne eine neue Abteilung gründen und Personal dauerhaft einstellen zu müssen – was einen Vorteil zugunsten von Kosteneinsparungen bietet.

Big-Data-gestützte Vermarktung und Smart Sales stellen zwei weitere aufkommende Schlüsselak- tivitäten für Medienunternehmen dar. Um Streuverluste zu vermeiden und die identifizierten Ziel- gruppen direkt erreichen zu können, existieren schon heute integrierbare Sales-Cloud-Anwendun- gen (wie z.B. die "Salesforce Einstein"-KI265 oder Pipedrive266), die in Echtzeit Kundenverhalten ana- lysieren und automatisch eine grobe Zielgruppe bestimmen, damit Vertriebsmitarbeiter ihre Res- sourcen besser planen und organisieren können.

Smart Sales erweitern diese Vermarktungsprozesse für Verlage, indem sie durch Big-Data-Analysen Fragen beantworten wie z.B., wer als Individuum im Markt welches Produkt des Verlages erwirbt und zu welchem Zeitpunkt. Durch das Zusammenspiel von KI und Sensordaten aus dem IoT entste- hen zunehmend intelligentere Plattformen, die viele Arbeitsschritte der klassischen Werbeplanung und des Vertriebs von z.B. Abonnements, Premiuminhalten und anderen digitalen Produkten auto- matisieren.

262 Vgl. Ball (2014) 263 Vgl. Kaggle (2018) 264 Vgl. Dataiku (2018) 265 Vgl. Salesforce (2018) 266 Vgl. Pipedrive (2018)

79

Abb. 24: Workflow-Beispiel einer Big-Data-Analyse auf der DDS-Online-Plattform des Analytics An- bieters Dataiku

Quelle: Vgl. Dataiku (2018)

Organisiert als Cloud-Lösung, sind Smart Sales-Plattformen darauf ausgelegt, herauszufinden, wel- che Faktoren für eine ideale Beziehung zum Kunden in Bezug auf das Zielunternehmen wie ausge- prägt sein müssen. Die Algorithmen solcher Big-Data-Plattformen wie z.B. "Oracle Data Cloud"267 analysieren das Kundenverhalten, KNN-basierte Algorithmen lernen Muster in diesen Verhaltens- daten zu erkennen und ermöglichen es dem Verleger, mehr über das Kundenengagement, die Kun- denkonversion und das langfristige Erfolgspotential der eigenen (Online-) Publikationen herauszu- finden. Diese KI-assistierte Vorgehensweise, um detaillierte Erkenntnisse zu generieren, hat in naher Zukunft das Potential, zum Standardrepertoire von traditionellen Verlagen als auch von reinen On- line-Publikationen zu werden, da bei jedem einzelnen Leser mit geringem Personalaufwand ein sehr hoher Grad an Personalisierung erreicht werden kann.

Komplementär dazu existieren Big-Data-Anbieter, die unter Einsatz von maschinellem Lernen die nachgelagerten Sales-Prozesse optimieren. Als Beispiel lässt sich das Unternehmen "Collective In- telligence" anführen, welches Millionen von Aufzeichnungen über das B2B-Kaufverhalten aggre- giert hat268. Der Anbieter bedient sich dieser Daten, der Methode des maschinellen Lernens und multivariater Forecast-Modelle, um Mitarbeitern im Vertrieb Handlungsempfehlungen aufzuzeigen, die direkt zu einem erhöhten Vertriebsumsatz führen sollen. Das Programm verbindet sich dazu

267 Vgl. Oracle Data Cloud (2018) 268 Vgl. Collective Intelligence (2018)

80

nach der Integration in die IT-Infrastruktur eines Unternehmens mit dem CRM-System und weiteren relevanten Datenquellen, um diese in quantifizierbare Erkenntnisse und Prognosen umzuwandeln. 5.2.2 MARKTPOTENTIAL UND ANWENDUNGSBEREICHE

Mit der Implementierung von Daten-Abteilungen und der automatischen Erstellung von Medien- inhalten durch Big Data kommt den deutschen Medienunternehmen die Aufgabe zu, die Infrastruk- tur um diese neuen Prozesse als Schlüsselressourcen zu erkennen und zu managen. Künstliche In- telligenz und maschinelles Lernen wurden in Kapitel 3.1 als technologische Grundlagen für Big- Data-Analysen vorgestellt und gleichsam als hochkomplexe Lernanordnungen beschrieben, die in selbstreflexiven Algorithmen zusammengefasst werden. Die Formulierung, Modellierung und Im- plementierung der Kern-Algorithmen müssen in einem organisationalen Kontext sorgfältig geplant und in der Regel durch eine eigene IT-Abteilung (konkreter: durch Computerwissenschaftler) aus- geführt werden269.

Obwohl Medienunternehmen immer weniger auf diese Schlüsselressource verzichten können, ver- fügen sie noch über zu wenig Expertise, um KI-basierte Prozesse wie Roboterjournalismus selbst zu implementieren270. An dieser Stelle setzen KI-as-a-Service-Anbieter an und ermöglichen Unterneh- men den Zugriff auf selbstlernende KI-Modelle in Form von Online-Plattformen, die mit dem Begriff "Distributed Artificial Intelligence" (DAI) betitelt werden271.

Für diese Form der KI-Integration können Publisher auf den Aufbau von eigenen Server- und KI- Training-Infrastrukturen verzichten. Als Beispiel kann das Unternehmen "Fluid AI" angeführt wer- den272, das durch flexibel gestaltbare KI-Modelle versteckte Beziehungen, Muster, Korrelationen und Ursachen innerhalb großer Datenmassen identifizieren kann. Durch solche Formen des Zugan- ges zu neuen Schlüsselressourcen über Intermediäre kann, zumindest in der Theorie, jede Art von Unternehmen auf bestimmte Zielaufgaben abgestimmte Deep-Learning-Algorithmen entwickeln.

Ein weiteres prominentes Beispiel stellt die Open-Source Machine-Learning-Lösung "H2O.ai" dar273. Dabei handelt es sich um eine Plattform für Entwickler, die das Erstellen von intelligenten Anwen- dungen vereinfacht und eine Integration der generierten Algorithmen in eigene Applikationen un- terstützt. Unternehmen wie PayPal benutzen sie zur Mustererkennung bei Betrugsfällen und erstel- len Prognosen über geografische Problemgebiete, um nachhaltig sich ähnelnden Betrugsmustern vorzubeugen274. Millionen von Datensets können in kürzester Zeit über ausgelagerte Algorithmen und Analysemodelle nach Auffälligkeiten gefiltert werden.

Zu den Einsatzbereichen gehören dabei nicht nur Marketing, Versicherung, Finanzwesen und Tele- kommunikation, sondern auch auf die Medienindustrie abgestimmte Verfahren zur Reduktion von Komplexität in Textdokumenten, relationalen Datenbanken und Videodatenbanken.

Dienstleister wie "Sentient Technologies" ermöglichen es, komplett autonome Systeme zu betrei- ben, ohne dezidierte KI-Forschungsabteilungen aufbauen zu müssen275. Die auf Web-Entwickler

269 Vgl. Planung der Prozessinfrastruktur in z.B. Batista et al. (2016), S, 5ff. 270 McKinsey & Company Inc. (2017), S. 39 271 Bond & Gasser (2014), S. 3 272 Vgl. Fluid.AI (2018) 273 Vgl. H2O.AI (2018) 274 Vgl. Morisy (2016) 275 Vgl. Sentient Technologies (2017)

81

abgestimmte Schnittstelle lässt den Nutzer vollständig autonom agierende Systeme erstellen und testen, wodurch sich u. a. im Bereich der digitalen Vermarktung Kampagnen optimieren, im E-Com- merce höhere Konversionsraten erzielen und im Vertrieb Verkaufsstrategien automatisieren lassen.

Abb. 25: Online-Auswahlinterface des Sentient-Aware-Applets „My Frame Finder", 2017

Quelle: Vgl. Sentient Technologies (2017)

Im Rahmen einer solchen Vertriebsoptimierung konnte die eingesetzte KI bei einem Sonnenbrillen- Online-Versand über eine Einkaufsmaske (vgl. Abb. 25) völlig automatisiert eine visuelle Konversa- tion mit seinen Käufern führen. In Echtzeit konnte die KI verstehen, was den jeweiligen Kunden am meisten interessierte, indem sie Hunderte verschiedener Vektoren (bzw. Bildpunkte) eines Bildes analysierte, mit denen der Kunde in der Einkaufsmaske interagierte. So konnte die KI genau die Präferenzen des Kunden als Faktoren bestimmen. Anstatt diese Präferenzen in Form von Kohorten- basierter Personalisierung auszuwerten, um standardisierte Produktempfehlungen zu generieren, konnte durch maschinelles Lernen ein Präferenzen-Modell des konkreten Katalogs des Händlers erstellt werden.

Das Katalog-Modell enthielt hierbei nur die Bilderdateien und unstrukturierte Vektordaten von den tatsächlich vertriebenen Modellen (was auch als Big Data bezeichnet werden kann). Auf diesem Wege konnte die KI über die identifizierten Faktoren in Echtzeit eine Beziehung zwischen den Prä- ferenzen des Kunden und den Eigenschaften der vorhandenen Artikel herstellen. Das Unternehmen gibt an, damit den Verkaufsvorgang zwischen einem Menschen und einem ausgebildeten Laden- mitarbeiter zu simulieren, der sich mit dem Angebot seiner Filiale auskennt. Als Resultat konnten durch den Einsatz der KI der durchschnittliche Bestellwert um acht Prozent und die durchschnittli- che Konversionsrate um 21 Prozent gesteigert werden276.

276 Vgl. ebd. S. 2

82

Auf der anderen Seite des Anwendungsspektrums existieren hybride DAI-Angebote, bei denen die Anwendung von Künstlicher und menschlicher Intelligenz zusammen gebucht werden kann. Hyb- ride Automations-Dienstleistungen wie Amazons "Mechanical Turk"277 oder die "WorkFusion"278 Online-Plattform bieten virtuelle B2B-Marktplätze, die es Unternehmen erlauben, zeitlich unbe- schränkt KI-gestützte "menschliche Intelligenz" in Arbeitsabläufe zu integrieren und einfache Auf- gaben zu automatisieren, die Computer bisher noch nicht im Stande sind zu erfüllen – wie z.B. von Nutzern hochgeladene Online-Inhalte zu kuratieren. Durch ein derartig bedarfsorientiertes Arbeits- kraft-Management besteht die Möglichkeit, mit hybriden DAI-Angeboten Lohnkosten erheblich zu senken.

Big-Data-bezogene Geschäftsprozesse müssen deswegen auch nicht nur durch Outsourcing auf Kosten der Arbeitnehmer optimiert werden, sondern können in Form von robotergesteuerter Pro- zessautomatisierung, maschineller Analyse und Arbeitskraftorchestrierung realisiert werden. Solch flexible Figurationen im Management von Schlüsselressourcen ermöglichen im Verlauf der Adap- tation von Big-Data-Produkten der deutschen Medienbranche erhebliche Synergieeffekte. Der Ein- satz von verlagsinternen Schlüsselressourcen wie menschlicher Intelligenz, Kreativität und Ästhetik in Kombination mit zugelieferter Analysekraft von KI kann die Produktivität und Agilität bei der Dienstleistungserbringung von Unternehmen enorm steigern. Multimediale Projekte, bestehend aus Millionen von Video- und Textrohdaten, können mit Hilfe von Big-Data-Prozessen schnell ge- sichtet, indexiert und bearbeitet werden, sodass die zuständigen redaktionellen Mitarbeiter mit den kondensierten Ergebnissen in kurzer Zeit tiefgehende Analysen, Porträts oder Gutachten erstellen können. 5.2.3 ZUSAMMENFASSUNG UND AUSBLICK

Wenn es um die Implementierung von Big Data in innerbetriebliche Prozesse im deutschen Markt für Onlinemedien geht, neigt der öffentliche Diskurs dazu, KI als Ursache für Filter Bubbles darzu- stellen (vgl. Kap. 4.3.3), Prozessautomatisierung als Grundlage für Arbeitsplatzrationalisierungen279 und Chatbots als Instrumente für Wahlkampfmanipulationen280. Die Realität in Unternehmen, die Big-Data-Initiativen gestartet haben, ist dagegen von eher sachlicher Natur. Von den rd. 40 Prozent aller Unternehmen weltweit, die Big-Data-Projekte umsetzen, haben erst 18 Prozent diese als festen Bestandteil in ihre innerbetriebliche Prozessstruktur implementiert (in Europa sind es sogar nur 16 Prozent)281. Von einer komplett autonomen Entscheidungsfindung in Medienunternehmen und ei- ner daraus resultierenden systematischen Verzerrung der Meinungsbildung kann daher im Moment nicht gesprochen werden.

Im normativen Mediendiskurs wird durch die Priorisierung der negativen Folgen von KI-gesteuerten Prozessen eine zentrale Perspektive vernachlässigt: Im Fokus der innerbetrieblichen Optimierung durch Big Data oder KI geht es nicht darum, Entscheidungen zu automatisieren oder sich der Ver- antwortung zu entledigen. Marktstudien und Umfragen zur Big-Data-Nutzung in Unternehmen

277 Vgl. Amazon Mechanical Turk (2018) 278 Vgl. WorkFusion (2018) 279 Vgl. z.B. Hank & Meck (2016) 280 Vgl. z.B. Krempl (2017) 281 BARC (2015), S. 10

83

kommen oft zu demselben Ergebnis: Unternehmen investieren in Big Data, um Mitarbeiter zu ent- lasten und nicht, um sie zu entlassen282. Mit Hilfe von Big-Data-Ergebnissen soll die Entscheidungs- findung von Mitarbeitern nicht obsolet gemacht, sondern insofern erleichtert werden, als dass das Geschäftsmodell in Bezug auf Gewinnmaximierung verbessert werden kann.

Diese Aussage lässt sich anhand des Einsatzes von Automatisierungsprozessen nach Branchen überprüfen. Bei der Frage nach der Umsetzung von Entscheidungen auf Basis von Ergebnissen von Big-Data-Analysen konnte im Rahmen einer BITKOM-Studie eine stärkere Zustimmung zu dieser Aussage bei v.a. technischen und industriellen Branchen verortet werden, wie bspw. im Maschinen- und Anlagebau oder in der Automobilindustrie. Im direkten Vergleich sieht man unter allen befrag- ten Branchen die Medienwirtschaft als die Branche, die am allerwenigsten relevante Entscheidungen auf Basis von Erkenntnissen aus Big-Data-Analysen umsetzt (vgl. Abb. 26).

Abb. 26: Mapping von deutschen Branchen in Bezug auf Zustimmung zur Nutzung von Big-Data- Analyseergebnissen zur Entscheidungsfindung in Unternehmen

Quelle: Erwin et al. (2016), S. 6; Mittelwerte auf einer Skala von 1 „Trifft voll und ganz zu“ bis 5 „Trifft überhaupt nicht zu“ (gewichtet) der befragten Unternehmen, n=704

Im Rahmen derselben Untersuchung wurde jedoch auch festgestellt, dass trotz der unterdurch- schnittlichen Nutzung von Analyseergebnissen zur Entscheidungsfindung die Medienwirtschaft

282 Vgl. z.B. ebd., S. 15 oder Erwin et al. (2016), S.15 ff.

84

über alle Branchen hinweg den größten Anteil von Unternehmen besitzt, die fortgeschrittene Ana- lysemethoden zur freien bzw. explorativen Suche von Erkenntnissen in Datensets von unterschied- lichster Herkunft und Struktur einsetzen283.

Wie auch in den meisten anderen Branchen geht es beim Einsatz von Big-Data-Analyseplattformen in der deutschen Medienbranche eher darum, Erkenntnisse aus deskriptiven Analysen zu ziehen, als Entscheidungen aus präskriptiven Analysen zu generieren284. Besonders der Erkenntnisgewinn im Bereich Kundenverständnis und Verbesserung der Kundenerfahrung ist für jedes zweite Unterneh- men entscheidend285, da über alle Unternehmensbereiche hinweg Big-Data-Analysen vor allem in den operativen, auf Kunden fokussierten Marketing- und Vertriebs-Abteilungen realisiert werden (vgl. Abb. 27).

Abb. 27: Einsatzhäufigkeit von Big-Data-Analysen nach Unternehmensbereichen in Deutschland, in Prozent

Quelle: BARC (2015), S. 17; Frage: „In welchen Bereichen nehmen Sie in Ihrem Unternehmen Big-Data-Analysen vor bzw. planen Sie Big-Data-Analysen vorzunehmen?", n = 423

In diesem Kontext müssen Unternehmen, die ihre Abteilungen auf den Big-Data-Paradigmenwech- sel vorbereiten, v.a. auf Folgendes achten: auf die Herausforderungen der unscharfen Analysetiefe, den Aufbau von methodisch reliablen Vorhersagemodellen und die Analyse von polystrukturierten

283 Vgl. ebd. S. 11 284 Vgl. ebd. S. 9 285 BARC (2015), S. 15

85

Datenquellen286. Um diesen Herausforderungen gerecht zu werden, müssen Datenquellen richtig aggregiert, verstanden und interpretiert werden. Die häufigsten Arten von Datenquellen stellen bei Big-Data-Analysen vor allem Daten aus Transaktionssystemen, Log-Daten aus internen (CRM-) Sys- temen und maschinelle Sensordaten aus dem IoT dar287.

Das zentrale Problem, das allen beschriebenen Herausforderungen innewohnt, ist die Erwartungs- haltung des Managements, Big-Data-Analyseergebnisse aus der Perspektive von klassischen Busi- ness-Intelligence Anwendungen zu betrachten. Klassische BI-Analysewerkzeuge sind wenig flexibel, da sie auf relationalen Datenbankmanagement-Systemen aufsetzen. Big-Data-Initiativen generie- ren stattdessen eher explorative Resultate, um komplett neue Wissenskontexte zu ermöglichen, die bisher aufgrund der nötigen analytischen Rechenleistung nicht denkbar gewesen sind.

Gerade in der Medienbranche bestehen deshalb noch weitere Herausforderungen, die es zu über- winden gilt. Fehlendes fachliches und technisches Know-how verhindern derzeit noch eine bran- chenweite Implementierung von KI und maschinellem Lernen288. Doch nicht nur die Mitarbeiter müssen in dem Umgang geschult sein, sondern vor allem auch die Entscheidungsträger in den jeweiligen Abteilungen. Wie in den Kapiteln 5.1 und 5.2 beschrieben wurde, hat sich um KI-as-a- Service bereits ein großes Ökosystem aus zahlreichen Big-Data-Dienstleistern gebildet. Ihr Ge- schäftsmodell basiert darauf, als Intermediäre organisatorische und technologische Wissenslücken zu schließen, indem sie on-demand und modular die Integration von Big-Data-Services anbieten (vgl. dazu Übersicht im Anhang, Kap. 9.1 und 9.2).

Doch dazu muss der Wert von Big Data als Schlüsselaktivität und -ressource überhaupt von Ent- scheidungsträgern anerkannt werden: Laut einer Umfrage unter Führungskräften aus allen Bran- chensektoren aus dem Jahr 2016 gaben rd. 30 Prozent zu, dass das Management ihrer jeweiligen Unternehmen Künstliche Intelligenz als Technologie prinzipiell nicht versteht289. Analog dazu sollte sich auch auf der Arbeitnehmerseite das Verständnis durchsetzen, dass arbeitsethische Bedenken beim Einsatz von KI und Algorithmen nicht der Technik per se gelten sollten, sondern eher den Verantwortlichen. Die Zielsetzung hinter Innovationsprozessen ist stets, Arbeitsvorgänge zu kataly- sieren, und menschliche Ressourcen effektiver einzusetzen, um bessere Produkte zu produzieren, anstatt reine Kosteneinsparungen durch Automatisierung zu realisieren.

Wie in Kapitel 5.1.1 erläutert, liegt für die Medien- und Werbeindustrie das Big-Data-Potential darin, explorative Erkenntnisse zu generieren, um den Kunden anhand seines Verhaltens und nicht wegen seiner Demografie besser einschätzen zu können und basierend darauf Predictive-Analytics-Lösun- gen zu erarbeiten. Vor allem im Marketing, der Akquise und im Vertriebs-/Sales-Bereich lassen sich Konversionen gerade durch die allein menschlichen Eigenschaften wie Kreativität, Intuition und Konsistenz erzielen290. Diese Eigenschaften werden auch in naher Zukunft nicht durch KI-gestützte Algorithmen ersetzt werden können291. Hybride Big-Data-Lösungen bieten für diese Einsatzgebiete

286 Vgl. ebd. S. 13 und McKinsey & Company Inc. (2017), S. 40ff. 287 BARC (2015), S. 32 288 Vgl. ebd. S. 35 289 The Economist Business Intelligence Unit Ltd. (2016), S. 19 290 Vgl. Albrecht (2017) 291 Innovationen wie "Artificial General Intelligence" oder "Quantum Computing", die potentiell in der Lage wären, menschliche Wesenszüge zu simulieren, werden noch länger als 10 Jahre vor der Markteinführung entfernt eingestuft. Vgl. dazu Panetta (2017)

86

dagegen unter Einbezug von personenbezogenen Daten das größte Potential, menschlichen Mit- arbeitern die Kundenansprache zu erleichtern – und nicht, sie ihnen komplett abzunehmen.

Dabei ergibt sich im Umgang mit personenbezogenen Daten die Herausforderung, Datensicherheit als ernstes strategisches Problem zu beachten. Denn sobald Kunden und nicht Analyseergebnisse in den Mittelpunkt von Big-Data-Auswertungen rücken, spielen sowohl der Datenschutz als auch die Datensicherheit eine zentrale Rolle für Unternehmen. Rund die Hälfte aller Unternehmen, die Big-Data-Initiativen gestartet haben in Deutschland, sieht Datenschutz als problematischste Kom- ponente für die Implementierung von automatisierten Prozessabläufen. 48 Prozent sehen gleich- zeitig die Datensicherheit als gleichwertig relevantes Problem an292. Datensicherheit ist als norma- tive Vorgabe schwierig und vor allem kostspielig. Deswegen wird es in den kommenden Jahren für Medienunternehmen, E-Commerce-Anbieter und Werbetreibende entscheidend, im Rahmen einer konsistenten Datenstrategie möglichst früh Schutzklassen, Sicherheitszonen sowie -protokolle für Maschinen-Datensets und personenbezogene Daten festzulegen.

Vor diesem Hintergrund zeichnet sich immer deutlicher ab, dass Big-Data-Datensets und perso- nenbezogene Daten zu einer Schlüsselressource im Onlinemedien-Markt werden, die es zu über- wachen und zu schützen gilt. Im folgenden Kapitel soll die Gewinnung und die rechtliche Situation von personenbezogenen Daten in Deutschland untersucht und ihr Marktpotential dargestellt wer- den.

292 BARC (2015), S. 35

87

5.3 DATENGEWINNUNG FÜR AKQUISE UND VERTRIEB

Die Identifikation neuer Kunden und die gerichtete Werbeansprache an passende Zielgruppen sind von wesentlicher Bedeutung für den Vertrieb im deutschen Markt für Onlinemedien. Publisher, E- Commerce-Firmen, Gaming-Anbieter können nur dann profitabel wirtschaften, wenn ihre Produkte passend für Kunden gestaltet sind und diese kontinuierlich zu einem Wiederkauf motivieren. Noch profitabler gestaltet sich das Abonnement-Geschäftsmodell, bei dem der Nutzer sowohl mit tradi- tionellen Zeitschriftenverlagen als auch mit Onlinemedienanbietern wie Netflix oder Spotify eine langfristige Geschäftsbeziehung eingeht. Damit kann der interne Cash-Flow eines Unternehmens gesteigert oder zumindest konstant gehalten werden. Daher kommt der Akquise neuer Kunden und dem Vertrieb von zeitlich ausgedehnten Abonnements in der Wertschöpfungskette von Medien- unternehmen eine zentrale Rolle zu. Für diese Art von gezielter Nutzerakquise benötigen Unter- nehmen nicht nur qualifizierte Vertriebsmitarbeiter und computergestützte Analysemethoden, son- dern vor allem auch den Zugang zu potentiellen Kunden durch aufbereitete Personendaten, Kun- denprofile und Bonitätsauskünfte. Wie eingangs in Kapitel 3.2 beschrieben, stellen sie die Grund- lage für den Gegenstand von Big Data dar.

Der Markt für solche Verbraucher- bzw. Nutzerdaten hat sich durch die steigende Nachfrage von Medienunternehmen, Werbetreibenden, E-Commerce-Anbietern, Politik und Marktforschern im Segment des Online-Marketings sowie der (digitalisierten) Bonitätsauskünfte stetig weiterentwi- ckelt293. Personenbezogene Konsumentendaten und digitale Verhaltensprofile dienen nicht mehr nur der Werbewirtschaft, sondern liefern mittlerweile die Grundlage für ein wachsendes Ökosystem an Listbrokern, Datenhändlern, Auskunfteien und weiteren Anbietern, die sich auf die Anreicherung von Big-Data-tauglichen Datenclustern spezialisiert haben (vgl. Abb. 28).

Abb. 28: Übersicht der Marktteilnehmer im Bereich Handel mit Adress- und anderen personenbezoge- nen Verbraucherdaten (vereinfachte und beispielhafte Darstellung)

Quelle: Goldmedia Analyse (2016/2017) nach: Eigenangaben der Unternehmen (2016/2017)

Dabei wirken zwei zentrale Treiber für das Marktwachstum: einerseits der Siegeszug des datenba- sierten Marketings und andererseits die zunehmend durch KI automatisierten Kreditvergabe- und

293 Vgl. Absatzwirtschaft (2015)

88

Bonitätsprüfungsdienste. Beide Branchen versprechen ihren Unternehmenskunden durch die auto- matisierte Analyse, Auswertung und Ansprache von Kunden Kosteneinsparungen, die vor allem durch den Erwerb und die Anreicherung von Kundendaten funktionieren. 5.3.1 DEFINITION VON PERSONENBEZOGENEN DATEN

Das Bundesdatenschutzgesetz definiert personenbezogene Daten generell als "Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Per- son"294. Grundsätzlich gelten damit sämtliche Daten als personenbezogene Daten, die es ermögli- chen, einen Personenbezug direkt oder indirekt herzustellen. Ein direkter Personenbezug erfolgt über den Namen, ein indirekter Bezug kann bspw. über eine Kreditkarten- oder Telefonnummer hergestellt werden (personenbeziehbare Daten). Anhand dieser Definition kann eine Vielzahl an unterschiedlichen Arten von Datenkategorien identifiziert werden:

Tab. 5: Übersicht von personenbezogenen Datenkategorien (Auswahl)

KATEGORIE PERSONENBEZOGENE DATEN

Soziodemografische/ Alter, Geschlecht, Bildung, Beruf, Einkommen, Familienstand etc. -ökonomische Angaben

Geografische Angaben Standort, Anschrift etc.

Sensible Daten Ethnische Herkunft, politische Meinungen, Religionszugehörigkeit, Gesundheitsdaten, Sexualleben, biometrische Daten etc.

Persönlichkeitsprofil Extraversion, Gewissenhaftigkeit etc.

Angaben über Konsumverhalten Getätigte Einkäufe etc.

Interessen Produkte, Marken, Musik, Film etc.

Technische Angaben Browser, Endgerät, IP-Adressen, Nutzungs-/Surfverhalten (Web- Tracking) etc.

Audiovisuelle Daten Videoaufzeichnungen, Fotos, Audio-Mitschnitte etc.

Indirekte bzw. Personalausweisnummer, Versicherungsnummer, Kreditkartennum- personenbeziehbare Daten mer, Kfz-Kennzeichen, Telefonnummer, E-Mail-Adresse etc.

Quelle: Goldmedia Analyse (2018)

Seit der Novellierung des Bundesdatenschutzgesetzes 2009 können zum Zwecke der Werbung oder des Adresshandels personenbezogene Daten – sofern keine explizite gesetzliche Regelung existiert – grundsätzlich nur mit Einwilligung der betroffenen Person erhoben werden (Opt-In)295.

Für die Datenerhebung und -speicherung im Rahmen der eigenen Geschäftstätigkeit von Unter- nehmen sowie der geschäftsmäßigen Datenübermittlung legen die §§ 28 und 29 BDSG die rechtli- chen Rahmenbedingungen für den Umgang mit personenbezogenen Daten und Ausnahmen vom

294 § 3 Abs. 1 Bundesdatenschutzgesetz (BDSG) 295 § 28 Abs. 3 Bundesdatenschutzgesetz (BDSG)

89

Einwilligungsvorbehalt fest. Personenbezogene Daten können daher ohne Einwilligung der be- troffenen Person erhoben, verarbeitet und genutzt werden, sofern sie beschränkt sind auf Name, Titel, akademischer Grad, Anschrift, Geburtsjahr und ein Listenmerkmal, das die betroffene Person als zu einer Gruppe zugehörig definiert (bspw. Online-Käufer, Pkw-Besitzer, etc.)296.

Nicht unter das Listenprivileg fallen damit bspw. E-Mail-Adressen und Telefonnummern. Im Rah- men der listenmäßigen Erhebung können die personenbezogenen Daten zum Zwecke der Eigen- werbung (an Bestandskunden oder Interessenten), für berufsbezogene Werbung und Spendenwer- bung genutzt und für Zwecke der Werbung für eigene Angebote auch mit weiteren Merkmalen und Daten (sowohl aus internen als auch externen Quellen) angereichert werden. Ausdrücklich gesetz- lich erlaubt ist der Adresshandel mit Listendaten (auch "Listbroking"), sofern in der Werbung kennt- lich gemacht wird, welche Stelle die Daten ursprünglich erhoben hat297. Unter diesen Transparenz- vorschriften können die Listendaten dann an Dritte für Werbezwecke übermittelt werden. Ebenso können Unternehmen den eigenen Listenbestand nutzen, um im Auftrag Dritter zu werben298.

Für die Erhebung von personenbezogenen Daten im Internet liefert das Telemediengesetz (TMG) eigene Regularien: Auch hier gilt grundsätzlich, dass personenbezogene Daten nur mit Einwilligung des Nutzers erhoben und gespeichert werden dürfen299. Eine gesetzliche Erlaubnis zur Erhebung und Speicherung der Daten besteht – wie im Offline-Bereich auch – im Zusammenhang mit Be- standsdaten (Vertragsdaten, Kundendaten etc.). Darüber hinaus ist es Online-Anbietern ohne Ein- willigung des Nutzers gesetzlich erlaubt, Nutzungsdaten (u.a. Identifikation des Nutzers, Umfang der Nutzung) zu erheben und zu verwenden, sofern diese benötigt werden, um das bereitgestellte Online-Angebot zu ermöglichen bzw. die Dienstleistung abzurechnen300.

Am 25. Mai 2018 tritt die Europäische Datenschutz-Grundverordnung (EU-DS-GVO, kurz: DS-GVO) in Kraft. Damit ändert sich die Rechtslage für Unternehmen innerhalb der Europäischen Union er- heblich. Die Anpassung an nationales Recht ist in Deutschland restriktiv ausgefallen. Dies wird so- wohl von der Wissenschaft als auch in der Wirtschaft kritisiert, während Verbraucherschutzverbände die Verordnung begrüßen301. Die Richtlinien der DS-GVO werden vor allem deshalb kritisiert, weil sie für datenverarbeitende Dienstleister den Nachweis eines aufwändigen Double-Opt-In der Nut- zer vorschreiben. Konkret müssen Nutzer ab Mai 2018 nicht nur den jeweiligen Datenschutz- und Datensammelerklärungen auf den Webseiten der Betreiber zustimmen, sondern auch explizit der Verarbeitung ihrer Daten via E-Mail302.

Die DS-GVO will durch einen einheitlichen Datenschutz innerhalb der EU-Mitgliedsstaaten mehr Datensicherheit und Datenhoheit für natürliche Personen schaffen. Dabei geht es vor allem um die automatisierte Verarbeitung, Verwendung und Speicherung personenbezogener Daten. Betroffen sind dabei alle (Online-)Unternehmen, die personenbezogene Daten von deutschen Bürgern verar- beiten303.

296 Vgl. Jüngling (2013b) 297 § 28 Abs. 3 Bundesdatenschutzgesetz (BDSG) 298 Vgl. BfDI (o. D.) 299 § 12 Telemediengesetz 300 § 15 Abs. 1 Telemediengesetz 301 Vgl. Käfer (2017) 302 Art. 7 Abs. (1) und Abs. (4) ebd.; Ebenfalls zu beachten: Erwägungsgrund 33 ebd. 303 Art. 3 Abs. (2) und Abs. (3) sowie Art. 44 EU-DS-GVO

90

Die neuen Regelungen der DS-GVO verlangen, dass für den Nutzer durch klare Formulierungen und eine einfache Sprache größtmögliche Transparenz gewährleistet ist305. Hinzu kommt eine ob- ligatorische Datenschutzbelehrung, die jedes Unternehmen verbindlich präsentieren muss – inklu- sive Links zu Datenschutzbelehrungen Dritter, die am Prozess der Datenverwertung beteiligt sind306.

Art. 7 Abs. 4 der DS-GVO sieht dabei ein strenges Kopplungsverbot im Zuge der Datenaggregation vor. So dürfen Datenbestände mit personenbezogenen Daten nicht mehr für mehrere Maßnahmen genutzt werden, sodass für jede Aktion eine separate Einwilligung eingeholt werden muss. Zudem wird auch eine Speicherbegrenzung personenbezogener Daten mit unterschiedlichen Fristen vor- geschrieben, um eine langfristige bzw. permanente Datennutzung zu begrenzen307.

Unternehmen, die mit Einwilligung eines Nutzers personenbezogene Daten erhoben haben, stehen aufgrund der DS-GVO in einer umfangreichen Nachweis-, Dokumentations- sowie Meldepflicht ge- genüber dem Nutzer308. Damit wird das Personenrecht gestärkt, da jeder Nutzer ab Mai 2018 ein "Recht auf Vergessenwerden" hat: So müssen Unternehmen, die personenbezogene Daten vorhal- ten diese nach einem Widerruf durch den Nutzer vollständig löschen309.

Im Bereich des Medienrechts ist in Art. 85 DS-GVO vorgesehen, dass der Schutz personenbezogener Daten mit dem Recht auf freie Meinungsäußerung und der Informationsfreiheit (incl. der Verarbei- tung dieser Daten für journalistische, wissenschaftliche, künstlerische und literarische Zwecke) in Einklang gebracht werden müssen. Damit sind auch das deutsche Presse-, Rundfunk- und Tele- medienrecht betroffen. Insbesondere müssen auch der Ausnahmetatbestand des Medienprivilegs bei der Datenverarbeitung zu journalistischen Zwecken, (bspw. bei der namentlichen Nennung von Personen in den Medien, vgl. § 57 im RStV bzw. § 41 im BDSG) und die Ausgestaltung der Rundfunk- Aufsicht mit dem DS-GVO in Einklang gebracht werden zu müssen. Die Bundesländer sind hierbei in ihren Gesetzgebungsprozessen unterschiedlich weit fortgeschritten und die vorgesehen Rege- lungen dabei nicht einheitlich.310

Erlaubt bleibt weiterhin die Verwendung von Online-Nutzungsdaten für Werbe- oder Marktfor- schungszwecke, wenn die Nutzerprofile durch Pseudonymisierung nicht auf die jeweilige Person zurückzuführen sind und zuvor die Person dieser pseudonymisierten Weiterverarbeitung zuge- stimmt hatte311. Die Pseudo- bzw. Anonymisierung großer Mengen personenbezogener Daten ist für Onlinemedien-Anbieter von hoher Relevanz: Für die Personalisierung von Inhalten und Ange- boten durch KI-basierte Algorithmen sowie für die Vermarktung der Reichweiten ist es entschei- dend, die Präferenzen, das Surfverhalten oder sonstige Charakteristika des Nutzers zu kennen.

305 Art. 12 Abs. (1) ebd. 306 Art. 24 und Art. 26 Abs. (3) ebd. 307 Art. 5 Abs. (1) lit. e ebd. 308 Zu Nachweispflichten vgl. Art. 5 Abs. (2), Art. 7, Art. 12, Art 24. und Art. 35 ebd.; zu Dokumentationspflichten vgl. Art. 26, Art. 28, Art. 33 und Art. 46 ebd.; zu Meldepflichten vgl. Art. 33 und Art. 34 Abs. (1) ebd. 309 Art. 17 ebd. 310 Vgl. EMR (2018): unter http://emr-sb.de/synopse-zur-umsetzung-des-21-rundfunkaenderungsstaatsver- trages-und-der-datenschutz-grundverordnung-der-eu/ 311 Vgl. zu Pseudonymisierung Art. 4 Abs. (5), Art. 6 Abs. (4) lit. e, Art. 25 Abs. (1) und Art. 40 Abs. (2) lit. e ebd.; Der Diensteanbieter hat jedoch auf das Widerspruchsrecht des Nutzers nach § 13 Abs. (1) TMG hinzuwei- sen. Vgl. § 15 Abs. 3 Telemediengesetz

91

In der Regel werden daher IP-Adressen in Deutschland vor der Speicherung anonymisiert und nur zur Geolokalisierung eingesetzt312. Die Anonymisierung ist datenschutzrechtlich notwendig, da die längerfristige Speicherung von IP-Adressen nur zu Abrechnungszwecken erfolgen darf313.

Für deutsche Unternehmen, die mehr als zehn Mitarbeiter beschäftigen und die direkt mit perso- nenbezogenen Daten arbeiten, sie sammeln oder auf Basis solcher Datensets Big-Data-Analysen durchführen, verlangt die Europäische DS-GVO, einen eigenen Datenschutzbeauftragten zu benen- nen314. Während für kleinere Unternehmen die Vorschriften der DS-GVO mit erheblichem administ- rativen Aufwand verbunden ist, wird sich für große Plattformanbieter vermutlich wenig ändern: Sie erheben in der Regel bereits die Einwilligung zur Datenverarbeitung über das Log-In in das jeweilige Nutzerprofil315.

Für Unternehmen, die Big-Data-gestützte Auswertungen anbieten, werden die Möglichkeiten des Profilings, also die Erstellung psychometrischer Profile, die Rückschlüsse auf Nutzerverhalten, Inte- ressen und Präferenzen erlauben, durch die DS-GVO stark eingeschränkt316. So kritisiert bspw. der Bundesverband der Zeitungsverleger (BDZV), dass eine restriktive Auslegung der DS-GVO moderne Online-Werbung und Algorithmen-gestützten E-Commerce, die auf personenbezogenen Daten ba- sieren, erheblich einzuschränken drohe317. Auch der Deutsche Journalisten-Verband beklagt, dass institutionelle Datenschützer Einblick in die (geschützte) Arbeit von Redaktionen nehmen könnten und damit die Pressefreiheit gefährdet würde. Auch die Position von Intermediären und Suchma- schinen, die nicht selbst dem Medienprivileg unterliegen, wird neu hinterfragt: So prüft das Bun- desverfassungsgericht derzeit, ob das Medienprivileg eines öffentlich-rechtlichen Senders, der den Name einer Person publiziert hatte, eine Einschränkung der Nennung auf Plattformen verhindert.

Doch trotz vielfältiger Kritik von Medienverbänden hat die öffentliche Diskussion zur Nutzung per- sonenbezogener Profile im Zuge des "Cambridge Analytica-Skandals" Anfang 2018 bereits zu wei- tergehenden Konsequenzen geführt: So erklärte Facebook in Folge des Bekanntwerdens der un- kontrollierten Nutzung von rund 87 Mio. Nutzerprofilen durch Cambridge Analytica318, Werbepart- nern in Zukunft weniger personenbezogene Datenkategorien anbieten zu wollen, den Zukauf von Datensets von Drittanbietern zu begrenzen und vor allem Werbekategorien auf Basis der Vorher- sage von Kundenverhalten einzudämmen319.

Gerade der Einsatz von personalisierten Inhaltsangeboten und automatisierten Werbekampagnen könnte vor diesem Hintergrund durch die DS-GVO – je nach Auslegung der einzelnen Öffnungs- klauseln320 – problematisch bis unmöglich gemacht werden: Ohne ausreichend historische Daten und einer nur unzureichenden Profilbildung durch eine Limitierung von Drittdaten können KNN- basierte Algorithmen nicht zureichend präzise trainiert werden, um dem Nutzer passende Inhalte zu präsentieren oder Werbetreibenden verlässliche Vorhersagen liefern zu können.

312 Vgl. BVDW (o. D.) 313 Vgl. § 15 Abs. 4 Telemediengesetz 314 Art. 37 EU-DS-GVO 315 Vgl. Kafsack (2015) 316 Vgl. zum Begriff des Profiling in EU-DS-GVO Art. 4 Abs. 4, Art. 22 und Art. 35 ebd. 317 Vgl. BDZV (2016) 318 Vgl. Handelsblatt (2018) 319 Vgl. Collins/Buchanan (2018) 320 Vgl. Haufe Online Redaktion (2017)

92

5.3.2 MARKTPOTENTIAL UND ANWENDUNGSBEREICHE

In Anbetracht der steigenden Investitionen, die in Unternehmen für Adress- und Datenhandel seit 2012 getätigt wurden321, sowie des wachsenden Volumens an investiertem Risikokapital in neue Big-Data-Unternehmen (vgl. Abb. 29) lässt sich eine hohe Gewinnerwartung gegenüber diesen Branchen ablesen322. Bereits 2012 meldete der Weltmarktführer für personenbezogene Big-Data- Datensets "Acxiom" rund 50 Trillionen Datentransaktionen auf seinen Servern323. Insgesamt gene- rierte 2012 der Markt global einen Umsatz von rd. 150 Mrd. Dollar. 2013 waren es bereits rd. 200 Mrd. Dollar324. Und dieser Trend hält weiter an. Data-Mining und weitläufige Datenanalyse sind bereits für viele Branchen zum zentralen Bestandteil ihrer Marketingkampagnen und Kundenkom- munikation geworden. 2015 wurden entsprechend rd. 4.000 Anbieter weltweit registriert. Im Juni 2016 zählte Gartner Inc. bereits 5.000 Anbieter325.

Abb. 29: Investitionsvolumen und relevante Unternehmenskäufe im Bereich Künstliche Intelligenz, 2011-2017, in Mio. US-Dollar

Quelle: Vgl. CB Insights (2016)

Der Handel mit Adressen und Big-Data-Datensets ist auch in der deutschen Werbe- und Medien- landschaft etabliert: Das Ziel der meisten Werbetreibenden ist es, aufgrund von zunehmend KPI- orientierten Marketingbudgets Streuverluste von Marketingkampagnen zu minimieren. Durch Da-

321 Bspw. Investitionen in das Unternehmen Datalogix in 2014, vgl. Constine (2014), und dessen Akquisition von Oracle oder in den dt. Anbieter Blackbee in 2014, vgl. Postulka (2016) 322 Da Daten-Broker und Dialogmarketing-Firmen teilweise auch global agieren und Investitionsrunden me- thodisch unterschiedlich durchgeführt werden, ist es nur begrenzt möglich, die konkreten Investitionen mit einer Gesamtsumme zu beziffern. 323 Vgl. Singer (2012) 324 Vgl. Levine (2013) 325 Vgl. Moore (2016)

93

ten-Broker und Vermarkter von Kundenprofilen können sie konkrete Zielgruppen präzise eingren- zen und adressieren. Auf dem deutschen Markt sind rd. 1.000 Anbieter im Bereich des Adress- und Datenhandels aktiv326.

Eine Reihe von Unternehmen (wie bspw. Acxiom Deutschland, AZ Direct oder Schober Direct Media) aggregiert Daten über Cashback-Karten, Online-Gewinnspielteilnahmen, Online-Anmeldungen auf E-Commerce-Plattformen, digitale Webseiten-Tracker oder soziale Netzwerke wie Facebook, Y- ouTube oder Instagram. Diese Daten werden dann von den Unternehmen als Intermediäre an Big- Data-Dienstleister zur weiteren Nutzung vermarktet. Der deutsche Markt für Adress- und perso- nenbezogene Verbraucherdaten wird von einigen wenigen Anbietern wie der Schufa, AZ Direct (Ar- vato Bertelsmann) sowie der Deutschen Post dominiert (vgl. Tab. 6). Dialogmarketing-Spezialisten wie AZ Direct sorgen auch dafür, dass sich technische Innovationen wie z.B. die programmatische Aussteuerung von Online-Werbung (Programmatic Advertising, vgl. Kap.5.1.1) oder die automati- sierte Werbebuchung (Real-Time-Bidding, vgl. Kap. 6.4) im Markt des Daten- und Adresshandels weiter etablieren und in den kommenden Jahren branchenweit durchsetzen werden.

Tab. 6: Einteilung der Big-Data-Datenset-Anbieter nach Geschäftsmodellen, Stand: 2016

VERKNÜPFUNG DATEN- RISIKO- DATENVERMIETUNG ADRESSPFLEGE OFFLINE-/ONLINE- QUALIFIZIERUNG INFORMATIONEN DATEN

Deutsche Post Deutsche Post Deutsche Post AZ Direkt Schufa Holding Direkt Direkt Direkt

AZ Direct Deutsche Post AZ Direkt Acxiom infoscore Adress Deutschland Consumer Data

Acxiom AZ Direkt Acxiom Creditreform Boniversum

Schober Direct Acxiom Schober Direct Bürgel Media Media Wirtschafts- informationen

SAZ Services SAZ Services SAZ Services

Quelle: Goldmedia Analyse (2017/2018) nach: Eigenangaben der Unternehmen (2017/2018)

Neben dem Verkauf von Daten und Datenvermietung zählt die Datenqualifizierung zu den wich- tigsten Service-Leistungen der Big-Data-Händler. Auch hier besteht die stärkste Nachfrage auf Sei- ten der werbetreibenden Unternehmen, die in erster Linie ihre Online-Marketing-Maßnahmen effi- zienter und präziser gestalten wollen. Bei der Datenqualifizierung werden die bestehenden Kun- dendaten von Unternehmen durch die aggregierten Datenbestände der Adress- und Datenhändler weiter veredelt. Dabei werden die vorhandenen Kundendaten mit weiteren kontextuellen (Verhal- tens-) Informationen ergänzt. Auf Grundlage der angereicherten Daten führen die Adress- und Big- Data-Händler darüber hinaus Kundensegmentierungen oder Kundenwertanalysen durch327. Wäh- rend im Bereich des Vertriebs in Medienunternehmen die Adressvermietung hauptsächlich für die

326 Vgl. Neuhaus (2012) 327 Vgl. AZ Direct (o. D.)

94

Neukundenakquise zum Einsatz kommt, zielt die Datenqualifizierung zunächst auf die Verbesse- rung der Vertriebsprozesse für bestehende Kunden.

Durch die Big-Data-gestützte Kundensegmentierung und -analyse können individuelle und ziel- gruppenspezifische Marketing-Maßnahmen durchgeführt werden, die letztlich die Response-Raten erhöhen und eine wirtschaftlichere Kampagne ermöglichen sollen.328 Die Segmentierung und Ana- lyse von Kundendaten können jedoch auch wertvolle Informationen über das weitere Kundenpo- tential erbringen. So können auf Basis der bestehenden Kunden ähnliche Kundengruppen identifi- ziert und angesprochen werden329. Als Beispiel kann die Personalisierungsplattform "Dynamic Yield" angeführt werden, die es Unternehmen ermöglicht, neue Kundenprofile aus Big-Data-Daten- sets zu filtern und Kampagnen nutzergerecht über alle Kanäle zu personalisieren. Durch eine mit Hilfe von maschinellem Lernen optimierte Kundensegmentierung können in Echtzeit Produktemp- fehlungen gegeben und verhaltensgerechte Nachrichten versendet werden, um dadurch Umsätze und Konversionen zu steigern.

Um eine andere Form der Datengewinnung für datengetriebene Online-Kampagnen handelt es sich bei der Verknüpfung von Online- und Offline-Datensets. Die Budgetverschiebungen der werbetrei- benden Unternehmen hin zur Online-Werbung haben im Offline-Dialogmarketing (z.B. bei Wer- bung in Postwurfsendungen, Beilagen, Prospekte etc.) zu einer sinkenden Nachfrage geführt330. Die traditionellen Adress- und Datenhändler reagieren, indem sie ihre Kompetenzen aus dem klassi- schen Dialogmarketing auch in den Onlinemedien-Markt übertragen und bspw. ihre mikrogeogra- fischen Datenbanken über Kooperationspartner auch für die Online-Werbung bereitstellen. Das zentrale Produktangebot ist hierbei die Verknüpfung der Offline- und Online-Daten, das sog. Customer-Relationship-Management Data-Onboarding (kurz CRM Data-Onboarding).

Beim CRM-Data-Onboarding werden die Kundendaten der Unternehmen durch die Adress- und Datenhändler über ein maschinelles Matching-Verfahren auch online nutzbar gemacht. Hierzu ko- operieren diese mit all jenen Portalen und Netzwerken, die wiederum personenbezogene Daten aggregieren, z.B. soziale Netzwerke, Online-Shops, Publisher, Online-Marktplätze, Mail-Anbieter o- der Data-Management-Plattformen.

Die Adress- und Datenhändler führen zunächst einen Abgleich der (Offline-)Kundendaten eines Unternehmens mit den Nutzerdaten der Online-Kooperationspartner durch und identifizieren die Schnittmenge beider Datenbestände. Vor dem Matching-Prozess können die CRM Data-Onboar- ding-Daten wiederum durch die mikrogeografischen Datenbanken der Adress- und Datenhändler mit zusätzlichen Informationen angereichert oder spezielle Kundengruppen gebildet werden (vgl. Abb. 30). So ist es möglich, dass ein Unternehmen eigene Kunden mittels personenbezogener On- line-Nutzungsdaten gezielt über verschiedene Onlinekanäle ansprechen kann. Durch Kundenstruk- turanalysen lassen sich weiterhin sog. statistische Zwillinge oder Lookalikes bilden, also Zielgrup- pen, die den eigenen Kundengruppen in Hinblick auf Konsumeigenschaften, Produktaffinitäten o- der anderen Merkmalen gleichen. Somit können durch das CRM Data-Onboarding neben den ei- genen Kunden auch gezielt Neukunden mit Online-Kampagnen angesprochen werden.

328 Vgl. Acxiom (o. D.) 329 Vgl. Schober Direct Media (o. D.) 330 Vgl. Deutsche Post Dialog Marketing Monitor 2010-2016

95

Abb. 30: Beispielhafte Darstellung einer mikrogeografischen Datenvisualisierung auf Hausebene

Quelle: Vgl. microm Micromarketing-Systeme und Consult GmbH (2015)

In Unternehmen kann dieser mehrstufige Prozess mittlerweile durch KI-gestützte Bot-Plattformen fast komplett automatisiert werden. Bspw. existiert mit Maia eine Bot-Plattform, die als virtueller Assistent in Unternehmensabläufe integriert werden kann. Der Chatbot hat die Aufgabe, mit Hilfe einer Mustererkennung Vertriebsmitarbeiter dabei zu unterstützen, große Datenmengen für das CRM Data-Onboarding aus den jeweiligen Unternehmens-CRM-Systemen zu analysieren. Unter Verwendung von natürlicher Sprachverarbeitung werden die gewonnenen Erkenntnisse in hand- lungsorientierte Empfehlungen umgewandelt und dem Kunden vorgeschlagen.

Im Geschäft mit digitalen Medienabonnements und im E-Commerce zählen Risikoinformationen wie Bonitätsauskünfte oder Score-Werte zu wichtigen Instrumentarien, um Zahlungsarten wie das Bezahlen auf Rechnung anbieten zu können. Auskunfteien aggregieren Daten über das Zahlungs- verhalten und die Kreditfähigkeit von Konsumenten und stellen diese Daten in Form von Bonitäts- auskünften nachfragenden Unternehmen zur Verfügung. Ein berechtigtes Interesse besteht bspw. bei einer Vertragsbeziehung mit dem Risiko eines Zahlungsausfalls. Entsprechend werden Bonitäts- auskünfte vor allem von Banken und Kreditinstituten im Rahmen einer Kreditvergabe angefragt.

Neben den klassischen Produkten wie Bonitätsauskunft und Scoring, die zu den umsatzstärksten Dienstleistungen zählen, bieten sog. Auskunfteien verstärkt auch weitere Big-Data-basierte Risiko- management-Tools an. So werden zur Betrugsprävention im E-Commerce bspw. Geräte-, Identitäts- oder Kontonummern-Checks angeboten331. Von den zehn umsatzstärksten Anbietern personenbe- zogener Verbraucherdaten in Deutschland sind die Schufa Holding, infoscore Consumer Data, Cre- ditreform Boniversum und Bürgel Wirtschaftsinformationen (vgl. Tab. 7) in diesem Geschäftsbereich tätig.

331 Vgl. SCHUFA Holding AG (o. D.) und Creditreform Boniversum (o. D.)

96

Tab. 7: Relevante Datenbestände im Geschäftsbereich Risikoinformationen der untersuchten Adress- und Datenhändler in Deutschland

ANBIETER VOLUMEN PERSONENDATEN VOLUMEN EINZELDATEN BZW. DATENSÄTZE

Schufa Holding 66,4 Mio. Personen 797 Mio. Einzeldaten

infoscore Consumer Data >7,8 Mio. Personen 40 Mio. Einzeldaten

Creditreform Boniversum 61 Mio. Personen 79 Mio. Datensätze

Bürgel Wirtschaftsinformationen 39 Mio. Personen Keine Angaben

Quelle: Goldmedia Analyse (2017/2018) nach: Eigenangaben der Unternehmen (2017/2018)

Die Übermittlung der Daten erfolgt bei geringen Anfragemengen i.d.R. über einen Kunden-Login in ein Online-Portal, sodass die Daten über den Browser eingesehen und lokal gespeichert werden können. Daneben bieten die Auskunfteien vor allem für Online-Anbieter und hohe Abfragemengen die Bonitätsprüfung über eine Schnittstelle (bspw. XML-Anbindung) und integrierte Systemlösun- gen in Echtzeit an. Denn der Erfolg des E-Commerce und der steigenden Online-Kreditnachfrage lässt eine deutliche Tendenz zum automatisierten Abruf von Bonitäts- und Scoring-Informationen in Echtzeit feststellen.

Die Bonitätsbewertung durch Big Data ist ein fester Bestandteil der Analyseprozesse von Auskunf- teien geworden. Hierbei können die nachfragenden Online-Plattformen, Medienunternehmen oder Kreditinstitute mittels einer Datenbank-Schnittstelle zu den Auskunfteien die Kunden-Bonitätsprü- fung in die eigenen Systeme integrieren. Das deutsche Start-up "Kreditech" aggregiert bspw. bis zu 20.000 Datenpunkte über seine Nutzer, die von soziodemografischen Informationen über das Surf- verhalten in sozialen Netzwerken bis zu installierten Schriftarten auf dem PC des Nutzers und der Dauer der Ausfüllung eines Kreditantrages auf Webseiten von Kreditechs Tochterunternehmen "Kredito24", "Zaimo" und "Flexinero" reichen332.

Durch die Anwendung von Deep-Learning-Methoden zur Profilbildung filtert das Unternehmen aus der Masse aller Datenpunkte Aussagen und Merkmale, auf deren Grundlage Kreditech automatisiert und in Echtzeit eine Bonitätsauskunft erstellt. Auf Basis des ermittelten Scorings erfolgt auf den Tochterseiten des Unternehmens im Anschluss (bei positivem Ergebnis) ebenfalls die Kreditvergabe in Echtzeit an den Endkunden333. Auf dem deutschen Markt ist das Unternehmen aufgrund daten- schutzrechtlicher Bedenken derzeit jedoch (noch) nicht aktiv334. 5.3.3 ZUSAMMENFASSUNG UND AUSBLICK

Insgesamt wird der Markt für Datengewinnung und Handel mit Daten in Deutschland dominiert von einigen wenigen Marktteilnehmern. Den größten Umsatz im Handel mit personenbezogenen Daten erzielten 2014 auf dem deutschen Markt die Unternehmen AZ Direct, Deutsche Post Adress,

332 Vgl. Seibel (2015) 333 Vgl. ebd. 334 BvD-News (2015), S. 22ff.

97

Deutsche Post Direkt, Acxiom Deutschland, Schober Direct Media und SAZ Services sowie die Aus- kunfteien Schufa, Infoscore Consumer Data, Creditreform Boniversum und Bürgel. Die zehn größten Unternehmen erzielten 2014 einen Gesamtumsatz von rund 450 Mio. Euro.

Die Anbieter agieren mit ihren Geschäftsmodellen auf unterschiedlichen Teilmärkten: Im Online- Marketing vereinnahmen sie insgesamt einen Marktanteil von rund 65 Prozent, im Bereich der Ri- sikoinformationen erreichen sie einen Anteil von 95 Prozent. Der Markt für personenbezogene Ver- braucherdaten wird in beiden Teilmärkten in Deutschland durch nur wenige Anbieter beherrscht. Die drei größten Anbieter Schufa, AZ Direct und Deutsche Post Adress decken mit den eigenen Datenbeständen den deutschen Markt für den Handel mit personenbezogenen Verbraucherdaten umfassend ab. So ist die Schufa im Besitz von 797 Mio. Einzeldaten zu 66,4 Mio. Personen, AZ Direct verfügt über 600 Merkmale zu 70 Mio. Konsumenten, die Deutsche Post Adress hat Informationen über 11,5 Mio. Umzüge, 7 Mio. Verstorbene und 9,5 Mio. unzustellbare Adressen335.

Vor dem Hintergrund des Voranschreitens der Digitalisierung und der zunehmenden Verlagerung zahlreicher Geschäftsbereiche in das Internet kann erwartet werden, dass besonders die Umsatzvo- lumina des Handels mit Big-Data-Datensets und der Risikoinformationen stark ansteigen werden. Erste Indizien dafür liefern die stark wachsenden Branchen von Dienstleistungen wie Bonitätsbe- wertungen und die in den vorangehenden Kapiteln beschriebenen automatisierten Online-Marke- ting-Plattformen, die Programmatic Advertising sowie Predictive Analytics anbieten. Zentral für beide Sektoren ist, dass Big Data nicht nur der hauptsächliche technologische Treiber ist, sondern auch die zentrale Form der Datengewinnung für Akquise und Vertrieb beschreibt.

Generell erwarten Analysten, dass in den kommenden Jahren sowohl Datenhändler mit Fokus auf Big-Data-basiertem Online-Marketing, als auch Anbieter digitaler Bonitätsauskünfte weiterhin kon- stant wachsen werden. In den vergangenen Jahren ist das Marktvolumen im Bereich des klassischen Offline-Datenhandels deutlich gesunken. Dies führte zu einem Verdrängungswettbewerb und ins- gesamt zu einer Marktkonsolidierung und Erhöhung der Marktkonzentration. Ursächlich dafür war einerseits die Novellierung des BDSG (2009), die zu einem geringeren Adressbestand im Markt führte und einen Preiswettbewerb auslöste, zum anderen erfolgte bei den Werbetreibenden eine zunehmende Verschiebung der Werbebudgets vom klassischen Postmarketing hin zu transaktio- nellem Online-Marketing und weiter zum Big-Data-basiertem Online-Marketing.

Der Markt für Risikoinformationen verzeichnete hingegen ein stabiles Wachstum. Allein der Bran- chenführer Schufa konnte seinen Umsatz von 2010 bis 2015 um rund 38 Mio. Euro steigern. Zu dieser positiven Marktentwicklung trägt vor allem die steigende Nachfrage aus der Onlinemedien- branche und dem E-Commerce bei. Von diesem Trend profitieren die Auskunfteien, die den Online- Händlern im Zuge der Bestellungen (Rechnungskauf) entsprechende Risikoinformationen zur Boni- tät der Konsumenten bereitstellen.

335 Eigenangaben der Unternehmen 2016/2017

98

6 AUSWIRKUNGEN VON BIG DATA AUF ONLINEMEDIEN: BEISPIELE UND CASE STUDIES

Im Rahmen der Analysen des B2C- und B2B-Marktes in den vorhergehenden Kapiteln wurden be- reits vielfach Big-Data-Anwendungen erläutert, um das Potential neuer Technologien praxisnah zu veranschaulichen. In diesem Kapitel soll das Bild der diversen Anwendungsmöglichkeiten vervoll- ständigt werden. Nachfolgend werden weitere Einsatzmöglichkeiten Künstlicher Intelligenz be- schrieben, welche den Markt der Onlinemedien nachhaltig beeinflussen können. 6.1 CASE STUDY: KI IM JOURNALISMUS

Der Einsatz von Künstlicher Intelligenz im Journalismus hat das Potential Probleme zu lösen, die von Menschen nur schwer zu bewältigen sind. Das Unternehmen Liquid Newsroom hat z. B. mit dem "LNR Concept Mapper" (vgl. Abb. 31) ein Tool entwickelt mit dem es möglich ist, Nachrichten und ganze Konversationsverläufe nicht nur auf bestimmte Stichworte hin zu untersuchen, sondern gleich ganze Themenkomplexe und zusammenhängende Meinungscluster zu identifizieren. Damit kann der Verlauf bestimmter politischer Themendiskussionen in der öffentlichen Meinungsbildung besser nachvollzogen werden. Indem bestimmte Stichwörter aus Nachrichtenmeldungen und Tweets in eine semantische Kontextanalyse einbezogen werden, kann ein bestimmter Themenkom- plex visualisiert werden. Über kontextuelle Marker und Schnittmengen von Wörtern in anderen Dis- kussionen können mehrere unterschiedliche Diskussionsströme zum selben Gegenstand parallel verfolgt werden.

Abb. 31: Vergleich der Methoden des LNR Concept Mapper und einer Hashtag-Analyse

Quelle: Vgl. LiquidNewsroom.ai (2017)

Die Ergebnisse können verwendet werden, um zu verstehen, ob es eine Lücke zwischen den in öf- fentlich sichtbaren Konversationen diskutierten Themen und der aktuellen Medienberichterstattung gibt, wie etwa vor und nach Wahlen. Damit wird es möglich, alle (öffentlich verfügbaren) Positionen eines politischen Diskurses zu kartieren und eventuelle Verzerrungen der digitalen Meinungsbil- dung festzustellen.

99

6.2 CASE STUDY: KI-FACTCHECKING

Zu einem weiteren Anwendungsgebiet von Big Data im Rahmen der digitalen Meinungsbildung ist das "Factchecking" geworden. Denn parallel zu der Entwicklung von sozialen Netzwerken zu den relevantesten Massenmedien ist auch der Grad an inner- sowie außenpolitischer Desinformation in den Onlinemedien stark angestiegen. Gerade außenpolitische Akteure haben ein hohes Interesse daran, staatliche Propaganda an für sie empfängliche Zielgruppen im Ausland zu verbreiten, um etwa Unmut über das politische Establishment zu schüren oder sogar gezielt Einfluss auf die öffent- liche Meinungsbildung auszuüben. In diesem Zusammenhang können die russischen Wahlkampf- manipulationen in den USA zu den Themen Gesundheitsversorgung oder Immigration angeführt werden, die über Facebook und Instagram rund 146 Mio. Menschen erreicht haben336. Aus diesem Grund existieren heute bereits zahlreiche Factcheck-Websites wie fullfact.com, factcheck.org oder politifact.com, deren Funktion es ist, Falschaussagen bestimmter Medien oder Publikationen zu überprüfen und gegebenenfalls deren Authentizität zu hinterfragen. Bisher ist diese Aufgabe vor allem manuell (und oft auf freiwilliger Basis) von Journalisten bewältigt worden.

Mit dem KI-gestützten Webtool "Décodex" (vgl. Abb. 39) hat jedoch die französische Tageszeitung "Le Monde" ein medienumspannendes Instrument entwickelt, das mit Hilfe einer Browsererweite- rung und eines mobilen Facebook-Messenger-Bots automatisch die Authentizität von Websites überprüft und diese in einer Farbskala darstellt. Darüber hinaus ist es Nutzern auch möglich, kon- krete Medien und Websites online verifizieren zu lassen. Diese Abfrage ist datenbankgestützt und bedient sich des Le Monde-eigenen Verzeichnisses von Medien, Artikeln und Webseiten, die ent- sprechend von Le Monde-Journalisten als vertrauenswürdig oder unauthentisch klassifiziert wur- den.

Abb. 32: Eingabemaske des Décodex Factcheck-Tools der Tageszeitung Le Monde

Quelle: Vgl. Les Décodeurs (2018)

Einen anderen Ansatz hat das britische Unternehmen Factmata gewählt, das ebenfalls Nachrichten und Postings auf ihre Authentizität überprüft. Durch den Einsatz von maschinellem Lernen trainiert das Unternehmen seine Algorithmen, Nachrichten auf ihren Wahrheitsgehalt und auf Fakten hin zu

336 Vgl. Keegan (2016)

100

überprüfen. Zugleich bietet das Unternehmen Werbungtreibenden einen Bewertungsindex an, da- mit diese es vermeiden, auf Fake-News-Websites ihre Werbung zu platzieren. Das Unternehmen bedient sich dabei internationaler statistischer Datenbanken wie Freebase, Eurostat oder der World Bank Database. Durch diesen Zugriff ist es der Factmata KI möglich, Aussagen wie “The UK is not a prime suspect; greenhouse gas emissions have fallen by 6.2% this year alone”, “The United States cares about its energy sector— this administration has invested $4.5bn this year alone”, oder “Our aid work in Somalia is paying dividends - only 0.2% of the population is severely malnourished”337 auf die Korrektheit der jeweiligen Angaben hin zu überprüfen. 6.3 CASE STUDY: CONTENT BLOCKCHAIN

Mit Hilfe neuer Technologien und Automatisierungslösungen wird bereits jetzt eine zunehmende Anzahl digitaler Inhalte produziert. Durch die Weiterentwicklung der vollautomatisierten Erstellung von Inhalten kann weiterhin ein starker Anstieg der Produktionsleistung erwartet werden. Dadurch stellen sich auch neue Anforderungen hinsichtlich zunehmender Verwaltungsaufgaben. Deren Pro- zesse sollen zukünftig mit Hilfe neuer Verfahren ebenfalls zum Teil automatisiert erfolgen. Derartige digitale Lösungen finden sich aktuell bspw. im Rahmen des Content Blockchain Projects. Dafür wird an drei aufeinanderfolgenden Prozessen gearbeitet, die das einfache Identifizieren von Inhalten (Bilder, Videos) und deren unkomplizierten Handel ermöglichen sollen.

Der entscheidende erste Schritt ist dabei das eindeutige Kennzeichnen der Dateien, wofür ein stan- dardisierter Code entwickelt wird – der International Standard Content Code (ISCC). Anders als be- reits bestehende Identifier wie bspw. ISBN (International Standard Book Number), ISSN (Internati- onal Standard Serial Number) oder ISCR (International Standard Recording Code) ist der ISCC von Einzelpersonen kostenlos algorithmisch erstellbar. Die Identifikationsnummer wird dabei generisch auf Grundlage des Inhalts selbst sowie anderer Metadaten kreiert.

Weiterhin sollen Lizenzierungsvorgänge vereinfacht werden, sodass auch Nutzer ohne Fachwissen ihre Inhalte unkompliziert und schnell lizenzieren können338. Mit Smart Licenses bzw. Smart Contracts werden komplexe Gesetze und Vorgaben in praktisch anwendbare Lizenzierungsprofile umgewandelt, was den Verkauf an Handelspartner und Endnutzer enorm erleichtert. Verschiedene Module beschreiben dabei unterschiedliche Anwendungsfälle – etwa Vervielfältigung oder Veröf- fentlichung – und können individuell zusammengesetzt werden. Zusammen mit anderen Modalitä- ten wie bspw. Preis oder Laufzeit entstehen sog. Smart Licenses339.

Schließlich werden der Code sowie die Lizenzbedingungen auf einer Blockchain eingetragen und der Öffentlichkeit zur Verfügung gestellt. Maschinenlesbare Blockchains sichern weltweit die tat- sächliche Existenz von Inhalten oder Transaktionen ab und bieten dabei den Vorteil, nahezu fäl- schungssicher zu sein340. Ermöglicht wird dies über die virtuelle Infrastruktur des Blockchain-Sys- tems. Sämtliche Blockchain-Aktionen werden statt an einem zentralen Knotenpunkt dezentral auf allen Rechnern gespeichert, die mit dem Blockchain-Netz verbunden sind341.

337 Vgl. Beispiele aus Ghulati, D. (2016) 338 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 339 Vgl. Content Blockchain (2018b) 340 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 341 Vgl. Contentpepper (2017)

101

Durch diese Verfahrensweise wird der Handel mit digitalen Inhalten stark gefördert, da zeitintensive Verhandlungen mit verschiedenen Interessenparteien entfallen. Zudem stehen Informationen über Metadaten und Lizenzierungen zuverlässig tagesaktuell und weltweit zur Verfügung. Eine derartige dezentrale Infrastruktur für digitale Daten wird von verschiedenen Plattformen als Open-Source- Software zur Verfügung gestellt, bspw. auch von "Po.et"342 und "Decent". Ein funktionsfähiger Pro- totyp des Content Blockchain Projects ist für März 2018 geplant343, aktuell steht bereits eine erste Testversion zur Verfügung, mit welcher verschiedene Funktionalitäten geprüft werden (vgl. Abb. 33). Die Decent-Entwickler kündigten für das Jahr 2018 ebenfalls das Erreichen weiterer wichtiger Meilensteine an, die die Funktionsweisen der Plattform vervollständigen sollen344.

Abb. 33: Menüansicht der Content Blockchain Testversion

Quelle: Vgl. Content Blockchain (2018c)

Neben der Nutzung derartiger Plattformen als Urheber-Register und Handelsplatz ist ein besonde- rer Vorteil auch die Möglichkeit dynamischer Bezahlmodelle. Aktuell stehen viele Medienhäuser vor dem Problem der Refinanzierung digitaler Angebote, da Finanzierungsstrategien wie Abonnements oder die Paywall bisher nur bedingt von Kunden akzeptiert werden. Die Monetarisierung über Micropayments, mit denen einzelne Artikel oder Videos erworben werden können, ist aufgrund hoher Transaktionskosten bisher kaum rentabel. Mit Hilfe digitaler Zahlungssysteme wie Bitcoin, Ethereum oder Litecoin werden aufgrund der dezentralen Blockchain-Struktur Kleinstzahlungen in hoher Anzahl bei geringem Kostenaufwand möglich345.

342 Vgl. Po.et (2018) 343 Vgl. iRights.Lab (2018) und Content Blockchain (2018a) 344 Vgl. Decent (2018) 345 Vgl. Contentpepper (2017)

102

6.4 CASE STUDY: VON PROGRAMMATIC ZU PREDICTIVE ADVERTISING

Der Trend der Budgetverschiebung in Medienhäusern vom Offline-Marketing hin zum Big-Data- gestütztem Online-Targeting wird technisch getrieben durch die neuen "Programmatic Adverti- sing"-Plattformen. Beim Programmatic Advertising werden automatisiert sehr zielgruppenspezifi- sche (und damit hochwertige) Nutzersegmente auf Basis der First-Party-Daten von Publishern mit Hilfe von Big-Data-Analysen erstellt. Über Auktionsplattformen auf der Nachfrageseite (auch "De- mand Side"-Plattformen) werden diese Segmentprofile angefragt und über Anbieterseiten-Platt- formen (auch "Supply Side"-Plattformen) vermarktet – entweder über Festpreise oder über Auktio- nen in Echtzeit, die in der Werbebranche als "Real-Time-Bidding"-Plattformen bezeichnet werden (vgl. dazu Abb. 34).

Solche Werbeplatzierungen für sehr spezifische Zielgruppen konnten in der Vergangenheit nur über direkte (aufwändige) Verhandlungen mit Premium-Publishern und spezialisierten Werbenetz- werken realisiert werden. Um die Zielgenauigkeit des Targetings weiter zu erhöhen, werden die First-Party-Daten des Publishers in unterschiedlichem Umfang mit Third-Party-Daten zum Browser- verlauf des Nutzers kombiniert, die Werbenetzwerke über Tracking-Cookies generieren.

Abb. 34: Übersicht über die Struktur des Programmatic-Buying-Ökosystems

Quelle: Vgl. IAB Spain (2014)

Darüber hinaus ermöglichen über soziale Netzwerke (wie etwa Facebook) erhobene, kontextuelle Nutzerdaten zunehmend psychometrische Analysen, die weitere neue Formen des Targetings er- lauben. Ein aktueller Trend ist hier das sog. Predictive Behavioral Targeting: Mit dieser Technik wird es Werbetreibenden mit Hilfe von KNN und Deep-Learning-Methoden ermöglicht, aus selektiven Nutzerbefragungen, Nutzerdaten und externen Datenquellen statistische Prognosen zu Verhaltens- mustern der Nutzer zu erstellen (vgl. dazu Abb. 35). Im Zuge der Personalisierung der ausgespielten

103

Werbung wird es möglich, durch Predictive Advertising und selbstlernende Algorithmen Nutzerver- halten auch ohne durch Drittanbieter angereicherte Datenprofile oder Nutzerbefragungen vorher- zusagen. Durch die allgemeine Verunsicherung der Nutzer zu Privatsphäreneinstellungen und den wachsenden Trend zum Opt-Out aus den Datenaggregationsprozessen von Marketing- und Ana- lytics-Firmen wie Acxiom, Oracle oder RapLeaf gestaltet sich die Anreicherung von Nutzerprofilen immer schwieriger. Die Auswertung von Tracking-Cookies erlaubt dagegen die Vorhersage von Nutzerverhalten allein anhand ihrer Suchverläufe – ohne die Integration von weiteren kontextuellen Persönlichkeitsdaten wie Alter, Geschlecht oder der geografischen Position. Aus der Bildung von Profilen, bestehend allein aus Suchwörtern und Big-Data-gestützten Auswertungsalgorithmen, können Online-Plattformen wie z.B. Microsoft so die Wahrscheinlichkeiten für anstehende Kaufent- scheidungen approximieren. Anstatt große Datensets zum Offline- und Online-Verhalten spezifi- scher Nutzergruppen und -segmente zu erwerben, können Werbungtreibende stattdessen ihre Kampagnen mit Hilfe der zukünftig nachgefragten Suchwörter optimieren und dabei vergleichbare Resultate erzielen, indem sie abhängig von der Nachfrage flexibel ihre Cost-per-Click oder Cost- per-Lead Preise anpassen.

Verbrauchern werden dabei Eigenschaften zugeordnet, die als Grundlage für eine auf Verbraucher- interessen orientierte Aussteuerung von Werbung dienen. Der wesentliche Vorteil dieses Verfah- rens besteht darin, dass auch solche Produktinteressen eines Internetnutzers identifiziert werden können, die sich nicht unmittelbar aus den vorliegenden Verhaltensdaten ableiten lassen. Daraus ergibt sich im Vergleich zum Behavioral Targeting eine größere Anzahl an Zielpersonen und somit eine höhere Kampagnenwirksamkeit.

Abb. 35: Datenquellen im Werbenetzwerk von Facebook, Stand 2016

Quelle: Goldmedia Analyse (2017) nach: Angwin (2016)

Im Zuge der Personalisierung der ausgespielten Werbung wird es möglich, durch Predictive Adver- tising und selbstlernende Algorithmen Nutzerverhalten auch ohne durch Drittanbieter angerei- cherte Datenprofile oder Nutzerbefragungen vorherzusagen. Durch die allgemeine Verunsicherung der Nutzer zu Privatsphäreneinstellungen und den wachsenden Trend zum Opt-Out (vgl. Kap. 5.3.1) aus den Datenaggregationsprozessen von Marketing- und Analytics-Firmen wie Acxiom, Oracle o- der RapLeaf gestaltet sich die Anreicherung von Nutzerprofilen immer schwieriger. Die Auswertung von Tracking-Cookies erlaubt dagegen die Vorhersage von Nutzerverhalten allein anhand ihrer

104

Suchverläufe – ohne die Integration von weiteren kontextuellen Persönlichkeitsdaten wie Alter, Ge- schlecht oder der geografischen Position. Aus der Bildung von Profilen, bestehend allein aus Such- wörtern und Big-Data-gestützten Auswertungsalgorithmen, können Online-Plattformen wie z.B. Microsoft so die Wahrscheinlichkeiten für anstehende Kaufentscheidungen approximieren346.

Anstatt große Datensets zum Offline- und Online-Verhalten spezifischer Nutzergruppen und -seg- mente zu erwerben, können Werbetreibende stattdessen ihre Kampagnen mit Hilfe der zukünftig nachgefragten Suchwörter optimieren und dabei vergleichbare Resultate erzielen, indem sie ab- hängig von der Nachfrage flexibel ihre Cost-per-Click oder Cost-per-Lead Preise anpassen.

346 Bilenko & Richardson (2011), S. 418ff.

105

6.5 FÖRDERINITIATIVEN: GOOGLE DIGITAL NEWS INITIATIVE

Neben zahlreichen anderen Non-Profit Förderinitiativen wie z.B. "OpenAI"347 oder politischen För- derinitiativen348, rufen vermehrt auch Technikkonzerne KI-Förderfonds ins Leben. Die "Digital News Initiative" (kurz DNI) von Google hat bis 2018 rund 450 Projekte in 29 Ländern Europas gefördert, die zu einem erheblichen Ausmaß auf Big-Data-Ansätze abstellen349. So entstehen personalisierte Newsfeeds in sozialen Medien oder personalisierte Ergebnisansichten in Suchmaschinen sowie al- gorithmisch optimierte Nachrichtenangebote bis hin zu vollständig automatisch generierten Pres- seberichten350, deren Hintergründe und Entstehungsformen oftmals wenig bekannt sind. Der För- derprozess wurde bisher im Rahmen von vier Förderrunden zwischen den Jahren 2016 und 2017 durchgeführt. Das Ziel der Initiative ist es nach eigener Aussage, Forschungs- und Entwicklungs- prozesse in den europäischen Nachrichtenredaktionen voranzutreiben und Innovationsimpulse in neue journalistische Instrumente umzusetzen.

Abb. 36: Google DNI: Top 10 der geförderten Projekt-Kategorien in 2017, in Prozent

Quelle: Google DNI Innovation Fund (2017), S. 18

Bereits im Jahr 2016 wurden 252 Projekte mit einem Fördervolumen in Höhe von 51 Mio. Euro finanziert. In den ersten zwei Förderrunden belegten dabei die Big-Data-relevanten Innovations- projekte in den Bereichen "Analytics/Research" (16 Projekte), "Data Journalism" (15 Projekte) und "AI/Bots/Machine Learning" (14 Projekte) die Top 5 der am stärksten geförderten Projektkategorien

347 Vgl. OpenAI (2018) 348 Vgl. Lucas (2018) 349 Vgl. Google DNI Projects (2018) 350 Vgl. Retresco (2018) und AX Semantix (2017)

106

(vgl. dazu Abb. 36). In Deutschland wurden insgesamt 59 Projekte mit einer Summe in Höhe von rund 15 Mio. Euro unterstützt. Nachfolgend wird je Größenkategorie ein aus Deutschland stam- mendes Projekt vorgestellt: 6.5.1 FAZ9

Im Zuge der DNI-Förderung entwickelte z.B. die Frankfurter Allgemeine Zeitung in der Kategorie "Large Project" mit "FAZ9" einen Big-Data-basierten Personalisierungsalgorithmus für seine Leser, der in der mobilen FAZ-App zum Einsatz kommt. Durch das Entwickeln und Testen von drei unter- schiedlichen Varianten des Algorithmus konnten die FAZ-Entwickler mit der erfolgreichsten Version das Nutzer-Engagement und die Lesezeit um 36 Prozent verlängern. Dabei zeichnet die App das Nutzerverhalten sowie seine Interaktionen auf und transformiert diese Handlungspräferenzen in mehrere Indikatoren. Mit Hilfe von maschinellem Lernen und der gesammelten Indikatoren wird im nächsten Schritt der jeweilige Nachrichtenfeed eines Nutzers trainiert. So kann die FAZ einen hohen Grad an Affirmation des Nutzers gegenüber seinem Nachrichtenfeed erreichen351. 6.5.2 ACT2ACCESS

Mit "Act2Access" entwickelt das deutsche IT-News Online-Portal Golem.de im Rahmen einer "Me- dium Project"-Förderung ein alternatives Modell zur Refinanzierung von journalistischen Online- Angeboten. Im Gegensatz zu herkömmlichen Paywalls, bei denen Nutzer gegen eine Zahlung Zu- gang zu exklusiven Premiuminhalten bekommen, arbeiten die Entwickler von Golem.de an einer API-Schnittstelle, über die Unternehmen den Golem.de-Lesern Aufgaben anbieten können. Werden diese gelöst, erhalten die Nutzer Zugang zu den Premiuminhalten. Dabei handelt es sich bei den Aufgaben laut Entwickler um "spielerische Aufgaben" im Big-Data-Umfeld, bei denen möglichst viele Nutzer dezentral und in einem sehr kleinen Umfang Daten verarbeiten oder KI-Algorithmen trainieren müssen. Somit haben auf der einen Seite Nutzer keinerlei monetäre Ausgaben und Un- ternehmen können Rechenleistung über verteilte Dateisysteme auslagern352. 6.5.3 JOURNALISM FIRST

"Journalism First" bietet als "Prototype Project" des Res Publica Verlags das Konzept einer unab- hängigen Echtzeit-Auktionsplattform, die den journalistischen Long-Tail bedient. Damit sind klei- nere Verlage und Publisher gemeint, die nicht unbedingt reichweitenstark sind im Vergleich zu etablierten Online-Publikationen. Durch ihre aggregierte Anzahl erreichen sie in der Summe den- noch werberelevante Zielgruppen und vor allem Nischengruppen, die nicht unbedingt durch reich- weitenstarke Publikationen bedient werden. Kleinere Publisher können durch "Journalism First" un- abhängig von Werbeagenturen agieren, die normalerweise die Werbeplanung und Werbekunden- akquise übernehmen. Die Belegung des angebotenen Werbeinventars wird durch Algorithmen übernommen, und Zielgruppen werden durch maschinelle Mustererkennung über mehrere Publi- kationen simultan angeboten. So können Verleger die Auslastung ihres Inventars in Echtzeit nach- verfolgen und Preise selbst automatisiert anpassen353.

351 Vgl. Google DNI 1 (2018) 352 Vgl. Google DNI 2 (2018) 353 Vgl. Google DNI 3 (2018)

107

7 HANDLUNGSEMPFEHLUNGEN FÜR DIE POLITIK & FAZIT

Das vorliegende Gutachten zeigt systematisch auf, dass der deutsche Markt für Onlinemedien durch den zunehmenden Einsatz Big-Data-basierter Anwendungen wie Sprachassistenten, Chatbots, Social-Bots und weiteren Automatisierungsprozessen einen Transformationsprozess durchläuft. Durch die Integration Künstlicher Intelligenz und der massenhaften Verarbeitung von Daten ent- stehen neue Kommunikationskanäle, Schlüsselressourcen und Schlüsselaktivitäten, die neue Orga- nisationsstrukturen sowohl im Journalismus als auch in der Medienwirtschaft hervorrufen. Hierbei wird der Kommunikationsfluss zwischen Politik, Journalisten und Medienrezipienten mit deutlichen Effekten auf die öffentliche Meinungsbildung neu miteinander verwoben. Einen besonderen Ein- fluss auf die ökonomische Entwicklung hat hierbei die zunehmende Prozessautomatisierung, die sich in Zukunft noch stärker durchsetzen wird. Ob die automatisierte Erstellung oder Distribution von Inhalten, Online-Marketing oder Targeting, Unternehmensorganisation oder -optimierung: Alle für die Wertschöpfung relevanten Prozesse werden durch Big Data, KI und Algorithmen verändert. 7.1 HANDLUNGSEMPFEHLUNGEN FÜR DIE POLITIK

Mit dem wachsenden Einfluss von Big Data auf die Medienbranche stellen sich aus Sicht der Medi- enpolitik neue Fragen. Künstliche Intelligenz und selbstlernende Algorithmen bergen auf der einen Seite zwar ökonomisches Optimierungspotenzial, auf der anderen Seite sollte der Einsatz dieser Technologien im Kontext der kritischen, medialen Infrastrukturen, die sie betreffen, nicht völlig au- ßer Acht gelassen werden. Datensets und artifizielle kognitive Modelle werden im Rahmen auto- matisierter Prozesse zu wertvollen und zugleich kritischen Ressourcen, wenn sie zum Zwecke der Entscheidungsfindung und Analyse in meinungsbildenden Medien eingesetzt werden.

In einem organisationalen Kontext ist die Auslagerung von KI und datenanalytischen Ressourcen zwar sinnvoll, jedoch bedeutet dies in den meisten Fällen die Abtretung der Datensouveränität an einige wenige Privatunternehmen im Ausland354. Zusätzlich zur geopolitischen Verantwortung für persönliche Nutzerdaten und Unternehmensdaten, deren Speicherung anwendungsbezogen im Wesentlichen in den U.S.A. und China erfolgt355, steht nicht nur Deutschland vor der kulturellen Herausforderung des Erhalts der publizistischen Vielfalt und zugleich der Meinungsvielfalt. 7.1.1 SICHERUNG DER PUBLIZ ISTISCHEN VIELFALT

Um die publizistische Vielfalt in Deutschland zu wahren, bietet es sich an, den Grad an Automati- sierung von Medieninhalten in der Medienwirtschaft zu beobachten. Eine zunehmende Auslage- rung der Anfertigung von standardisierten Artikeln ohne redaktionelle Anreicherung an einige we- nige Firmen könnte potentiell die Konzentrationsvorgänge im publizistischen Markt ungünstig be- schleunigen. Hier wäre zukünftig ein Kennzeichnungsgebot vorstellbar, mit dem zumindest Quali- tätsmedien kenntlich machen, ob und in welchem Grad Inhalte automatisiert erstellt wurden.

354 Vgl. Papon (2017) 355 Vgl. Armbruster (2017)

108

7.1.2 WAHRUNG DER MEINUNGS VIELFALT

Vorrausetzung für die Erhaltung von Meinungsvielfalt ist eine geistig-publizistische Konkurrenz von Meinungen in der Öffentlichkeit. Die Beeinflussung durch autonome, KI-basierte Akteure wie Social- Bots oder algorithmisches Gatekeeping stellt dieses Konzept auf den Prüfstand356. Unternehmen dürfen zwar zwecks Umsatzoptimierung auf Automatisierungsvorgänge setzen und soziale Netz- werke die freie Meinungsäußerung nicht unterdrücken. Auf der anderen Seite sollte die Meinungs- vielfalt auch nicht von Gruppen zur Durchsetzung ihrer Partikularinteressen manipuliert werden können.

Hierbei stellen die Nutzungsbedingungen der Social-Media-Plattformen wie Twitter oder Facebook eine Herausforderung dar, da diese bislang keinerlei Einschränkungen für den (gewerblichen) Ein- satz von Text-Bots vorsehen. Mit der Löschung von falschen Konten vor der Bundestagswahl, der Bewertung der Seriosität von Nachrichtenquellen sowie der Beauftragung eines Recherchebüros zur Verifizierung von Nachrichtenmeldungen ergreift zumindest Facebook jedoch bereits erste Schritte zum Erhalt der Meinungsvielfalt357. Darauf aufsetzend könnte ein Dialog mit den größten Informationsintermediären in Deutschland (Google, Facebook, YouTube, WhatsApp und Twitter358) begonnen werden, in wieweit eine Kennzeichnung von autonomen Agenten/Social-Bots eingeführt werden kann.

Darüber hinaus könnten öffentlich-rechtliche Onlinemedien und private Qualitätsmedien als Kor- rektiv oder Trusted-Party-Medien/Unternehmen eine stärkere Rolle zur Eindämmung bot-basierter Problematiken ausüben. Zudem existiert bereits eine Reihe privatwirtschaftlich geförderter Korrek- tiv-Initiativen wie Google Fact Check, Correctiv, FlipFeed, Read Across the Aisles, Escape your bubble, Filterbubblan, The Buzzard, Bot or Not etc., deren Erkenntnisse jedoch bislang in der Öf- fentlichkeit wenig Verbreitung finden359. 7.1.3 RICHTLINIEN ZUR DATENSOUVERÄNITÄT

Im Kontext der zunehmenden Auslagerung von Kunden- und Nutzerdaten an Drittfirmen zur Da- tenanalyse oder -anreicherung könnte eine Zertifizierung zur Absicherung des Datenschutzes an- geregt werden. Ein solches Zertifikat könnte dem Endnutzer/Kunden signalisieren, dass eine Platt- form, die personenbezogene Daten speichert, die Vorgaben der europäischen Datenschutzgrund- verordnung sowie die in Deutschland geltenden Datenschutzrichtlinien über die gesamte Wert- schöpfungskette hinweg einhält. Dementsprechend müsste die Einhaltung der Vorgaben sowie die technische Absicherung der Daten (Verschlüsselung) auch bei allen kooperierenden Partnern (Start- ups, Firmen im außereuropäischen Ausland) überprüft werden360.

Eine weite Möglichkeit der Stärkung der persönlichen Datensouveränität liegt in der Erweiterung der heute bereits notwendigen Einwilligung zum Datenschutz und zur Datenverarbeitung auf jedes neue Interface (wie z.B. PVA), das mit dem Nutzerkonto eines Online-Dienstes verbunden wird. Konkrete Beispiele sind hier die Sprachassistenten sowie die damit verbundenen Geräte von

356 Vgl. Freedom House (2017) 357 Vgl. Wieduwilt (2017) und Facebook (2017) 358 Lischka & Stöcker (2017), S. 13 und S. 15 359 Vgl. Facebook (2017) 360 Vgl. Lenzen (2018)

109

Google, Apple und Amazon. Nur so kann man den Nutzern aktiv zu verstehen geben, dass sie sich mit der Verarbeitung auch der über die Spracheingabe oder Videoaufzeichnung übermittelten per- sonenbezogenen Daten einverstanden erklären. 7.1.4 ALGORITHMEN- UND KI-AUDITS

Da Vorgänge in KNN und darauf aufbauend Algorithmen und KI-Prozesse nicht hinreichend genug beschrieben werden können und Unternehmen diese Grundlagen nicht publizieren, empfiehlt es sich für jedes stark datengetriebene Unternehmen, Strategien und Guidelines für den Umgang mit algorithmenbasierten oder KI-assistierten Dienstleistungen nachzudenken.

Der BITKOM hat bspw. eine Stufenskala für die Klassifizierung von KI veröffentlicht, die sich am Grad der Automatisierung von Entscheidungen orientiert361. Die höchste Stufe bedeutet dabei komplett autonomes Entscheiden und die geringste Stufe signalisiert komplett menschliches Entscheiden. Dazwischen liegen vier Stufen, aufsteigend mit immer mehr Autonomiezugewinn. Ein ähnlicher Klassifizierungsansatz könnte ebenfalls für die Erstellung von automatisierten Texten und Analysen überprüft werden. Der Einsatz von komplett automatisierten Big-Data-basierten Dienstleistungen könnte ab den höchsten Stufen einer solchen Skala (bei denen Entscheidungen an digitale KI-As- sistenten delegiert werden) nur genehmigt werden, wenn die entsprechenden KI-Prozesse, Trai- ningsdatensätze und Modelle durch einen KI-Audit auf systematischen Bias sowie technische Fehler überprüft wurden. Dazu existieren bereits KI-Prüfverfahren wie die "Layer-wise Relevance Propaga- tion"-Methode362 oder das Displacement-Verfahren363. Solche KI-Audits sollten dabei nicht nur auf einer rein technischen Ebene ablaufen, sondern auch Perspektiven der Sozialforschung, Rechtswis- senschaft, Ethik und im Medienbereich vor allem der Kommunikationswissenschaft berücksichtigen.

Für Medienunternehmen gilt dies nicht nur für die automatisierte Erstellung von Inhalten sondern u.a. auch für die weitere Verarbeitung von Kunden- und Nutzerdaten zur Steigerung von Werbeer- lösen oder transaktionsbasierten Umsätzen. 7.1.5 PVA-PLATTFORMREGULIERUNG

Die Landesmedienanstalten haben, abgeleitet aus dem Rundfunkstaatsvertrag, die Aufgabe, den diskriminierungsfreien Zugang von Inhalteanbietern auf Medienplattformen sicherzustellen. Im Rahmen dieser als Plattformregulierung bezeichneten Kontrolle wird überprüft, ob Anbieter von Inhalten und Diensten zu gleichberechtigten Konditionen auf Plattformen wie Elektronischen Pro- grammführern (EPGs), App-/Widget-Plattformen von Smart-TVs oder auch VoD-Plattformen ver- treten sind. Diese Prüfung bezieht sich dabei sowohl auf den Zugang zur Plattform als auch auf die Auffindbarkeit der Inhalte364.

Personal-Voice-Assistant-Plattformen wie Amazon Echo oder Google Home stehen derzeit noch nicht im Fokus dieser Regulierung. Dabei werden gerade diese Plattformen zukünftig eine wichtige Rolle bei der Auswahl von Medieninhalten spielen. Sofern diese Plattformen die Auswahl der Inhalte auf wenige große Mediendienste (wie z.B. Spotify, Google Play und Amazon Music) einschränken

361 Holtel (2017), S. 14ff. 362 Vgl. Beuth (2017), Binder et al. (2016), S. 1f. und Shrikumar et al. (2017), S.1f. 363 Bojarski et al. (2017), S. 6 und Alvarez-Melis et al. (2017), S. 2f. 364 Die Medienanstalten (2018)

110

oder die zusätzliche Implementierung von Diensten erschweren, drohen etablierten Mediendiens- tanbietern (z.B. Hörfunkprogrammanbietern) hier Wettbewerbsnachteile. Im Zuge der Plattformre- gulierung können Probleme vielfach auch im Dialog geklärt werden, bevor es zu wettbewerbsrecht- lichen Auseinandersetzungen kommt. 7.1.6 ZUSAMMENFASSUNG DER HANDLUNGSEMPFEHLUNGEN

Zusammenfassend lässt sich für die Politik ein hoher Grad an potenziellem Handlungsbedarf in Bezug auf Big Data und KI-gestützten Algorithmen im Markt der Onlinemedien feststellen. Zahlrei- che Institutionen sowie die Politik sehen ein klares Defizit in der Kennzeichnung von KI-basierten Anwendungen wie PVA oder Chat- sowie Social-Bots365.

Die Einhaltung europäischer und nationaler Datenschutzvorgaben wird mit zunehmender Einbin- dung internationaler Dienstleister und junger Start-ups, die Nutzerdaten der Medienunternehmen verarbeiten, zu einer Herausforderung, die neue Compliance-Strukturen erfordert. In beiden Berei- chen sind jedoch vor allem die Medienunternehmen selbst gefordert, Standards zu entwickeln und deren Einhaltung zu prüfen, um das Vertrauen der Nutzer in Inhalte und die Sicherheit ihrer Daten nicht zu verspielen.

Zur Sicherstellung eines fairen Wettbewerbs der Dienste auf neuen KI-basierten Plattformen (v.a. PVA) müssen bestehende Instrumente der Plattformregulierung auf den Big-Data-Markt übertra- gen und ggf. weiterentwickelt werden.

7.2 FAZIT UND AUSBLICK

Der deutsche Markt für Onlinemedien steht im Angesicht der Verbreitung von Innovationen um Big Data und Künstlicher Intelligenz vor einem spannenden Paradigmenwechsel. Die Anzahl von ver- fügbaren Daten wächst durch die Digitalisierung aller Lebensbereiche extrem stark an. Durch die starke Penetration von Mobilen Endgeräten und die quasi ubiquitäre Anbindung ans Internet ge- langen die meisten Datensets online. Bis 2025 erwarten Analysten einen Anstieg auf 180 Zettabytes an für Unternehmen verfügbaren Daten (von rd. 10 Zettabytes in 2015). Stärkster Treiber sind dabei vernetzte Mobilgeräte, Wearables, Haushaltsgegenstände und Fahrzeuge, die bis 2025 ein Volumen von 80 Mrd. Einheiten erreichen sollten. Durch die massenhafte Aggregation und Auswertung die- ser Daten wird es Medienunternehmen möglich, die Herstellung ihrer Inhalte in einem bisher un- gekannten Maßstab zu automatisieren, inhaltlich mit Datenanalysen aufzuwerten und sie in neue informationsjournalistische Formate einfließen zu lassen. Werbungtreibende profitieren bei der Im- plementierung von Big Data in Marketingprozesse nicht nur von der erhöhten Präzision bei der Analyse, Individualisierung und Ansprache der Zielgruppen, sondern auch von neuen Distributions- kanälen wie PVA, Chatbots und Programmatic Advertising. Insgesamt wird bis 2020 erwartet, dass das Umsatzvolumen von Big-Data-Lösungen in Deutschland eine Größe von rd. 3,75 Mrd. Euro er- reicht. 61 Prozent dieses Umsatzes sollen vor allem durch Dienstleistungen erwirtschaftet werden.

365 US Senat, Bundesregierung, TAB, Heiko Maas etc.

111

Es ist zu erwarten, dass vor allem die innerbetriebliche Optimierung von Prozessen die Medienbran- che nachhaltig verändern wird. Im Rahmen der Marktanalyse zeichnet sich ab, dass durch die neuen Big-Data- und KI-Schlüsselressourcen sowie Schlüsselaktivitäten (Online-)Medien sich im Prozess einer organisationalen Transformation vom geschlossenen Content-Produzenten zum dezentralen, KI-assistierten Content-Intermediären befinden. Natürlich findet die Erstellung von Inhalten wie Texten, Videos, Musik oder 3D-Ressourcen noch innerhalb von räumlich abgegrenzten Redaktio- nen, Tonstudios oder Entwicklerräumen statt. Doch diese Prozesse erfahren nicht nur eine sich im- mer deutlicher zuspitzende Desintermediation bei der Ausspielung der Inhalte in Form von z.B. Facebook Instant Articles oder Googles News Plattform, sondern auch der Prozess der Erstellung wird, wie in Kapitel 5 aufgezeigt, systematisch dezentralisiert und kann automatisiert durch (von Drittanbietern zugekaufte) algorithmische Dienstleistungen ausgeführt werden. A priori ist diese Entwicklung nicht als problematisch einzustufen, da diese Prozesse zum Zwecke der Produktopti- mierung und Gewinnmaximierung in Unternehmen implementiert werden können, um Arbeitneh- mer zu entlasten und ihnen repetitive Abläufe zu ersparen. Laut Prognosen besteht in Deutschland ein Automatisierungspotential von rd. 46 Prozent der Prozesse über alle Industrien hinweg.

Perspektivisch wird die Ausbildung dieser neuen Strukturen in der Medienbranche erst dann wirk- lich kritisch, wenn die öffentliche Meinungsbildung und die publizistische Vielfalt potentiell von automatisierten Entscheidungen beeinflusst werden können, die nicht systematisch nachvollziehbar sind. Die Vorgehensweise von proprietären Algorithmen und vor allem von komplexen Anordnun- gen von KNN, wie etwa dem Deep Learning, unterliegen keiner Aufsicht und sind anfällig für Ver- zerrungen durch ihre Trainingsdaten. Unwillentlich können auf diesem Wege systematische Fehler und diskriminierende Tendenzen auf die Resultate der Analysen übertragen werden.

Auch algorithmische Auswahl- und Empfehlungsprozesse, die zu einem festen Bestandteil im Markt für der Onlinemedien avanciert sind, stehen unter dem Verdacht, Filter Blasen zu bilden und die öffentliche Meinung zu beeinflussen. Im Falle dieser algorithmischen Entscheidungsfindung handelt es sich bei den meisten ADM-Prozessen um die Methode des Supervised Learning, bei der der Dateninput aus den Handlungen von Menschen stammt. Diese Methode wird bei Anbietern wie Netflix, Spotify oder Amazon für analytische Inhaltsfindung benutzt, um Assoziationsregeln zu for- mulieren, aus denen Korrelationen berechnet werden, welche Produkte oder Medien einem Nutzer empfohlen werden. Dies bedeutet im Umkehrschluss, dass die Künstliche Intelligenz weder auto- nom handeln, noch von Drittgruppen aktiv beeinflusst werden kann.

Aufgrund der hohen Marktakzeptanz von ADM-Prozessen unter Nutzern der jeweiligen Dienste und der starken Marktpenetration von populären Onlinemedien-Plattformen und sozialen Netz- werken werden Algorithmen sich immer stärker in allen Bereichen der Medienbranche ausbreiten. Besonders in der Werbeindustrie ist zu erwarten, dass Algorithmen die Werbeplanung, -buchung und -kreation stärker automatisieren werden. Durch die Optimierung von Preisgebungsverfahren und Präzisierung der Kundenprofile durch Big-Data-Analysen prognostiziert der Branchenverband BVDW, dass der Nettowerbeumsatz im Programmatic Advertising 2017 rd. zwei Mrd. Euro erreicht, indem er das dritte Jahr in Folge stärker wächst als die Jahre davor. Es zeichnet sich ab, dass neben der Automatisierung traditioneller Werbeauktionsverfahren vor allem Personalisierung für Wer- bungtreibende in naher Zukunft der zentrale Umsatztreiber sein wird. Mit Hilfe von IoT-Sensordaten und Big-Data-gestützter Mustererkennung wird es möglich, den situativen Kontext eines jeden Werbekunden zu analysieren, seine Interessen auf Basis seiner Echtzeit-Interaktionen zu bestimmen und abhängig von seiner geografischen Lage Werbung auf Basis seiner eruierten Bedürfnisse adap- tiert auszuspielen.

112

Weniger erfolgsversprechend erscheint die zukünftige Integration von standardisierten Chatbot- Plattformen in den Marketing-Mix. Als autonome Agenten im Zuge des Customer-Relationship- Managements werden Chatbots schon länger erfolgreich eingesetzt, um Kunden simple Fragen zu beantworten oder diese an Service-Mitarbeiter weiterzuleiten. Doch im Einsatz als Konversations- kanal für den Vertrieb von Waren oder Dienstleistungen an Privatpersonen zeichnet sich ab, dass Chatbots nicht die an sie gerichteten Anforderungen in Bezug auf automatisierte Kundenkommu- nikation erfüllen können. 2016 gab bei mehreren separaten Befragungen fast jeder zweite Nutzer an, Chatbots ungern zu nutzen. So gaben rd. 71 Prozent aller deutschen Internetznutzer ab 18 Jah- ren an, dass sie Chatbots nicht nutzen möchten, und 46 Prozent wussten nicht, was Chatbots über- haupt sind. Zentrale Kritikpunkte sind dabei das abrupte Abbrechen der Konversation mit einem Bot, wenn dieser die textuelle oder sprachliche Eingabe nicht versteht, sowie Sicherheitsbedenken. Denn durch den Einsatz von Social Bots (einer spezifischen Variante von Chatbots) für die gezielte Manipulation von Meinungen in sozialen Netzwerken während politischer Großereignisse haben Bot-Plattformen enorm an Vertrauen eingebüßt. Potentiell erfolgreicher gestaltet sich die Integra- tion von Chatbots in B2B-Prozesse in Form von virtuellen Assistenten und Agenten, die sehr simple Aufgaben in sehr großem Umfang und auf Befehl ausführen können.

Der Markteinfluss von fortgeschrittenen Bot-Plattformen wie Personal Voice Assistants entwickelt sich dagegen deutlich positiver. Die Mehrheit der deutschen PVA-Nutzer empfindet die ständige Verfügbarkeit und die bequeme Steuerung per Sprache als sehr nützlich. Aufgrund des enormen Ressourceneinsatzes von Seiten der Technologiekonzerne brechen die Konversationen mit PVA durch den Einsatz von NLP-Methoden nicht so einfach ab wie mit Chatbots und bieten damit ein zufriedenstellendes Erlebnis. Hinter den hohen Entwicklungskosten steht jedoch die Kalkulation, dass PVA nicht nur als persönliche Assistenten gebraucht werden, sondern als Lead-Up-Channels zu einer neuen Form von Akquise- und Vertriebs-Kanal werden. Während des Betriebs sind die beiden in Deutschland erhältlichen Personal Voice Assistants Amazon Alexa und Google Home Mini stets mit dem Internet verbunden und leiten dienstleistungs- und produktbezogene Anfragen der Nutzer an die Onlinemedien- und E-Commerce-Angebote ihrer Hersteller weiter. Die Integration dieser kommerziellen Komponente und die Tatsache, dass nur in den seltensten Fällen mehrere PVA in einem Haushalt parallel verwendet werden, spiegeln die Marktverhältnisse im mobilen App- Markt wider, in dem der Apple App Store und der Google Play Store bisher konkurrenzlos einen marktbeherrschenden Duopol bilden.

Vor dem Hintergrund dieser Ergebnisse und Handlungsempfehlungen lässt sich zusammenfassen, dass Big Data als technologisches Paradigma dabei ist, viele Medienmärkte einem deutlichen Struk- turwandel zu unterwerfen. Obwohl nicht alle Technologien und Methoden, die im Kontext von Big Data eingesetzt werden, eine klare Marktreife erreicht haben, wird deutlich, dass in naher Zukunft vor allem Künstliche Intelligenz und Natural Language Processing in der Wertschöpfungskette einer Mehrheit von deutschen Medienunternehmen Einsatz finden werden. Das ökonomische Umsatz- potential der Automatisierung von standardisierten Aufgaben wie informationsjournalistischer Tex- terstellung über die Kreation automatisierter Werbung bis hin zu autonomen Vertriebskanälen ist zu lukrativ, als dass Unternehmen es wegen Datensicherheitsbedenken oder technologischer Schwächen vernachlässigen würden. Die flexible Skalierung der Big-Data-Infrastruktur macht dabei großflächige Analyseprozesse für viele Unternehmen ökonomisch plausibel und sogar notwendig, wenn es darum geht, Wachstumsimpulse effizient umzusetzen.

Auffällig erscheint jedoch, dass Big Data vor allem auf der Seite von Unternehmen stärkere Adap- tation erfährt als im Privatkundensegment. Das Investment in Big Data und KI-Start-ups betrug

113

alleine im Jahr 2016 rd. fünf Mrd. US-Dollar (und damit fast doppelt so viel wie im Vorjahr). Als Gründe für diese Entwicklung lässt sich die ökonomische Effizienz von Problemlösungs- und Mus- tererkennungsvorgängen anführen. Privatkunden stehen dagegen nicht unter einem wirtschaftli- chen Druck, neue Technologien adaptieren zu müssen, und reagieren demnach sensibler auf Tech- nologien, die nicht komplett ausgereift sind. Doch trotz der niedrigen Nutzerakzeptanz und wider alle arbeitsethischen Bedenken zeichnet sich ab, dass der deutsche Onlinemedien-Markt im Zuge der fortschreitenden Digitalisierung Big-Data-Prozesse noch stärker in organisationale Strukturen integrieren wird. Das Disruptionspotential dieser Technologie gestaltet sich zwar nicht so stark wie einst das des Internets, doch die digitale Medienlandschaft wird komplett ohne die Big-Data-Tech- nologien nicht auskommen können und sich kontinuierlich verändern müssen.

114

8 LITERATUR UND QUELLEN

Abiteboul, S./ Hull, R. [1986]: „Restructuring hierarchical database objects", in: „Theoretical Computer Science", Vol. 62(1-2) Absatzwirtschaft [2015]: „Werbebudgets verlagern sich in Richtung Programmatic – zulasten des TV", Absatzwirt- schaft, online: www.absatzwirtschaft.de/werbebudgets-verlagern-sich-in-richtung-programmatic-zulas-ten-des- tv-55745/ letzter Zugriff: 26.02.2018 Acxiom Deutschland GmbH [o. D.]: „Analytisches CRM/Customer Insights“, Acxiom Deutschland GmbH, online: www.acxiom.de/analytisches-crmcustomer-insights/ letzter Zugriff: 27.02.2018 Adar, E./ Gearig, C./ Balasubramanian, A./ Hullman, J. [2017]: „PersaLog: Personalization of News Article Content“, in: „Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems“, New York: ACM, S. 3188- 3200 Ahlers, Birgit [2016]: "Was ist ein Sales funnel?", Vertriebszeitung, online: https://vertriebszeitung.de/ist-ein-ver- triebsfunnel/ letzter Zugriff: 20.02.2018 Aiello, L. M./ Deplano, M./ Schifanella, R./ Ruffo, G. [2012]: „People are Strange when you're a Stranger: Impact and Influence of Bots on Social Networks“, in: „Proceedings of the Sixth International AAAI Conference on Weblogs and Social Media“, S.10-17 AirPR [2018], online: https://airpr.com/ letzter Zugriff: 23.01.2018 Akst, D. [2013]: „Automation Anxiety“, online: http://archive.wilsonquarterly.com/sites/default/files/articles/Auto- mationAnxiety.pdf letzter Zugriff: 17.11.2017 Albrecht, R. [2017]: „Algorithmen und Big Data fühlen nicht", Bilanz - Das deutsche Wirtschaftsmagazin, online: https://www.welt.de/wirtschaft/bilanz/article164880307/Algorithmen-und-Big-Data-fuehlen-nicht.html letzter Zugriff: 12.02.2018 Alda [2018]: „Alda. Alda is a text-based programming language for music composition”, online: https://alda.io/ letzter Zugriff: 10.01.2018 AlgStrOeff [2018]: „Algorithmischer Strukturwandel der Öffentlichkeit. Chancen und Risiken der Informations- und Kommunikationstechnologien für die Entwicklung der politischen Informationskompetenz“, online: https://www.algstroeff.de/ Letzter Zugriff: 05.01.2018 Alpine.AI [2017]: „The 2017 Voice Report by Alpine (fka VoiceLabs)", nach: CIRP, KPCB und InfoScout (2017), online: https://alpine.ai/2017/01/15/the-2017-voice-report-by-alpine/ letzter Zugriff: 16.02.2018 Altmeppen, K.-D. [1996]: „Medien und Ökonomie – Medienökonomie“, in: Altmeppen, K.-D. (Hrsg.): „Ökonomie der Medien und des Mediensystems. Grundlagen, Ergebnisse und Perspektiven medienökonomischer Forschung“, Opladen: Westdeutscher Verlag, S. 9-24 Alvarez-Melis, D./ Jaakkola, T.S. [2017]: „A causal framework for explaining the predictions of black-box sequence-to- sequence models", MIT, online: http://people.csail.mit.edu/tommi/papers/AlvJaa_EMNLP2017.pdf letzter Zugriff: 20.02.2018 Amazon Mechanical Turk [2018], online: https://www.mturk.com/ letzter Zugriff: 26.02.2018 Amini, L. [2016]: „Making ‘Cognitive Music’ with IBM Watson”, online: https://www.ibm.com/blogs/think/2016/10/watson-music/ letzter Zugriff: 10.01.2018 Anders, G. [2017]: „Alexa, Understand Me”, online: https://www.technologyreview.com/s/608571/alexa-understand- me/ letzter Zugriff: 17.11.2017 Angwin, J. [2016]: „Facebook Doesn’t Tell Users Everything It Really Knows About Them“, ProPublica, online: www.propublica.org/article/facebook-doesnt-tell-users-everything-it-re- ally-knows-about-them letzter Zugriff: 20.02.2018 Armbruster, A. [2017]: „Künstliche Intelligenz: Ein Wettlauf wie im Kalten Krieg", Frankfurter Allgemeine Zeitung, on- line: http://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/kuenstliche-intelligenz-wer-gewinnt-den- wettlauf-usa-oder-china-15284415.html letzter Zugriff: 20.02.2018 Arnold, K. [2009]: „Qualitätsjournalismus. Die Zeitung und ihr Publikum“, Konstanz: UVK

115

Aron, J. [2011]: „Software ticks people into thinking it is human“, online: https://www.newscientist.com/arti- cle/dn20865-software-tricks-people-into-thinking-it-is-human/ letzter Zugriff: 16.11.2017 Artech Technologies AG [2018]: „VCA - Die intelligente Videoanalyse. MULTIEYE VCA Videoanalyse“, online: https://www.artec.de/de/produkte/multieye/vca-die-intelligente-videoanalyse.html letzter Zugriff: 10.01.2018 Atkins, C./ de Uster, M./ Mahdavian, M./ Yee, L. [2016]: „Unlocking the power of data in sales”, online: https://www.mckinsey.it/file/6741/download?token=QeV5tdc7 letzter Zugriff: 05.01.2018 Auerbach, D. [2015]: „The Programs That Become the Programmers“, online: http://www.slate.com/articles/technol- ogy/bitwise/2015/09/pedro_domingos_master_algorithm_how_machine_learning_is_reshaping_how_we.html letzter Zugriff: 17.11.2017 Austin, D. [2017]: „How Amazon’s Alexa hooks you“, online: https://venturebeat.com/2017/06/27/how-amazons- alexa-hooks-you/ letzter Zugriff: 17.11.2017 Avid Sibelius First [2018]: „Musik-Komposition beginnt hier“, online: http://www.avid.com/de/sibelius-first letzter Zugriff: 10.01.2018 AX Semantics [2017]: „AX Semantics Inputraster in drei Sprachen und Beispielartikel", online: https://www.ax-seman- tics.com/de/nlg-cloud.html letzter Zugriff: 15.11.2017 AZ Direct GmbH [o. D.]: „Adressqualifizierung – erfahren, was Kunden bewegt“, AZ Direct GgmbH, online: www.az- direct.com/site/information-services/daten-lizen- zen/az-dias-profildaten/ letzter Zugriff: 27.02.2018 Bachman, C. W. [1973]: „The programmer as navigator.", in: „Communications of the ACM," Vol. 16(11) Bakker, P. [2012]: „Aggregation, Content Farms and Huffinization, The rise of low-pay and nopay journalism“, in: „Journalism Practice“, Vol. 6: 5-6, S. 627-737 Ball, J. [2014]: „The Upshot, Vox and FiveThirtyEight: data journalism's golden age, or TMI?", The Guardian, online: https://www.theguardian.com/commentisfree/2014/apr/22/upshot-vox-fivethirtyeight-data-journalism- golden-age letzter Zugriff: 27.02.2018 Ballein, M. [2017]: „Spotify im Test: Der Platzhirsch im Musik-Streaming-Markt. Was die Musik-Flatrate aktuell zu bie- ten hat“, online: https://www.netzwelt.de/spotify/testbericht.html#empfehlungssystem-soziale-netzwerke letz- ter Zugriff: 05.01.2018 Baoding, L. [2009]: „Theory and Practice of Uncertain Programming", Springer-Verlag Berlin Heidelberg, 2. Aufl. BARC [2015]: „Big Data Use Cases: Getting Real On Data Monetization", BARC GmbH Umfrage, online: https://www.sas.com/content/dam/SAS/bp_de/doc/studie/ba-st-barc-bigdata-use-cases-de-2359583.pdf letz- ter Zugriff: 12.02.2018 Barzilai-Nahon, K./ Neumann, S. [2005]: „Gatekeeping in Networks: A Meta-Theoretical Framework For Exploring In- formation Control“, in: „Journal of Association of Information Systems Sponsored Theory Development Work- shop in ICIS“, Las Vegas, S. 1-29, online: https://pdfs.seman- ticscholar.org/c577/2b3a9dd0f4a5e780b580d8c0e2c8ba6bf841.pdf letzter Zugriff: 16.11.2017 Basharin, G. P./ Langville, A. N./ Naumov, V. A. [2004]: „The life and work of A.A. Markov", in: "Linear Algebra and its Applications", Vol. 386 Basheer, I. A./ Hajmeer, M. [2000]: „Artificial neural networks: fundamentals, computing, design, and application", in: „Journal of microbiological methods", Vol. 43(1) Bateman, J./ Zock, M. [2003]: "Natural language generation.”, in: The Oxford Handbook of Computational Linguistics, S. 5f. Batista, N.C./ Melício. R./ Mendes, V.M.F. [2016]: „Services enabler architecture for smart grid and smart living ser- vices providers under industry 4.0", in: „Energy and Buildings", Vol. 141 BDZV (2016): „EU-Datenschutz: Presseverleger sehen Mängel in neuer Verordnung", BDZV, online: http://www.bdzv.de/nachrichten-und-service/presse/pressemitteilungen/artikel/detail/eu_datenschutz_pres- severleger_sehen_maengel_in_neuer_verordnung/ letzter Zugriff: 13.04.2018 Bell, E. [2016]: „As publishers lose control, are newspaper websites a dead parrot?“, online: http://www.theguard- ian.com/media/2016/feb/21/publishers-adblocking-advertising-mobile letzter Zugriff: 17.11.2017 Berkel, B. [2006]: „Konflikt als Motor europäischer Öffentlichkeit: eine Inhaltsanalyse von Tageszeitungen in Deutsch- land, Frankreich, Großbritannien und Österreich“, Wiesbaden: VS Verlag für Sozialwissenschaften

116

Bessi, A./ Ferrara, E. [2016]: „Social bots distort the 2016 U.S. Presidential election online discussion“, in: First Mon- day, 21(11) online: from http://firstmonday.org/ojs/index.php/fm/arti-cle/view/7090/5653 letzter Zugriff: 16.11.2017 Beuth, P. [2017a]: „Algorithmen. Maas schlägt digitales Antidiskriminierungsgesetz vor“, online: http://www.zeit.de/digital/internet/2017-07/heiko-maas-algorithmen-regulierung-antidiskriminierungsge- setz/komplettansicht letzter Zugriff: 05.01.2018 Beuth, P. [2017b]: „Die rätselhafte Gedankenwelt eines Computers", Zeit Online, online: http://www.zeit.de/digi- tal/internet/2017-03/kuenstliche-intelligenz-black-box-transparenz-fraunhofer-hhi-darpa Letzter Zugriff: 20.02.2018 BfDI [o. D.]: „Adresshandel und unerwünschte Werbung", BfDI Informationsbroschüre Bhaskar, M. [2017]: „Curation“, London: Piatkus Books Bilenko, M./ Richardson, M. [2011]: „Predictive client-side profiles for personalized advertising.", in: „Proceedings of the 17th ACM SIGKDD international conference on knowledge discovery and data mining ACM” Binder, A./ Montavon, G./ Bach, S./ Müller, K.-R./ Samek, W. [2016]: „Layer-wise Relevance Propagation for Neural Networks with Local Renormalization Layers", in: „ICANN 2016: Artificial Neural Networks and Machine Learning – ICANN 2016", S. 63-71, arXiv:1604.00825v1 Bishop, C. M. [1995]: „Neural Networks for Pattern Recognition”, Oxford: Clarendon Press Bishop, C. M. [2006]: „Pattern recognition and machine learning“, New York: Springer BITKOM [2013]: „Demokratie 3.0. Die Bedeutung des Internets für politische Meinungsbildung und Partizipation von Bürgern - Ergebnisse einer repräsentativen Befragung von Wahlberechtigten in Deutschland“, online: https://www.bitkom.org/noindex/Publikationen/2013/Studien/Studie-Demokratie-3-0/BITKOM-Studie-Demo- kratie-30.pdf letzter Zugriff: 16.11.2017 BITKOM [2016a]: „Für welche Bereiche könnten Sie sich den Einsatz von Chatbots vorstellen?", in: Statista.de, online: https://de.statista.com/statistik/daten/studie/660267/umfrage/umfrage-zu-einsatzmoeglichkeiten-von-chat- bots-in-deutschland/ letzter Zugriff: 23.01.2018 BITKOM [2016b]: „Warum wollen Sie keine Chatbots nutzen?", n = 1.005, Deutsche Onlinenutzer ab 14 Jahren, Sta- tista.de, online: https://de.statista.com/statistik/daten/studie/660281/umfrage/umfrage-zu-gruenden-gegen- die-nutzung-von-chatbots-in-deutschland/ letzter Zugriff: 23.01.2018 Boden, C./ Fischer, J./ Herbig, K./ Liebe, J./ Sinning, H. [2006]: „Chatbots als Instrument der Planungskommunikation- Chancen, Anforderungen und Perspektiven“, in: „GI Jahrestagung“, Vol. 93, S. 433-442 Bojarski, M./ Yeres, P./ Choromanaska, A./ Choromanski, K./ Firner, B./ Jackel, L./ Muller, U. [2017]: „Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car", arXiv:1704.07911v1 Bollier, D./ Firestone, C. M. [2010]: „The promise and peril of big data", Washington, DC: Aspen Institute, Communica- tions and Society Program Bond, A.H./ Gasser, L. (Hrsg.) [2014]: „Readings in distributed artificial intelligence" Morgan Kaufmann Borth, D./ Ulges, A./ Schulze, C./ Breuel, T. [2009]: Keyframe Extraktion für Video-Annotation und Video-Zusammen- fassung. Informatik-Spektrum, Vol (32(1), S. 50-53, doi: 10.1007/s00287-008-0264-y Botteri, P. [2008]: „Measuring sales and marketing effectiveness of SaaS companies: The CAC Ratio", Accel Partners, online: http://cracking-the-code.blogspot.de/2008/03/measuring-sales-and-marketing.html letzter Zugriff: 23.01.2018 Boutin, P. [2017]: „Why Most Chatbots Fail - Forrester report lists three big mistakes", Chatbot Magazine, online: https://chatbotsmagazine.com/why-most-chatbots-fail-1c085b74d6ad letzter Zugriff: 26.02.2018 Boxell, L./Gentzkow, M./Shapiro, J. [2017]: „Greater Internet use is not associated with faster growth in political po- larization among US demographic groups. Proceedings of the National Academy of Sciences of the United States of America”, Vol. 114 (40), S. 10612-10617 Brosey, M./ Shneiderman, B. [1978]: „Two experimental comparisons of relational and hierarchical database models", in: „International Journal of Man-Machine Studies", Vol. 10(6) Brühl, J. [2017]: „Können Parteien mit personalisierter Werbung die Wahl manipulieren?“, on-line: http://www.sued- deutsche.de/digital/wahlkampf-in-sozialen-medien-koennen-parteien-mit-personalisierter-werbung-die-wahl- manipulieren-1.3581781 letzter Zugriff: 16.11.2017

117

Brühl, J./ Brunner, K./ Ebitsch, S. [2017]: „Der Facebook-Faktor. Wie das soziale Netzwerk die Wahl beeinflusst“, on- line: http://gfx.sueddeutsche.de/apps/e502288/www/ letzter Zugriff: 16.11.2017 Brunner, K./ Ebitsch, S. [2017]: „Was links und rechts verbindet - und trennt“, online: http://www.sueddeut- sche.de/digital/der-facebook-faktor-was-links-und-rechts-verbindet-und-trennt-1.3474020 letzter Zugriff: 16.11.2017 Bucher, T. [2017]: „,Machines don’t have instincts’: Articulating the computational in journalism“, in: „New Media & Society“, Vol. 19(6), S. 918-933 Bundesagentur für Arbeit [o. D.]: „Typisch Ich - What’sMeBot“, online: http://dasbringtmichweiter.de/ty- pischich/whatsmebot/ letzter Zugriff: 16.11.2017 Bundesministerium für Justiz und Verbraucherschutz [2017]: „Verbesserung der Rechtsdurch-setzung in sozialen Netz- werken“, online: http://www.bmjv.de/SharedDocs/Artikel/DE/2017/04052017_NetzDG.html letzter Zugriff: 17.11.2017 Burgess, J./ Bruns, A. [2015]: „Easy Data, Hard Data: The Politics and Pragmatics of Twitter Research After the Compu- tational Turn“, in: Langlois, G. (Hrsg.), Redden, J., & Elmer, G., „Compromised Data. From Social Media to Big Data“, New York: Bloomsbury Academic Business Insider [2016]: „Chatbot revenue is on the upswing", Business Insider Intelligence, nach: McKinsey (2016), online: http://www.businessinsider.com/chatbot-revenue-is-on-the-upswing-2017-3 letzter Zugriff: 15.11.2017 Buxton, Madeline [2018]: „Writing For Alexa Becomes More Complicated In The #MeToo Era", Refinery29, online: http://www.refinery29.com/2017/12/184496/amazo-alexa-personality-me-too-era letzter Zugriff: 20.02.2018 BvD-News [2015]: „Das große Erwachen. Was ist von so genannten Social-Scoring-Unternehmen zu halten", in: „BvD- News", Vol. 1/2015 BVDW [2015]: „Browsercookies und alternative Tracking-Technologien", BVDW White Paper BVDW [2012]: „Whitepaper Webanalyse und Datenschutz", BVDW White Paper, online: https://www.adzine.de/2012/07/whitepaper-zu-datenschutz-und-webanalyse-web-analytics/ letzter Zugriff: 19.01.2018 Cain Miller, C. [2015]: „When Algorithms Discriminate“, The New York Times, online: https://www.ny- times.com/2015/07/10/upshot/when-algorithms-discriminate.html?_r=0 letzter Zugriff: 16.11.2017 Calin, M./ Dellarocas, C./ Palme, E./ Sutanto, J. [2013]: „Attention allocation in information rich environments: The case of news aggregators“, in: „Boston University School of Management Research Paper Series“, Vol. 2013 (4) Carlson, M. [2015]: „The robotic reporter: Automated journalism and the redefinition of labor, compositional forms, and journalistic authority“, in: „Digital Journalism“, Vol. 3(3), 416-431 Castendyk, O./ Müller-Lietzkow, J. [2017]: „Abschlussbericht zur Studie: Die Computer- und Videospielindustrie in Deutschland. Daten – Fakten – Analysen“, online: http://docs.dpaq.de/13008-abschlussbericht_games-stu- die_v1.0_2017-11-28.pdf letzter Zugriff: 10.01.2018 CB Insights [2016]: „The 2016 AI Recap: Startups See Record High In Deals And Funding“, CB Insights Report, online: https://www.cbinsights.com/research/artificial-intelligence-startup-funding/ letzter Zugriff: 27.02.2018 CDU [2017]: „Der CDU ChatBot“, online: http://fb.com/msg/csu letzter Zugriff: 16.11.2017 Cellan-Jones, R. [2017]: „Google DeepMind: AI becomes more alien", BBC News, online: http://www.bbc.com/news/technology-41668701 letzter Zugriff: 19.01.2018 chatbot.fail [2018]: „Why Chatbots fail“, online: https://chatbot.fail/, letzter Zugriff: 23.01.2018 Chen, G. M./ Chock, T. M./ Gozigian, H./ Rogers, R./ Sen, A./ Schweisberger, V. N./ Steinhardt, J./ Wang, Yi [2011]: „Personalizing news websites attracts young readers“, News-paper Research Journal, Vol. 32(4), 22-38 Chen, J./Stallaert, J. [2014]: „An economic analysis of online advertising using behavioral targeting”, in: „MIS Quar- terly”, Vol. 38 (2), S. 429-A7 Chen, P. P. S. [1976]: „The entity-relationship model - toward a unified view of data", in: „ACM Transactions on Data- base Systems (TODS)", Vol. 1(1) Chowdhury, G. [2003]: „Natural language processing“, in: „Annual Review of Information Science and Technology“, Vol. 37 Chu, C. T./ Kim, S. K./ Lin, Y. A./ Yu, Y./ Bradski, G./ Olukotun, K./ Ng, A. Y. [2007]: „Map-reduce for machine learning on multicore", in: „Advances in neural information processing systems", S. 281-288

118

Chung, H./ Park, J./ Lee, S. [2017]: „Digital forensic approaches for Amazon Alexa ecosystem“, in: „Digital Investiga- tion“, Volume 22, S. 15-25, online: http://www.sciencedirect.com/science/article/pii/S1742287617301974 letz- ter Zugriff: 17.11.2017 Clematide, S./ Sennrich, R. [2008]: „Einführung in die Computerlinguistik“, Institut für Computerlinguistik der Universi- tät Zürich (Hrsg.), online: https://files.ifi.uzh.ch/cl/siclemat/lehre/hs08/ecl1/script/script.pdf letzter Zugriff: 17.11.2017 Clerwall, C. [2014]: „Enter the Robot Journalist. Users’ perceptions of automated content”, In: „Journalism Practice”, Vol. 8(5), S. 519-531, doi: 10.1080/17512786.2014.883116 Codd, E. F. [1979]: „Extending the database relational model to capture more meaning", in: „ACM Transactions on Database Systems (TODS)", Vol. 4(4), 397ff. Colhoun, D. [2015]: „Is the news behaving more like advertising?“, online: https://www.cjr.org/analysis/news_behav- ing_more_like_advertising.php letzter Zugriff: 17.11.2017 Collective Intelligence [2018]: „What is Collective[i]?", Collectivei.com, online: https://www.collectivei.com/what-is- collectivei/ letzter Zugriff: 26.02.2018 Collins, K./ Buchanan, L. (2018): „How Facebook Lets Brands and Politicians Target You", New York Times, online: https://www.nytimes.com/interactive/2018/04/11/technology/facebook-sells-ads-life-details.html?smid=fb- nytimes&smtyp=cur letzter Zugriff: 13.04.2018 Constine, J. [2014]: „Datalogix Raises $45 Million Series C To Pipe Offline Purchase Data To Facebook And Twitter“, Techcrunch, online: https://techcrunch.com/2014/05/28/offline-purchase-data/ letzter Zugriff: 27.02.2018 Content Blockchain [2018a]: „Building Blocks for the Content Community”, online: https://content-blockchain.org/ letzter Zugriff: 02.02.2017 Content Blockchain [2018b]: „Purpose and benefits of the rights profiles from the Content Blockchain Project”, online: https://content-blockchain.org/newsarchive/2017/09/28/further-development-of-rights-profiles/ letzter Zugriff: 02.02.2017 Content Blockchain [2018c]: „Launch of Content Blockchain Testnet”, online: https://content-blockchain.org/newsar- chive/2017/11/12/content-blockchain-goes-multichain/ letzter Zugriff: 02.02.2017 Contentpepper [2017]: „Welches Potenzial hat die Blockchain Technologie für digitale Content-Distribution?“ Online: https://www.contentmanager.de/cms/contentpepper/welches-potenzial-hat-die-blockchain-technologie-fuer- digitale-content-distribution/ letzter Zugriff: 02.02.2017 Cordova, D. I./ Lepper, M. R. [1996]: „Intrinsic motivation and the process of learning: Beneficial effects of contextual- ization, personalization, and choice“, in: „Journal of educational psychology“, Vol. 88(4), S. 715-730 Cornfield, M. [2004]: „Politics Moves Online: Campaigning and the Internet“, New York: The Century Foundation Press Creditreform Gruppe [o. D.]: „Modulare und wirtschaftliche Bonitätsprodukte“, online: www.boniversum.de/loesun- gen/produkte/ letzter Zugriff: 27.02.2018 Crowdalyzer [2018]: „Crowdalyzer - Ihr digitaler Reporter für Geschichten aus den sozialen Medien“, online: https://www.crowdalyzer.com/ letzter Zugriff: 05.01.2018 Cruz, N. [2017]: „Geovanny Antonio Mendez-Gomez, 24“, online: http://homicide.latimes.com/post/geovanny-an- tonio-mendez-gomez/ letzter Zugriff: 10.01.2018 Dachwitz, I. [2017]: „Wahlkampf in der Grauzone: Die Parteien, das Microtargeting und die Transparenz“, online: https://netzpolitik.org/2017/wahlkampf-in-der-grauzone-die-parteien-das-microtargeting-und-die-transparenz/ letzter Zugriff: 16.11.2017 Dambeck, H. [2014]: „Manipulierte Timeline. Facebook kann auf Gefühle seiner Nutzer einwirken“, online: http://www.spiegel.de/netzwelt/web/facebook-steuert-ueber-manipulierte-timeline-emotionen-seiner-nutzer- a-973132.html letzter Zugriff: 05.01.2018 Dataiku [2018]: „DDS-Online-Plattform", Daitaku.com, online: https://www.dataiku.com letzter Zugriff: 205.01.2018 Datta, A./ Tschantz, M. C./ Datta, A. [2015]: „Automated Experiments on Ad Privacy Settings“, in: „Proceedings on Pri- vacy Enhancing Technologies 2015“, (1), S. 65. DOI: 10.1515/popets-2015-0007 letzter Zugriff: 16.11.2017 Davis, C. A./ Varol, O./ Ferrara, E./ Flammini, A./ Menczer, F. [2016]: „BotOrNot: A System to Evaluate Social Bots“, in: „Proceedings of the 25th International Conference Companion on World Wide Web“, S. 273-274 De Mauro, A./ Greco, M./ Grimaldi, M. [2015]: „What is big data? A consensual definition and a review of key research topics", in: „AIP conference proceedings", Vol. 1644, No. 1, S. 97-104

119

Dean, J./ Ghemawat, S. [2008]: „MapReduce: simplified data processing on large clusters", in: „Communications of the ACM", Vol. 51(1) Decent [2018]: „Where will Decent Take us in 2018?” Online: https://decent.ch/en/where-will-decent-take-us-in- 2018ij/ letzter Zugriff: 02.02.2017 Deloitte [2016]: „Industrielles Internet der Dinge und die Rolle von Telekommunikationsunternehmen. Hype oder ver- netzte Revolution?“ Online: https://www2.deloitte.com/content/dam/Deloitte/de/Documents/technology-me- dia-telecommunications/Deloitte_TMT_Industrielles%20Internet%20der%20Dinge.pdf letzter Zugriff: 10.01.2018 Dengel, A. (Hrsg.) [2012]: „Semantische Technologien: Grundlagen – Konzepte – Anwendungen“, Spektrum Akademi- scher Verlag Heidelberg Der Tagesspiegel [2016]: „Datenschutzbeauftragte warnt vor Amazon Echo“, online: http://www.pressepor- tal.de/pm/2790/3468862 letzter Zugriff: 17.11.2017 Desouza, K./ Krishnamurthy, R. [2017]: „Chatbots move public sector toward artificial intelligence“, online: https://www.brookings.edu/blog/techtank/2017/06/02/chatbots-move-public-sector-towards-artificial-intelli- gence/ letzter Zugriff: 16.11.2017 Deutsche Post AG [2010-2016]: „Dialogmarketing Deutschland 2010-2018“, Dialog Marketing Monitor Studie 22-28. Bonn: Deutsche Post Deutscher Bundestag [2015]: „Gesetz über die politischen Parteien (Parteiengesetz)“, online: https://www.bundes- tag.de/blob/189336/c8a22a376ea9165443a477101f2352dd/pg_pdf-data.pdf letzter Zugriff: 16.11.2017 Deutscher Bundestag [2017a]: „Service: Virtualer Adler“, online: https://adler.bundestag.de/nmIQ/frage.jsp letzter Zugriff: 16.11.2017 Deutscher Bundestag [2017b]: „Wirkung von ‚Social Bots‘ ist unter Sachverständigen strittig“, online: https://www.bundestag.de/dokumente/textarchiv/2017/kw04-pa-bildung-forschung-social-bots/488818 letzter Zugriff: 16.11.2017 DeVito, M. [2017]: „From Editors to Algorithms“, in: „Digital Journalism“, Vol. 5(6), S. 753-773 Dey, N./ Ashour, A./ Nguyen, G. [2016]: „Deep Learning for Multimedia Content Analysis”. In: Mining Multimedia Doc- uments Diakopoulos, N. [2014]: „Algorithmic Accountability: On the Investigation of Black Boxes“, online: https://www.cjr.org/tow_center_reports/algorithmic_accountability_on_the_investiga- tion_of_black_boxes.php letzter Zugriff: 16.11.2017 Diakopoulos, N. [2015]: „Algorithmic Accountability: Journalistic investigation of computational power structures“, in: „Digital Journalism“, Vol. 3(3), S. 398-415 Dick, M. [2016]: „Astroturfing in online comment: An investigation“, in: „Ethical Space: The International Journal of Communication Ethics“, Vol. 13 (1), S. 32-38 Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit [2017]: „Datenschutz kompakt: Digitale Sprachassistenten“, online: https://www.bfdi.bund.de/DE/Home/Kurzmeldungen/DSkompakt_Sprachassisten- ten.html letzter Zugriff: 09.11.2017 Die Medienanstalten [2018]: „Plattformregulierung”, online: https://www.die-medienanstalten.de/themen/platt- formregulierung/ Letzter Zugriff: 26.02.2018 Diffferent Strategieagentur [2015]: „The Programmatic Giant. Einige Chancen sind zu groß, um sie zu verheimlichen“, online: https://a.storyblok.com/f/39919/248ffe02d2/diffferent-whitepaper-the-programmatic-giant.pdf letzter Zugriff: 10.01.2018 Dijcks, J.P. ]2012]: „Oracle: Big data for the enterprise“, Oracle White Paper, online: http://www.oracle.com/us/prod- ucts/database/big-data-for-enterprise-519135.pdf letzter Zugriff: 02.11.2017 Dobusch, L. [2015]: „Projekt ‚aula‘ sucht Schulen, die mit Liquid Democracy experimentieren wollen“, online: https://netzpolitik.org/2015/projekt-aula-sucht-schulen-die-mit-liquid-democracy-experimentieren-wollen/ letzter Zugriff: 05.01.2018 Dobusch, L. [2017]: „Die Organisation der Digitalität: Zwischen grenzenloser Offenheit und offener Exklusion“, online: https://netzpolitik.org/2017/die-organisation-der-digitalitaet-zwischen-grenzenloser-offenheit-und-offener- exklusion/ letzter Zugriff: 05.01.2018 Dörr, K. N. [2016]: „Mapping the field of Algorithmic Journalism“, in: „Digital Journalism“, Vol.4(6), S. 700-722

120

Dörr, K. N./ Hollnbuchner, K. [2016]: „Ethical Challenges of Algorithmic Journalism“, in: „Digital Journalism“, Vol. 5(4), S. 404-419 Dörr, K. N./ Köberer, N./ Haim, M. [2017]: „Normative Qualitätsansprüche an algorithmischen Journalismus“, in: Fili- povic, A./ Prinzing, M./ Stapf, I. (Hrsg.): „Gesellschaft ohne Diskurs?“, Baden-Baden: Nomos Verlagsgesellschaft mbH & Co. KG, S. 121-134) dpa [2017]: „Facebook. Algorithmen sollen selbstständig ,Fake News‘ erkennen“, online: http://www.handels- blatt.com/technik/it-internet/facebook-algorithmen-sollen-selbststaendig-fake-news-erkennen/20143916.html letzter Zugriff: 05.01.2018 DS-GVO [2017]: „Datenschutz-Grundverordnung DSGVO", online: https://dsgvo-gesetz.de/ letzter Zugriff: 20.02.2018 Duhigg, C. [2012]: How Companies Learn Your Secrets, online: http://www.nytimes.com/2012/02/19/magazine/shop- ping-habits.html?pagewanted=1&_r=1&hp letzter Zugriff: 05.01.2018 Easwara Moorthy, A./ Vu, K.-P. L. [2015]: „Privacy Concerns for Use of Voice Activated Personal Assistant in the Public Space“, in: „International Journal of Human–Computer Interaction“, Vol. 31(4), S. 307-335 Ecke, O. [2016]: „Wie häufig und wofür werden Intermediäre genutzt? Die quantitative Perspektive der Zusatzbefra- gung in der MedienGewichtungsStudie“, online: https://www.die-medienanstalten.de/fileadmin/user_up- load/Veranstaltungen/2016/2016_11_30_Intermediaere_und_Meinungsbildung/TNS_Intermediaere_und_Mei- nungsbildung_Praesi_Web_Mappe.pdf letzter Zugriff: 05.01.2018 Eddy, S. R. [1998]: „Profile hidden Markov models.", in: „Bioinformatics", England: Oxford, Vol. 14(9) Eder, K. [2000]: „Zur Transformation nationalstaatlicher Öffentlichkeit in Europa. Von der Sprachgemeinschaft zur issuespezifischen Kommunikationsgemeinschaft“, in: „Berliner Journal für Soziologie“, Vol. 10, S. 167-184 Ekin, A./ Tekalp, A./ Mehrotra, R. [2003]: “Automatic Soccer Video Analysis and Summarization”. in “IEEE Transactions on Image Processing”, Vol. 12(7), S. 796-807, doi: 10.1109/TIP.2003.812758 eMarketer [2017]: „Alexa, Say What?! Voice-Enabled Speaker Usage to Grow Nearly 130% This Year", eMarketer Re- search, online: https://www.emarketer.com/Article/Alexa-Say-What-Voice-Enabled-Speaker-Usage-Grow- Nearly-130-This-Year/1015812 letzter Zugriff: 19.02.2018 EMR - Europäisches Institut für Medienrecht [2018]: Synopse zu den geplanten Änderungen landesrechtlicher Rege- lungen zur Umsetzung des 21. RÄndStV und der DS-GVO. Ein Beitrag des Instituts für Europäisches Medienrecht aus Anlass der aktuellen Gesetzgebungsverfahren in den Landesparlamenten. Saarbrücken. Unter: http://emr- sb.de/synopse-zur-umsetzung-des-21-rundfunkaenderungsstaatsvertrages-und-der-datenschutz-grundverord- nung-der-eu/ , Letzter Zugriff: 16.04.2018 Entwickler.de [2009]: „Lucene – Ein Suchindex in der Praxis", online: https://entwickler.de/online/lucene-ein-suchin- dex-in-der-praxis-129799.html letzter Zugriff: 18.01.2018 Erwin, T./ Heidlkamp, P./ Pols, A. [2016]: „Mit Daten Werte Schaffen 2016", KMPG/BITKOM Research Studie, S. 5 Eyal, N. [2014]: „Hooked: Wie Sie Produkte erschaffen, die süchtig machen“, München: Redline Verlag Facebook [2015]: „Mehr Kontrolle über den News Feed“, online: https://de.newsroom.fb.com/news/2015/07/mehr- kontrolle-uber-den-news-feed/ Letzter Zugriff: 05.01.2018 Facebook [2017a]: „Facebook bedankt sich bei 2 Milliarden monatlich aktiven Menschen“, online: https://de.news- room.fb.com/news/2017/06/facebook-bedankt-sich-bei-2-milliarden-monatlich-aktiven-menschen/ Letzter Zu- griff: 05.01.2018 Facebook [2017b]: „Umgang mit Falschmeldungen", Facebook newsroom, online: https://de.news- room.fb.com/news/2017/01/umgang-mit-falschmeldungen/ letzter Zugriff: 20.02.2018 Fanta, A. [2017]: „Putting Europe’s Robots on the Map: Automated journalism in news agencies“, Reuters Institute Fellowship Paper, Oxford, UK, online: http://reutersinstitute.politics.ox.ac.uk/our-research/putting-europes- robots-mapautomated-journalism-news-agencies letzter Zugriff: 17.11.2017 Ferdinand, J.-P./ Jetzke, T. [2017]: „Voice Computing – allgegenwärtige Spracherkennung“, Büro für Technikfolgen- Abschätzung beim Deutschen Bundestag, online: http://www.tab-beim-bundestag.de/de/pdf/publikatio- nen/themenprofile/Themenkurzprofil-015.pdf letzter Zugriff: 09.11.2017 Ferrara, E./ Varol, O./ Davis, C./ Menczer, F./ Flammini, A. [2017]: „The rise of social bots“, in: „Communications of the ACM“, Vol. 59 (7), S.96-104 Fiegermann, S. [2018]: „Facebook to shut down M, its personal assistant", CNN Money, online: http://money.cnn.com/2018/01/08/technology/facebook-m-shuts-down/index.html letzter Zugriff: 23.01.2018

121

Fingas, J. [2017]: „Apple's AI acquisition could help Siri make sense of your data“, online: https://en- gadget.com/2017/05/13 letzter Zugriff: 17.11.2017 Finger, L. [2015]: „Do Evil - The Business Of Social Media Bots“, in: Forbes Magazine, online: https://www.forbes.com/sites/lutzfinger/2015/02/17/do-evil-the-business-of-social-media- bots/#77e65d19fb58 letzter Zugriff: 16.11.2017 Fitschen & Maaß Consulting [2017]: „Chatbots und Social bots", Report für die Developer Week, Neue Mediengesell- schaft Ulm Fletcher, R./ Nielsen, R. K. [2016]: „Is social media use associated with more or less diverse news use?“, Reuters Insti- tute of Journalism, online: https://rasmuskleisnielsen.net/2016/11/25/is-social-media-use-associated-with- more-or-less-diverse-news-use/ letzter Zugriff: 16.11.2017 Fluid.AI [2018], „All that works for you”, online: http://fluid.ai/index.php letzter Zugriff: 26.02.2018 Forelle, M./ Howard, P./ Monroy-Hernández, A./ Savage, S. [2015]: „Political Bots and the Manipulation of Public Opinion in Venezuela“, in: „SSRN Electronic Journal“, online: https://pa-pers.ssrn.com/sol3/papers.cfm?ab- stract_id=2635800 letzter Zugriff: 16.11.2017 Frank, B.H. [2017]: „Google Brain chief: Deep learning takes at least 100,000 examples", Venturebeat, online: https://venturebeat.com/2017/10/23/google-brain-chief-says-100000-examples-is-enough-data-for-deep- learning/ letzter Zugriff: 19.01.2018 Freedom House [2017]: „Freedom on the Net 2017 - Manipulating Social Media to Undermine Democracy", Freedom House, online: https://freedomhouse.org/report/freedom-net/freedom-net-2017 letzter Zugriff: 20.02.2018 Fröhlich, C. [2016]: Empfehlung des Algorithmus. Netflix weiß, was ich gucken will? Von wegen! Online: https://www.stern.de/digital/online/netflix--der-algorithmus-ist-einfach-nicht-clever-genug-7072324.html letz- ter Zugriff: 05.01.2018 Fuchs, M. [2016]: „Roboter manipulieren den Wahlkampf“, MDR.de, online: http://www.mdr.de/nachrichten/poli- tik/inland/social-bots-twitter-afd-spd-100.html letzter Zugriff: 16.11.2017 Fuchs, M. [2017]: „Bundestagswahl: Chatbots und Tinder sind die neuen Wahlhelfer“, online: https://www.nzz.ch/in- ternational/chatbots-und-tinder-sind-die-neuen-wahlhelfer-ld.1317126 letzter Zugriff: 16.11.2017 Gada, M. [2017]: “Introducing Video Indexer, a cloud service to unlock insights from your videos”, online: https://az- ure.microsoft.com/de-de/blog/introducing-video-indexer-a-cloud-service-to-unlock-insights-from-your-videos/ letzter Zugriff: 10.01.2018 Gagvani, N. [2008]: “Introduction to video analytics”, online: https://www.eetimes.com/docu- ment.asp?doc_id=1273834 letzter Zugriff: 10.01.2018 Gales, M./ Young, S. [2008]: „The application of hidden Markov models in speech recognition", in: „Foundations and trends in signal processing", Vol. 1(3) Gartner [2015]: “Newsroom. Gartner Says 6.4 Billion Connected ,Things’ Will Be in Use in 2016, Up 30 Percent From 2015”, Online: https://www.gartner.com/newsroom/id/3165317 letzter Zugriff: 10.01.2018 Gartner [2016a]: „Gartner says Digital Assistants will serve as the primary interface to the Connected Home“, online: https://www.gartner.com/newsroom/id/3352117 letzter Zugriff: 17.11.2017 Gartner [2016b]: „Gartner says by 2019, 20 percent of user interactions with smartphones will take place via VPAs“, online: https://www.gartner.com/newsroom/id/3551217 letzter Zugriff: 17.11.2017 Gartner Inc. Customer 360 Summit [2011]: „CRM Strategies and Technologies to Understand, Grow and Manage Cus- tomer Experiences“, Gartner Inc., online: https://www.gartner.com/imagesrv/summits/docs/na/customer- 360/C360_2011_brochure_FINAL.pdf letzter Zugriff: 20.02.2018 Geminn, Christian L. [2016]: „Das Smart Home als Herausforderung für das Datenschutz-recht“, in: „Datenschutz und Datensicherheit“, Vol. 40(9), S. 575-580 Gerhards, J. [2002]: „Das Öffentlichkeitsdefizit der EU im Horizont normativer Öffentlichkeits-theorien“, in: Kaelble, H./ Kirsch, M./ Schmidt-Gernig, A. (Hrsg.): „Transnationale Öffentlichkeiten und Identitäten im 20. Jahrhundert“, Frankfurt/New York: Campus Verlag, S.135-158 GfK [2017]: „Three-quarters of US consumers have used voice commands to operate digital devices“, online: http://www.gfk.com/en-us/insights/press-release/three-quarters-of-usconsumers-have-used-voice-commands- to-operate-digital-devices-gfk/ letzter Zugriff: 17.11.2017

122

Ghemawat, S./ Gobioff, H./ Leung, S.-T. [2003]: „The Google File System", Google Research Publication, in: 19th ACM Symposium on Operating Systems Principles, online: https://static.googleusercontent.com/media/re- search.google.com/de//archive/gfs-sosp2003.pdf letzter Zugriff: 18.01.2018 Ghulati, D. [2016]: „Introducing Factmata — Artificial intelligence for political fact-checking", Medium, online: https://medium.com/factmata/introducing-factmata-artificial-intelligence-for-political-fact-checking-db8ac- dbf4cf1 letzter Zugriff: 08.01.2018 Gillner, S. [2017]: „BVDW-Prognose. Anteil von Programmatic Advertising in Deutschland wächst auf 45 Prozent“, on- line: https://www.internetworld.de/onlinemarketing/programmatic-advertising/anteil-programmatic-adverti- sing-in-deutschland-waechst-45-prozent-1222832.html Letzter Zugriff: 05.01.2018 Goldberg, D./Nichols, D./Oki, B./Terry, D. [1992]: „Using collaborative filtering to weave an information tapestry”, in: „Communications of the ACM”, Vol. 35(12) 35, S. 61-70, doi: 10.1145/138859.138867 Goldsborough, R. [2017]: „Understanding Facebook's News Feed”, in: „Teacher Librarian”, Vol. 44, S. 61 Gomez-Uribe, C./Hunt, N. [2016]: „The Netflix Recommender System: Algorithms, Business Value, and Innovation”, in: „ACM Transactions on Management Information Systems”, Vol.6(4), S. 1-19, doi: 10.1145/2843948 Gondorf, L./ Bott, G. [2017]: „Kann diese Big-Data-Agentur Wahlen beeinflussen?“, online: https://www.marco- nomy.de/live/articles/591772/ letzter Zugriff: 16.11.2017 Gonzalez, R. J. [2017]: „Hacking the citizenry? Personality profiling, „big data“ and the election of Donald Trump“, in: „Anthropology Today“, Vol. 33(3) Goode, L. [2016]: „Amazons smartphone flop was the best thing that happened to Alexa“, online: https://www.thev- erge.com/2016/3/3/11157394/amazon-alexa-fire-phone-failure-echosuccess-smart-home letzter Zugriff: 17.11.2017 Goodfellow, I./ Bengio, Y./ Courville, A. [2016]: „Deep Learning“, MIT press, S. 327-339 Goodman, E. [2016]: „Editors vs. algorithms: Who do you want choosing your news?“, Reu-ters Institute of Journal- ism, online: http://reutersinstitute.politics.ox.ac.uk/risj-review/editors-vs-algorithms-who-do-you-want-choos- ing-your-news letzter Zugriff: 16.11.2017 Google DNI Innovation Fund [2017]: „DNI Fund Annual Report 2016/2017", Google DNI, online: https://digitalnewsi- nitiative.com/dni-fund/innovation-fund-report-2016-2017/ letzter Zugriff: 17.11.2017 Google DNI Projects [2018]: „DNI Funded Projects“, Google DNI, online: https://digitalnewsinitiative.com/dni-pro- jects/ letzter Zugriff: 17.11.2017 Google DNI 1 [2018]: „FAZ9”, Google DNI, online: https://digitalnewsinitiative.com/news/case-study-personalising- mobile-news/ letzter Zugriff: 26.02.2018 Google DNI 2 [2018]: „Act2Acess”, Google DNI, online: https://digitalnewsinitiative.com/dni-projects/playwall-new- way-pay-journalism-round-4/ letzter Zugriff: 26.02.2018 Google DNI 3 [2018]: „Journalism First”, Google DNI, online: https://digitalnewsinitiative.com/dni-projects/journal- ism-first/ letzter Zugriff: 26.02.2018 Google Trends [2018]: „Vergleich des Suchvolumens nach Datenbankmanagementsystemen "MySQL", "Apache Ha- doop", "MongoDB", "PostgreSQL", "Apache Hive", online: https://trends.google.de/trends/ex- plore?q=%2Fm%2F04y3k,%2Fm%2F0fdjtq,MongoDB,%2Fm%2F05ynw,%2Fm%2F0g55vt5 letzter Zugriff: 18.01.2018 Graefe, A. [2016]: „Guide to Automated Journalism”. Columbia Journalism School. Tow Center for Digital Journalism, online: https://academiccommons.columbia.edu/catalog/ac:s4mw6m907n letzter Zugriff: 10.01.2018 Graefe, A./ Haim, M./ Haarmann, B./ Brosius, H.-B. [2016]: „Readers´ perception of computergenerated news: Credi- bility, expertise, and readability“, in: „Journalism“, SAGE, S. 1-16, online: https://doi.org/10.1177/1464884916641269 letzter Zugriff: 17.11.2017 Graff, B. [2016]: „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“, online: http://www.sueddeut- sche.de/digital/microsoft-programm-tay-rassistischer-chat-roboter-mit-falschen-werten-bombardiert- 1.2928421 letzter Zugriff: 16.11.2017 Grassegger, H./ Krogerus, M. [2016]: „Ich habe nur gezeigt, dass es die Bombe gibt“, in: Das Magazin, online: https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ letzter Zugriff: 16.11.2017

123

Guérin, E./ Digne, J./ Galin, E./ Peytavie, A./ Wolf, C./ Benes, B./ Martinez, B. [2017]: „Interactive Example-Based Ter- rain Authoring with Conditional Generative Adversarial Networks”, in: „ACM Transactions on Graphics”, Vol. 36, S. 1-13, doi: 10.1145/3130800.3130804 Guo, Y./Wang, M./Li, X. [2017]: „An Interactive Personalized Recommendation System Using the Hybrid Algorithm Model”, in: „Symmetry”, Vol. 9(10), S. 1-17, doi: 10.3390/sym9100216 Gutierrez, D. [2016]: „The Games Industry’s Journey Into Deep-Data”, online: https://in- sidebigdata.com/2016/11/18/the-games-industrys-journey-into-deep-data/ letzter Zugriff: 10.01.2018. H2O.AI [2018], online: https://www.h2o.ai/ letzter Zugriff: 26.02.2018 Haack, W./ Severance, M./ Wallace, M./ Wohlwend, J. [2017]: „Security Analysis of the Amazon Echo“, online: https://courses.csail.mit.edu/6.857/2017/project/8.pdf letzter Zugriff: 17.11.2017 Habermas, J. [1990]: „Strukturwandel der Öffentlichkeit“, Frankfurt am Main: Suhrkamp Taschenbuch Wissenschaft Hahn, O./ Hohlfeld, R./ Knieper, T. [2015]: „Einführung: Digitale Öffentlichkeit – Digitale Öffentlichkeiten“, in: Hahn, O./ Hohlfeld, R./ Knieper, T. (Hrsg.): „Digitale Öffentlichkeit(en)“, Köln: Herbert von Halem Verlag, S. 11-18 Haim, M./ Graefe, A. [2017]: „Automated News: Better than expected?“, in: „Digital Journalism“, Vol. 5(8), S. 1044- 1059 Haim, M./ Graefe, A./ Brosius, H.-B. [2017]: „Burst of the Filter Bubble? Effects of personalization on the diversity of Google News“, in: „Digital Journalism“, S. 1-14 Halevy, A./ Norvig, P./ Pereira, F. [2009]: „The unreasonable effectiveness of data.", in: „IEEE Intelligent Systems", Vol. 24(2) Handelsblatt (2018): „So informiert Facebook die Nutzer nach dem Datenskandal", Handelsblatt, online: http://www.handelsblatt.com/unternehmen/it-medien/cambridge-analytica-so-informiert-facebook-die-nut- zer-nach-dem-datenskandal/21160608.html letzter Zugriff: 13.04.2018 Hank, R./ Meck, G. (2016): „Roboter in der Wirtschaft: Millionen Jobs fallen weg", FAZ Online, online: http://www.faz.net/aktuell/wirtschaft/weltwirtschaftsforum/roboter-in-der-wirtschaft-millionen-jobs-fallen- weg-14018180.html letzter Zugriff: 12.02.2018 Hardt, M. [2014]: „How big data is unfair“, online: https://medium.com/@mrtz/how-big-data-is-unfair-9aa544d739de letzter Zugriff: 16.11.2017 Hastie, T./ Tibshirani, R./ Friedman, J. (Hrsg.) [2009]: „Overview of supervised learning“, in: „The elements of statisti- cal learning“, New York: Springer Haufe Online Redaktion (2017): „Kritik am geplanten Datenschutzrecht reißt nicht ab", Haufe Online, online: https://www.haufe.de/compliance/recht-politik/kritik-am-geplanten-neuen-datenschutzrecht-reisst-nicht- ab_230132_397048.html letzter Zugriff: 13.04.2018 HDE [2018]: „Umsatz durch E-Commerce (B2C) in Deutschland in den Jahren 1999 bis 2016 sowie eine Prognose für 2017 (in Milliarden Euro)“, online: https://de.statista.com/statistik/daten/studie/3979/umfrage/e-commerce- umsatz-in-deutschland-seit-1999/ letzter Zugriff: 05.01.2018 Hecht-Nielsen, R. [1988]: „Theory of the backpropagation neural network", in: „Neural Networks", Vol. 1 (Supple- ment-1) Hegelich, S. [2016]: „Social-Bots: Invasion der Meinungs-Roboter“, online: https://www.mebis.bayern.de/infopor- tal/empfehlung/social-bots-invasion-der-mei-nungs-roboter/ letzter Zugriff: 16.11.2017 Hegelich, S./ Janetzko, D. [2016]: „Are Social Bots on Twitter Political Actors? Empirical Evidence from a Ukrainian So- cial Botnet“, in: „Proceedings of the Tenth International AAAI Conference on Web and Social Media (ICWSM 2016)“, S. 579-582 Heinrich-Böll-Stiftung [2017]: „Filter Bubble – Echokammer – Fake News“, online: https://www.boell.de/de/2017/02/08/filter-bubbleechokammer-fake-news letzter Zugriff: 17.11.2017 Hempel, J. [2017]: „Eli Pariser predicted the Future. Now he can't escape It”, online: https://www.wired.com/2017/05/eli-pariser-predicted-the-future-now-he-cant-escape-it/ letzter Zugriff: 05.01.2018 Herrman, J. [2016]: „As Online Video Surges, Publishers Turn to Automation”, online: https://www.ny- times.com/2016/07/11/business/media/as-online-video-surges-publishers-turn-to-automation.html letzter Zugriff: 10.01.2018

124

Holland, M. [2014]: „Quakebot schreibt erste Meldung zum Erdbeben in Los Angeles“, online: https://www.heise.de/newsticker/meldung/Quakebot-schreibt-erste-Meldung-zum-Erdbeben-in-Los-Angeles- 2149156.html letzter Zugriff: 10.01.2018 Holland, M. [2017]: „US-Wahlmanipulation: Werbeanzeigen russischer Trolle veröffentlicht", Heise Online, online: https://www.heise.de/newsticker/meldung/US-Wahlmanipulation-Werbeanzeigen-russischer-Trolle-veroeffent- licht-3877245.html?hg=1&hgi=10&hgf=false letzter Zugriff: 23.01.2018 Holtel, S. [2017]: „Künstliche Intelligenz verstehen als Automation des Entscheidens - Leitfaden", im Auftrag der BIT- KOM, online: https://www.bitkom.org/noindex/Publikationen/2017/Leitfaden/Bitkom-Leitfaden-KI-verstehen- als-Automation-des-Entscheidens-2-Mai-2017.pdf letzter Zugriff: 20.02.2018 Hoofd, I. [2015]: „Data Mining Research and the Disintegration of Society: The ‚Project X‘ Haren Riots“, in: Langlois, G. (Hrsg.) / Redden, J./ Elmer, G.: „Compromised Data. From Social Media to Big Data“, New York: Bloomsbury Aca- demic Horn, D. [2016]: „So nutzt ihr Facebook ohne Algorithmus“, online: https://blog.wdr.de/digitalistan/facebook-ohne- algorithmus/ letzter Zugriff: 05.01.2018 Howard, P. N./ Kollanyi, B. [2016]: „Bots, #Strongerin, and #Brexit: Computational Propagan-da During the UK-EU Ref- erendum“, in: „SSRN Electronic Journal“, online: https://ssrn.com/ab-stract=2798311 letzter Zugriff: 16.11.2017 Hurtz, S. [2017]: „Auch AfD-Anhänger liken ‚Mainstream-Medien‘“, online: http://www.sueddeutsche.de/digital/face- book-auch-afd-anhaenger-liken-mainstream-medien-1.3481913, zuletzt aktualisiert am 03.05.2017 letzter Zu- griff: 16.11.2017 IAB Spain [2014]: „Programmatic Buying Ecosystems“, IAB, online: https://www.addiliate.com/real-time-bidding/ letz- ter Zugriff: 06.02.2018 IDC [2012]: „Big Business dank Big Data? Neue Wege des Datenhandlings und der Datenanalyse in Deutschland 2012", n=130, IDC Research, online: http://idc.de/de/ueber-idc/press-center/56528-idc-studie-big-data-in-deutsch- land-2012-unternehmen-stehen-noch-ganz-am-anfang letzter Zugriff: 22.01.2018 IFRA World Publishing Expo/ DCX Digital Content Expo [2017]: „Medien & Automatisierung. Künstliche Intelligenz und Roboterjournalismus erobern Content-Markt“, Pressemitteilung IFRA und DCX 2017, Nr. 10, Frankfurt am Main, 4. Oktober 2017, online: http://www.ifra-expo.com/fileadmin/user_upload/IFRA-DCX_2017_PM10_Pressemit- teilung_KI.pdf letzter Zugriff: 10.01.2018 Inhoffen, L. [2017]: „Zweifel an digitalen Assistenten: Skeptiker überzeugen“, online: https://y- ougov.de/news/2017/05/18/zweifel-digitalen-assistenten-skeptikeruberzeugen/ letzter Zugriff: 17.11.2017 Intel Peer Research [2012]: „Big Data Analytics - Intel’s IT Manager Survey on How Organizations Are Using Big Data“, Intel IT Center Report, S. 5, online: https://www.intel.com/content/dam/www/public/us/en/documents/re- ports/data-insights-peer-research-report.pdf, letzter Zugriff: 02.11.2017 iRights.Lab [2018]: „Startschuss für das Content Blockchain Project“, online: https://irights-lab.de/startschuss-fuer- das-content-blockchain-project/ letzter Zugriff: 02.02.2017 Jacobsson Purewal, J. [2016]: „The difference between Google Now and Google Assistant“, online: https://www.cnet.com/how-to/the-difference-between-google-now-and-google-assistant/ letzter Zugriff: 17.11.2017 Jaderberg, M./ Simonyan, K./ Vedaldi, A. /Zisserman, A. [2014]: „Synthetic Data and Artificial Neural Networks for Natural Scene Text Recognition”, University of Oxford, online: arXiv:1406.2227v4 letzter Zugriff: 05.04.2018 Jannasch, S. [2016]: „Digitaler Journalismus. Sie sind jung und brauchen das Geld“, online: http://www.sueddeut- sche.de/medien/digitaler-journalismus-sie-sind-jung-und-brauchen-das-geld-1.3213397 letzter Zugriff: 05.01.2018 Jarren, O. [1998]: „Medien, Mediensystem und politische Öffentlichkeit im Wandel“, in: Sarcinelli, U. (Hrsg.): „Politik- vermittlung und Demokratie in der Mediengesellschaft“, Schriftenreihe der Bundeszentrale für politische Bil- dung, Bonn, Vol. 352, VS Verlag für Sozialwissenschaften, S. 74-94 Johnsen, C./ Newett, E. [2015]: „From Idea to Execution: Spotify's Discover Weekly. Or: 5 Lessons In Building Recom- mendations Products at Scale”, online: https://www.slideshare.net/MrChrisJohnson/from-idea-to-execution- spotifys-discover-weekly/1 letzter Zugriff: 10.01.2018 Johnson, D. W. [2016]: „Campaigning in the Twenty-First Century. Activism, Big Data, and Dark Money“ New York: Routledge

125

Jung, J./ Niemeyer, S. [2017]: „Künstliche Intelligenz im Tourismus“, online: http://labor.neusta-etourism.de/ebook/e- book-chatbots-neusta.pdf (S. 3-51), letzter Zugriff: 16.11.2017 Jung, J./ Song, H./ Kim, Y./ Im, H./ Oh, S. [2017]: „Intrusion of software robots into journalism: The public's and jour- nalists' perceptions of news written by algorithms and human journalists“, in: „Computers in Human Behavior“, Vol. 71, S. 291-298 Jungherr, A. [2017]: „Datengestützte Verfahren im Wahlkampf“, online: https://www.researchgate.net/publica- tion/314260837_Datengestutzte_Verfahren_im_Wahlkampf letzter Zugriff: 16.11.2017 Jüngling, T. [2013a]: „Der Siegeszug von Big Data", Die WELT, online: https://www.welt.de/print/die_welt/wirt- schaft/article114129164/Der-Siegeszug-von-Big-Data.html letzter Zugriff: 22.01.2018 Jüngling, T. [2013b]: „Was Datenbroker alles über uns wissen", Die WELT, online: https://www.welt.de/wirt- schaft/webwelt/article117098272/Was-die-Datenbroker-alles-ueber-uns-wissen.html letzter Zugriff: 26.02.2018 Jüngling, T. [2015]: „Die unheimliche Manipulation durch Robot-Herden“, Die WELT, online: https://www.welt.de/wirtschaft/webwelt/article149665357/Die-unheimliche-Manipulation-durch-Robot-Her- den.html letzter Zugriff: 16.11.2017 Jürgens, P./ Jungherr, A. [2011]: „Wahlkampf vom Sofa aus: Twitter im Bundestagswahl-kampf 2009“, in: Schweitzer, E. J./ Albrecht, S. (Hrsg.): „Das Internet im Wahlkampf. Analysen zur Bundestagswahl 2009“, Wiesbaden: VS Ver- lag, S. 201-225 Jürgens, P./ Jungherr, A. [2015]: „The Use of Twitter during the 2009 German National Election“, in: „German Poli- tics“, Vol. 24(4), S. 469-490, online: http://dx.doi.org/10.1080/09644008.2015.1116522 letzter Zugriff: 16.11.2017 Jürgens, P./ Jungherr, A./ Schoen, H. [2011]: „Small Worlds with a Difference: New Gatekeepers and the Filtering of Political Information on Twitter“, in: „Proceedings of the 3rd International Web Science Conference“, S. 1-5 Just, N./ Latzer, M. [2016]: „Governance by algorithms. Reality construction by algorithmic se-lection on the Internet“, in: „Media, Culture & Society“, Vol. 39 (2), S. 238-258, online: DOI: 10.1177/0163443716643157 letzter Zugriff: 16.11.2017 Kaelble, H./ Kirsch, M./ Schmidt-Gernig, A. [2002]: „Zur Entwicklung transnationaler Öffentlichkeiten und Identitäten im 20. Jahrhundert. Eine Einleitung“, in: Kaelble, H./ Kirsch, M./ Schmidt-Gernig, A. (Hrsg.): „Transnationale Öf- fentlichkeiten und Identitäten im 20. Jahrhundert“, Frankfurt/New York: Campus Verlag, S. 7-33 Kafsack, H. (2015): „Neue EU-Datenschutzregeln - Im Tausch gegen Daten", Frankfurter Allgemeine Zeitung, online: http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/was-taugt-die-eu-datenschutz-verordnung- 13972055.html letzter Zugriff: 13.04.2018 Kaggle [2018]: „Kaggle Datasets", Kaggle.com, online: https://www.kaggle.com/datasets letzter Zugriff: 27.02.2018 Kay, M./ Matuszek, C./ Munson, S. [2015]: „Who's a CEO? Google image results can shift gender biases“, University of Washington, online: https://www.eurekalert.org/pub_releases/2015-04/uow-wac040915.php letzter Zugriff: 16.11.2017 Käfer, A. (2017): „Kritik an neuer EU-Norm - Datenschutz wird europaweit verschärft", Stuttgarter Zeitung, online: https://www.stuttgarter-zeitung.de/inhalt.kritik-an-neuer-eu-norm-datenschutz-wird-europaweit-ver- schaerft.c1e267a2-7214-4406-8811-3ed40a2f002b.html letzter Zugriff: 13.04.2018 Keegan, J. [2016]: „Blue Feed, Red Feed - See Liberal Facebook and Conservative Facebook, Side by Side", Wall Street Journal Analyse, online: http://graphics.wsj.com/blue-feed-red-feed/#methodology letzter Zugriff: 08.01.2018, nach: Bakshy, E./ Messing, S./ Adamic, L. [2015]: „Replication Data for: Exposure to Ideologically Diverse News and Opinion on Facebook”, http://dx.doi.org/10.7910/DVN/LDJ7MS, Harvard Dataverse, V2 Keller, G./ Schlieter, K. [2017]: „Microtargeting im Bundestagswahlkampf. Nah am Wähler und anfällig für Manipula- tion“, online: http://www.berliner-zeitung.de/28137412 letzter Zugriff: 16.11.2017 Keyling, T. [2017]: „Kollektives Gatekeeping. Die Herstellung von Publizität in Social Media“, Wiesbaden: Springer VS Kiefer, K. L. [1998]: „Die ökonomischen Zwangsjacken der Kultur. Wirtschaftliche Bedingungen der Kulturproduktion und -distribution durch Massenmedien“, in: Saxer, U. (Hrsg.): „Medien-Kulturkommunikation“, Publizistik Son- derheft 2, Opladen/Wiesbaden: Westdeutscher Verlag, S. 97-114 Kind, S./ Bovenschulte, M./ Ehrenberg-Silies, S./ Jetzke, T./ Weide, S. [2017]: „Social Bots“, TAB, online: https://www.tab-beim-bundestag.de/de/aktuelles/20161219/Social%20Bots_Thesenpapier.pdf letzter Zugriff: 16.11.2017

126

Kinsella, B. [2017]: „There are Now 20,000 Amazon Alexa Skills in the U.S.", VoiceBot.ai, online: https://www.voice- bot.ai/2017/09/03/now-20000-amazon-alexa-skills-u-s/ letzter Zugriff: 26.02.2018 Klotz, A. [2017]: „Wie Sprachassistenten das Einkaufen verändern“, in: „Digital Publishing Report“, Vol. 8, S. 12-16, online: http://www.digitalpublishingreport.de/dpr_Heft8_2017.pdf letzter Zugriff: 17.11.2017 Kocks, J.N. [2016]: „Political Media Relations Online as an Elite Phenomenon“, Wiesbaden: Springer VS Kohler, D./ Jurafsky, D. (Machine Learning TV) [20.01.2017]: „Template Models: Hidden Markov Models – Stanford University", YouTube, Zeit: 05:52-06:52, online: https://www.youtube.com/watch?v=mNSQ-prhgsw, letzter Zu- griff: 11.01.2018 Köhler, E. [2017]: „Siri, Cortana, Alexa: Warum sind Sprachassistenten Frauen?“, online: http://www.n-joy.de/Siri- Cortana-Alexa-Warum-Sprachassistenten-Frauen-sind,sprachassistenten100.html letzter Zugriff: 17.11.2017 Kollanyi, B./ Howard, P./ Woolley, S. C. [2016]: „Bots and Automation over Twitter during the U.S. Election (COMPROP DATA MEMO No. 2016/4)“, online: http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2016/11/Data- Memo-US-Election.pdf letzter Zugriff: 16.11.2017 Kollmann, T. [2015]: „Definition – Personalisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/personali- sierung.html letzter Zugriff: 10.11.2017 Kollmann, T. [2017a]: „Definition – Collaborative Filtering“, online: http://wirtschaftslexikon.gabler.de/Definition/col- laborative-filtering.html letzter Zugriff: 17.11.2017 Kollmann, T. [2017b]: „Definition – Personalisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/persona- lisierung.html letzter Zugriff: 17.11.2017 Kraft, T./Gamer, M./Laessing, M./Zweig K. [2017]: „Filterblase geplatzt? Kaum Raum für Personalisierung bei Google- Suchen zur Bundestagswahl 2017“, online: https://www.die-medienanstalten.de/fileadmin/user_up- load/die_medienanstalten/Service/Pressemitteilungen/Anlage_PM_15-2017_Forschungsprojekt_Daten- spende_Zwischenbericht.pdf letzter Zugriff: 05.01.2018 Kramer, A./Guillory, J./Hancock, J. [2014]: „Experimental evidence of massive-scale emotional contagion through so- cial networks”, in: „Proceedings of the National Academy of Sciences of the United States of America”, Vol. 111 (24), S. 8788-8790, doi: 10.1073/pnas.1412583111 Kramliczek, P. [2017]: „Parteien und fragwürdige Follower“; online: http://www.br.de/nachrichten/faktencheck/twit- ter-wahlkampf-analyse-der-parteien-100.html letzter Zugriff: 16.11.2017 Kreil, M. [2017]: „ Social Bots, Fake News und Filterblasen”. Chaos Communication Congress (CCC), Leipzig, online: https://media.ccc.de/v/34c3-9268-social_bots_fake_news_und_filterblasen#t=101 letzter Zugriff: 05.01.2018. Krempl, S. (2017): „'Missing Link': Manipulation, Meinungsfreiheit und Propaganda bei Facebook & Co.", Heise Online, online: https://www.heise.de/newsticker/meldung/Missing-Link-Manipulation-Meinungsfreiheit-und-Propa- ganda-bei-Facebook-Co-3861634.html letzter Zugriff: 12.02.2018 Królikowski, A./ Loebel, J.-M. [2017]: „Fake-News – Können Algorithmen Menschen manipulieren?“, in: „Informatik Spektrum“, Vol. 40 (4), S. 367-370, online: DOI: 10.1007/s00287-017-1060-3 letzter Zugriff: 16.11.2017 Künzler, M. [2013]: „Mediensystem Schweiz“, Konstanz: UVK Künzler, M. [2016]: „Befreien Digitalisierung und Automatisierung den Journalismus aus der Zwangsjacke der Kultu- rökonomie?“, in: Jarren, O./ Steininger, C. (Hrsg.): „Journalismus jenseits von Markt und Staat“, Baden-Baden: Nomos Verlagsgesellschaft mbH & Co. KG, S. 219-226 Lanz, M. [2017]: „Algorithmen produzieren wertlose Bits & Bytes“, online: https://www.wuv.de/digital/algorith- men_produzieren_wertlose_bits_bytes letzter Zugriff: 10.01.2018 Lapides, P./ Chokshi, A./ Carpendale, S./ Greenberg, S. [2015]: „News Feed: What's in it for Me?“, in: „Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems“, New York: ACM, S. 163-172 Latzer, M./ Hollnbuchner, K./ Just, N./ Saurwein, F. [2014]: „The economics of algorithmic Se-lection on the Internet“, in: Bauer, J. M./ Latzer, M. (Hrsg.): „Handbook on the Economics of the Internet“, Cheltenham: Edward Elgar Publishing, S. 395-425 Lauerer, C./ Steindl, N./ Hanitzsch, T./ Dingerkus, F./ Wyss, V./ Lohmann, M. I./ Seethaler, J. [2017]: „Alarmierende Verhältnisse oder viel Lärm um Nichts? Ökonomischer Druck auf Journalisten in Medienunternehmen in Deutschland, Österreich und der Schweiz“, in: Filipovic, A./ Prinzing, M./ Stapf, I. (Hrsg.): „Gesellschaft ohne Dis- kurs?“, Baden-Baden: Nomos Verlagsgesellschaft mbH & Co. KG, S. 199-218

127

Lazcorreta, E./Botella, F./Fernández-Caballero, A. [2008]: „Towards personalized recommendation by two-step modi- fied Apriori data mining algorithm”, in: „Expert Systems with Applications”, Vol. 35, S. 1422-1429, doi: 10.1016/j.eswa.2007.08.048 Lecompte, C. [2015]: „Automation in the Newsroom. How algorithms are helping reporters expand coverage, engage audiences, and respond to breaking news. “, in: „Nieman Reports“, S. 32-45, online: http://niemanre- ports.org/articles/automation-in-the-newsroom/ letzter Zugriff: 16.11.2017 LeCun, Y./ Bengio, Y./ Hinton, G. [2015]: „Deep Learning", in: „Nature", Vol. 521(7553) Lederer, R. [2017]: „Sprachassistenten und Datenschutz. Sprachassistenten – Techniklust oder Datenschutzfrust?“ online: https://www.dsinblog.de/2017/06/21/sprachassistenten-techniklust-oder-datenschutzfrust/ letzter Zu- griff: 17.11.2017 Lee, P. [2016]: „Learning from Tay’s introduction", Official Microsoft Blog Beitrag von Peter Lee, Corporate Vice Presi- dent, Micsoroft AI & Research, online: https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduc- tion/ letzter Zugriff: 23.01.2018 über: Novet, J. (2016): „Microsoft exec apologizes for Tay chatbot’s racist tweets, says users ‘exploited a vulnerability’", Venture Beat, online: https://venturebeat.com/2016/03/25/mi- crosoft-exec-apologizes-for-tay-chatbots-racist-tweets-says-users-exploited-a-vulnerability/ letzter Zugriff: 23.01.2018 Leitner, M. [2017]: „Wenn Roboter Journalismus machen“, online: https://futurezone.at/digital-life/wenn-roboter- journalismus-machen/271.239.810 letzter Zugriff: 10.01.2018 Lenz, J. [2017]: „Chatbots sind besser als ihr Ruf“, online: https://www.wuv.de/digital/chatbots_sind_bes- ser_als_ihr_ruf letzter Zugriff: 16.11.2017 Lenzen, M [2018]: „,Angriff der Algorithmen': Mitgefangen, mitgehangen", Frankfurter Allgemeine Zeitung, online: http://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/lesenswert-angriff-der-algorithmen-von- cathy-o-neil-15375371.html letzter Zugriff: 20.02.2018 Les Décodeurs [2018]: „Décodex“, Le Monde, online: http://www.lemonde.fr/verification/ letzter Zugriff: 08.01.2018 Levine, Y. [2013]: „What Surveillance Valley knows about you“, Pando, online: https://pando.com/2013/12/22/a- peek-into-surveillance-valley/ letzter Zugriff: 27.02.2018 Lewin, K. [1947]: „Frontiers in Group Dynamics. II. Channels of Group Life; Social Planning and Action Research“, in: „Human Relations“, Vol. 1 (2), S. 143-153, online: DOI: 10.1177/0018726747 letzter Zugriff: 16.11.2017 Li, F.-F. [2017]: „Announcing Google Cloud Video Intelligence API, and more Cloud Machine Learning updates”, online: https://cloud.google.com/blog/big-data/2017/03/announcing-google-cloud-video-intelligence-api-and-more- cloud-machine-learning-updates letzter Zugriff: 10.01.2018 Liang, T. P./ Lai, H. J./ Ku, Y. C. [2006]: „Personalized content recommendation and user satisfaction: Theoretical syn- thesis and empirical findings“, in: „Journal of Management In-formation Systems“, Vol. 23(3), S. 45-70 Liddy, E. D. [2001]: „Natural Language Processing“, in: „Encyclopedia of Library and Information Science“, 2nd Ed. NY. Marcel Decker Lilienthal, V./ Weichert, S./ Reineck, D./ Sehl, A./ Worm, S. [2015]: „Digitaler Journalismus: Dynamisierung, Technisie- rung, Dialogisierung“, in: „Media Perspektiven”. S. 30-40 Linden, C. G. [2017]: „Decades of Automation in the Newsroom: Why are there still so many jobs in journalism?“, in: „Digital Journalism“, Vol. 5(2), S. 123-140 Linden, G./Smith, B./York, J. [2003]: „Amazon.com Recommendations. Item-to-Item Collaborative Filtering”, in: „IEEE Internet Computing”, Vol. 7(1), S. 76-80, doi: 10.1109/MIC.2003.1167344 Linkurious [2018a]: „Find hidden Insights In Your Data”, online: https://linkurio.us/ letzter Zugriff: 10.01.2018 Linkurious [2018b]: „Visualize and Explore Your Data In Minutes. Find Hidden Insights In your Graph data”, online: https://linkurio.us/product/ letzter Zugriff: 10.01.2018 LiquidNewsroom.ai [2017]: „LNR Concept Mapper now funded by Google DNI”, LiquidNewsroom.ai, online: https://liquidnewsroom.com/topic/ai-in-journalism, letzter Zugriff: 08.01.2018 Liquid Notes [2018]: „Liquid Notes. Music Intelligence“, online: http://www.re-compose.de/liquid-notes-music-soft- ware.html letzter Zugriff: 10.01.2018

128

Lischka, K./ Stöcker, C. [2017]: „Digitale Öffentlichkeit - Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen", Arbeitspapier im Auftrag der Bertelsmann Stiftung, online: https://www.bertelsmann-stif- tung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/Digitale_Oeffentlichkeit_final.pdf letzter Zugriff: 20.02.2018 Lischka, K./Klingel, A. [2017]: „Wenn Maschinen Menschen bewerten. Internationale Fallbeispiele für Prozesse algo- rithmischer Entscheidungsfindung“. Arbeitspapier im Auftrag der Bertelsmann Stiftung, online: http://www.ber- telsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/ADM_Fallstudien.pdf letzter Zu- griff: 05.01.2018 Litzel, N. [2017]: „Was ist MapReduce?", Big Data Insider, online: https://www.bigdata-insider.de/was-ist-mapreduce- a-624936/ letzter Zugriff: 17.01.2018 Lobe, A. [2017]: „Prosa als Programm“, online: http://www.faz.net/aktuell/feuilleton/medien/roboterjournalismus- prosa-alsprogramm-14873449.html letzter Zugriff: 17.11.2017 Lobigs, F. [2016]: „Finanzierung des Journalismus – von langsamen und schnellen Disruptionen“, in: Meier, K./ Neu- berger, C. (Hrsg.): „Journalismusforschung. Stand und Perspektiven“, 2.Auflage, Baden-Baden: Nomos Verlags- gesellschaft mbH & Co. KG, S. 69-138 Los Angeles Times - The Homicide Report [2018a]: „A Story for every Victim”, online: http://homicide.latimes.com/ letzter Zugriff: 10.01.2018 Lucas, L. [2018]: „China takes the crown in AI funding", Financial Times, online: https://www.ft.com/con- tent/1f58b248-1642-11e8-9376-4a6390addb44 letzter Zugriff: 23.02.2017 Luger, E./ Sellen, A. [2016]: „,Like Having a Really bad PA‘: The Gulf between User Expectation and Experience of Con- versational Agents“, in: „Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems“, S. 5286-5297 Lusk, C. [28.02.2016]: „Now to personalize the flow of information“, online: http://projects.nyujournalism.org/new- sliteracy2016/topics/personalization/ letzter Zugriff: 17.11.2017 Maas, H. [2015]: „Internet-Charta. Unsere digitalen Grundrechte“, online: http://www.zeit.de/2015/50/internet- charta-grundrechte-datensicherheit letzter Zugriff: 05.01.2018 Mack, H. [2016]: „Melody Chatbot“, online: http://www.mobihealthnews.com/tag/melody-chatbot letzter Zugriff: 16.11.2017 Mahnke, M. [2015]: „Der Algorithmus, bei dem man mit muss? Ein Perspektivwechsel“, in: „Communicatio Socialis“, Vol. 48(1), S. 34-45 Maireder, A./ Weeks, B. E./ Zúniga, H. G. de/ Schlögl, S. [2017]: „Big Data and Political Social Networks: Introducing Audience Diversity and Communication Connector Bridging Measures in Social Network Theory“, in: „Social Sci- ence Computer Review“, Vol. 35 (1), S. 126-141, online: DOI: 10.1177/0894439315617262 letzter Zugriff: 16.11.2017 Mallat, N. / Virpi, K. T./ Wittkowski, K. [2017]: „Voice Activated Personal Assistants – Consumer Use Contexts and Us- age Behavior“, online: https://aisel.aisnet.org/cgi/viewcontent.cgi?article=1548&context=amcis2017 letzter Zugriff: 17.11.2017 Manning, C. D./ Schütze, H. [2000]: „Foundations of Statistical Natural Language Processing", Cambridge Massachu- setts: MIT Press Marchick, A. [2017]: „The 2017 Voice Report - Executive Summary“, online: http://voicelabs.co/2017/01/15/the-2017- voice-report/ letzter Zugriff: 09.11.2017 Marcinkowski, F. [1993]: „Publizistik als autopoietisches System: Politik und Massenmedien. Eine systemtheoretische Analyse“, Opladen: Westdeutscher Verlag Margolis, M./ Resnick, D. [2000]: „Politics as Usual: The Cyberspace ‚Revolution‘“, SAGE Marketing und Kommunikation [2017]: „Marktumfrage - Die größten Vorteile und Probleme von Chatbots im Marke- ting“, online: https://www.m-k.ch/chatbots-im-marketing-chancen-und-probleme/ letzter Zugriff: 16.11.2017 Markoff, J. [2016]: „Automated Pro-Trump Bots Overwhelmed Pro-Clinton Messages, Reseachers Say“, online: https://www.nytimes.com/2016/11/18/technology/automated-pro-trump-bots-overwhelmed-pro-clinton-mes- sages-researchers-say.html letzter Zugriff: 16.11.2017 Markwall, N. [2017]: „Alexa, ich möchte eine Puppenstube“, online: https://www.tagesschau.de/schlusslicht/alexa- puppenhaus-101.html letzter Zugriff: 17.11.2017

129

Matthews, K. [2017]: „15 Tools You Can Use to Beta Test Your Chatbot“, online: https://chatbotsmagazine.com/15- tools-you-can-use-to-beta-test-your-chatbot-5a0723c7f4b2 letzter Zugriff: 16.11.2017 Matzat, L. [2011]: „Datenjournalismus. Bundeszentrale für politische Bildung“, online: http://www.bpb.de/gesell- schaft/medien/opendata/64069/datenjournalismus?p=all letzter Zugriff: 17.11.2017 Mayer, A. [2013]: „Digital first. Und dann...? Die zentralen Herausforderungen für Deutschlands Medienhäuser“, in: Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): CJournalismus in der digitalen Moderne“, Wiesbaden: Springer VS, S.141-146 Mayer-Schönberger, V./ Mayer-Schönberger, C. [2013]: „Big Data: die Revolution, die unser Leben verändern wird", Redline Wirtschaft McChesney, R. W./ Nichols, J. [2010]: „The Death and Life of American Journalism. The Media Revolution That Will Begin the World Again“, Philadelphia: Nation Books McDonald, K. [2017]: „Neural Nets for Generating Music”, Medium, online: https://medium.com/artists-and-machine- intelligence/neural-nets-for-generating-music-f46dffac21c0 letzter Zugriff: 26.02.2018 McKelvey, F./ Dubois, E. [2017]: „Computational Propaganda in Canada: The Use of Political Bots“, in: Woolley, S./ Howard, P. N. (Hrsg.) „UK: Project on Computational Propaganda“, Working Paper No. 2017.6, Oxford, UK: S. 1- 32, online: http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2017/06/Comprop-Canada.pdf letzter Zugriff: 16.11.2017 McKinsey & Company Inc. [2017]: „Smartening up with Artificial Intelligence (AI) - What’s in it for Germany and its Industrial Sector?", McKinsey.de, online: https://www.mckinsey.de/files/170419_mckinsey_ki_final_m.pdf, letz- ter Zugriff: 27.02.2018 Meibauer, J. [2007]: „Einführung in die germanistische Linguistik", 2. Aufl. Meier, A. W./ Jarren, O. [2001]: „Ökonomisierung und Kommerzialisierung von Medien und Mediensystem. Einlei- tende Bemerkungen zu einer (notwendigen) Debatte“, in: „M&K Medien & Kommunikationswissenschaft“, Vol. 49(2), S. 145-158 Meier, C. [2017]: „Knackt künstliche Intelligenz die Magie der Sprache?“ Online: https://www.welt.de/kultur/ar- ticle164449418/Knackt-kuenstliche-Intelligenz-die-Magie-der-Sprache.html letzter Zugriff: 10.01.2018 Meineck, S. [2017]: „Twitter-Datenanalyse. ,Wir hatten eine falsche Vorstellung von der Filterblase‘“, online: http://www.spiegel.de/netzwelt/web/twitter-datenanalyse-wir-hatten-eine-falsche-vorstellung-von-der-filter- blase-a-1185406.html letzter Zugriff: 05.01.2018 Mendez, R. C. [2017]: „Digitale Sprachassistenten. Amazon Echo – Das nächste heiße ‚Markeding‘ im Marketing?“, in: „Digital Publishing Report“, Vol. 8, online: http://www.digitalpublishingreport.de/dpr_Heft8_2017.pdf letzter Zugriff: 09.11.2017 Messias, J./ Schmidt, L./ Oliveira, R./ Benevenuto, F. [2013]: „You followed my bot! Transfor-ming robots into influen- tial users in Twitter“, in: „First Monday“, Vol. 18 (7), from http://firstmonday.org/ojs/index.php/fm/arti- cle/view/4217/3700 letzter Zugriff: 16.11.2017 Metaxas, P. T./ Mustafaraj, E. [2012]: „Science and society. Social media and the elections“, in: „Science Magazine“, New York, N.Y., 338(6106), S. 472-473 Metaxas, P. T./ Mustafaraj, E./ Gayo-Avello, D. [2011]: „How (Not) to Predict Elections“, in: „In Proceedings of the 2011 IEEE Third International Conference on Privacy, Security, Risk and Trust (PASSAT) and the 2011 IEEE Third International Conference on Social Computing (Social-Com)“, S. 165-171 Mezzofiore, G [2017]: „,South Park' is triggering people's Amazon Alexas and it's seriously NSFW“, online: http://mashable.com/2017/09/14/south-park-alexa-googlehome-nsfw-cartman/#HTNJK3rsmiq7 letzter Zugriff: 17.11.2017 microm Micromarketing-Systeme und Consult GmbH [2015]: „microm Datenhanbuch 2015“, online: http://www.microm-online.de/fileadmin/me- dia/document/Handbuch_Daten_2015_DE.pdf letzter Zugriff: 27.02.2018 Microsoft [2017], http://www.msxiaoice.com/ über: Locker, T. (2015): "Mit diesem herzlosen Chatbot trösten Millio- nen Chinesen ihren Liebeskummer", Motherboard, online: https://motherboard.vice.com/de/article/jpgzny/die- ser-chatbot-troestet-millionen-chinesen-ueber-gebrochene-herzen-hinweg-123, letzter Zugriff: 23.01.2018

130

Microsoft News Center [2013]: „The Big Bang: How the Big Data Explosion Is Changing the World“, online: https://news.microsoft.com/2013/02/11/the-big-bang-how-the-big-data-explosion-is-changing-the-world/ letz- ter Zugriff: 17.11.2017 Mielke, K. [2016]: „Conversational Interfaces: Where Are We Today? Where Are We Heading?“, online: https://www.smashingmagazine.com/2016/07/conversationalinterfaces-where-are-we-today-where-are-we- heading/ letzter Zugriff: 17.11.2017 Mikolov, T./ Chen, K./ Corrado, G./ Dean, J. [2013]: „Efficient estimation of word representations in vector space", online: arXiv preprint arXiv:1301.3781 letzter Zugriff: 12.01.2018 Mikolov, T./ Kopecky, J./ Burget, l./ Glembek, O./ Cernocky, J. [2009]: „Neural network based language models for higly inflective languages", in: „Proc. ICASSP 2009" Milanesi, C. [2016]: „Voice Assistant Anyone? Yes please, but not in public!“, online: http://creativestrate- gies.com/voice-assistant-anyone-yes-please-but-not-inpublic/ letzter Zugriff: 17.11.2017 Mitsuku Bot [2018]: „Homepage des Mitsuku-Bots", online: http://www.mitsuku.com/ letzter Zugriff: 26.02.2017 Moore, S. [2016]: „How to choose a Data Broker”, Gartner Research Inc., online: https://www.gartner.com/smarter- withgartner/how-to-choose-a-data-broker/ letzter Zugriff: 27.02.2018 Morisy, M. [2016]: „How PayPal Boosts Security with Artificial Intelligence", MIT Technology Review, online: https://www.technologyreview.com/s/545631/how-paypal-boosts-security-with-artificial-intelligence/ letzter Zugriff: 26.02.2018 Morozov, E. [2013]: „Smarte neue Welt: Digitale Technik und die Freiheit des Menschen“, München: Blessing Verlag - Verlagsgruppe Random House Moscovici, S./Zavalloni, M. [1969]: „The Group as a Polarizer of Attitudes”, in: „Journal of Personality and Social Psy- chology”, Vol. 12(2), S. 125-135 Moyhinan, T. [2016]: „Alexa and Google Home record what you say. But what happens to that Data?“, online: https://www.wired.com/2016/12/alexa-and-google-record-your-voice/ letzter Zugriff: 17.11.2017 Müller-Wirth, M./ Wefing, H. [2016]: „Journalismus: Ich“, online: http://www.zeit.de/2016/46/journalismus-face- book-twitter-silicon-valleydemokratie-politik letzter Zugriff: 17.11.2017 Munster, Gene [2017]: „Homepod Uniquely Positioned to Win Smart Speaker“, online: http://loupven- tures.com/homepod-uniquely-positioned-to-win-smart-speaker-market/ letzter Zugriff: 17.11.2017 Mustafaraj, E./ Finn, S./ Whitlock, C./ Metaxas, P. T. [2011]: „Vocal Minority Versus Silent Majority: Discovering the Opionions of the Long Tail“, in: „Proceedings of the 2011 IEEE Third International Conference on Social Compu- ting (SocialCom)“, S. 103-110 Najjar, Y. M./ Basheer, I. A/, Hajmeer, M. N. [1997]: „Computational neural networks for predictive microbiology: I. Methodology", in: "International Journal of Food Microbiology", Vol. 34(1) Neewitz, A. [2016]: „Movie written by algorithm turns out to be hilarious and intense”, online: https://arstech- nica.com/gaming/2016/06/an-ai-wrote-this-movie-and-its-strangely-moving/ letzter Zugriff: 10.01.2018 Neidhardt, F. [1994]: „Öffentlichkeit, öffentliche Meinung, soziale Bewegungen“, in: Neid-hardt, F. (Hrsg.): „Öffentlich- keit, öffentliche Meinung, soziale Bewegungen Sonderheft 34 der Kölner Zeitschrift für Soziologie und Sozialpsy- chologie“, Opladen: Westdeutscher Verlag, S. 7-41 Neo4j [2018]: „Introducing the Neo4j Graph Platform. The #1 Platform for Connected Data”, online: https://neo4j.com/ letzter Zugriff: 10.01.2018 Netflix [2009]: „Netflix Prize“, online: https://www.netflixprize.com/ letzter Zugriff: 05.01.2018 Neuhaus, C. [2012]: „So funktioniert das Geschäft mit den Daten“, Tagesspiegel Online, online: https://www.tages- spiegel.de/politik/adresshandel-so-funktioniert-das-geschaeft-mit-den-daten/6857990.html letzter Zugriff: 27.02.2018 New York Times [2015]: „Quiz. Did a Human or a Computer Write This?” Online: https://www.nytimes.com/interac- tive/2015/03/08/opinion/sunday/algorithm-human-quiz.html?_r=0 letzter Zugriff: 10.01.2018 Newman, N./ Fletcher, R./ Levy, D. A. L./ Nielsen, R. K. [2016]: „Reuters Institute Digital News Report 2016“, Reuters Institute for the Study of Journalism, online: from http://reutersinstitute.poli-tics.ox.ac.uk/sites/default/files/re- search/files/Digital%2520News%2520Report%25202016.pdf letzter Zugriff: 16.11.2017

131

Newman, P. [2017]: „Amazon announces new Echo devices for the whole home", Business Insider Deutschland, online: http://www.businessinsider.de/amazon-echo-devices-for-the-whole-home-2017-9 letzter Zugriff: 19.02.2018 Norkon Computing Systems [2018]: „Live Center. Show your readers that your coverage is truly live”, online: https://www.norkon.net/LiveCenter letzter Zugriff: 10.01.2018 Novy, L. [2013]: „Vorwärts (n)immer? Normalität, Normativität und die Krise des Journalismus“, in: Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Journalismus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 17- 32 Nuix [2018]: „Software that Knows Data”, online: https://www.nuix.com/ letzter Zugriff: 10.01.2018 Oberndorfer, E. [2017]: „Deep-Learning-Startup: Microsoft kauft Maluuba samt KI-Pionier Yoshua Bengio“, online: http://t3n.de/news/deep-learning-maluuba-microsoft-785696/ letzter Zugriff: 17.11.2017 Oertel, B. [2017]: „Algorithmen in digitalen Medien und ihr Einfluss auf die Meinungsbildung“. TAB-Brief Nr. 48, S. 13, online: https://www.tab-beim-bundestag.de/de/pdf/publikationen/tab-brief/TAB-Brief-048.pdf letzter Zugriff: 05.01.2018 Olewitz, C. [2016]: „A Japanese AI program just wrote a short novel, and it almost won a literary prize”, online: https://www.digitaltrends.com/cool-tech/japanese-ai-writes-novel-passes-first-round-nationanl-literary-prize/ letzter Zugriff: 10.01.2018 OpenAI [2018]: „About OpenAI“, online: https://openai.com/about letzter Zugriff: 26.02.2018 Oracle Data Cloud [2018]: „Oracle Data as a Service(DaaS)-Lösungen", Oracle.com, online: https://www.ora- cle.com/de/applications/customer-experience/data-cloud/solutions/data-as-a-service/index.html letzter Zugriff: 26.02.2018 Orlowski, A. [2017]: „Facebook scales back AI flagship after chatbots hit 70% f-AI-lure rate", The Register, online: https://www.theregister.co.uk/2017/02/22/facebook_ai_fail/ letzter Zugriff: 23.01.2018 Osterwalder, A./ Pigneur, Y. [2010]: „Business model generation: a handbook for visionaries, game chan-gers, and challengers", John Wiley & Sons Oswald, B. [2013]: „Vom Produkt zum Prozess“, in: Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Journalis- mus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 63-79 Panetta, K. [2017]: „Top Trends in the Gartner Hype Cycle for Emerging Technologies, 2017", Gartner Inc., on-line: https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-for-emerging-technolo- gies-2017/ letzter Zugriff: 23.01.2018 Papacharissi, Z. [2010]: „The Virtual Sphere 2.0: The Internet, the Public Sphere, and beyond“, in: Chadwick, A./ How- ard, P. N. (Hrsg.): „Routledge Handbook of Internet Po-litics“, Taylor & Francis, S. 230-245, online: http://www.ciberdemocracia.net/victorsampedro/wp-content/uploads/2012/12/Papacharissi-The-Virtual- Sphere-Revisited-Handbook.pdf letzter Zugriff: 16.11.2017 Papakyriakopoulos, O./ Shahrezaye, M./ Thieltges, A./ Serrano, J. C. M./ Hegelich, S. [2017]: „Social Media und Microtargeting in Deutschland“, in: „Informatik-Spektrum“, Vol. 40 (4), S. 327-335, online: https://link.sprin- ger.com/article/10.1007/s00287-017-1051-4 letz-ter Zugriff: 16.11.2017 Papon, K. [2017]: „Technologie schlägt Industrie: Das sind die wertvollsten Unternehmen der Welt", Frankfurter Allge- meine Zeitung, online: http://www.faz.net/aktuell/wirtschaft/diginomics/das-sind-die-wertvollsten-unterneh- men-der-welt-15364862.html letzter Zugriff: 20.02.2018 Pariser, E. [2011]: „The filter bubble: What the Internet is hiding from you“, London: Penguin Publishing UK Pariser, E./ Held, U. [2012]: „Filter Bubble: wie wir im Internet entmündigt werden“, München: Hanser Parkinson, K. et al. [2015]: „The Future of News“, online: http://newsimg.bbc.co.uk/1/shared/bsp/hi/pdfs/29_01_15future_of_news.pdf letzter Zugriff: 10.11.2017 Patterson, L. [2007]: „Marketing and sales alignment for improved effectiveness", in: „Journal of Digital Asset Man- agement", Vol. 3(4), online: https://doi.org/10.1057/palgrave.dam.3650089 letzter Zugriff: 23.01.2018 Pemberton Levy, H. [2016]: „Gartner Predicts a Virtual World of Exponential Change“, online: https://www.gart- ner.com/smarterwithgartner/gartner-predicts-avirtual-world-of-exponential-change/ letzter Zugriff: 17.11.2017 Perez, S. [2017]: „Siri usage and engagement dropped since Alexa and Cortana grew“, online: https://techcrunch.com/2017/07/11/siri-usage-and-engagement-dropped-since-last-year-as-alexa-and-cortana- grew/ letzter Zugriff: 17.11.2017

132

Petereit, D. [2016]: „Atomic Design, das Baukastensystem mit dem schicken Namen“, online: https://t3n.de/news/atomic-design-baukastensystem-721010/ letzter Zugriff: 10.01.2018 Petereit, D. [2017]: „Conversational Interfaces: Das Interface der Zukunft erobert das Web“, online: http://t3n.de/news/conversational-interfaces-812724 letzter Zugriff: 17.11.2017 Pfetsch, B./ Mayerhöffer, E./ Adam, S. [2013]: „Politische Kommunikation“, in: Mediensysteme im internationalen Vergleich", Barbara Thomaß (Hrsg.), UTB GmbH, S. 59-75 Pipedrive [2018]: „Pipeline-Management", Pipedrive.com, online: https://www.pipedrive.com/de/features 205.01.2018 Po.et [2018]: „Po.et – About“, online: https://po.et/about letzter Zugriff: 02.02.2017 Porcellana, S. [2018]: „3 reasons chatbots didn’t meet industry expectations in 2017", Venture Beat, online: https://venturebeat.com/2018/01/13/3-reasons-chatbots-didnt-meet-industry-expectations-in-2017/ letzter Zugriff: 23.01.2018 Poria, S./ Cambria, E./ Hussain, A./ Huang, G. [2015]: „Towards an intelligent framework for multimodal affective data analysis. Neural Networks“, Vol. 63, S. 104-116, doi: 10.1016/j.neunet.2014.10.005 Postinett, A. [2016]: „Microsoft setzt auf Bots“, online: http://www.wiwo.de/unternehmen/it/microsoft-setzt-auf- bots-satya-nadella-ruft-das-ende-der-appsaus/13384796.html letzter Zugriff: 17.11.2017 Postulka, D. [2016]: „Datamining: Marktanalyse 3.0“, Handelsjournal, online: http://handelsjour- nal.de/2016/01/18/unternehmen/dwolf/datamining-marktanalyse-3-0/ letzter Zugriff: 27.02.2018 Powers, E. [2017]: „My News Feed is Filtered? Awareness of news personalization among college students“, in: „Digi- tal Journalism“, Vol. 5(10), S. 1-21 Praller, L. [2017]: „Trump-Wahl und Brexit? Cambridge Analytica nimmt alles zurück“, in: https://www.merkur.de/po- litik/trump-wahl-und-brexit-cambridge-analytica-nimmt-alles-zurueck-7054644.html letzter Zugriff: 16.11.2017 Prescher, D./ Lutter, T. [2016]: „Digitale Sprachassistenten als intelligente Haushaltshelfer“, online: https://www.bit- kom.org/Presse/Presseinformation/Digitale-Sprachassistenten-als-intelligente-Haushaltshelfer.html letzter Zu- griff: 17.11.2017 Press, G. [2016]: „IoT Mid-Year Update From IDC And Other Research Firms", Forbes Magazine nach: IDC [2015]: "The Content Created World 2015-2025", IDC IoT-Webcast #DR2016_GD4_VT, online: https://www.forbes.com/sites/gilpress/2016/08/05/iot-mid-year-update-from-idc-and-other-research- firms/#d8d75f555c59 PricewaterhouseCoopers GmbH Wirtschaftsprüfungsgesellschaft [2017]: „Digitale Assistenten - Bevölkerungsbefra- gung“, online: https://www.pwc.de/de/consulting/management-consulting/pwc-befragung-digitale-assisten- ten-2017.pdf letzter Zugriff: 09.11.2017 Prien, T. [2017]: Automatisierte Werbekommunikation bringt Paradigmenwechsel im Marketing, online: https://t3n.de/news/automatisierte-werbekommunikation-888766/ letzter Zugriff: 10.01.2018 Primo, A./ Zago, G. [2015]: „Who And What Do Journalism? An actor-network perspective“, in: „Digital Journalism“, Vol. 3(1), S. 38-52 Prinzing, M./ Rath, M./ Schicha, C./ Stapf, I. [2015]: „Neuvermessung der Medienethik. Bilanz, Themen und Herausforderungen seit 2000“, Weinheim/Basel: Beltz Juventa Protalinski, E. [2017]: „Google’s speech recognition technology now has a 4.9% word error rate“, online: https://ven- turebeat.com/2017/05/17/googles-speech-recognitiontechnology-now-has-a-4-9-word-error-rate/ letzter Zugriff: 17.11.2017 QY Research Group [2017]: „Global Algorithmic Trading Market Size, Status and Forecast 2022”, online: https://www.wiseguyreports.com/reports/929053-global-algorithmic-trading-market-size-status-and-forecast- 2022 letzter Zugriff: 05.01.2018 Raabe, J. [2013]: „Publizität“, in: Bentele, G./ Brosius, H.-B./ Jarren, O. (Hrsg.): „Lexikon Kommunikations- und Medi- enwissenschaft“, 2. Aufl. Wiesbaden: Springer VS Rabiner, L. R. [1990]: „A tutorial on hidden Markov models and selected applications in speech recognition" in: „Read- ings in speech recognition“, S. 267-296 Rabiner, L. R./ Juang, B. H. [1986]: „An Introduction to Hidden Markov Models“, in: „IEEE ASSP Magazine", Vol. 3 (1) Radford, A./ Metz, L./ Chintala, S. [2015]: „Unsupervised representation learning with deep convolutional generative adversarial networks“, arXiv preprint arXiv:1511.06434

133

Radü, J. [2013]: „Technologie als Chance Auf welche Weise Smartphones, Tablets und die Medientechnologie der Zu- kunft journalistische Qualität sichern helfen“, in: Kramp, L./ Novy, L./ Ballwieser, D./ Wenzlaff, K. (Hrsg.): „Jour- nalismus in der digitalen Moderne“, Wiesbaden: Springer VS., S. 173-183 Rahgozar, O. [2016]: „Chatbot Business Models“, Medium.com nach: CB Insights 2016 und Crunchbase Analyse 2016, online: https://medium.com/@omeedrz/chatbot-business-models-250fed69f6aa letzter Zugriff: 15.11.2017 Ramzan, Z. [2010]: „Phishing attacks and countermeasures“, in: Stamp, M./ Stavroulakis, P. (Hrsg.): „Handbook of In- formation and Communication Security“, Springer Reinbold, F. [2017]: „Warum die AfD den Twitterwahlkampf dominiert“, online: http://www.spiegel.de/netz- welt/web/afd-dominiert-den-twitter-bundestagswahlkampf-auch-dank-bots-a-1168659.html letzter Zugriff: 16.11.2017 Reinsch, M. [2016]: „Social Bots Parteien in Deutschland wollen auf technische Wahlkampf-helfer verzichten“, online: http://www.berliner-zeitung.de/politik/social-bots-parteien-in-deutschland-wollen-auf-technische-wahlkampf- helfer-verzichten-25278052 letzter Zugriff: 16.11.2017 Reiter, E./ Dale, R [2000]: „Building Natural Language Generation Systems“, Cambridge: Cambridge University Press Research and Markets [2017]: „Algorithmic Trading Market 2025 Global Analysis and Forecasts”, online: https://www.researchandmarkets.com/research/nmpkmq/global?w=4 letzter Zugriff: 05.01.2018 Retresco [2018]: „Build Better Business with AI-driven Content Automation”, Retresco, online: www.retresco.de letz- ter Zugriff: 05.01.2018 Reuter, M. [2016]: „Fake-News, Bots und Sockenpuppen- eine Begriffsklärung“, online: https://netzpoli- tik.org/2016/fakenews-social-bots-sockenpuppen-begriffsklaerung/ letzter Zugriff: 16.11.2017 Richter, S./ Sinning, H. [2006]: „Online gestützte Kommunikation für Stadtmanagement- Potentiale, Restriktionen und Anforderungen“, in: Sinning, H. (Hrsg.): „Stadtmanagement – Strategien zur Modernisierung der Stadt(-Re- gion)“, Verlag Dorothea Rohn, 2. Auflage, S. 144-163 Riedel, A. M. [2012]: „Nachrichtenfaktoren in Blogs - Journalistische Avantgarde oder Nachrichten zweiter Hand? Zur Anwendbarkeit der Nachrichtenwert-Theorie auf die politische Blogosphäre im deutschsprachigen Raum“, Ber- lin: epubli GmbH Rietzschel, A. [2017]: „Wie es in Facebooks Echokammern aussieht - von links bis rechts“, on-line: http://www.sued- deutsche.de/politik/mein-facebook-dein-facebook-wie-es-in-den-echokammern-von-links-bis-rechts-aussieht- 1.3576513 letzter Zugriff: 16.11.2017 Rohleder, B. [2015]: „Datenschutz in der digitalen Welt“, online: https://www.bitkom.org/Presse/Anhaenge-an- PIs/2015/09-September/Bitkom-Charts-PK-Datenschutz-22092015-final.pdf letzter Zugriff: 17.11.2017 Rondinella, G. [2017]: „Ausgaben für smarte Lautsprecher verfünffachen sich bis 2021“, online: http://www.hori- zont.net/tech/nachrichten/Gartner-Prognose-Ausgabenfuer-smarte-Lautsprecher-verfuenffachen-sich-bis- 2021-160563 letzter Zugriff: 17.11.2017 Rosenbaum, S. [2011]: „Curation nation: how to win in a world where consumers are creators“, New York: McGraw- Hill Rosenblatt, F. [1958]: „The Perceptron: A probabilistic model for information storage and organization in the brain", in: „Psychological Review", Vol. 65(6) Russell, S. J./ Norvig, P. [2010]: „Artificial Intelligence-A Modern Approach", Pearson Education, 3. Aufl. Ruß-Mohl, S. [2009]: „Kreative Zerstörung: Niedergang und Neuerfindung des Zeitungsjournalismus in den USA“, Kon- stanz: UVK Russom, P. [2013]: "Managing Big Data - TDWI Best Practices Report", TDWI Research, S. 20 Salesforce [2018]: „Salesforce Einstein", Salesforce.com, online: https://www.salesforce.com/products/einstein/over- view/ letzter Zugriff: 26.02.2018 Salzburger, S./ Simon, C./ Wagner, Y. [2017]: „So funktioniert der Facebook-Algorithmus“, online: http://www.sued- deutsche.de/digital/erklaervideo-so-funktioniert-der-facebook-algorithmus-1.3482209 letzter Zugriff: 16.11.2017 Sauer, H. [2002]: „Relationale Datenbanken - Theorie und Praxis", Addison Wesley, 5. Aufl. Saurwein, F. [2017]: „Verantwortung im Zeitalter der Automatisierung“, online: http://de.ejo-online.eu/digitales/ver- antwortung-im-zeitalter-der-automatisierung letzter Zugriff: 17.11.2017

134

Scatterblogs [2018a]: „Social Media Intelligence für Lagezentren und Newsrooms. Geobasiert. Ereignisgetrieben. Echt- zeitfähig“, online: https://www.scatterblogs.com/ letzter Zugriff: 05.01.2018 Scatterblogs [2018b]: „Scatterblogs - Analytics. Anschläge in Brüssel, 2016“, online: https://www.scatter- blogs.com/analytics/ letzter Zugriff: 05.01.2018 Scherer, K. [2017]: „Der Code macht die Musik“, online: https://www.heise.de/tr/artikel/Der-Code-macht-die-Musik- 3465494.html?seite=all letzter Zugriff: 10.01.2018 Scherrer, A. [2017]: „Warum hat Künstliche Intelligenz eine weibliche Stimme?“, online: https://evecom- merce.com/2017/03/06/warum-hat-kuenstliche-intelligenzeine-weibliche-stimme/ letzter Zugriff: 17.11.2017 Schimank, U. [2010]: „Handeln und Strukturen: Einführung in die akteurtheoretische Soziologie“, Weinheim: Beltz Schlicht, M. [2016]: „The Complete Beginner´s Guide To Chatbots“, online: https://chatbotsmagazine.com/the-com- plete-beginner-s-guide-to-chatbots-8280b7b906ca letzter Zugriff: 16.11.2017 Schmidt, J.-H./ Hölig, S./ Merten, L./ Hasebrink, U. [2017]: „Nachrichtennutzung und Meinungsbildung in Zeiten sozia- ler Medien“, in: „Informatik Spektrum“, Vol. 40 (4), S. 358-361, online: DOI: 10.1007/s00287-017-1057-y letzter Zugriff: 16.11.2017 Schmundt, H. [2015]: „Charmante Maschinen. Siri, lass mich nicht allein“, online: http://www.spiegel.de/spiegelwis- sen/siri-cortana-co-wie-intelligent-sind-digitalesprachassistenten-a-1041324.html letzter Zugriff: 17.11.2017 Schneider, C. [2016]: „Cognitive Enterprise - The biggest data challenges that you might not even know you have", IBM Watson Blog Post, online: https://www.ibm.com/blogs/watson/2016/05/biggest-data-challenges-might- not-even-know/ letzter Zugriff: 22.01.2018 Schober Direct Media GmbH & Co. KG [o. D.]: „Consumer Analytics“, Schober Direct Media GmbH & Co. KG., online: www.schober-direct-media.de/cms/wp-content/uplo-ads/2015/06/SchoberDM_Fact-Sheet_MarketBase-Con- sumer_Analytics_WEB.pdf letzter Zugriff: 27.02.2018 Schomaker, J. [2012]: „Einführung in die Theorie der Markov-Ketten", Universität Münster, online: http://wwwmath.uni-muenster.de/statistik/lehre/SS12/SeminarAnwendungenWT/Vortraege/Schomaker.pdf letzter Zugriff: 11.01.2018 Schonschek, O. [2017]: „Was Unternehmen über Chatbots wissen müssen“ online: https://www.computerwo- che.de/a/was-unternehmen-ueber-chatbots-wissen-muessen,3329735 letzter Zugriff: 16.11.2017 SCHUFA Holding AG [o. D.]: „So funktioniert die SCHUFA“, online: www.schufa.de/de/ueber-uns/unternehmen/so- funktioniert-schufa/ letzter Zugriff: 27.02.2018 Schulz, W. [2003]: „Politische Kommunikation“, in: Bentele, G./ Brosius, H.B./ Jarren, O. (Hrsg.): „Handbuch Öffentli- che Kommunikation“, Opladen: Westdeutscher Verlag, S.1-31 Schulz, W./Dankert, K [2016]: „Die Macht der Informationsintermediäre. Erscheinungsformen, Strukturen und Regu- lierungsoptionen“. Friedrich-Ebert-Stiftung (Hrsg.), online: http://library.fes.de/pdf-files/akademie/12408.pdf letzter Zugriff: 05.01.2018 Schwab, F. [2008]: „Involvement“, in: Krämer, N. C./ Schwan, S./ Unz, D./ Suckfüll, M. (Hrsg.): „Medienpsychologie. Schlüsselbegriffe und Konzepte“, Stuttgart: W. Kohlhammer, S. 218-223 SciKit-learn Developers [2017]: „SciKit-Learn Algorithm Cheat-Sheet", BSD License, online: http://scikit- learn.org/stable/tutorial/machine_learning_map/index.html letzter Zugriff: 18.12.2017 Seed Scientific [2015]: „Seed Scientific Acquired by Spotify”. Joining Forces to Create New Advanced Analytics Unit, online: http://seedscientific.com/ letzter Zugriff: 05.01.2018 Seibel, K. [2015]: „Gegen Kreditech ist die Schufa ein Schuljunge", Die WELT, Ausg. vom 17/04/2015; Kreditech [2018], online www.kreditech.com/what-we-do/ letzter Zugriff: 26.02.2018 Sentient Technologies [2017]: „Sentient Aware Case Study: Sunglass Hut", SentientAI, online: https://www.senti- ent.ai/wp-content/uploads/2018/01/Sentient-Aware-Case-Study-Sunglass-Hut.pdf letzter Zugriff: 29.01.2018 Shafahi, M./ Kempers, L./ Afsarmanesh, H. [2016]: „Phishing through social bots on Twitter“, in: „2016 IEEE Interna- tional Conference on Big Data“, S. 3703-3712 Shaw, A. [2011]: „Centralized and Decentralized Gatekeeping in an Open Online Collective“, in: „Politics & Society“, Vol. 40 (3), S. 349-388, online: DOI: 10.1177/0032329212449009 letzter Zugriff: 16.11.2017 Shirky, C. [2008]: „It’s not information overload. It’s filter failure. Web 2.0 Expo“, online: https://www.y- outube.com/watch?v=LabqeJEOQyI letzter Zugriff: 17.11.2017

135

Shoemaker, P. J./ Vos, T. P./ Reese, S. D. [2009]: „Journalists as Gatekeepers“, in: Jorgensen, K.W./ Hanitzsch, T. (Hrsg.): „The Handbook of Journalism Studies“, New York: Rout-ledge, S. 73-87 Shrikumar, A./ Greenside, P./ Shcherbina, A.Y./ Kundaje, A. [2017]: „Not Just A Black Box: Learning Important Features Through Propagating Activation Differences", arXiv preprint arXiv:1605.01713 Siebert, A. [2014]: „Roboterjournalismus im Jahre 2020 – Acht Thesen“, online: http://www.huffingtonpost.de/ale- xander-siebert/roboterjournalismusim-jahre-2020---acht-thesen_b_5655061.html letzter Zugriff: 17.11.2017 Singer, J. B. [2014]: „User-generated visibility: Secondary gatekeeping in a shared media space“, in: „New Media & Society“, Vol. 16 (1), S. 55-73, online: DOI: 10.1177/1461444813477833 letzter Zugriff: 17.11.2017 Singer, N. [2012]: „Mapping, and Sharing, the Consumer Genome“, New York Times, online: www.ny- times.com/2012/06/17/technology/acxiom-the-quiet-giant-of-consumer-database-marketing.html letzter Zugriff: 27.02.2018 Singh, S. [2015]: „How algorithms will drive the growth of e-commerce in the future”, online: https://econom- ictimes.indiatimes.com/tech/internet/how-algorithms-will-drive-the-growth-of-e-commerce-in-the-future/arti- cleshow/45801937.cms letzter Zugriff: 05.01.2018 Smith, A./ Anderson, J. [2014]: „AI, Robotics, and the Future of Jobs“, Washingon, DC: Pew Research Center, online: http://www.fusbp.com/wpcontent/uploads/2010/07/AI-and-Robotics-Impact-on-Future-Pew-Survey.pdf letzter Zugriff: 17.11.2017 Solanki, K. [2012]: „Responsive Web Design. Ideas, Technology and Examples. Blogbeitrag“, online: https://onex- trapixel.com/responsive-web-design-ideas-technology-and-examples/ letzter Zugriff: 17.11.2017 Sonnad, N. [2015]: „The magic that makes Spotify’s Discover Weekly playlists so damn good”, online: https://qz.com/571007/the-magic-that-makes-spotifys-discover-weekly-playlists-so-damn-good/ letzter Zugriff: 10.01.2018 Sovie, D./ Curran, J./ Schoelwer, M./ Björnsjö, A. [2017]: „Dynamic Digital Consumers Ever-changing Expectations and Technology Intrigue“, online: https://www.accenture.com/us-en/insight-dynamic-consumers letzter Zugriff: 17.11.2017 Specht, D. F. [1990]: „Probabilistic neural networks", in: „Neural Networks", Vol. 3(1) Spotify [2018]: „Spotify – Entdecken“, online: https://support.spotify.com/de/article/Discover/ letzter Zugriff: 05.01.2018 Stark, B. [2017]: „Gefangen in der Echokammer? Politische Meinungsbildung auf Facebook“, online https://www.die- medienanstalten.de/fileadmin/user_upload/Veranstaltungen/2017/2017_03_08_Ganz_meine_Mei- nung/Praesentation_Prof._Stark.pdf letzter Zugriff: 05.01.2018 Stelzel-Morawietz, P. [2017]: „IFTTT: So automatisieren Sie Ihren Alltag“, online: https://www.pcwelt.de/ratge- ber/_If_this_then_that__automatisiert_das_Leben_im_Web-Online-Service_IFTTT-8295495.html letzter Zugriff: 16.11.2017 Sterling, G. [2016]: „Google says 20 percent of mobile queries are voice searches“, online: https://searchengine- land.com/google-reveals-20-percent-queries-voice-queries-249917 letzter Zugriff: 09.11.2017 Stern, J. [2017]: „AfD verzichtet auf Meinungsroboter – oder nicht?“, online: http://faktenfinder.tagesschau.de/social- bots-bundestag-wahl-101.html letzter Zugriff: 16.11.2017 Stewart, W.J. [1994]: „Introduction to the Numerical Solution of Markov Chains", UK: Princeton University Press Strategy& [2017]: „The 2017 Global Innovation 1000 study“, online: https://www.strategyand.pwc.com/innova- tion1000#GlobalKeyFindingsTabs4|VisualTabs1 letzter Zugriff: 17.11.2017 Stromer-Galley, J. [2014]: „Presidential Campaigning in the Internet Age“, New York: Oxford University Press. Sunstein, C. [2009]: „Going to extremes: How Like Minds Unite and Divide”. Oxford u.a.: Oxford University Press. Sweeney, L. [2013]: „Discrimination in Online Ad Delivery“, in: „Communications of the ACM“, Vol. 56 (5), S. 44-54, online: https://cacm.acm.org/magazines/2013/5/163753-discrimination-in-online-ad-delivery/fulltext letzter Zugriff: 17.11.2017 Sweller, J. [1988]: „Cognitive load during problem solving: Effects on learning“, in: „Cognitive Science“, Vol. 12 (2), S. 257-285 Tandoc, E. C. [2013]: „Journalism is twerking? How web analytics is changing the process of gatekeeping“, in: „New Media & Society“, Vol. 16 (4), S. 559-575, online: DOI: 10.1177/1461444814530541 letzter Zugriff: 17.11.2017

136

Tata Consultancy Services [2015]: „Internet of Things: The Complete Reimaginative Force. TCS Global Trend Study - July 2015”, online: http://sites.tcs.com/internet-of-things/wp-content/uploads/Internet-of-Things-The-Com- plete-Reimaginative-Force.pdf letzter Zugriff: 10.01.2018 Team, T. [2014]: „Google's Strategy Behind The $3.2 Billion Acquisition Of Nest Labs“, online: https://www.forbes.com/sites/greatspeculations/2014/01/17/googlesstrategy-behind-the-3-2-billion-acquisi- tion-of-nest-labs letzter Zugriff: 17.11.2017 TechNavio [2016]: „Global Algorithmic Trading Market 2016-2020“, online: https://www.technavio.com/report/glo- bal-miscellaneous-algorithmic-trading-market letzter Zugriff: 05.01.2018 Technologiestiftung Berlin [2017]: „IoT in Berlin“, online: https://www.technologiestiftung-berlin.de/fileadmin/da- ten/media/publikationen/170504_IoT-Report_Web.pdf letzter Zugriff: 10.01.2018 TensorFlow [2018]: „TensorFlow Playground", Google TensorFlow Bibliothek, online: http://playground.tensor- flow.org, letzter Zugriff: 26.02.2018 The Economist Business Intelligence Unit Ltd. [2016]: „Artificial Intelligence in the real world - The business case takes shape", The Economist, online: https://www.eiuperspectives.economist.com/sites/default/files/Artificial_intelli- gence_in_the_real_world_1.pdf letzter Zugriff: 12.02.2018 The next Rembrandt [2018]: „The next Rembrandt. Can the Great Master be Brought back to create one more Paint- ing?”, Online: https://www.nextrembrandt.com/ letzter Zugriff: 10.01.2018 Thomas, J. [2017]: „Hallo, Computer!“, online: https://berlinvalley.com/spracherkennung/ letzter Zugriff: 17.11.2017 Thusoo, A./ Sarma, J. S./ Jain, N./ Shao, Z./ Chakka, P./ Anthony, S./ Murthy, R. [2009]: „Hive: a warehousing solution over a map-reduce framework", in: „Proceedings of the VLDB Endowment", Vol. 2(2) Tißler, J. [2017]: „Alexa, Cortana, Siri & Co: Der Hype um Sprachassistenten erklärt“, Upload Magazin, online: https://upload-magazin.de/blog/16055-alexa-sprachassistenten/ letzter Zugriff: 09.11.2017 Tobler, S. [2010]: „Transnationalisierung nationaler Öffentlichkeit. Konfliktinduzierte Kommunikationsverdichtungen und kollektive Identitätsbildung in Europa“, Wiesbaden: VS Verlag für Sozialwissenschaften Torinus, G. [2016]: „Die Entschlüsselung der Panama Papers“, online: https://www.heise.de/tp/features/Die-Entschlu- esselung-der-Panama-Papers-3267916.html letzter Zugriff: 10.01.2018 Tratica [o. D]: „Anzahl der Nutzer virtueller digitaler Assistenten weltweit in den Jahren von 2015 bis 2021 (in Millio- nen). In Statista - Das Statistik-Portal“, online: https://de.statista.com/statistik/daten/studie/620321/um- frage/nutzung-von-virtuellen-digitalen-assistenten-weltweit/ Zugriff: 09.11.2017 Tractica [2016]: „Virtual digital assistant market reach 15,8 billion worldwide by 2021“, online: https://www.trac- tica.com/newsroom/press-releases/the-virtual-digital-assistant-market-will-reach-15-8-billion-worldwide-by- 2021/ letzter Zugriff: 17.11.2017 Tractica [2017]: „Natural language processing market to reach 22.3 Billion $ by 2025“, online: https://www.trac- tica.com/newsroom/press-releases/natural-language-processing-market-to-reach-22-3-billion-by-2025/ letzter Zugriff: 17.11.2017 Trenz, H.-J. [2008]: „Understanding Media Impact on European Integration: Enhancing or Restricting the Scope of Le- gitimacy of the EU?“, in: „European Integration“, Vol. 30(2), S. 291-309 Turing, A.M. [1950]: „Computing Machinery and Intelligence", in: Mind, Vol. 54(236) S. 433-460 Tusch, R. [2017]: „Medienforscher über Roboter-Journalismus: ,In der Massenproduktion schneiden Maschinen bes- ser ab als Menschen‘“, online: http://meedia.de/2017/03/20/medienforscher-ueber-roboter-journalismus-in- der-massenproduktion-schneiden-maschinen-besser-ab-als-menschen/ letzter Zugriff: 10.01.2018 Ukrow, J. [2017]: „Neue Formen politischer Kommunikation als Gegenstand einer positiven Ordnung 4.0“, online: http://www.medien-impulse.de/wp-content/uploads/2017/01/chat-bots-170110.pdf letzter Zugriff: 16.11.2017 Van der Maaten, L./ Hinton, G. E. [2008]: „Visualizing data using t-SNE“, in: „Journal of Machine Learning Research", Vol. 9, S. 2579-2605 van der Meulen [2016]: „Gartner Says Algorithms Are Redefining the Architecture of Business”, online: https://www.gartner.com/newsroom/id/3349017 letzter Zugriff: 05.01.2018 Van Lun, E. [2013]: „Chatbot Jana [Deutsche Post)“, online: https://www.chatbots.org/chatbot/jana1/ letzter Zugriff: 16.11.2017

137

van Rijmenam, M. [2017]: „The Gaming Industry Turns To Big Data To Improve The Gaming Experience”, online: https://datafloq.com/read/gaming-industry-turns-big-data-improve-gaming-expe/137 letzter Zugriff: 10.01.2018 VDZ [2017]: „Chatbots & Co. - The Next Big Thing?!", Verband Deutscher Zeitschriftenverleger e.V. VentureBeat [2015]: „Prognose zum Umsatz im Markt für Videogames weltweit von 2011 bis 2020 nach Segment (in Milliarden US-Dollar)“, Statista, online: https://de.statista.com/statistik/daten/studie/160518/umfrage/prog- nostizierter-umsatz-in-der-weltweiten-videogames-branche/ Letzter Zugriff: 17.01.2018 Verbraucherzentrale [2017]: „Amazon hört zu: 'Echo' jetzt auch in hiesigen Wohnzimmern", Verbraucherzentrale.de, online: https://www.verbraucherzentrale.de/wissen/digitale-welt/datenschutz/amazon-hoert-zu-echo-jetzt- auch-in-hiesigen-wohnzimmern-13149 letzter Zugriff: 20.02.2018 Verbraucherzentrale Bundesverband e.V. [2017]: „Algorithmenbasierte Entscheidungsprozesse. Thesenpapier des vzbv“, online: https://www.vzbv.de/sites/default/files/downloads/2017/12/14/17-12-05_vzbv_thesenpa- pier_algorithmen.pdf letzter Zugriff: 05.01.2018 Verizon Communications [2015]: „State of the Market. The Internet of Things 2015. Discover how IoT is transforming business results”, online: http://www.verizonenterprise.com/resources/reports/rp_state-of-market-the-mar- ket-the-internet-of-things-2015_en_xg.pdf letzter Zugriff: 10.01.2018 Vieth, K./Wagner, B. [2017]: „Teilhabe, ausgerechnet. Wie algorithmische Prozesse Teilhabechancen beeinflussen können“. Im Auftrag der Bertelsmann Stiftung, online: https://www.bertelsmann-stiftung.de/fileadmin/fi- les/BSt/Publikationen/GrauePublikationen/Teilhabe_ausgerechnet.pdf letzter Zugriff: 05.01.2018 Voigt, J. [2016]: „Nachrichtenqualität aus Sicht der Mediennutzer“, Wiesbaden: Springer VS Voigt, K.-I. [2017]: „Definition – Automatisierung“, online: http://wirtschaftslexikon.gabler.de/Definition/automatisie- rung.html, letzter Zugriff: 17.11.2017 von Eisenhart Rothe, Y. [2017]: „Die Automatisierung des Journalismus“, online: https://uebermedien.de/19051/die- automatisierung-des-journalismus/ letzter Zugriff: 17.11.2017 Wagner, C./ Mitter, S./ Körner, C. [2012]: „When social bots attack: Modeling susceptibility of users in online social networks“, in: Rowe, M./ Stankovic, M./ Dadzie, A.-S. (Hrsg.): „Proceedings of the 2nd Workshop on Making Sense of Microposts. Big things come in small packages“, S. 41-48 Waibel, A./ Hanazawa, T./ Hinton, G./ Shikano, K./ Lang, K. J. [1989]: „Phoneme recognition using time-delay neural networks". in: „IEEE transactions on acoustics, speech, and signal processing", Vol. 37(3) Wakefield, J. [2016]: „Would you want to talk to a machine?“, online: http://www.bbc.com/news/technology- 36225980 letzter Zugriff: 16.11.2017 Wallace, J. [2017]: „Modelling Contemporary Gatekeeping“, in: „Digital Journalism“, Vol. 9 (16), S. 1-20, online: DOI: 10.1080/21670811.2017.1343648 letzter Zugriff: 17.11.2017 Wallace, R. S. [o. D.]: „From Eliza to A.L.I.C.E.“, online: http://www.alicebot.org/articles/wallace/eliza.html letzter Zugriff: 16.11.2017 Wang, X./ Giron, F./ Ask, J. A./ Wise, J./ Purcell, B./ Stanhope, J./ Deng, D./ Nagel, B. [2017]: „Chatbots Are Transform- ing Marketing - Use Chatbots To Help Customers Discover, Explore, And Engage With Your Brand", Forrester Research Inc., online: https://www.forrester.com/report/Chatbots+Are+Transforming+Marketing/-/E- RES136771 letzter Zugriff: 26.02.2018 Ward, J.S./ Barker, A. [2013]: „Undefined By Data: A Survey of Big Data Definitions“, University of St. Andrews, S. 2 Weichert, S. A./ Kramp, L./ Welker, M. [2015]: „Die Zeitungsmacher: Aufbruch in die digitale Moderne“, Wiesbaden: Springer VS Werner, K. [2017]: „Eine Maschine gegen Depression“, online: http://www.sueddeutsche.de/digital/kuenstliche-intel- ligenz-eine-maschine-gegen-die-depression-1.3431873 letzter Zugriff: 16.11.2017 Weßler, H. [2004]: „Europa als Kommunikationsnetzwerk. Theoretische Überlegungen zur Europäisierung von Öffent- lichkeit“, in: Hagen, L. M. (Hrsg): „Europäische Union und mediale Öffentlichkeit, Theoretische Perspektiven und empirische Befunde zur Rolle der Me-dien im europäischen Einigungsprozess“, Köln: Herbert von Halem Verlag, S. 13-28 Wieduwilt, H. [2017]: „Facebook löscht tausende falsche Konten", Frankfurter Allgemeine Zeitung, online: http://www.faz.net/aktuell/wirtschaft/facebook-loescht-tausende-fake-konten-in-deutschland-15163212.html letzter Zugriff: 20.02.2018

138

WikiLeaks [2016]: „NSA Untersuchungsausschuss", online: https://wikileaks.org/bnd-nsa/press/index.de.html letzter Zugriff: 27.02.2018 Wingfield, N. [2017]: „Cortana, Open Alexa, Amazon says. And Microsoft Agrees“, online: https://www.ny- times.com/2017/08/30/technology/amazon-alexa-microsoftcortana.html?_r=0 letzter Zugriff: 17.11.2017 Wissenschaftliche Dienste des deutschen Bundestags [2017]: „Algorithmen im Medienbereich – Gesetzlicher Rege- lungsbedarf“. Aktenzeichen WD10-3000-048/17, online: https://www.bundes- tag.de/blob/529616/bbe3de30880170a7b710e5c8732b7c06/wd-10-048-17-pdf-data.pdf letzter Zugriff: 05.01.2018 Wochit [2018]: „Make videos worth sharing. The fast and simple video creation solution publishers rely on”, online: https://www.wochit.com/ letzter Zugriff: 10.01.2018 Wölbert, C. [2017]: „Den Unterschied merkt man nicht. Automatische Texterstellung setzt sich durch“, online: https://www.heise.de/ct/ausgabe/2017-3-Automatische-Texterstellung-setzt-sich-durch-3599588.html letzter Zugriff: 10.01.2018 Woolley, S. [2016]: „Automating power: Social bot interference in global politics“, in: „First Monday“, Vol. 21(4), online: http://firstmonday.org/ojs/index.php/fm/article/view/6161 letzter Zugriff: 16.11.2017 Woolley, S./ Howard, P. [2017]: „Computational Propaganda Worldwide: Executive Summary (Working Paper No. 11)“, Oxford, UK, online: http://comprop.oii.ox.ac.uk/publishing/working-papers/computational-propaganda- worldwide-executive-summary/ letzter Zugriff: 16.11.2017 Wortham, J. [2010]: „Apple buys Siri, a Voice-Command App“, online: http://www.nytimes.com/2010/04/29/technol- ogy/29apple.html letzter Zugriff: 17.11.2017 Wright, S. [2011]: „Politics as Usual? Revolution, normalization and a new agenda for online deliberation“, in: „New Media & Society“, Vol. 14 (2), S. 244-261, online: 10.1177/1461444811410679 letzter Zugriff: 17.11.2017 Writer, S. [2016]: “IBM Watson & The Drum team up for first magazine edited with AI”, online: http://www.thedrum.com/news/2016/06/15/ibm-watson-drum-team-first-magazine-edited-ai letzter Zugriff: 10.01.2018 Yang, H. C./ Dasdan, A./ Hsiao, R. L./ Parker, D. S. [2007]: „Map-reduce-merge: simplified relational data processing on large clusters", in: „Proceedings of the 2007 ACM SIGMOD international conference on Management of data" Yin, R. K. [2014]: „Case Study Research. Design and Methods“, Thousand Oaks: Sage, 5. Auflage Yosinski, J./Clune, J./ Nguyen, A./ Fuchs, T./ Lipson, H. [2015]: „Understanding neural networks through deep visuali- zation“, arXiv preprint arXiv:1506.06579 YouGov [2017]: „Was spricht aus Ihrer Sicht grundsätzlich gegen die Nutzung von so genannten 'Chatbots'?", Sta- tista.de, online: https://de.statista.com/statistik/daten/studie/747801/umfrage/vorbehalte-gegenueber-chat- bots-aus-kundensicht/ letzter Zugriff: 26.02.2018 YouTube Channel: Winterblessed [2013]: „Two Artificial Intelligence (AI) Chatbots talk and argue with each other“, online: https://www.youtube.com/watch?v=vphmJEpLXU0 letzter Zugriff: 16.11.2017 Zechmeister, F. [2017]: „Thesenpapier attestiert Social-Bots weitreichendes Gefahrenpotenzial“, online: https://netz- politik.org/2017/thesenpapier-zur-gesellschaftlichen-und-politischen-relevanz-von-social-bots-vorgestellt/ letz- ter Zugriff: 16.11.2017 Zeiler, M.D./ Fergus, R. [2013]: „Visualizing and understanding convolutional neural networks" arXiv preprint, arXiv:1311.2901 Zelada, S. [2017]: „Bossa Studios - Autor der Half-Life-Episoden & Portal 2 setzt auf Storytelling per KI”, online: http://www.gamestar.de/artikel/bossa-studios-autor-der-half-life-episoden-portal-2-setzt-auf-storytelling-per- ki,3323167.html letzter Zugriff: 10.01.2018 Zell, A. [1994]: „Simulation Neuronaler Netze (Vol. 1)“, Bonn: Addison-Wesley Zuckerberg, Mark [2016]: „Building Jarvis“, online: https://www.facebook.com/notes/mark-zuckerberg/buildingjar- vis/10103347273888091/ letzter Zugriff: 17.11.2017 Zuiderveen Borgesius, F. J./ Trilling, D./ Moeller, J./ Bodó, B./ de Vreese, C. H./ Helberger, N. [2016]: „Should we worry about filter bubbles?“, in: „Internet Policy Review. Journal on Internet Regulation“, Vol. 5 (1), online: DOI: 10.14763/2016.1.401 letzter Zugriff: 17.11.2017 Zweig, A. [2016]: „1. Arbeitspapier: Was ist ein Algorithmus?“, online: https://algorithmwatch.org/de/arbeitspapier- was-ist-ein-algorithmus/ letzter Zugriff: 17.11.2017

139

Zweig, K. A./ Deussen, O./ Krafft, T. D. [2017]: „Algorithmen und Meinungsbildung“, in: „Informatik Spektrum“, Vol. 40 (4), S. 318-326, online: DOI: 10.1007/s00287-017-1050-5 letzter Zugriff: 17.11.2017

140

9 ANHANG

9.1 MARKTÜBERSICHT: B2C-ANWENDUNGEN

CONNECTED HOME UND IOT

Produkt Funktionsbeschreibung

Ems Ems ist eine kostenfreie, auf KI basierende Anwendung, die freie Immobilien ermit- telt, die genau auf die Bedürfnisse des Nutzers zugeschnitten sind. Ems arbeitet un- abhängig von Vermietern und Maklern.

Bridge Kitchen Bridge Kitchen begleitet den Anwender von der Auswahl des Gerichts bis hin zur Ausführung. Beispielsweise wird die Zubereitungszeit in Abhängigkeit vom Essens- zeitpunkt berechnet oder Bridge Kitchen verbindet sich mit internetfähigen Küchen- geräten und steuert diese.

UnifyID UnifyID kombiniert Implicit Authority mit maschinellem Lernen. Smart Devices er- kennen mithilfe von UnifyID den Nutzer anhand seines Verhaltens und können da- mit mehr als 500 Internetseiten freischalten. Das Speichern von Passwörtern gehört damit der Vergangenheit an.

Aerial Aerial fusioniert die Verfügbarkeit von WLAN und das schnell wachsende Angebot an Machine Learning. Basierend auf Funksignalen werden Menschen und Tiere er- kannt und Daten über ihren Aufenthaltsort, ihr Verhalten und ihre Bewegungen ge- sammelt. Mit diesen Daten können Arbeitsabläufe automatisiert werden und für weitere Anwendungen genutzt werden.

Bridge.ai Zu Bridge.ai gehört die Smart Home Plattform Aura. Aura benutzt maschinelles Ler- nen, um durch Geräusche zu verstehen, was im näheren Umfeld passiert. Her- kömmliche, mit Aura kombinierte Mikrofone ermöglichen das Erkennen von Stim- men und mechanischen Geräuschen, wie z.B. die Türklingel oder das Öffnen des Garagentors.

Cubic Der KI Butler vereint die Nutzung verschiedener Smart-Home-Anwendungen in ei- ner App. Durch Spracherkennung, das Dashboard oder eine automatisierte Einstel- lung von Routinen kann die App gleichzeitig unterschiedliche Smart Devices steu- ern.

Grojo Grojo ist ein Kontroll- und Überwachungssystem für Indoor Gardening. Über eine Open Source Fernbedienung wird das Wachstum von Pflanzen in Räumen, deren Ertrag und die erzielten Resultate kontrolliert und optimiert.

Home.AI Die Plattform Home.AI misst konstant die Interaktion zwischen Familienmitgliedern und deren Smart Devices sowohl Zuhause als auch außerhalb. Basierend auf diesen Daten kann Home.AI die Familie dabei automatisiert unterstützen, den Familienall- tag optimal zu gestalten, logistische Herausforderungen zu managen und für Sicher- heit zu sorgen.

141

Hello Sense hilft den Schlaf zu überwachen und zu verbessern. Die App ermöglicht dem Anwender, den eigenen Schlafrhythmus mithilfe von detaillierten Breakdowns zu verstehen. Sense ist mit vielen Sensoren versorgt, die die Schlafbedingungen im Schlafzimmer messen und dem Nutzer Einblicke geben, inwieweit das Umfeld den Schlaf beeinflusst.

Josh Josh ist ein Sprachsteuerungssystem für das ganze Haus. Es beinhaltet eine intuitive Sprachsteuerung, ein multifunktionales Home Control Interface mit Fernfeld-Mik- rofonen und einen Prozessor für das gesamte Zuhause. Josh sendet die Anweisun- gen zur Cloud, von der aus alle Informationen zur Home Base weitergeleitet wer- den. Damit interagieren alle Smart Home Devices mit der Home Base und ein Re- mote-Zugang ist von überall möglich.

Mycroft ist die erste Open-Source-Voice-Assistent-Technologie, die beliebig erwei- tert und kombiniert werden kann. Ein Einsatz ist somit in vielseitigen Projekten möglich und die Developer Community treibt die Entwicklung weiter voran. Im Be- reich Home Control übernimmt Mycroft die Steuerung von Connected Devices durch Voice Control.

Nanit Nanit ist eine Erweiterung des Babyfons und besitzt eine Echtzeit-HD-Videokamera mit bester Nachtaufnahmemöglichkeit und einen Sensor für die Raumtemperatur und Luftfeuchtigkeit. Mittels Computer Vision baut Nanit ein Verständnis für die Bewegungen des Babys auf und kann einschätzen, wann es wach, unruhig oder im Tiefschlaf ist.

Nest Netz stellt verschiedene Technologien, wie z.B. Rauchmelder, Türklingeln und Ka- meras, zur Verfügung, um ein Zuhause zu schaffen, das in der Lage ist, auf sich selbst, seine Umgebung und seine Bewohner aufpassen zu können. Sicherheitska- meras sind beispielweise mit einem integrierten Mikrofon und Lautsprechern aus- gestattet und über eine App mit dem Handy verbunden. Somit können Einbrecher verjagt werden, auch wenn man nicht Zuhause ist.

ARBEITSALLTAG

Produkt Funktionsbeschreibung

Findo Findo ist ein smarter Research-Assistent und hilft dem Nutzer dabei, abgelegte und gespeicherte Dateien wiederzufinden. Mittels einer Beschreibung durchsucht Findo verschiedene Speicherorte (Cloud, Dropbox, Outlook, Gmail, Evernote, Slack etc.) und stöbert so die Datei auf, auch wenn Speicherort und Dateiname nicht mehr bekannt sind.

Leap Leap schlägt dem Bewerber passende Unternehmen vor, basierend auf dem Le- benslauf, den Skills und dem, was hinter dem Bewerber und dem Unternehmen steckt. Ziel ist es den Perfect-Fit für Arbeitnehmer und -geber zu finden und den Zeitaufwand bei der Suche zu minimieren. Leap nutzt hierfür Machine Leaning und auf künstlicher Intelligenz basierendes Echtzeit-Feedback für Bewerbungen.

142

Mosaic Der KI-Agent verhilft den Bewerbern zu besseren Bewerbungsschreiben und guten Jobs. Die Bewerbungsschreiben werden beispielsweise optimal auf die Skills in Be- zug auf die Jobbeschreibungen angepasst.

Newton Nachdem das Résumé analysiert wurde, wird das Web durchgängig, basierend auf smarter KI-Technologie, nach passenden Jobangeboten durchsucht. Das Feedback zu den gefundenen Stellen optimiert die weitere Suche. Zusätzlich ist es möglich mit Newton über einen Messenger zu chatten.

Robby Robby kombiniert verschiedene Kalender zu einem und lernt vom Anwender, wel- che Veranstaltung bevorzugt werden und welche zusätzlichen Events von Interesse sein könnten.

Woo Woo unterstützt den Nutzer dabei, bessere Karriereentscheidungen zu treffen und unterbreitet personalisierte, mögliche Job-Angebote. Der ganze Vorgang läuft ano- nym ab.

GESELLSCHAFT, SOZIALES UND DATING

Produkt Tätigkeitsbeschreibung

BrightCrowd Bei BrightCrowd handelt es sich um eine Plattform, die sowohl dem Austausch von Erfahrungswerten und Hilfedienstleistungen als auch dem Aufbau eines professio- nellen Netzwerks dient. Dieses Netzwerk basiert auf Freunden und Freunden von Freunden.

Capsule.ai Capsule ist eine KI-basierte App, die die Bewegungen, Routen und besuchten Orte des Nutzes aufzeichnet und den dort gemachten Fotos zuordnet. Zusätzlich wird eine metrische Auswertung erstellt, in der der Nutzer z.B. nachschauen kann, wann er in der letzten Woche im Durchschnitt die Arbeit verlassen hat oder wie viele un- terschiedliche Orte am Abend besucht wurden.

Dating.ai Dating AI ist die erste App mit integrierter Gesichter-Suche. Die angezeigten Vor- schläge sollen dem Geschmack des Nutzers entsprechen und Personen anzeigen, die den persönlichen Vorlieben entsprechen.

Eezy Basierend auf Empfehlungen übernimmt Eezy die Abendplanung.

HashMe HashMe unterstützt dabei, mehr Likes und eine größere Reichweite auf Instagram durch relevante, passende Hashtags zu generieren.

Hotness.ai Hotness.ai bewertet anhand eines hochgeladenen Fotos, wie heiß die Person ist.

Nudge.ai Nudge.ai versorgt den Nutzer mit den neusten Unternehmensinformationen, sozi- alen Aktivitäten und Einblicken in Beziehungen.

Rey Rey stellt ein Netzwerk an interessanten und auf den Nutzer abgestimmten Kontak- ten zusammen. Für die professionelle Anwendung übernimmt Rey die Vorstellung von Möglichkeiten im Bereich Sales, Fundraising, Investment etc..

BILDUNG, FORSCHUNG UND SPRACHKURSE

143

Produkt Tätigkeitsbeschreibung

Thirdleap Thirdleap schafft eine Plattform für Bildung und nutzt personalisierte Teaching Ma- chines, um sich genau an das Lerntempo und den Wissensstand des Schülers anpas- sen zu können.

Woogie Durch eingebaute Sensoren ist Woogie der einzige pädagogische Roboter, der pro- aktiv eine Unterhaltung mit dem Kind im passenden Moment anfangen kann oder Informationen basierend auf den Interessen des Kindes liefert. Zusätzlich ist kein Bildschirm für die Interaktion mit Roboter notwendig.

Eli Bei Eli handelt es sich um ein kleines Mikrofon, das am Kragen befestigt wird und sich mit der dazugehörigen App verbindet, um Konversationen aufzuzeichnen und zu analysieren. Auf Basis dieser Aufnahmen wird ein personalisierter Fremdspra- chenunterricht generiert. Die Inhalte passen sich dem täglichen Sprachgebrauch und Wortschatz an.

Liv.ai Liv.ai dient der Spracherkennung von neun der am weitesten verbreiteten Sprachen und wandelt Sprache in Text um und anders herum. Das System funktioniert mit den meisten Akzenten und in lauten Umgebungen.

Microsoft Der Microsoft Translator ist ein Sprachübersetzer, der auf ein neuronales Netzwerk Translator aufbaut.

Apollo Auto-Abstract erstellt qualitativ hochwertige Zusammenfassungen von Nachrich- tenartikeln und fasst den Inhalt basierend auf wichtigen Schlüsselwörtern in Stich- punkten zusammen. ferret ferret wertet das geschriebene Wort aus und bereitet die darin enthaltenen Infor- mationen auf. Dabei nutzt ferret natürliche Sprachverarbeitung, Machine Learning und Automated Services. Die Leistung umfasst u. a. das Training von KI zur Fake- Account/Bot-Erkennung, Plug- und Play-Lösungen, Automatisierungs-Tools, News und Social-Media-Alerting in Echtzeit und Daten-Aggregation.

Iris.AI Iris.AI abstrahiert das Schlüsselkonzept von wissenschaftlichen Arbeiten und visua- lisiert es.

GESUNDHEIT, WEARABLES UND FITNESS

Produkt Tätigkeitsbeschreibung

Abi Abi stellt professionellen, medizinischen Rat für gesundheitliche Probleme zur Ver- fügung. Der Nutzer kann die bevorzugte Sprache und das Land des Arztes wählen. Die Ärzte können rund um die Uhr um Rat gefragt werden.

Ada Ada erstellt einen Zustandsbericht der eigenen Gesundheit und dient dazu, dass der Nutzer seine eigene Gesundheit besser einschätzen kann. Zusätzlich kann im Chat der Rat eines Arztes eingeholt werden, der Zugriff auf den von Ada erstellten Ge- sundheitsbericht hat.

144

Airi Airi ist eine gesprächsorientierte Intelligenz, die auf qualitativ hochwertige Daten aufbaut und von den Angaben und Verhaltensmustern des Anwenders lernt. Somit stellt Airi einen personalisierten Gesundheitscoach dar.

Alz.ai Alz.ai unterstützt in der Pflege von Menschen mit Alzheimer, indem es hilft sie zu beaufsichtigen und bei Abwesenheit direkten Telefonkontakt herzustellen.

Amelie Bei Amelie handelt es sich um einen Chatbot, der bei Anliegen zur mentalen Ge- sundheit kontaktiert werden kann. Amelie analysiert die Bedürfnisse des Nutzers und schickt vertrauenswürdige Artikel. bitesnap Der Nutzer kann ein Bild einer Mahlzeit in die App hochladen und bitesnap berech- net die entsprechende Kalorienanzahl. doc.ai doc.ai sammelt in großem Umfang ausführliche Gesundheitsdaten, um durch KI-ge- steuerte Vorhersageanalysen eine Übersicht von Krankheiten weltweit zu erstellen. Des Weiteren forciert doc.ai die Zusammenarbeit mit unterschiedlichen Partnern, um personalisierte Entscheidungen zu Gesundheitsthemen fällen zu können. Bei doc.ai ist das biologische Profil verbrauchergesteuert und basiert auf Block Chains.

Gyant Gyant ist ein Gesundheits-Chatbot, der sich durch die Antworten der Nutzer weiter- entwickelt und die wahrscheinlichste Krankheit auf Basis der vorliegenden Symp- tome ermittelt.

Kick.ai Durch hochmoderne Sensortechnologie zeichnet Kick.ai die Schnelligkeit von Kicks und Effektivität von Kampftraining auf. Kick.ai analysiert welche Auswirkungen das Training auf die eigene Kick-Metrik hat und bietet optimierte, personalisierte Übun- gen an.

Kiwi Kiwi entwickelt Sensorerkennungs-SDKs* und -APIs und stellt die entsprechende Technik für Apps, die einen Bewegungserkennungssensor einbauen wollen, zur Ver- fügung. Kiwi SDK* liefert Ergebnisse und zeichnet die für die Anwendung relevante Entwicklung auf.

Cue ist eine auf KI-basierende App von Kiwi, die Rauchern hilft, mit dem Rauchen aufzuhören oder es zu reduzieren. Der Nutzer gibt an, wann er raucht und sammelt Punkte fürs Hinauszögern oder Verzichten. Durch Machine Learning passt sich die App den Lebenssituationen und dem Fortschritt des Nutzers an.

*Software Development Kit

Mara Die Mara-App sorgt beim Joggen für die notwendige Motivation, plant jede Route und zeichnet gelaufene Distanzen auf. Über Ohrstöpsel und Sprachbefehle kann der Nutzer Mara mitteilen, welche Art von Lauf gewünscht ist oder Fragen über Ge- schwindigkeit, Location, Laufdauer oder Wetter stellen. Mara zeichnet den Prozess auf und kann den Jogger von sich aus über Wetterbedingungen und Leistungsstand informieren.

Tess by X2AI Tess bietet erschwingliche, on-demand und qualitativ hochwertige, personalisierte psychische Gesundheitsfürsorge für jedermann in Form eines Chatbots und bedient sich dabei psychologischer KI. Diese KI basiert nicht nur auf Big Data, sondern ist

145

zusätzlich zustandsorientiert konstruiert. Das heißt, Tess lernt nicht nur durch vor- herige Patienten und deren Aussagen und Reaktionen, sondern kann auch auf Pati- enten, die bestimmte Schwellenwerte überschreiten (z.B. Bipolare Störungen), ein- gehen.

Sleep.ai Durch Sleep.ai kann Schnarchen und Zähneknirschen im Schlaf diagnostiziert wer- den und das Anti-Snore-Wearable hilft dabei, mit dem Schnarchen aufzuhören. Die App verbindet sich mit dem Band, welches um den Oberarm gebunden wird, und reagiert sehr sensibel auf Geräusche die durch Schnarchen und Zähneknirschen ver- ursacht werden. Die App sendet ein Signal an das Armband, welches daraufhin an- fängt zu vibrieren, was dazu führt, dass sich der Nutzer auf die Seite dreht und somit in den meisten Fällen aufhört zu schnarchen.

PERSÖNLICHE ASSISTENTEN

Produkt Tätigkeitsbeschreibung

Amazon Echo Amazon Echo ist ein Lautsprecher, der mithilfe der Stimme kontrolliert wird. In Ver- / Alexa bindung mit dem Alexa Voice Service kann Echo Musik abspielen, Nachrichten emp- fangen und senden, das Wetter, Sportergebnisse und vieles mehr abrufen. Darüber hinaus funktioniert Echo mit kompatiblen Smart-Home-Geräten und steuert diese über Sprachbefehle. Echo muss dauerhaft online sein, um zu funktionieren. Sobald Schlüsselwörter wie "Alexa", "Echo" und "Amazon" fallen, überträgt Echo die Stim- menkommandos an die Amazon-Server.

Apple Siri Siri ist die Sprachassistentin der iOS-Geräte. Sie dient der Erkennung und Verarbei- tung von Sprache. Die komprimierten Sprachdaten werden an einen Apple-Server gesendet, dort verarbeitet und das Ergebnis zurück an das genutzte Gerät gesendet.

Cortana Cortana ist die digitale Assistentin von Microsoft und unterstützt den Nutzer dabei, Dinge zu erledigen, an Termine zu denken und produktiv über verschiedene Geräte hinweg zu arbeiten. Dabei kann Cortana auf tausende Apps und Dienste zugreifen und jeden Tag dazulernen.

Facebook M Facebook M war ein virtueller Assistent und ein von Facebook entwickelter Bot, der über KI auf die Fragen der Nutzer eingehen konnte. Dafür wurde die KI zusätzlich mit Menschen verknüpft, die hauptsächlich Fragen beantworteten und die KI trai- nierten. M verbindete automatisch den Kontext einer Unterhaltung im Facebook Messenger mit nützlichen Funktionen des Messengers (z.B. die Plan-Funktion). Die aus dem Pilot-Projekt von Facebook gewonnen Erkenntnisse wurden dafür genutzt Einblicke in die Nutzererwartungen und -anforderungen an virtuelle Assistenten zu erhalten.

FOCUS FOCUS ist ein persönlicher Coach für Produktivität. Es können Ziele, Aufgaben, Stra- tegien und Taktiken mit dem Chatbot diskutiert werden. FOCUS stellt sicher, dass der Nutzer in einer immer schneller werdenden Welt auf Kurs bleibt. Basierend auf Analysen und wissenschaftlichen Experimenten mit über 1000 Teilnehmern erhält der Nutzer personalisierte Empfehlungen, Methoden und wöchentliche Übungen, um einen gesunden, produktiven Lebensstil anzunehmen.

146

Gatebox Gatebox ist ein virtueller Hausroboter. Der Anwender kann sich einen Charakter aussuchen. Dieser wird in Form eines holographischen Anime-Assistenten in einer Espressomaschine dargestellt.

Google Assistant Es handelt sich um einen persönlichen Assistenten für den Messenger Google Allo, Google Home und iOS. Google Assistant verarbeitet gesprochene und eingegebene Sprache. Somit können Fragen des Nutzers beantwortet werden und Dinge (wie z.B. Nachrichten senden, Musik wiedergeben, Termine einrichten etc.) erledigt werden.

Hound Hound ist ein persönlicher Assistent für den täglichen Gebrauch und zeichnet sich durch die Speech-to-Meaning-Technologie aus, die besonders schnell und genau Sprachbefehle erkennt und versteht. Dabei erfasst die Hound-Technologie den Kon- text und die Details zugleich.

Ling Die Produkte von Ling zeichnen sich durch KI mit "Seele" aus und dienen dazu einen möglichst naturgetreuen Austausch zu ermöglichen. Das gleiche gilt für Roboter: Sie sollen eher einem Lebewesen als einer Maschine ähneln. Die chinesische Antwort auf Amazon Echo lautet: LingLong DingDong. Der digitale persönliche Assistent wird durch die Stimme aktiviert und ist ein intelligenter Lautsprecher für Zuhause. Das System kann einfache Frage beantworten, Musik abspielen und Wettervorhersagen und Nachrichten vorlesen.

Remi Remi AI ist ein Unternehmen mit Forschungsschwerpunkt und arbeitet an KI, die auf neurowissenschaftlichen Aspekten aufbaut. Die Remi App ist ein persönlicher Assis- tent, der sich zurzeit noch im Beta-Stadium befindet. Die App wird sich ebenfalls von der Neurowissenschaft inspirieren lassen und einen Assistenten mit multi-tas- king Eigenschaften schaffen, um die Kommunikation zwischen Mensch und Ma- schine auf die nächste Stufe zu heben.

Spoken Der Name Spoken steht für einen virtuellen Assistenten in Form einer mobilen Platt- form, die eine gesprochene Zusammenfassung aller wichtigen und nützlichen Infor- mationen aus den vorhandenen Apps generiert. Es handelt sich um einen Hub für das voranschreitende, wachsende Ökosystem aus Apps, Informationsquellen und internetfähigen Geräten.

CHATBOTS

Produkt Tätigkeitsbeschreibung

Luka Luka ist ein Messenger mit KI-Bots, der dem Nutzer hilft GIFS und lustige Videos zu finden, Pläne zu schmieden, Plätze zu finden, Trivia-Spiele zu spielen und Spaß zu haben. Beispielsweise ist es möglich alleine oder in der Gruppe mit dem Lieblings- bot zu chatten.

MyWave Myia ist der Personal Assistent von myWave und hat sich zur Aufgabe gemacht, das Leben des Nutzers zu vereinfachen, Aufgaben zu übernehmen, für die keine Zeit bleiben und mehr Zeit für wichtige Dinge zu schaffen. Myia lernt, wer der Nutzer ist und was seine speziellen Vorlieben sind. Dabei arbeitet Myia auf einer Customer- Managed-Relationship-Plattform.

147

Frank ist der proaktive Assistent von myWave, der den Nutzer bezüglich der Neben- kosten in Neuseeland berät, den besten, erhältlichen Deal heraussucht und Fragen rund um das Thema beantwortet.

Lyra basiert auf KI und zeichnet den individuellen CO2-Ausstoß auf, indem es das Verhalten des Nutzers über den Tag hinweg registriert. Der Nutzer muss dafür mit Lyra wie mit einem menschlichen Wesen agieren, um ein Verständnis für die Aus- wirkungen der eigenen Handlungen und Angewohnheiten zu schaffen oder Lyra mit anderen Apps und Geräten verbinden, um verhaltensbezogene Analysen zu ermög- lichen. Mit einbezogen werden Emissionen die mit Reisen, dem Energieverbrauch und Einkäufen in Verbindung stehen.

MEDIEN UND UNTERHALTUNG

Produkt Tätigkeitsbeschreibung

Jottr Jottr analysiert, welche Artikel und Nachrichten der Nutzer liest oder löscht und ge- neriert aus diesen Daten Verhaltensmuster auf deren Basis dem Nutzer personali- siertes Material vorgeschlagen wird. Zusätzlich hält Jottr passende Überraschungs- artikel bereit, die den Horizont des Nutzers erweitern.

News360 Die News360-App lernt, was den Nutzer interessiert und welche Beiträge im Web ihm gefallen. Die ausgewählten Themen werden in einer ansprechenden Form prä- sentiert, sind immer auf dem aktuellsten Stand und können auch offline gelesen werden.

Aiva Avia stellt emotionale Soundtracks zusammen und kommt in Filmen, Videospielen, Werbung und zur Unterstützung des Storytellings zum Einsatz. Es handelt sich um Künstliche Intelligenz, die die Musik der Zukunft komponiert.

Pandora Pandora personalisiert das Radio und spielt Musik, die auf den Geschmack des Zu- hörers zugeschnitten ist. Dabei entwickelt sich Pandora mit der dem Geschmack des Nutzers mit. Durch den Daumen-Button können Lieder bewertet werden und Pan- dora lernt aus diesem Rating für die nächsten Vorschläge.

Spotify Spotify ist ein Dienst, der Musikstreaming anbietet und dem Kunden Vorschläge auf der Basis von bereits angehörten Lieder unterbreitet.

NACHRICHTEN

Produkt Tätigkeitsbeschreibung

AI Weekly AI Weekly ist ein wöchentlich erscheinender Newsletter, der über Neuigkeiten im Bereich KI und Machine Learning informiert.

Approximately Approximately Correct ist ein Blog, der sich mit KI und technischen und sozialen Correct Perspektiven des maschinellen Lernens beschäftigt.

Axiomen Axiomen ist ein Newsletter, der alle zwei Wochen erscheint und sich hauptsächlich mit Künstlicher Intelligenz auseinandersetzt.

148

Concerning.ai Concerning.ai untersucht die Fragestellung, ob von Künstlicher Intelligenz ein Risiko für die Menschheit ausgeht und was gegen die Gefahren, die KI mit sich bringt, un- ternommen werden kann. Die Thematik wird in Form von Podcasts kommentiert.

Machine Learning Dieser wöchentlich erscheinende Newsletter beschäftigt sich vornehmlich mit Ma- Weekly chine Learning und Deep Learning und dient dazu die Forschung auf diesem Gebiet weiter voranzubringen.

REISEN UND URLAUB

Produkt Tätigkeitsbeschreibung

Emma Emma ist eine persönliche Reiseassistentin, die automatisch die anfallende Reise- und Fahrtzeit berechnet und diese zusammen mit wichtigen Details in den Kalender des Kunden einträgt. Das Programm arbeitet im Hintergrund und verbindet sich mit dem Google Kalender des Nutzers.

ETA ETA überwacht den Kalender und erstellt vollständige Reiserouten. Zu dem Service gehört zusätzlich, dass alle Reisebuchungen und Check-ins mit einem Klick erledigt werden, ETA Überlandtransporte bucht und Upgrade-Anfragen bearbeitet. ETA merkt sich die Vorlieben des Nutzers und unterrichtet ihn über zusätzliche, interes- sante Leistungen, die für die Reise direkt in der App gebucht werden können.

HelloGbye Die HelloGbye-App plant und bucht gewünschte Reiseziele innerhalb von Sekunden. Dem Kunden wird der Nachbuchungsgang bei einer Reiseroutenänderung abge- nommen und Buchungs- und Änderungsgebühren entfallen. Zusätzlich erhält der Kunde personalisierte Hotelempfehlungen und kann bei der Buchung Treuepunkte sammeln.

Ready! Ready! nutzt ausgefeilte Algorithmen, um die aktuellsten Verkehrsaufkommen- und Reisezeitprognosen zu treffen. Basierend auf diesen Daten wird auf zeitkritische Termine hingewiesen und die optimale Reiseroute vorgeschlagen.

TRANSPORT

Produkt Tätigkeitsbeschreibung

Vinli Vinli ist eine Cloud-Plattform, die Funktionen eines „Smart Cars“ in jedes normale Auto integrieren kann und das Auto zu einem 4G-LTE-WLAN-Hotspot umwandelt. Die Plattform setzt sich aus 40 verschiedenen Apps zusammen und ist damit das größte App-Ökosystem für Autos.

VERSICHERUNG UND RECHTSBERATUNG

Produkt Tätigkeitsbeschreibung

Docubot Bei Docubot handelt es sich um einen Chatbot, der mittels KI Rechtsfragen beant- wortet. Somit bleibt dem Kunden der Gang zum Anwalt erspart und Rechtsexper- ten haben den Vorteil, dass sie mehreren Kunden ihre Dienstleistung anbieten kön- nen, ohne sich den Kalender mit Terminen zu füllen. Der Kunde meldet sich bei Docubot an, wählt ein Dokument aus und lässt sich von Docubot durch den Prozess führen.

149

Driveaway Die Software von Driveaway unterstützt Autofahrer dabei ein sicheres Fahrverhal- ten zu erlernen. Gleichzeitig hilft Driveaway Versicherungsfirmen dabei, gute Auto- fahrer zu identifizieren und zu belohnen. Die Technologie baut auf KI, Sensor-Fusion und Machine Learning auf und kann das Fahrtverhalten über das Smartphone des Kunden bewerten.

E-COMMERCE

Produkt Tätigkeitsbeschreibung

Amazon Amazon ist ein Online-Versandhändler mit einer sehr vielseitigen Produktpalette. Neben dem klassischen Verkauf, bietet Amazon weitere Dienste an (Amazon Video, Audible, Alexa Internet, IMBd, Amazon Pay). Des Weiteren wird der eigene Suchal- gorithmus A9 entwickelt, der hauptsächlich direkt auf Amazon angewendet wird. Der E-Commerce-Riese bietet zusätzlich einen eigenen Cloud-Dienst an.

Zalando Zalando ist ein deutscher Versandhandel für Schuhe und Mode. Zalando kann mit Hilfe von Big-Data-Analysen und einer skalierbaren In-Memory Datenbanklösung auf die Kundenbedürfnisse eingehen und eine optimale Warenverfügbarkeit ge- währleisten. Diese Erkenntnisse sind die Basis für hilfreiche, personifizierte Emp- fehlungen, die wiederum dafür sorgen, dass der Kunde zum Webshop zurückkehrt und dort im besten Fall erneut einkauft.

Alibaba Albibaba.com ist eine chinesische Plattform für Kommunikation und Handel. Das Unternehmen bedient sich der Bereiche IoT, Cloud-Computing und KI und hat den eigenen Bezahldienst Alipay eingeführt.

FINANZEN

Produkt Tätigkeitsbeschreibung

Abe AI Abe AI hilft Banken mit intelligenten Lösungen für den Kundensupport und bei der Einbindung ihrer Services in verbreitete Konversationsschnittstellen (z.B. Amazon Alexa, Facebook Messenger). Diese Konversationskanäle ermöglichen neue Per- spektiven in puncto Kundenzufriedenheit, Kostenersparnisse und beispielloser For- schung. Der Kunde erhält Zugriff auf seine Finanzinformationen durch sprach- und textbasierte Interfaces. Mittels KI, Machine Learning und Natural Language Proces- sing wurden Financial-Chatbots entwickelt, die als virtuelle Assistenten Fragen be- antworten und stellen können und dem Kunden Zugriff auf seine Bankdaten gewäh- ren.

Andy Andy ist eine auf KI basierende App, die als persönlicher Steuerberater den Kunden unterstützt. Das Programm kann zu jederzeit Steueroptimierungsstrategien emp- fehlen und Formulare ausfüllen.

Ara Ara kümmert sich darum, dass der Nutzer seine persönlichen Finanzen unter Kon- trolle behält. Über den Facebook Messenger wird Ara über getätigte Ausgaben in- formiert und kann bei Bedarf eine Übersicht erstellen.

BOND BOND ist ein intelligenter Agent, dessen Ziel es ist, eine Finanzstrategie für den Kun- den auszuarbeiten. Dabei sollen vom Kunden geäußerte Ziele erreicht werden, in-

150

dem tägliche Ausgaben, Investitionen in gewinnbringende Aktien und Schulden- rückzahlungen von BOND optimiert werden. Dafür muss BOND mit dem persönli- chen Bankkonto verbunden werden. Die Künstliche Intelligenz versteht die vom Nutzer getroffenen Annahmen, Ziele und Grenzen und kann sich aktiv einbringen, um für finanzielles Wachstum zu sorgen.

Mylo Mylo rundet automatisch jeden Kaufbetrag auf und legt es als Spargeld an. Dafür sind auf Seiten des Nutzers keine Kenntnisse im Investitionsgeschäft notwendig und Kaufgewohnheiten werden automatisch zu Spargewohnheiten. Mylo bedient sich Künstlicher Intelligenz, um personalisierte Empfehlungen für finanzielle Entschei- dungen aussprechen zu können.

SOCIAL MEDIA

Produkt Tätigkeitsbeschreibung

Firedrop Mit Sacha, der auf KI basierenden Designerin von Firedrop, ist es spielend einfach eine Webpage zu bauen. Der Nutzer kann über intuitiven Sprachgebrauch oder ei- nen Chat mit Sacha kommunizieren. Das Design der Internetseite wird individuell an die Personalität und den Inhalt angepasst.

Millions Million generiert mit einem intelligenten SMS-Assistenten einen Style Guide, einen Entwurf für die eigene Website und einen Domainnamen. Danach versorgt Million den Nutzer jeden Monat mit einem neuen Merch-Design, aktualisiert die Internet- seite regelmäßig mit dynamischen Inhalten und verschickt monatlich einen Newsletter an die auf der Internetseite registrierten Mitglieder.

True Anthem Mittels KI wird die optimale Distribution von Inhalten auf den Sozialen-Medien- Plattformen für die Herausgeber ermittelt. Die Entscheidungen werden anhand von Datenanalysen getroffen und legen in Echtzeit fest, wann welcher Post am besten veröffentlicht werden sollte um möglichst viel „Social Traffic“ zu generieren. Außer- dem durchsucht True Anthem das gesamte digitale Archiv, um noch heute relevan- ten Themen aufzustöbern und kümmert sich automatisch um die Terminierung der Posts.

Signature Signature kann mit Hilfe von Social-Media-Accounts und Künstlicher Intelligenz eine elegante Titelseite für die Internetseite bauen und somit der Website eine individu- elle, digitale Identität verleihen.

GAMING

Produkt Tätigkeitsbeschreibung

Hello Neighbor Hello Neighbor ist ein Survival-Horror-Stealth-Video-Spiel. Ziel des Spiels ist es, sich in den Keller des Nachbarn zu schleichen und dort ein Geheimnis zu entdecken. Die KI des Spiels verändert das Verhalten des Nachbarn auf Grundlage der zuvor vom Spieler gewählten Strategie und Wege.

Echo Das Spiel Echo verbindet Stealth-Games mit Machine Learning und passt sich dem Verhalten des Spielers an. Die KI des Spiels sorgt dafür, dass der Feind von den Fä- higkeiten der Protagonistin En lernt. Schießt En beispielsweise auf ihre Gegner, kön-

151

nen diese im nächsten Level auch auf sie schießen. Der Spieler muss somit dauer- haft seine eigene Taktik überdenken, quasi als würde er gegen sich selbst Schach spielen.

No Man´s Sky Bei No Man´s Sky geht es um Überlebensstrategien und die Erkundung eines un- endlichen Universums ohne Grenzen und Ladezeiten. Der Spieler entdeckt Plätze und Kreaturen, die kein anderer Spieler zuvor gesehen hat oder eventuell jemals sehen wird.

SONSTIGE

Produkt Tätigkeitsbeschreibung

CaptionBot.ai Der CaptionBot soll die Fähigkeiten von Microsoft Cognitive Services demonstrie- ren. Das Programm erkennt den Inhalt von Fotos und kann so automatisch eine in- dividuelle Bildbeschreibung für jedes Bild anfertigen. Dabei basiert der CaptionBot auf Computer Vision API, Emotion API und Bing Image API.

#Laugh Mit dem globalen Kunstprojekt #Laugh soll das erste Kunstprojekt im Weltall ge- schaffen werden. Lachen gilt als das menschlichste Geräusch und soll mittels eines speziellen, schwerelosen Druckers auf der Internationalen Raumfahrtstation in ei- ner 3D-Skulptur verkörpert werden. Über eine App kann jeder sein Lachen aufzeich- nen und zur Verfügung stellen. Das Projekt dient dazu, der Menschheit zu ermögli- chen Kunst in der Schwerelosigkeit zu schaffen.

Wixi Die dreiteilige Connected-Home-Plattform versteht, optimiert und erweitert die vernetzte Welt. Die Wixi-App scannt das WLAN-Netzwerk und die angeschlossenen Geräte des Nutzers, um die Geschwindigkeit und die Zuverlässigkeit der Internet- verbindung zu optimieren, indem die App Probleme identifiziert und löst.

Token Token hilft dem Nutzer dabei, ein passendes Geschenk zu finden. Die Geschenke werden aufwendig verpackt und es wird eine handgeschriebene Karte beigelegt. Mittels KI und einigen Details über den Empfänger werden individualisierte Ge- schenkevorschläge unterbreitetet.

152

9.2 MARKTÜBERSICHT: B2B-ANWENDUNGEN

AUDIO

Produkt Funktionsbeschreibung

Capio AI Capio AI ist ein Programm zur Spracherkennung und - verarbeitung. Es nutzt Deep Learning, um eine auf natürlicher Sprache basierende Gesprächsschnittstelle zu Geräten jeglicher Art zu schaffen.

Gridspace Gridspace ist eine Software, die Konversationen mithilfe von KI in Echtzeit analy- siert und interpretiert, um so die Geschäftskommunikation von Unternehmen zu verbessern. Dabei dekodiert Gridspace den Eingang von Text- und Tonnachrichten und verarbeitet den Konversations-Feed automatisch.

MindMeld MindMeld ist eine KI-Plattform über die Unternehmen Konversationsassistenten für Apps, Geräte oder Websites erstellen können. Hierbei nutzt MindMeld Deep- Domain Conversational AI, um Nutzereingaben zu verstehen und diese mit benö- tigten Informationen zu versorgen.

TalkIQ TalkIQ ist eine Echtzeit-Gesprächsanalyse-Software, die eine KI-Technologie zur verbesserten Kundenkommunikation verwendet. TalkIQ analysiert die Kunden- motivation, leitet Mitarbeiter durch Kundengespräche und schlägt Antworten auf Kundenfragen sowie Sachverhalte vor.

Twilio Twilio unterstützt Entwickler beim Aufbau intelligenter Kommunikationssysteme für Websites und Apps. Über eine Programmierschnittstelle können Entwickler Cloud-basierte SMS-, Telefon-, Fax-, Video- und Chat-Kommunikationsplattfor- men einrichten.

BUSINESS INTELLIGENCE UND ANALYTICS

Produkt Funktionsbeschreibung

Arago/HIRO HIRO ist eine KI-Technologie von Arago zur Optimierung von Unternehmens- und IT-Prozessen für Firmen in allen Branchen. Der dynamische und universell einsetz- bare Algorithmus kann zur Lösung einer Vielzahl von komplexen Problemstellun- gen genutzt werden.

Arimo Arimo ist KI-Software, die Verhalten analysiert und Vorhersagen für kommerzielle IoT-Applikationen trifft. Hierfür greift Arimo mithilfe von Deep Learning auf das bisherige Verhalten von Maschinen, Geräten und Kunden zurück, um Unterneh- men Möglichkeiten zur Management-, Produkt- und Prozessoptimierung aufzu- zeigen.

Einstein Einstein ist ein intelligentes CRM-System innerhalb der Salesforce-Plattform, das mithilfe von Deep Learning das Verhalten von Nutzern voraussagt. Auf dieser Grundlage liefert Einstein Produkt- bzw. Handlungsempfehlungen, die auf die spe- ziellen Unternehmensprozesse und Kundendaten abgestimmt sind.

Sundown Sundown ist ein KI-System, das sich wiederholende Aufgaben im Kundenservice und im Verkauf automatisiert. E-Mail-, SMS- und Social Media-Anfragen können

153

durch die Analyse der Kundeninteraktion in Kombination mit dem Einsatz von na- türlicher Spracharbeitung und Machine Learning automatisch beantwortet wer- den.

Prix Prix erlaubt es Hotels mithilfe seiner Softwarelösung Pace den Umsatz und die Auslastung zu optimieren. Hierbei analysiert Pace die Buchungsdaten und das Umsatzpotential von Hotelanbietern und gibt automatisierte Preisempfehlungen und -prognosen.

CORE AI

Produkt Funktionsbeschreibung

Arya Arya.ai ist eine Plattform, die verschiedene Programme zum Erstellen, Managen und zur Skalierung von Deep Learning Anwendungen bereitstellt. Mithilfe des Pro- gramms können vereinfacht KI-Applikationen entwickelt und für den jeweiligen Einsatz angepasst werden, sodass jeder Entwickler komplexe Geschäftsprobleme lösen kann.

Fluid AI Fluid AI findet versteckte Beziehungen, Muster, Korrelationen und Ursachen in- nerhalb großer Datenmassen zum Erschließen von Problemstellungen in diversen Branchen und Abteilungen. Durch den Einsatz von Deep Learning-Algorithmen entwickelt Fluid AI eine künstliche Intelligenz zum Lösen zu Grunde liegender Probleme.

H2O.ai Die Open-Source Machine-Learning-Lösung H2O.ai ist eine Plattform für Entwick- ler, die das Erstellen von intelligenten Anwendungen vereinfacht und eine Integra- tion der generierten Algorithmen in eigene Applikationen unterstützt. Beispiels- weise werden Prognosen für Betrugsversuche erstellt und die Abwanderung von Kunden betrachtet. Zu den analysierten Bereichen gehören Marketing, Versiche- rung, Finanzwesen und Telekommunikation.

Sentient Mithilfe von KI hat Sentient verschiedene Applikationen zum Lösen komplexer Ge- schäftsprobleme für eine Vielzahl verschiedener Anwendungsbereiche entwi- ckelt. Sentient lässt den Nutzer vollständig autonome Systeme erstellen, wodurch sich u. a. im Bereich digitales Marketing Kampagnen optimieren, im E-Commerce höhere Umsätze erzielen und im Finanzwesen Handelsstrategien wieterentwi- ckeln lassen.

Ogma Ogma ist Anbieter einer KI-Technologie mit einem multidisziplinären Ansatz, der auf einer Kombination aus Machine Learning, angewandter Mathematik dynami- scher Systeme und Computer-Neurowissenschaft beruht. Durch diese Technolo- gie lassen sich Deep-Learning-Algorithmen erstellen, deren selbstorganisatorische Strukturen, Flexibilität und Effizienz mit dem menschlichen Gehirn vergleichbar sind.

DATEN SCRAPPING

Produkt Funktionsbeschreibung

Amazon MTurk ist ein virtueller Marktplatz von Amazon, der es Unternehmen erlaubt, zeit- lich unbeschränkt "menschliche Intelligenz" in Applikationen zu integrieren und

154

Mechanical Turk einfache Aufgaben zu automatisieren, die Computer bisher noch nicht im Stande sind zu erfüllen. Durch ein bedarfsorientiertes Arbeitskraft-Management lassen sich hierdurch Lohnkosten senken.

Datalogue Datalogue verwendet KI, um Daten jeglicher Art und aus beliebiger Quelle zu ver- arbeiten und zum sofortigen Einsatz bereitzustellen. Hierfür standardisiert und zerlegt Datalogue Datensätze automatisch und findet Redundanzen.

Import.io Import.io nutzt Machine-Learning-Algorithmen, um Daten von Websites automa- tisch zu extrahieren. Darüber hinaus erlaubt Import.io das Überwachen von Ver- änderungen auf Websites sowie das Vergleichen von Daten zwischen verschiede- nen Websites.

Playment Um Unternehmen aus den Bereichen E-Commerce, Bankenwesen und autonomes Fahren bei Bildannotationen sowie bei der Transkription, Erfassung und Analyse von Daten zu unterstützen, setzt Playment eine Mischung aus künstlicher und (crowdsourced) menschlicher Intelligenz ein. Hierfür zerlegt die Plattform eine Aufgabenstellung zunächst in Mikroaufträge, die im Anschluss von Nutzern über eine gamifizierte App erfüllt werden.

WorkFusion Workfusion automatisiert Geschäftsprozesse durch die Kombination von roboter- gesteuerter Prozessautomatisierung, Machine Learning, KI-gestützter kognitiver Automatisierung und Arbeitskraftorchestrierung. Hierbei wird menschliche und künstliche Intelligenz miteinander verbunden, um die Produktivität, Agilität und Dienstleistungserbringung von Unternehmen zu verbessern.

DATENWISSENSCHAFT

Produkt Funktionsbeschreibung

Dataiku Dataiku bietet über seine Software DSS eine Plattform, die alle nötigen Schritte und Werkzeuge zur Erstellung, Prototyp-Prüfung, Ausführung und Wartung von datengesteuerten Anwendungen in einer Applikation vereint.

Kaggle Kaggle ist eine Plattform für Datenspezialisten, die über eine Website in verschie- denen Wettbewerben miteinander konkurrieren, in denen diese durch den Ein- satz von Machine Learning komplexe Problemstellungen lösen. Durch das Aus- schreiben von Preisgeldern können Unternehmen auf diese Art und Weise reale Aufgaben durch die Community von Kaggle lösen lassen.

SherlockML SherlockML ist eine Cloud-Plattform, die den Zugriff auf Datensätze vereinfacht und Werkzeuge zur Datenbearbeitung bereitstellt. Zudem ermöglicht SherlockML das Designen, Testen und Generieren von KI-Modellen zur Lösung von Geschäfts- problemen.

SparkBeyond SparkBeyond ist der Anbieter einer automatisierten Suchmaschine, die es Nutzern erlaubt, in natürlicher Sprache nach komplexen Mustern in Datensätzen zu su- chen. Die gewonnenen Einblicke können daraufhin zur Optimierung von Ge- schäftsprozessen und zur Ergebnisvorhersage genutzt werden.

Yseop Yseop automatisiert das Schreiben von Berichten, Websites, E-Mails etc. durch den Einsatz einer natürlichen Sprachverarbeitungs-Software. Die Software ist in

155

der Lage mittels KI automatisch Schlussfolgerungen zu ziehen und pro Sekunde mehrere tausend Textseiten und Dialoge in verschiedenen Sprachen zu generie- ren.

FORSCHUNG, ENTWICKLUNG UND PROGRAMMIERUNG

Produkt Funktionsbeschreibung

Anodot Anodot ist eine automatisierte Detektionsplattform, die Machine-Learning-Algo- rithmen zur Echtzeitidentifizierung von kritischen Geschäftsvorfällen, Anomalien und Datenausreißern verwendet. Hierdurch wird die Latenz kritischer Geschäfts- prozesse verringert.

Gigster Gigster bietet einen Softwareentwicklungsservice mit einem On-Demand-Ansatz zu einem Fixpreis an. Hierfür gewährt Gigster seinen Kunden Zugang zu einem Netzwerk von Fachexperten aus den Bereichen Entwicklung, Design, KI und Pro- duktmanagement.

Morph.ai Morph.ai ist eine Chatbot Software-Suite, die es Unternehmen gestattet persona- lisierte automatische Dialogsysteme selbst zu erstellen und zu managen, um so ihre individuelle Zielgruppe besser erreichen zu können.

Turtle Die Projektmanagement- und Chat-Software Turtle.ai vereinfacht die Zusammen- arbeit zwischen Teammitgliedern im Bereich Softwareentwicklung. Zudem inte- griert Turtle ein Tool zur Anstellung und Projekteinbindung von externen Soft- wareentwicklern.

Gesture.ai Gesture.ai ist eine leicht zu implementierende Technologie zur Erkennung von Gesten für Softwareentwickler sowie ein Softwareentwicklungssystem, das da- rauf zielt, interaktive Gestenerkennung für Entwickler jeder Fähigkeitsstufe zu- gängig zu machen.

Tangle Tangle ist ein Programm zur vereinfachten Entscheidungsfindung im Bereich De- sign und Strategie. Hierfür setzt Tangle nicht auf traditionelle Tabellenkalkulatio- nen, sondern betrachtet die verschiedenen Möglichkeiten, Ursachen und Fakto- ren. Der Unterschied zu anderen Entscheidungshelfern liegt darin, dass Tangle le- diglich den Umgang mit schwierigen Situationen, jedoch nicht die Problemstellung an sich, vereinfacht.

INTERNE ANALYSE

Produkt Funktionsbeschreibung

Deckard.ai Deckard.ai ist eine Projektmanagementsoftware mit der sich durch KI Zeitschät- zungen automatisieren und Sprint-Planungen optimieren lassen. Hierfür schätzt Deckard.ai die benötigte Zeit für eine Aufgabe selbst ein und passt die Projektpla- nung automatisch an.

156

IBM Watson IBM Watson ist ein kognitives System, das seinen Nutzern ermöglicht Daten aus Text-, Bild-, Audio- und Videodateien zu analysieren und personalisierte Empfeh- lungen zu erhalten. Hierfür wertet IBM Watson mithilfe von Machine Learning verschiedene Nutzerparameter wie Persönlichkeit und Emotionen aus.

Sapho Das "Modern Portal" von Sapho personalisiert und vereinfacht Unternehmensan- wendungen für Mitarbeiter und fasst alle Systeme auf einer einzigen Portalseite zusammen. Hierfür verwendet Sapho Micro-Apps, die auf bestehenden IT-Syste- men aufbauen und Mitarbeiter mit Benachrichtigungen u. a. über anstehende Aufgaben und wichtige Änderungen in den Geschäftsdaten versorgen.

OneFactor OneFactor ist ein Anbieter für KI-Dienstleistungen speziell für Unternehmen mit Fokus auf die Automatisierung von Entscheidungsprozessen in den Bereichen Ri- sikomanagement, Einzelhandel und Werbung. Darüber hinaus entwickelt oneFac- tor Machine-Learning-Algorithmen und Geoinformationsdienstleistungen zur Op- timierung von Arbeitsvorgängen und Lösung von Geschäftsproblemen.

Rainbird Rainbird ist eine KI-gestützte Entscheidungsfindungs-Plattform, die es Unterneh- men ermöglicht, Geschäftsprozesse zu optimieren, zu vereinfachen und zu auto- matisieren. Hierfür trifft Rainbird auf Grundlage von Daten automatisierte Ent- scheidungen, Vorhersagen und Empfehlungen.

CORE MACHINE LEARNING

Produkt Funktionsbeschreibung

Datacratic Als Anbieter für Zielgruppendaten unterstützt Datacratic Unternehmen dabei, ef- fektivere und gezieltere Marketingkampagnen für ihre Marken zu erstellen. Durch die Kombination aus Machine Learning, KI und Technologien in der digitalen Wer- bung, hilft Datacratic seinen Nutzern bei der Verbesserung der Zielgruppenan- sprache.

Deepsense.ai Deepsense.ai ist ein Dienstleister für KI-Lösungen, der Unternehmen ohne Exper- tise im Bereich Data Science dabei unterstützt Machine Learning Modelle und KI- gestützte Prozesse zu entwickeln.

HyperScience HyperScience entwickelt KI-Lösungen zur Automatisierung von bestimmten Pro- zessen im Büro und zur Reduzierung des bürokratischen Aufwands von Unterneh- men und Behörden und deren Kunden.

SigOpt SigOpt ist ein Anbieter zur Beschleunigung von Machine-Learning-Modellen. Hier- für schlägt SigOpt seinen Nutzern basierend auf Bayes'scher Optimierung Para- meterkonfigurationen vor.

Amazon Machine Amazon Machine Learning on AWS bietet eine Reihe von Programmierschnittstel- Learning len, mit denen Entwickler verschiedener Fähigkeitsstufen Machine Learning prob- lemlos nutzen und in jede Anwendung integrieren können. Hierfür werden ver- schiedene gebrauchsfertige Anwendungsprogrammschnittstellen in den Berei- chen Bilderkennung, Konversation und Sprache bereitgestellt.

CONNECTED EVERYTHING, IOT UND SENSOREN

157

Produkt Funktionsbeschreibung

Black.ai Black.ai ist ein Anbieter von Ortungssystemen mit "Plug-and-Play"-Funktionalität. Hierfür zeichnet eine Blackbox Bewegungs- und Verhaltensmuster mithilfe eines 3D-Sensorsystems auf und hilft so bei der Entwicklung von autonomen Systemen.

KONUX KONUX bietet IoT-Lösungen für industrielle Anwendungen und das Bahnwesen an und nutzt hierfür intelligente Sensoren, Datenfusion und KI. So können Überwa- chungssysteme, Zustandsanalysen sowie die Instandhaltungsplanung unterstützt und vorausschauend geplant werden.

Planet OS Planet OS bietet Big-Data-Infrastrukturen, die Energiefirmen mit Fokus auf erneu- erbare Energien dabei helfen, umweltbezogene Daten besser zu nutzen. Über ver- schiedene Anwendungen können solche Daten besser in bestehende Systeme in- tegriert und mit diesen ausgetauscht sowie visualisiert werden.

Snips Snips ist ein Anbieter von Spracherkennungs- und -verarbeitungssystemen, durch die sich Alltagsgeräte wie Radios, Kaffee- oder Waschmaschinen steuern lassen. Der angebotene Sprachassistent verfügt über KI und nutzt Machine-Learning-Al- gorithmen zum Verstehen natürlicher Sprache, zur Transformation und zur Erken- nung von aktivierenden Wörtern.

Verdigris Mithilfe der Hard- und Software von Verdigris können Unternehmen ihren Ener- gieverbrauch analysieren und -bedarf vorhersagen, um so Gebiete mit Optimie- rungs- und Einsparungspotential aufdecken zu können. Hierfür bietet Verdigris ei- nen intelligenten Sensor zum Nachverfolgen sowie ein Internet-Dashboard zur Überwachung des Verbrauchs.

TEXTANALYSE UND -KREATION

Produkt Funktionsbeschreibung

Agolo Agolo nutzt KI, um automatisch inhaltliche Zusammenfassungen aus verschiede- nen internen bzw. externen Dokumenten und Informationsquellen zu erstellen. Zu diesem Zweck scannt Agolo die ausgewählten Dokumente, erkennt Zusam- menhänge zwischen den Quellen und deckt die wichtigsten Informationen auf.

Textio Textio ist eine Software, die Unternehmen dabei unterstützt, effektivere Stellen- anzeigen zu schreiben. Durch die Analyse einer Vielzahl von Jobausschreibungen bewertet Textio die Qualität von Unternehmensanzeigen und schlägt in Echtzeit Verbesserungen vor.

AX Semantics Die Software von AX Semantics erstellt automatisierte Massentexte wie Produkt- anzeigen für Onlinehändler und kann diese in verschiedenen Sprachen generie- ren. Hierbei greift AX Semantics auf KI zurück, um auf Basis klassifizierbarer Daten nutzerkonfigurierte Inhalte zu erstellen.

Retresco Retresco ist ein Anbieter KI-basierter Automatisierung von digitalen Inhalten. Die Expertise von Retresco reicht von semantischen Analysen zur inhaltlichen Er- schließung von Texten über die Generierung von Themen-Managementsystemen

158

bis hin zur automatischen Erstellung von datenbasierten Texten wie Sportbericht- erstattungen, Produkttexten oder Marktanalysen in natürlicher Sprache.

Wordsmith Wordsmith ist eine Plattform, die natürliche Sprache generiert und Daten in nar- rative Texte transformiert. Wordsmith's Technologie ist integrierbar in eine Reihe von Anwendungen und bietet eine Programmierschnittstelle zur Erstellung von Textinhalten in den Bereichen Finanzwesen, E-Commerce, Sport, Business Intelli- gence, etc..

VISION UND VIDEO

Produkt Funktionsbeschreibung

Achron Bei Achron handelt es sich um einen Anbieter von autonomen Drohnen für den industriellen Einsatz. Die Drohnen werden zur Videoüberwachung, zur Inspektion oder beispielweise zum 3D-Mapping verwendet. Hierfür setzt Achron auf KI zur Automatisierung der unbemannten Fluggeräte.

Affectiva Durch das Auswerten verschiedener Parameter erkennt die Emotionserkenungs- software von Affectiva über eine Standardwebcam spezielle Emotionen und Ge- sichtsausdrücke von Nutzern. Hierdurch können Unternehmen Einblicke in die emotionale Reaktion ihrer Kunden erhalten, um so ihre Produkte anzupassen bzw. zu verbessern.

GrokStyle GrokStyle ist Anbieter einer visuellen Suchmaschine für die Bereiche E-Commerce und Einzelhandel. Mithilfe eines Deep-Learning-Algorithmus können Bildobjekte erkannt und es kann nach gleichen bzw. vergleichbaren Produkten gesucht wer- den, ohne dass manuelle Beschreibungen vorgenommen werden müssen.

Flixsense Flixsense bietet eine intelligente Videoinhaltsanalyse-Lösung für verschiedene Be- reiche wie Sport, Umwelt und Medien. Durch den Einsatz von Deep-Learning-Al- gorithmen können so Objekte, Menschen und Aktionen automatisch erkannt und in praktisch umsetzbare Erkenntnisse umgewandelt werden.

Lunit Inc Lunit Inc. hat mit Hilfe von Deep Learning eine Software zur Analyse, Auswertung und Interpretation von medizinischen Daten und Bilddateien entwickelt. Ärzte sol- len so dabei unterstützt werden, genauere, auf Daten basierende, einheitliche und effizientere Behandlungsentscheidungen zu treffen.

Sticky.ai Sticky.ai ist eine Cloud-Plattform, die anhand von biometrischen Daten Blick- und Emotionsverläufe erkennt und dokumentiert. Hierdurch können u. a. Vermarkter, Agenturen, Designer und Marktforscher Medien und Kampagnen erfolgreicher gestalten.

Irvine Sensors Irvine Sensors ist ein Unternehmen, das Sensoren- und Kamerasysteme zur Über- wachung entwickelt. Durch die automatische Analyse von Videoaufnahmen kön- nen so kritische Szenarien wie schädliche Fremdkörper und absichtlich abgestellte Objekte schneller erkannt werden, um hierdurch schneller entsprechende Maß- nahmen ergreifen zu können.

CHATBOTS

159

Produkt Funktionsbeschreibung

Msg.ai Msg.ai ist eine KI-Lösung zum Managen und Analysieren von verschiedenen Mes- saging-Präsenzen von Unternehmen auf verschiedenen Plattformen mithilfe eines an den Kunden angepassten Dashboards. Durch den Einsatz von Deep Learning lassen sich so intelligente Chatbots für die Bereiche Marketing, Kundenservice so- wie im Handel einrichten und verwalten.

Chatfuel In nur wenigen Minuten und ohne benötigte Programmierkenntnisse ermöglicht Chatfuel das Erstellen von Facebook-Chatbots für verschiedene Branchen. Durch den Einsatz von künstlicher Intelligenz versteht der Chatfuel-Algorithmus die Nut- zereingaben und beantwortet Anfragen vollautomatisch.

Unu.ai Mithilfe von UNU können Personen Fragen stellen und durch eine Community be- antworten lassen. Durch das Zusammenwirken von Gruppenintuition sowie dem kollektiven Wissen der Nutzer wird eine Form von künstlicher Schwarmintelligenz erzeugt, die bspw. dazu genutzt werden kann, Entscheidungen zu treffen oder Vorhersagen zu machen. Die Themen der Fragen sind nicht begrenzt.

Kriya.ai Kriya.ai ist eine KI-Plattform über die Freiberufler ihre Arbeit verwalten und neue Aufträge finden können. Gleichzeitig bietet Kriya.ai Unternehmen die Möglichkeit unmittelbar und automatisiert die richtigen Personen für ihre Projekte zu ver- pflichten. Hierfür nutzt die Plattform einen eigenen Sofortnachrichtendienst um die Projektpartner miteinander zu verbinden und Zahlungen abzuwickeln.

Pandorabots Pandorabots ist ein Webdienst zur Erstellung und zum Testen von künstlich intel- ligenten Chatbots. Über eine integrierte Entwicklungsplattform können diese textbasierten Dialogsysteme erstellt und in externe Applikationen integriert wer- den. Pandorabots bietet zudem verschiedene Funktionen zur individuellen Anpas- sung, unterstützt mehrsprachige Texteingaben und ermöglicht es Schnittstellen zur Unterstützung natürlicher Sprache einzufügen.

BRiN BRiN unterstützt durch sein auf KI basierendes System Millionen Entrepreneure im Bereich personalisierte Bildung auf eine menschenähnliche Art und Weise. Ziel ist es, Gründern beim Aufbau eines erfolgreichen Unternehmens beratend zur Seite zu stehen. Dabei hält BRiN die Antwort auf fast jedes Problem, das kleineren Unternehmern begegnet, parat und versorgt den Nutzer mit Lösungen und Hand- lungsempfehlungen in kürzester Zeit.

CRM

Produkt Funktionsbeschreibung

Dynamic Yield Dynamic Yield ist eine Personalisierungsplattform, die es Unternehmen ermög- licht Kampagnen nutzergerecht über alle Kanäle zu personalisieren und optimie- ren. Durch eine Machine Learning-gestützte Kundensegmentierung können so in Echtzeit Produktempfehlungen gegeben und verhaltensgerechte Nachrichten versendet werden, um hierdurch Umsätze und Conversions zu steigern.

160

Rep.ai Durch den Einsatz der Multikanal-Kundenkommunikationsplattform Rep.ai ha- ben Vertriebsmitarbeiter über eine einzige Plattform Zugriff auf alle unterneh- mensweiten Kundendatensätze und die Möglichkeit über die Anwendung direkt mit dem Kunden zu korrespondieren ungeachtet des durch den Kunden genutz- ten Kommunikationsmittels. Zudem lässt sich Rep.ai in bestehende E-Commerce und Auftragsabwicklungssysteme integrieren.

Kasisto Die auf KI basierende Konversationsplattform KAI bietet verschiedene virtuelle Assistenten zur Integration in Apps, Websites, Nachrichtendienste und IoT-Ge- räte. Durch die Spezialisierung der Bots in spezifische Gebiete wie Finance, Han- del, etc. können die Dialogsysteme intelligent mit Kunden interagieren. Natürli- che Sprachverarbeitung und Spracherkennung ermöglichen eine menschenähn- liche Verständigung mit dem virtuellen Assistenten.

Maia Maia ist ein virtueller Assistent, der Vertriebsmitarbeiter dabei unterstützt, mit- hilfe von KI und Machine Learning große Datenmengen aus dem CRM-System zu analysieren. Unter Verwendung von natürlicher Sprachverarbeitung werden die gewonnenen Erkenntnisse in handlungsorientierte Empfehlungen umgewandelt und dem Nutzer vorgeschlagen.

Cogito Cogito ist Anbieter einer Software zur Unterstützung der Gesprächsführung für professionelle Telefonisten, die KI und verhaltenswissenschaftliche Erkennt- nisse einsetzt, um Verhaltenssignale in der Stimme zu erkennen und auszuwer- ten. Dem Nutzer werden dann in Echtzeit Informationen zur Kundenbefindlich- keit und Empfehlungen zur Konversationsführung übermittelt.

MARKTFORSCHUNG

Produkt Tätigkeitsbeschreibung

Tanjo Tanjo erstellt animierte Darstellungen von Buyer-Personas und Kundensegmen- ten. Mit Hilfe des Programms kann das Unternehmen in Echtzeit nachvollziehen, an was die Kunden interessiert sind und womit sie ihre Zeit verbringen. Diese Daten helfen Marktfoschern und Produktdesignern dabei, die Bedürfnisse der Zielgruppe zu verstehen.

Dataminr Noch bevor Neuigkeiten in den Nachrichten auftauchen, werden die Nutzer von Datminr über einschlägige, wichtige Informationen und bedeutende Events be- nachrichtigt. Der Wissensvorsprung ermöglicht den Unternehmen schneller zur reagieren. Dataminr nutzt innovative KI für die Klassifizierung und Echtzeit-Er- kennung signifikanter öffentlicher Informationen. Millionen Menschen teilen der Welt auf Social-Media-Plattformen mit, was sie sehen und Dataminr gene- riert aus diesen Echtzeit-Daten einen globalen Augenzeugen-Sensor, der die In- formationen in Warnmeldungen umwandelt.

Predata Predata verbindet alternative Informationsquellen mit Machine Learning, um gesellschaftliche Daten in Risiko-Signale, Marktindikatoren und Prognosen um- zuwandeln. Die Analyse-Plattform bietet Finanzexperten die Möglichkeit alter-

161

native Daten aus sozialen und kollaborativen Medien in ihre Investmentstrate- gien miteinzubeziehen. Das Unternehmen erhält Warnmeldungen über aktuelle Risiken.

Mattermark Mattermark ermöglicht es, den richtigen Ansprechpartner im entscheidenden Unternehmen zu ermitteln. Die Datenbank enthält detaillierte Unterneh- mensprofile, über 20 Millionen E-Mail-Adressen von Personal in Schlüsselpositi- onen und registriert Unternehmens-Wachstumssignale.

Quid Quid ermöglicht eine Vogelperspektive auf Top-Investments, Marktgröße, Wachstum und Hindernisse. Auf einen Blick erkennt der Nutzer sowohl aufkom- mende Technologien als auch IP-Landschaften und kann jede Branche durch- dringen. Mit Hilfe von Quid können Unternehmen Trends und treibende Kräfte erkennen und diese für Investitionen und Übernahmen nutzen. Das Programm vereint menschliche Intuition und Machine Learning, um Organisationen eine bessere Entscheidungsbasis zu ermöglichen.

KUNDEN-SUPPORT

Produkt Tätigkeitsbeschreibung

Agent.ai Agent.ai sorgt dafür, dass häufige Kundenanfragen innerhalb von Sekunden be- antwortet werden. Zusätzlich können Fragen innerhalb des Teams geklärt wer- den. Das Programm lernt durch FAQs, historische Tickets, die Supportdokumen- tation und funktioniert auf allen verbreiteten schriftlichen Kommunikationska- nälen. Agent.ai definiert automatisch die einzelnen Kundensegmente anhand des Customer Lifetime Values.

Clarabridge Clarabridge analysiert das Feedback von Kunden und konzipiert worauf die Kun- denwahrnehmung basiert. Auf diese Daten gestützt, übernimmt Clarabridge das Beantworten von Anfragen und die Optimierung des Geschäfts.

Smith Smith ist ein virtueller Rezeptionist und nimmt Anrufe für kleinere Unternehmen und einzelnen Personen entgegen. Die Gespräche werden durch eine Person mit Sitz in den USA angenommen und durch eine intelligente Software ergänzt. Dies ermöglicht eine persönliche Betreuung inklusive Screening und Prioritätenset- zung. Dabei wird gleichzeitig eine detaillierte Kunden-Anrufliste-Übersicht ange- legt, für die zu jedem Gespräch eine Zusammenfassung angefertigt wird.

Eloquent Labs Eloquent Labs kombiniert Conversational-KI mit einem Live-Chat und bearbeitet eingehende Supportanfragen. Durch das Programm kann das Unternehmen ge- währleisten einen 24-Stunden-Service anzubieten. Mit Conversational-KI und ei- ner Kunden-Metadaten-Cloud können sich wiederholende Probleme automa- tisch gelöst werden.

Zendesk Zendesk baut Software-Programme, die einer besseren Kundenbeziehung die- nen. Die Produkte ermöglichen es dem Unternehmen zuverlässiger, flexibler und skalierbar auf die Bedürfnisse des Kunden einzugehen. Kundensupport-An- liegen werden erfasst, priorisiert und zielführend bearbeitet. Alle verfügbaren Informationen über die Kunden werden zentral gesammelt. Der personalisierte

162

Service basiert sowohl auf Machine Learning als auch auf Kunden- und Daten- analysen.

MARKETING

Produkt Tätigkeitsbeschreibung

AirPR AirPR ist eine Analyse-Plattform für Content-Vermarktung und PR. Welchen Ef- fekt haben PR-Maßnahmen auf die Rendite? Wie kann die Entwicklung gemes- sen werden? Die Plattform ermittelt Daten, die einen direkten Zusammenhang zwischen der Öffentlichkeitsarbeit und den Geschäftskennzahlen herstellen. Zu- sätzlich wird verdeutlicht, in welchem Ausmaß die jeweiligen Artikel, Autoren und Influencer die Markenbindung beeinflussen.

Albert Die KI-Marketing-Plattform reduziert die Komplexität des modernen Marke- tings, indem Albert viele der zeitintensiven, manuellen Tätigkeiten übernimmt. Dadurch ist eine effektivere und effizientere Interaktion mit dem Kunden mög- lich. Albert arbeitet konsequent an einer konstanten Verbesserung und Analyse der Firmenkampagne. Zu den Schwerpunkten zählen: Autonomous Targeting, Autonomous Media Buying, Cross-Channel Execution, Testing & Optimization und Analytics & Insights.

Amplero Amplero vereint adaptive Experimente und Machine Learning zu einer KI-Mar- keting-Plattform. Die Technologieplattform des Unternehmens wird mit Daten- quellen verbunden. Dabei werden die Interaktionen mit dem Kunden kontinu- ierlich optimiert und manuelle Prozesse reduziert, um sich der Geschwindigkeit des modernen Kunden anzupassen. Mit Amplero kann der "Customer Lifetime Value" in einem Maße gesteigert werden, wie es nicht von Menschenhand mög- lich wäre.

Automat Automat beschäftigt sich hauptsächlich mit der Optimierung von Conversational Marketing, der Schnittstelle von Künstlicher Intelligenz und dem Austausch von Nachrichten. Mit Hilfe von Conversational Marketing können Unternehmen per- sonalisierte Einzelgespräche mit ihren Kunden in einer neuen Größenordnung führen. Durch die KI des Programms kann das Unternehmen neue Erkenntnisse über Kundenbedürfnisse erlangen und die Kommunikation über Messaging-Ka- näle ideal für sich nutzen.

Persado Persado ist eine Marketing-Cloud, die die verwendete Sprache auf die Ziel- gruppe abstimmt. Der Sprachgebrauch und das Vermitteln von Emotionen in- spiriert den Gesprächspartner zu Handlungen. Die KI-Solution-Cloud basiert auf der weltweit größten Datenbank mit über einer Million Wörter für den Ge- brauch im Marketing und ermöglicht es den Unternehmen, sich mit den Kunden individuell auf allen Kommunikationskanälen auszutauschen.

SALES

Produkt Tätigkeitsbeschreibung

6sense Das Ziel von 6sense ist es, dem Marketing- und Sales-Team eine vollständige Übersicht über die Käufer und deren Bedürfnisse zu liefern, um das Timing zu

163

optimieren. Wer im Markt kauft welches Produkt und zu welchem Zeitpunkt? Zusätzlich versorgt 6-Sense das Team mit einer umfassenden Rundum-Analyse des Marktes, der entsprechenden Nachfrage und des jeweiligen Umsatzes.

Aviso Die Aviso-Technologie und die auf KI basierenden Einblicke werden von den Sa- les-Teams bei Apttus, Zuora und RingCentral dazu genutzt, äußerst akkurate Prognosen zu treffen, Deals durch die Pipeline zu bringen und die richtigen Ge- schäfte zu fokussieren. Mit dieser einzigartigen Zusammenstellung von Progno- sen, kann ein Unternehmen einschätzen, ob die Quartals-Planung aufgeht, was dem Ziel im Weg steht und wie die Ergebnisse im Quartal optimiert werden kön- nen.

BloomReach BloomReach ist eine offene, intelligente digitale Plattform und ist darauf ausge- legt, herauszufinden, was für eine gute Beziehung zum Kunden notwendig ist. Die Plattform analysiert das Kundenverhalten und ermöglicht es dem Auftrag- geber mehr über das Kundenengagement, die Kundenkonversion und das lang- fristige Erfolgspotential der eigenen Marke herauszufinden.

Chorus.ai Die Plattform zeichnet Meetings in Echtzeit auf. Dabei führt das Programm eine automatisierte Analyse des Geschäftstermins durch, um dem Nutzer einen kriti- schen Einblick in die Vertriebsmöglichkeiten und die eigene Performance bei Meetings zu geben. Chorus dient dazu, die Kundenkonvertierung zu optimieren und der Mitarbeiter kann beispielweise eine Echtzeit-Beratung während eines Online-Meetings in Anspruch nehmen.

Clari Clari unterstützt das Sales-Team dabei, mehr Geschäfte abzuschließen. Die Soft- ware verwendet KI, um sich der größten Herausforderung im Vertrieb, dem Ab- wickeln von Deals, zu widmen. Mit Clari können genaue Prognosen getroffen werden und die Software zeigt dem Sales-Team worauf geachtet werden muss, damit mehr Verträge abgeschlossen werden.

Collective[i] Collective[i] hat das größte Netzwerk an Aufzeichnungen über das B2B-Kaufver- halten aufgebaut und bedient sich an diesen Daten, KI und Predictive-Technol- gien, um Mitarbeitern im Vertrieb Strategien aufzuzeigen, die direkt zu einem erhöhten Umsatz im Sales-Bereich führen. Das Programm verbindet sich mit dem CRM-System und weiteren relevanten Datenquellen des Unternehmens, um diese in Erkenntnisse und Intelligenz umzuwandeln. Zusätzlich verknüpft Collective[i] das Käuferverhalten mit der Verkaufstätigkeit.

ZEN.AI ZEN.AI sorgt für personalisierte Empfehlungen im Shopify Store des Nutzers. Be- sucher einer Homepage erhalten relevante und personifizierte Produktempfeh- lungen, die auf ihrem Kaufverhalten basieren. Dies ist der Schlüssel für ein bes- seres Kundenerlebnis und führt zu höheren Absatzzahlen.

HR UND RECRUITING

Proukt Tätigkeitsbeschreibung

Entelo Entelo arbeitet mit einem urheberrechtlich geschützten Algorithmus, der Kan- didaten identifiziert, die zu einem Jobwechsel neigen und somit einem Joban- gebot offener gegenüberstehen. Zusätzlich wird KI mit Predictive-Analytics

164

kombiniert, um das individuelle Kandidaten-Sourcing zu automatisieren und schneller die besten Kandidaten erreichen zu können.

GLIDER Glider ist ein KI-Autopilot für das Rekrutieren von Personal. Potentielle Kandi- daten werden anhand ihrer Online-Profile identifiziert und mit einer persona- lisierten Vorlage und einem optimierten Pitch kontaktiert. Außerdem ist es möglich dem Bewerber eine möglichst realitätsnahe Aufgabe im Firmenum- feld zu stellen, die er aber von seinem eigenen Gerät aus bearbeiten kann. Da- bei kann über einen Chat oder ein Videotelefonat mit dem Kandidaten kom- muniziert werden. hiQ hiQ verwendet öffentlich zugängliche Daten über die Mitarbeiter eines Unter- nehmens, um individuell auf die Mitarbeiter abgestimmte Maßnahmen und Aktionen zu ermöglichen.

Die SaaS-Plattform basiert auf Machine Learning und erstellt anhand dieser Daten eine Übersicht über die Fähigkeiten und Probleme der einzelnen Mitar- beiter. Dadurch kann das HR-Team vorzeitig einem Arbeitskräfteabgang ent- gegenwirken und verantwortungsbewusste Entscheidungen treffen.

HireVue HireVue verbindet KI mit der Wissenschaft der Arbeitspsychologie, um dem Kunden eine benutzerdefinierte Bewertung des Kandidaten in Form eines Vi- deos zu liefern. Die Plattform vereint und übernimmt Video-Interviews, - As- sessments und -Coaching. Die Video-KI ermöglicht es zusätzliche Erkenntnisse in Bezug auf den Kandidaten zu liefern.

Olivia Olivia ist eine KI-Assistentin, die den Rekrutierungsprozess vereinfacht und die Kandidatensuche, -überprüfung und sowohl die Terminkoordination als auch die Kommunikation mit den Kandidaten übernimmt.

Stella Stella´s künstliche Intelligenz identifiziert automatisch die Kandidaten aus der Datenbank, die am besten zum Unternehmen passen. Zusätzlich arbeitet Stella nahtlos mit HR-IT-Systemen zusammen.

PROFESSIONELLE ASSISTENTEN

Produkt Tätigkeitsbeschreibung

Clara Clara vereinbart und koordiniert Termine und übernimmt die Terminierung von E-Mails für den Nutzer, indem sich Clara dem individuellen Arbeitsablauf anpasst. Dafür wird Clara in den CC einer E-Mail mit den Teilnehmern des Mee- tings gesetzt. Es handelt sich um einen "Human-in-the-Loop-Assistant".

Julie Desk Julie ist eine virtuelle Assistentin, die dem Nutzer die Terminplanung abnimmt. Ziel ist es das Hin- und Herschicken von E-Mail zum Koordinieren eines Mee- tings zu vermeiden. Mit Julie können Termine gefunden werden, die allen Teil- nehmern passen, Einladungen verschickt werden und unerwartete Ereignisse bewältigt werden.

165

Kono Kono nutzt Big Data und KI, um dafür zu sorgen, dass Geschäftspersonen bes- ser organisiert sind und produktiver arbeiten können. Zu den Funktionen ge- hören das automatische Buchen von Konferenzräumen und das smarte Arran- gieren von Gruppenmeetings. Dabei integriert sich Kono in das bestehende Kalendersystem und kann Gäste von innerhalb und außerhalb des Unterneh- mens einladen.

Mimetic Bei Evie handelt es sich um einen intelligenten Terminkoordinierungs- und Verwaltungs-Assistenten. Dabei übernimmt Evie die gesamte Verhandlung von Terminen, behält die Teilnehmeranzahl im Blick und verschickt Einladun- gen und Erinnerungsnachrichten. Für die Termine werden stets die besten Zeitfenster des Nutzers gewählt und die persönlichen Präferenzen berücksich- tigt.

My Ally Mittels Machine Learning und Natural Language Processing organisiert der Personal Assistent Alex genau und effizient die anfallende Terminkoordinie- rung. My Ally verknüpft jahrelange praktische Erfahrungen mit einer KI-Sof- ware. Dabei dient Alex hauptsächlich der Unterstützung von Recruiting- Teams. Dadurch, dass die KI-Software zusätzlich durch einen Menschen über- wacht und geprüft wird, erscheint die gesamte Kommunikation, die über Alex läuft, sehr natürlich.

Carly Carly ist ein Personalassistent für vielbeschäftigte Manager und koordiniert insbesondere die Telefongespräche. Die App behält den Terminkalender im Auge und verbindet beispielweise den Nutzer 30 Sekunden vor Start eines Calls und funktioniert mit allen Telefonkonferenz-Services.

ETCH ETCH koordiniert das bestehende Network und wandelt es in eine durchsuch- bare Datenbank um. Zusätzlich ergänzt ETCH fehlende Kontaktinformationen durch intelligente Recherche.

Notion Trove interpretiert das gesamte Netzwerk eines Unternehmens, um zu ver- deutlichen wer mit wem über wen vernetzt ist. Außerdem fließt die gesamte Kommunikationshistorie mit in die Analyse ein und Notion unterstützt bei E- Mail-Überlastungen, Organisation und Kommunikation.

Mezi Mezi ist ein auf KI und Machine Learning basierender Travel-Assistent. Durch eine Kombination aus gehobenen Service und Begeisterung für die Branche sollen sich Geschäftsreisen nicht mehr wie Arbeit anfühlen. Ein KI-betriebener Chatbot und ein Travel-Dashboard, das die Leistung des KI-Assistenten in die Hände von Reisevermittlern gibt und eine schnellere, automatisierte Beant- wortung von Fragen ermöglicht, ergänzt durch einen personalisierten Service, erleichtern das Buchen von Geschäftsreisen.

KOLLABORATION

Produkt Tätigkeitbeschreibung

Aviva Als Digital-Assistant organisiert Aviva die Kommunikation am Arbeitsplatz ent- sprechend der Bedürfnisse des Unternehmens. Dabei nutzt Aviva Machine Learning und selektiert die einschlägigsten Dokumente, die im Umlauf sind,

166

um die Teams auf dem gleichen Informationsstatus zu halten. Wenn Aviva zu Meetings oder Telefonkonferenzen hinzugeschaltet wird, kann das Programm Notizen anfertigen und an die richtigen Personen weiterleiten.

Brand.ai Brand.ai erleichtert das Management des Design-Systems. Das Programm eli- miniert Konflikte, die durch unterschiedliche Versionen einer Datei entstehen und zentriert UI-Components, Fonts und Icons in einer Cloud. Der Nutzer kann seine Design-Assets mit dem gesamten Team über Sketch oder Adobe Illustra- tor teilen.

Cyclops Mit Cyclops kann eine Videokonferenz mit bis zu acht Teilnehmern mit nur ei- nem Klick gestartet werden. Gleichzeitig können Productivity-Apps, eine Phy- sical-Whiteboard-App, Bots und Screenshare als Tools genutzt werden, um die Produktivität der Konferenz zu erhöhen. Bei Bedarf übernimmt Cyclops die Mitschrift und verschickt sie im Anschluss via Slack oder E-Mail.

DECKARD Deckard Intelligence automatisiert die Zeitkalkulation, optimiert die Planung von Sprints und steigert die Team-Performance im Allgemeinen. Das gesamte Projektmanagement wird optimiert und es werden äußerst genaue Prognosen getroffen.

Howdy Howdy ist ein nutzerfreundlicher, anpassungsfähiger Chatbot, der den Nut- zern von Slack dabei hilft, die Zusammenarbeit im Team zu optimieren. Bei- spielsweise kann Howdy automatisch Informationen vom Team sammeln und in einem Bericht zusammenfassen.

Crowdfunding.AI Crowdfunding.AI vereint zwei revolutionäre Konzepte: Crowdfunding und Künstliche Intelligenz. Auf der Plattform können sich die Investoren und die Innovatoren treffen und zusammen an Ideen und Produkten zum Thema KI arbeiten. Die Plattform soll die Investoren dazu bewegen in KI-Projekte, und damit in die Zukunft, zu investieren.

167