Customer Xperience – Using Social Media Data to Generate Insights for Retail
Total Page:16
File Type:pdf, Size:1020Kb
Load more
Recommended publications
-
Java Linksammlung
JAVA LINKSAMMLUNG LerneProgrammieren.de - 2020 Java einfach lernen (klicke hier) JAVA LINKSAMMLUNG INHALTSVERZEICHNIS Build ........................................................................................................................................................... 4 Caching ....................................................................................................................................................... 4 CLI ............................................................................................................................................................... 4 Cluster-Verwaltung .................................................................................................................................... 5 Code-Analyse ............................................................................................................................................. 5 Code-Generators ........................................................................................................................................ 5 Compiler ..................................................................................................................................................... 6 Konfiguration ............................................................................................................................................. 6 CSV ............................................................................................................................................................. 6 Daten-Strukturen -
Vergleich Aktueller Web-Crawling-Werkzeuge
Hochschule Wismar University of Applied Sciences Technology, Business and Design Fakult¨at fur¨ Ingenieurwissenschaften, Bereich EuI Bachelor-Thesis Vergleich aktueller Web-Crawling-Werkzeuge Gedruckt am: 30. April 2021 Eingereicht am: von: Christoph Werner Betreuende Professorin: Prof. Dr.-Ing. Antje Raab-Dusterh¨ ¨oft Zweitbetreuer: Prof. Dr.-Ing. Matthias Kreuseler Aufgabenstellung Das Ziel der Bachelor Thesis ist ein Vergleich aktueller Web-Crawling-Werkzeuge. Die Crawler sind hinsichtlich ihrer Funktionsweise und Crawling-Ergebnisse zu ver- gleichen und zu bewerten. Des Weiteren ist ein Tool zu konzeptionieren, welches diese Werkzeuge fur¨ die Nutzung in Laborpraktika verfugbar¨ macht. 3 Kurzreferat Webcrawling im Verbund mit Webscraping ist eine der grundlegenden Technologien, um gezielt und automatisiert Daten aus dem Internet zu sammeln. Zun¨achst wird in dieser Thesis auf die Grundlagen des Crawlings und Scrapings eingegangen. Hierbei soll besonderes Augenmerk auf der Architektur und Funkti- onsweise eines Crawlers, dem Robots Exclusion Protocol (REP), zu bedenkende Sicherheitsaspekte, sowie Anti-Crawling/Scraping-Maßnahmen liegen. Darauf aufbauend werden verschiedenste Crawling Frameworks auf Grundlage ihrer Dokumentation bewertet und gegenubergestellt.¨ Abschließend wird ein Tool mit einer grafischen Benutzeroberfl¨ache (GUI) zum Ver- gleich von verschiedenen Crawling Frameworks entwickelt. 4 Abstract Web crawling in combination with web scraping is the key technology for the targeted and automated collection of data from the World Wide Web. First of all, this thesis deals with the basics of crawling and scraping. Special at- tention will be paid to the architecture and functionality of a crawler, the Ro- bots Exclusion Protocol (REP), security aspects to be considered as well as anti- crawling/scraping measures. Based on this, various crawling frameworks are evaluated and compared on the basis of their documentation. -
Stormcrawler
StormCrawler Low Latency Web Crawling on Apache Storm Julien Nioche [email protected] @digitalpebble @stormcrawlerapi 1 About myself ▪ DigitalPebble Ltd, Bristol (UK) ▪ Text Engineering – Web Crawling – Natural Language Processing – Machine Learning – Search ▪ Open Source & Apache ecosystem – StormCrawler, Apache Nutch, Crawler-Commons – GATE, Apache UIMA – Behemoth – Apache SOLR, Elasticsearch 2 A typical Nutch crawl 3 Wish list for (yet) another web crawler ● Scalable / distributed ● Low latency ● Efficient yet polite ● Nice to use and extend ● Versatile : use for archiving, search or scraping ● Java … and not reinvent a whole framework for distributed processing => Stream Processing Frameworks 4 5 History Late 2010 : started by Nathan Marz September 2011 : open sourced by Twitter 2014 : graduated from incubation and became Apache top-level project http://storm.apache.org/ 0.10.x 1.x => Distributed Cache , Nimbus HA and Pacemaker, new package names 2.x => Clojure to Java Current stable version: 1.0.2 6 Main concepts Topologies Streams Tuples Spouts Bolts 7 Architecture http://storm.apache.org/releases/1.0.2/Daemon-Fault-Tolerance.html 8 Worker tasks http://storm.apache.org/releases/1.0.2/Understanding-the-parallelism-of-a-Storm-topology.html 9 Stream Grouping Define how to streams connect bolts and how tuples are partitioned among tasks Built-in stream groupings in Storm (implement CustomStreamGrouping) : 1. Shuffle grouping 2. Fields grouping 3. Partial Key grouping 4. All grouping 5. Global grouping 6. None grouping 7. Direct