Web-Engineering" Kapitel 9: Website-Analyse Und -Optimierung
Total Page:16
File Type:pdf, Size:1020Kb
Reader zum MOOC "Web-Engineering" Kapitel 9: Website-Analyse und -Optimierung Die PDF-Datei wurde mit Hilfe des Open-Source-Werkzeugs „mwlib“ erstellt. Für weitere Informationen siehe http://code.pediapress.com/ PDF generated at: Sat, 14 Dec 2013 16:53:28 UTC Inhalt Artikel Web-Controlling 1 Web Analytics 1 Google Analytics 7 Piwik 10 AWStats 12 Webalizer 14 Logdateianalyse 16 Ganglinie 20 Konversion (Marketing) 22 Conversion-Tracking 24 Click-Through-Rate 25 Besucherzähler 26 Unique Visit 27 Referrer 28 Seitenabruf 30 Zählpixel 32 Cron 34 Do Not Track 38 Web-Monitoring 41 Munin (Software) 41 WPO: Web Performance Optimization 44 Google Page Speed 44 SPDY 45 Performnace-Test 47 Lasttest (Computer) 47 Stresstest 50 Apache JMeter 52 Dienstgütevereinbarung für Websites 53 Service-Level-Agreement 53 Webhosting 55 SMART (Projektmanagement) 58 Downtime 59 Verfügbarkeit 60 Paketumlaufzeit 62 Quellennachweise Quelle(n) und Bearbeiter des/der Artikel(s) 64 Quelle(n), Lizenz(en) und Autor(en) des Bildes 66 Artikellizenzen Lizenz 67 1 Web-Controlling Web Analytics Web Analytics (auch Web-Controlling, Web-Analyse, Datenverkehrsanalyse, Traffic-Analyse, Clickstream-Analyse, Webtracking) ist die Sammlung und Auswertung des Verhaltens von Besuchern auf Websites. Ein Analytic-Tool untersucht typischerweise, woher die Besucher kommen, welche Bereiche auf einer Internetseite aufgesucht werden und wie oft und wie lange welche Unterseiten und Kategorien angesehen werden. In Deutschland ist der Einsatz solcher Werkzeuge aus Datenschutzgründen umstritten. Sie wird vor allem zur Optimierung der Website und zur besseren Erreichung von Zielen der Website (z. B. Häufigkeit von Besuchen, Vermehrung von Seitenaufrufen, Bestellungen, Newsletter-Abonnements) eingesetzt. Grundlegend kann bei Web Analytics zwischen Auswertungsverfahren zur permanenten Messung der Site-Effektivität und Methoden zur Auffindung von Schwachpunkten in der Site und Verbesserungsmöglichkeiten unterschieden werden (siehe Methoden). Neben einer Reihe von freien Produkten bieten etwa 150 Unternehmen Lösungen für Web Analytics an. Begriff Während sich global weitgehend der Begriff Web Analytics durchgesetzt hat, wird in Deutschland oft der Begriff 'Web Controlling' als Synonym verwendet. Der ältere Begriff 'Logdateianalyse' teilt mit Web Analytics eine Schnittmenge (Analyse von Webserver-Protokolldateien), allerdings kann mit Logdateianalyse auch die Analyse anderer Protokoll-Dateien gemeint sein. Wie 'Web Controlling' hat sich in Deutschland auch der Begriff 'Page Impression' (PI) abweichend vom international genutzten 'Page View' (PV) durchgesetzt. Gemeint ist in jedem Fall der Abruf einer Seite eines Internetangebotes durch einen menschlichen Besucher (keine Crawler, Spider etc.). Mehrere einzelne Seitenabrufe werden zu einer Sitzung zusammengefasst (Visit, Besuch). Ein Besucher (Unique User oder Visitor) kann eine Website in mehreren Sitzungen besuchen. Ziele Web Analytics dient der Analyse, Optimierung und Kontrolle von Prozessen, betreffend alle Internet-Aktivitäten eines Unternehmens. Web Controlling Tools ermöglichen es eine Vielzahl von Kennzahlen und Auswertungen bzgl. einer Webseite und den dazugehörigen Marketing-Aktionen nutzbringend zu messen. Wichtige Kennzahlen im elektronischen Handel beziehen sich zum Beispiel auf: • die Wirksamkeit einzelner Werbemittel (z. B. Banner, Newsletter) • die Anzahl der Besucher ihres Web-Shops • den Anteil der Besucher, die etwas in den Warenkorb legen • den Anteil der Besucher, die den Kaufprozess abschließen • den durchschnittlichen Warenkorbwert Ziel ist es nun, diese Kennzahlen und daraus generierten Statistiken (Statistiken über ROI, Warenkörbe, Konversionsraten, Online-Umsätze) auszuwerten und aufgrund dieser Ergebnisse neue Marketing-Aktionen zu starten und die eigene Webseite entsprechend zu optimieren.[1] Web Analytics 2 Verfahren zur Datensammlung Gewöhnlich werden für Web Analytics entweder die Logdateien der Webserver ausgewertet oder bestimmte Tags in Websites zur Datengewinnung genutzt. Neben diesen beiden existieren noch Verfahren, die WebServer Plugins oder Netzwerk Sniffer benutzen. Server-basierte Daten: Logdateianalyse Die Software zum Betrieb von Websites, ein sogenannter Webserver wie Apache oder MS IIS, produziert gewöhnlich ein fortlaufendes Protokoll aller Aktivitäten der Software. Diente dies zunächst vor allem zur Aufzeichnung und Behebung von Fehlern im Betrieb, entdeckte man schnell die Möglichkeit, mithilfe dieser Logdatei Ergebnisse zur Beliebtheit der Website, zur Häufigkeit von Seitenabrufen und zur Aktivität der Website-Besucher zu sammeln. Da diese Protokolle direkt von der eigenen Software angelegt werden, zeigen sie ein getreues Abbild der Server-Aktivitäten. Zur Auswertung der Protokolle – pure Text-Dateien, die zeilenweise Aktivitäten der Software wiedergeben – wird gewöhnlich eine Software genutzt, die Statistiken erstellt, Daten zuordnet und in Grafiken und Tabellen anschaulich macht. Client-basierte Daten: Tags und Pixel Seit etwa 1996 gibt es ein weiteres, einfaches Verfahren zur Datensammlung: Direkt in den Quellcode der Website selbst werden unsichtbare Minibilder (1-Pixel-Grafiken) integriert. Ein Abruf dieser Grafik kann jetzt für genau einen Seitenabruf stehen. Die Pixel-Datei muss sich dabei nicht auf dem gleichen Server wie die eigentlichen Inhalte der Website befinden. So können ASP-Dienstleister die Sammlung, Speicherung und Auswertung der Daten übernehmen. Neben den noch immer genutzten 1-Pixel-Bildern wird heute von fast allen Lösungen zusätzlich Javascript-Code zur Datenerhebung eingesetzt. Diese 'Javascript-Tags' werden ebenso in den Quellcode der Seite integriert, können aber zusätzliche Informationen über den abrufenden Client (gewöhnlich den Browser) sammeln – z. B. grafische Auflösung des genutzten Monitors, Farbtiefe, im Browser installierte Plugins etc. Neuere Tools erlauben auch die Aufnahme der Mausbewegungen (Mouse Tracking) oder Tastatureingaben der Website-Besucher.[2] Weitere Verfahren Für die Netzwerk-Protokoll-Analyse (NPA, Network Sniffer) wird ein spezieller Decoder zwischen die eigenen Webserver und der Verbindung zum Internet eingesetzt. Dieser sammelt nun den gesamten Datenverkehr in diesem Netzwerk. Beim URL-Rewriting wird ein Proxy zwischen Webserver und Internet installiert, der in speziellen Logdateien die Datenverkehrsdaten speichert und dabei gleichzeitig zusätzliche Informationen (Session-IDs) in die URL schreibt. Sogenannte Hybrid-Verfahren verarbeiten mehr als eine Datenquelle gleichzeitig. Besonders die integrierte Auswertung von Tag-Daten und Server-Daten stellt eine besonders reichhaltige und zuverlässige, aber auch aufwändige Art der Datenverkehrsanalyse dar. Cookies Um einen einzelnen Seitenaufruf einer Sitzung und eine Sitzung einem eventuell wiederkehrenden Besucher zuordnen zu können, werden gewöhnlich Cookies eingesetzt. Es gibt heftige Debatten um dieses Thema, hier sei etwa auf die Seite HTTP-Cookie verwiesen. Festzuhalten bleibt, dass für eine professionelle Datenverkehrsanalyse, die in das Zentrum ihrer Aufmerksamkeit den 'Besucher' (nicht die einzelne Sitzung) stellt, Cookies gegenwärtig unabdingbar sind. Alternative Methoden mit Flash-Objekten scheinen nur eine Nischenexistenz zu führen. Im Unterschied zu klassischen Cookies können damit Besucher auch wiedererkannt werden, wenn sie verschiedene Browser verwenden. Web Analytics 3 Tag vs. Logdatei – Vor- und Nachteile Datenverkehrsanalysen haben mit starken Verzerrungen im Datenbestand zu kämpfen. Keine Art der Analyse kann für sich beanspruchen, den tatsächlichen Datenverkehr einer Website wahrheitsgetreu abzubilden. server-basiert client-basiert Seitenabrufe, die aus Proxies, Zwischenspeichern o. ä. bedient Verzerrungen durch Zwischenspeicher können vermieden werden werden, können vom Server nicht registriert werden die gewöhnliche Weise der Sitzungszuordnung (gleiche durch Nutzung von Cookies kann die Sitzungs- und Besucher-Zuordnung bis auf IP-Adresse für max. 30 Min.) ist hochgradig fehleranfällig ein für die weitere Verarbeitung akzeptables Maß gesteigert werden die gewöhnliche Weise der Besucher-Zuordnung (IP-Adresse, Besucher, die Javascript und/oder Bilder in ihrem Browser blockieren, werden ggf. UserAgent) ist in keiner Hinsicht verlässlich nicht erkannt Daten sind und bleiben im Unternehmen selbst Cookie-Blockaden und Löschraten sorgen für Unsicherheiten das Datenformat ist offen, Daten können von verschiedenen das Datenformat ist proprietär, d. h. Daten können bei einem Wechsel kaum von Analyse-Tools ausgewertet werden Anbieter A zu Anbieter B mitgenommen werden sämtliche Spider, Bots u. ä. werden in den Logdateien Spider und Bots werden nur teilweise registriert – das verschlankt die anfallende registriert Datenmenge, ist aber für Suchmaschinenoptimierungen ein Hindernis die Fehlermeldungen der Server werden unmittelbar registriert nicht alle Fehlermeldungen werden erkannt durch Javascript können reichere Daten über Clients gesammelt werden verschiedene Standorte, Server-Cluster, Domains und Subdomains o. ä. stellen kein wesentliches Problem dar Zusammenfassend lässt sich feststellen, dass das client-seitige Verfahren in Kombination mit 1-Party-Cookies heute das gebräuchlichste und – pragmatisch gesehen – das beste ist. Die Datenqualität ist stark genug, um auf dieser Grundlage belastbare Entscheidungen treffen zu können. Die Kosten für ein gleichwertig zuverlässiges System auf Basis von Logdateien (und Cookies) liegen im Allgemeinen deutlich höher und kommen am ehesten dort