Reader zum MOOC "Web-Engineering" Kapitel 9: Website-Analyse und -Optimierung

Die PDF-Datei wurde mit Hilfe des Open-Source-Werkzeugs „mwlib“ erstellt. Für weitere Informationen siehe http://code.pediapress.com/ PDF generated at: Sat, 14 Dec 2013 16:53:28 UTC Inhalt

Artikel

Web-Controlling 1 Web Analytics 1 Google Analytics 7 Piwik 10 AWStats 12 Webalizer 14 Logdateianalyse 16 Ganglinie 20 Konversion (Marketing) 22 Conversion-Tracking 24 Click-Through-Rate 25 Besucherzähler 26 Unique Visit 27 Referrer 28 Seitenabruf 30 Zählpixel 32 Cron 34 Do Not Track 38

Web-Monitoring 41 Munin (Software) 41

WPO: Web Performance Optimization 44 Google Page Speed 44 SPDY 45

Performnace-Test 47 Lasttest (Computer) 47 Stresstest 50 Apache JMeter 52

Dienstgütevereinbarung für Websites 53 Service-Level-Agreement 53 Webhosting 55 SMART (Projektmanagement) 58 Downtime 59 Verfügbarkeit 60 Paketumlaufzeit 62 Quellennachweise Quelle(n) und Bearbeiter des/der Artikel(s) 64 Quelle(n), Lizenz(en) und Autor(en) des Bildes 66 Artikellizenzen Lizenz 67 1

Web-Controlling

Web Analytics

Web Analytics (auch Web-Controlling, Web-Analyse, Datenverkehrsanalyse, Traffic-Analyse, Clickstream-Analyse, Webtracking) ist die Sammlung und Auswertung des Verhaltens von Besuchern auf Websites. Ein Analytic-Tool untersucht typischerweise, woher die Besucher kommen, welche Bereiche auf einer Internetseite aufgesucht werden und wie oft und wie lange welche Unterseiten und Kategorien angesehen werden. In Deutschland ist der Einsatz solcher Werkzeuge aus Datenschutzgründen umstritten. Sie wird vor allem zur Optimierung der Website und zur besseren Erreichung von Zielen der Website (z. B. Häufigkeit von Besuchen, Vermehrung von Seitenaufrufen, Bestellungen, Newsletter-Abonnements) eingesetzt. Grundlegend kann bei Web Analytics zwischen Auswertungsverfahren zur permanenten Messung der Site-Effektivität und Methoden zur Auffindung von Schwachpunkten in der Site und Verbesserungsmöglichkeiten unterschieden werden (siehe Methoden). Neben einer Reihe von freien Produkten bieten etwa 150 Unternehmen Lösungen für Web Analytics an.

Begriff Während sich global weitgehend der Begriff Web Analytics durchgesetzt hat, wird in Deutschland oft der Begriff 'Web Controlling' als Synonym verwendet. Der ältere Begriff 'Logdateianalyse' teilt mit Web Analytics eine Schnittmenge (Analyse von Webserver-Protokolldateien), allerdings kann mit Logdateianalyse auch die Analyse anderer Protokoll-Dateien gemeint sein. Wie 'Web Controlling' hat sich in Deutschland auch der Begriff 'Page Impression' (PI) abweichend vom international genutzten 'Page View' (PV) durchgesetzt. Gemeint ist in jedem Fall der Abruf einer Seite eines Internetangebotes durch einen menschlichen Besucher (keine Crawler, Spider etc.). Mehrere einzelne Seitenabrufe werden zu einer Sitzung zusammengefasst (Visit, Besuch). Ein Besucher (Unique User oder Visitor) kann eine Website in mehreren Sitzungen besuchen.

Ziele Web Analytics dient der Analyse, Optimierung und Kontrolle von Prozessen, betreffend alle Internet-Aktivitäten eines Unternehmens. Web Controlling Tools ermöglichen es eine Vielzahl von Kennzahlen und Auswertungen bzgl. einer Webseite und den dazugehörigen Marketing-Aktionen nutzbringend zu messen. Wichtige Kennzahlen im elektronischen Handel beziehen sich zum Beispiel auf: • die Wirksamkeit einzelner Werbemittel (z. B. Banner, Newsletter) • die Anzahl der Besucher ihres Web-Shops • den Anteil der Besucher, die etwas in den Warenkorb legen • den Anteil der Besucher, die den Kaufprozess abschließen • den durchschnittlichen Warenkorbwert Ziel ist es nun, diese Kennzahlen und daraus generierten Statistiken (Statistiken über ROI, Warenkörbe, Konversionsraten, Online-Umsätze) auszuwerten und aufgrund dieser Ergebnisse neue Marketing-Aktionen zu starten und die eigene Webseite entsprechend zu optimieren.[1] Web Analytics 2

Verfahren zur Datensammlung Gewöhnlich werden für Web Analytics entweder die Logdateien der Webserver ausgewertet oder bestimmte Tags in Websites zur Datengewinnung genutzt. Neben diesen beiden existieren noch Verfahren, die WebServer Plugins oder Netzwerk Sniffer benutzen.

Server-basierte Daten: Logdateianalyse Die Software zum Betrieb von Websites, ein sogenannter Webserver wie Apache oder MS IIS, produziert gewöhnlich ein fortlaufendes Protokoll aller Aktivitäten der Software. Diente dies zunächst vor allem zur Aufzeichnung und Behebung von Fehlern im Betrieb, entdeckte man schnell die Möglichkeit, mithilfe dieser Logdatei Ergebnisse zur Beliebtheit der Website, zur Häufigkeit von Seitenabrufen und zur Aktivität der Website-Besucher zu sammeln. Da diese Protokolle direkt von der eigenen Software angelegt werden, zeigen sie ein getreues Abbild der Server-Aktivitäten. Zur Auswertung der Protokolle – pure Text-Dateien, die zeilenweise Aktivitäten der Software wiedergeben – wird gewöhnlich eine Software genutzt, die Statistiken erstellt, Daten zuordnet und in Grafiken und Tabellen anschaulich macht.

Client-basierte Daten: Tags und Pixel Seit etwa 1996 gibt es ein weiteres, einfaches Verfahren zur Datensammlung: Direkt in den Quellcode der Website selbst werden unsichtbare Minibilder (1-Pixel-Grafiken) integriert. Ein Abruf dieser Grafik kann jetzt für genau einen Seitenabruf stehen. Die Pixel-Datei muss sich dabei nicht auf dem gleichen Server wie die eigentlichen Inhalte der Website befinden. So können ASP-Dienstleister die Sammlung, Speicherung und Auswertung der Daten übernehmen. Neben den noch immer genutzten 1-Pixel-Bildern wird heute von fast allen Lösungen zusätzlich Javascript-Code zur Datenerhebung eingesetzt. Diese 'Javascript-Tags' werden ebenso in den Quellcode der Seite integriert, können aber zusätzliche Informationen über den abrufenden Client (gewöhnlich den Browser) sammeln – z. B. grafische Auflösung des genutzten Monitors, Farbtiefe, im Browser installierte Plugins etc. Neuere Tools erlauben auch die Aufnahme der Mausbewegungen (Mouse Tracking) oder Tastatureingaben der Website-Besucher.[2]

Weitere Verfahren Für die Netzwerk-Protokoll-Analyse (NPA, Network Sniffer) wird ein spezieller Decoder zwischen die eigenen Webserver und der Verbindung zum Internet eingesetzt. Dieser sammelt nun den gesamten Datenverkehr in diesem Netzwerk. Beim URL-Rewriting wird ein Proxy zwischen Webserver und Internet installiert, der in speziellen Logdateien die Datenverkehrsdaten speichert und dabei gleichzeitig zusätzliche Informationen (Session-IDs) in die URL schreibt. Sogenannte Hybrid-Verfahren verarbeiten mehr als eine Datenquelle gleichzeitig. Besonders die integrierte Auswertung von Tag-Daten und Server-Daten stellt eine besonders reichhaltige und zuverlässige, aber auch aufwändige Art der Datenverkehrsanalyse dar.

Cookies Um einen einzelnen Seitenaufruf einer Sitzung und eine Sitzung einem eventuell wiederkehrenden Besucher zuordnen zu können, werden gewöhnlich Cookies eingesetzt. Es gibt heftige Debatten um dieses Thema, hier sei etwa auf die Seite HTTP-Cookie verwiesen. Festzuhalten bleibt, dass für eine professionelle Datenverkehrsanalyse, die in das Zentrum ihrer Aufmerksamkeit den 'Besucher' (nicht die einzelne Sitzung) stellt, Cookies gegenwärtig unabdingbar sind. Alternative Methoden mit Flash-Objekten scheinen nur eine Nischenexistenz zu führen. Im Unterschied zu klassischen Cookies können damit Besucher auch wiedererkannt werden, wenn sie verschiedene Browser verwenden. Web Analytics 3

Tag vs. Logdatei – Vor- und Nachteile Datenverkehrsanalysen haben mit starken Verzerrungen im Datenbestand zu kämpfen. Keine Art der Analyse kann für sich beanspruchen, den tatsächlichen Datenverkehr einer Website wahrheitsgetreu abzubilden.

server-basiert client-basiert

Seitenabrufe, die aus Proxies, Zwischenspeichern o. ä. bedient Verzerrungen durch Zwischenspeicher können vermieden werden werden, können vom Server nicht registriert werden

die gewöhnliche Weise der Sitzungszuordnung (gleiche durch Nutzung von Cookies kann die Sitzungs- und Besucher-Zuordnung bis auf IP-Adresse für max. 30 Min.) ist hochgradig fehleranfällig ein für die weitere Verarbeitung akzeptables Maß gesteigert werden

die gewöhnliche Weise der Besucher-Zuordnung (IP-Adresse, Besucher, die Javascript und/oder Bilder in ihrem Browser blockieren, werden ggf. UserAgent) ist in keiner Hinsicht verlässlich nicht erkannt

Daten sind und bleiben im Unternehmen selbst Cookie-Blockaden und Löschraten sorgen für Unsicherheiten

das Datenformat ist offen, Daten können von verschiedenen das Datenformat ist proprietär, d. h. Daten können bei einem Wechsel kaum von Analyse-Tools ausgewertet werden Anbieter A zu Anbieter B mitgenommen werden

sämtliche Spider, Bots u. ä. werden in den Logdateien Spider und Bots werden nur teilweise registriert – das verschlankt die anfallende registriert Datenmenge, ist aber für Suchmaschinenoptimierungen ein Hindernis

die Fehlermeldungen der Server werden unmittelbar registriert nicht alle Fehlermeldungen werden erkannt

durch Javascript können reichere Daten über Clients gesammelt werden

verschiedene Standorte, Server-Cluster, Domains und Subdomains o. ä. stellen kein wesentliches Problem dar

Zusammenfassend lässt sich feststellen, dass das client-seitige Verfahren in Kombination mit 1-Party-Cookies heute das gebräuchlichste und – pragmatisch gesehen – das beste ist. Die Datenqualität ist stark genug, um auf dieser Grundlage belastbare Entscheidungen treffen zu können. Die Kosten für ein gleichwertig zuverlässiges System auf Basis von Logdateien (und Cookies) liegen im Allgemeinen deutlich höher und kommen am ehesten dort in Frage, wo eine erhebliche Sensibilität der Daten vorliegt.

Methoden

Allgemein lassen sich zwei Anwendungsbereiche von Web Analytics unterscheiden: 1. regelmäßiges Monitoring der Effektivität der Website und dazugehörige Kampagnen Durch die Definition von Kennziffern (z. B. Kosten, Umsatz, Konversionsrate, PageViews pro Sitzung, Sitzungen pro Besucher) lassen sich die einzelnen Daten der Analysen zu sinnvollen Informationen verdichten und in einen Kontext der Vergleichbarkeit Klickpfadanalyse mit Herkunftsseiten (links), setzen: Verlauf des Umsatzes über das Jahr, Kosten pro Kampagne, durch ihre Dicke quantifizierten Konversionsrate im Vergleich zu einem gesetzten Ziel etc. Bewegungspfeilen und Website-Objekten, deren Fläche die Anzahl der Besucher und 2. Strategien zur Optimierung der Website Längen-Breiten-Verhältnis den Anteil der • Pfad-Analysen helfen bei der Suche nach besonders beliebten und ausgehenden weiteren Aufrufe symbolisiert. unbeliebten Seiten in einer Website • Segmentierungen helfen beim Auffinden und weiteren Unterscheiden von bestimmten Besuchergruppen (z. B. Besucher von Suchmaschine A im Vergleich zu Besuchern von Suchmaschine B) • Konversionspfade (Funnel) helfen bei der Messung und Optimierung von definierten, wichtigen Seitenabfolgen in der Website Web Analytics 4

• Optimierungen von Startseiten oder Landing Pages durch schnelles Ausprobieren von kleinen Verbesserungen und Veränderungen (A/B-Tests)

Software Eine Webstatistik bietet eine Auswertung zum Surfverhalten von Website-Besuchern. Dabei werden Seitenaufrufe und einzelne Besuche (engl. visit) ausgewertet, um das Verhalten der Besucher auf Webseiten zu analysieren. Im Wesentlichen beruhen Webstatistiken auf einer Auswertung von Logdateien (vgl. Logdateianalyse) des Servers, jedoch existieren auch andere Techniken (Erfassung per Zählpixel oder mit einem JavaScript-Code, der den Zählimpuls an einen Zählserver übergibt). Neben den oft graphisch aufbereiteten Statistiken über frei wählbare Auswertungszeiträume präsentieren Webstatistiken weitere Informationen (Technik der Besucher, Herkunft, spezielle Funktionen, Verhalten der Besucher auf der Webseite), die über den Inhalt der Logdateien hinausgehen und z. B. unter dem Begriff Webtracking anzutreffen sind. Die Webstatistik stößt meist allerdings dann auf ihre Grenzen, wenn der User das Internet verlässt und einen Telefonkontakt herstellt. Diesen sogenannten „Medienbruch“ überwindet zwischenzeitlich das so genannte Telefontracking. Siehe auch: Liste von Web-Analyse-Software

Gegenmaßnahmen Nutzer des World Wide Web können sich zumindest teilweise gegen ein tatsächliches oder vermeintliches Ausspionieren durch Web Analytics schützen. Neben entsprechenden Privacy-Einstellungen im Browser sind vor allem Browser-Add-ons wie Werbe- oder Trackerblocker verbreitet. Eine weitere Methode, die jedoch mit Geschwindigkeitseinbußen verbunden ist, ist die Nutzung von alternativen Proxy-Netzwerken zur Verschleierung der eigenen IP-Adresse.

Gesetzliche Zulässigkeit in Deutschland

Gesetzliche Regelung Die Rechtslage bei der Nutzung von Analytic-Tools ist gegenwärtig in Deutschland umstritten. Rechtlicher Anstoß für die Kritik ist häufig das Speichern der IP-Adresse und das Verwenden von Cookies. Das Bundesdatenschutzgesetz lässt die Erhebung und die Speicherung von personenbezogenen Daten nur dann zu, wenn dies von einer gesetzlichen Vorschrift explizit erlaubt wird oder eine eindeutige und vorherige Einwilligung des Nutzers vorliegt. Relevant ist dabei die Regelung in § 15 Telemediengesetz (TMG). Demnach dürfen personenbezogene Daten von Besuchern einer Internetseite ohne die Einwilligung des Nutzers nur erhoben und verwendet werden, soweit dies erforderlich ist, um die Inanspruchnahme von geschäftsmäßigen Angeboten im Internet zu ermöglichen und abzurechnen. Die Verwendung dieser Daten über das Ende des Nutzungsvorgangs ist nur erlaubt, soweit die Daten „für Zwecke der Abrechnung mit dem Nutzer erforderlich sind”. Nach § 13 Telemediengesetz (TMG) haben Anbieter von Internetportalen sicherzustellen, dass „die anfallenden personenbezogenen Daten über den Ablauf des Zugriffs oder der sonstigen Nutzung unmittelbar nach deren Beendigung gelöscht“ werden.

Pseudonyme Nutzungsprofile Diensteanbieter dürfen für Zwecke der Werbung (z. B. Abrechnung von Anzeigenklicks), der Marktforschung (z. B. Erhebung des Nutzerinteresses um anschließend Webseiten zu optimieren) oder zur bedarfsgerechten Gestaltung der Telemedien (Nutzer gestaltet z. B. den Abruf einer TV-Programm-Webseite nach seinem Geschmack: bevorzugtes Genre, Anordnung der Sender) Nutzungsprofile erstellen, sofern der Nutzer dem nicht widerspricht (§ 15 [3] Abs. 3 TMG). Ein solches Nutzungsprofil kann z. B. Angaben über den Zeitpunkt des Seitenbesuchs und die besuchte Seite Web Analytics 5

enthalten, darf aber keine identifizierenden Merkmale wie die IP-Adresse enthalten, sondern nur ein Pseudonym. Das Profil darf nicht mit anderen Daten über den Träger des Pseudonyms zusammengeführt werden (z. B. im Rahmen einer Geolokalisierung des Nutzers). Damit der Nutzer sein Widerspruchsrecht wahrnehmen kann, ist er spätestens zu Beginn des Seitenbesuchs auf sein Widerspruchsrecht hinzuweisen. Die Datenschutzaufsichtsbehörden halten einen Link unter der Bezeichnung „Datenschutz“, der die Unterrichtung und die Widerspruchsmöglichkeit anbietet, für beanstandungsfrei.

Personenbezug von IP-Adressen Umstritten ist, ob die IP-Adresse eines Internetnutzers in Verbindung mit dem Nutzungszeitpunkt ein personenbezogenes Datum darstellt. Das Amtsgericht München lehnte den Personenbezug einer dynamischen IP-Adresse, die durch den Betreiber eines Internetdienstes gespeichert worden war, in einem ergänzenden Hinweis (obiter dictum) ab (Urt. v. 30. September 2008 – 133 C 5677/08, MMR 2008, 860[4]). Es folgte damit einigen juristischen Kommentatoren (Gola/Schomerus, § 3 Rn. 10), die IP-Adressen nur für „relativ“ personenbezogen halten, so dass die Speicherung von IP-Adressen bei Content-Anbietern zulässig und erst ihre Übermittlung unzulässig sei.[5] Das Amtsgericht Berlin-Mitte hat demgegenüber einen Personenbezug angenommen und es dem Betreiber eines Internetportals verboten, die IP-Adressen seiner Nutzer über die Dauer des Nutzungsvorgangs hinaus aufzubewahren (Urt. v. 27. März 2007 – 5 C 314/06, DuD 2007, 856-858, bestätigt durch Landgericht Berlin, Urt. v. 6. September 2007 – 23 S 3/07, MMR 2007, 799-800[6]). Unter Zuhilfenahme weiterer Daten, wie sie etwa bei Internet-Zugangsanbietern gespeichert werden, sei die Ermittlung des genutzten Internetanschlusses und dessen Inhabers möglich. Dem schloss sich das Verwaltungsgericht Wiesbaden an (Beschl. v. 27. Februar 2009 – 6 K 1045/08, MMR 2009, 428-432[7]). Auch das Amtsgericht Wuppertal sieht die IP-Adresse als personenbezogenes Datum an.[8] Im europäischen Ausland haben das schweizerische Bundesverwaltungsgericht,[9] das oberste schwedische Verwaltungsgericht[10] und der französische Verfassungsgerichtshof[11] unter Bezugnahme auf die auch in Deutschland geltende europäische Datenschutzrichtlinie 95/46/EG den Personenbezug von IP-Adressen bejaht. Gleicher Meinung sind das Bundesjustizministerium,[12] der Bundesdatenschutzbeauftragte,[13] die Datenschutzbeauftragten des Bundes und der Länder[14] sowie die Datenschutzbeauftragten aller EU-Staaten.[15] Der deutsche Bundesgerichtshof hatte noch nicht über die Frage zu entscheiden, hat jedoch in einer Entscheidung aus dem Jahr 2009 ein „Recht des Internetnutzers auf Anonymität“ anerkannt.[16]

Abklärung der Einhaltung des Datenschutzes nötig Wer als deutscher Anbieter eines Internetdienstes externe Dienste wie Webanalysedienste in sein Angebot einbindet, haftet für die Einhaltung des deutschen Datenschutzrechts (sog. Auftragsdatenverarbeitung). Insbesondere bei amerikanischen Unternehmen, die in Deutschland agieren, sollte der Verwender eines Analytic-Tools die Einhaltung des deutschen Datenschutzrechts durch das ausländische Unternehmen sicherstellen, da es in den USA keine dem deutschen Recht vergleichbaren Datenschutzregelungen gibt (vgl. §§ 11, 4b Absätze 2 und 3 BDSG). Die Speicherung oder Übermittlung personenbezogener Daten ist jenseits gesetzlicher Erlaubnisse nur mit Einwilligung der Internetnutzer zulässig (§§ 4, 4a BDSG). Eine Einwilligung muss „bewusst“ erfolgen (§ 13 II TMG) und darf nicht gegen § 307 II BGB verstoßen. Es wird die Auffassung vertreten, dass es ein wesentlicher Grundgedanke des Telemediengesetzes ist, den Nutzer vor einer verdachtslosen Protokollierung seines Nutzungsverhaltens zu schützen. Abweichende Einwilligungsklauseln seien deswegen unwirksam nach § 307 II BGB.[17] Das Telemediengesetz in Deutschland lässt eine Verarbeitung von personenbezogenen Daten nach § 12 I TMG nur zu, wenn der Benutzer vorher zugestimmt hat oder eine gesetzliche Ermächtigung vorliegt. Durch den Einsatz eines externen Tools wird aber meist die vollständige IP-Adresse (ein personenbezogenes Datum) des Seitenbesuchers an einen Dritten (Dienstanbieter) übermittelt. Sofern der Benutzer nicht vorher eingewilligt hat, ist dies unzulässig, da keine Rechtsgrundlage ersichtlich ist, die dies erlauben soll. Web Analytics 6

Am 26./27. November 2009 haben die obersten Aufsichtsbehörden für den Datenschutz im nicht-öffentlichen Bereich (Düsseldorfer Kreis) einige Grundsätze für den Umgang mit Google Analytics und anderen Webtracking-Verfahren beschlossen.[18] Nach Auffassung der Aufsichtsbehörden dürften personenbezogene Daten eines Nutzers ohne Einwilligung nur erhoben und verwendet werden, soweit dies erforderlich ist, um die Inanspruchnahme von Telemedien zu ermöglichen und abzurechnen. Die Analyse des Nutzungsverhaltens unter Verwendung vollständiger IP-Adressen (einschließlich einer Geolokalisierung) sei aufgrund der Personenbeziehbarkeit dieser Daten nur mit bewusster, eindeutiger Einwilligung zulässig. Liegt eine solche Einwilligung nicht vor, sei die IP-Adresse vor jeglicher Auswertung so zu kürzen, dass eine Personenbeziehbarkeit ausgeschlossen ist.

Bußgelder Gegen Anbieter, die gegen die oben genannten Datenschutzgesetze verstoßen, können die Datenschutz-Aufsichtsbehörden Bußgelder verhängen. Der Berliner Datenschutzbeauftragte hat inzwischen eine besondere Bußgeldstelle in seiner Behörde eingerichtet, um in Zukunft verstärkt Sanktionen verhängen zu können. Bildblogger Stefan Niggemeier ist die Protokollierung der IP-Adressen der Nutzer seiner Website bereits verboten worden.[19]

Literatur • Eric T. Peterson: Web Analytics Demystified. 2004, ISBN 0-9743584-2-8. (englisch) • Avinash Kaushik: Web Analytics: An Hour a Day. Sybex, 2007, ISBN 978-0-470-13065-0. (englisch) • Avinash Kaushik: Web Analytics 2.0 - The Art of Online Accountability and Science of Customer Centricity. 2009, ISBN 978-0-470-52939-3. (englisch) • Jason Burby, Shane Atchison: Actionable Web Analytics: Using Data to Make Smart Business Decisions. Sybex, 2007, ISBN 978-0-470-12474-1. (englisch) • Jim Sterne: Web Metrics: Proven Methods for Measuring Web Site Success. Wiley & Sons, 2002, ISBN 0-471-22072-8. (englisch) • Frank Reese: Web Analytics – Damit aus Traffic Umsatz wird: Die besten Tools und Strategien. Verlag Businessvillage, 2008, ISBN 978-3-938358-71-9. • Marco Hassler: Web Analytics – Metriken auswerten, Besucherverhalten verstehen, Website optimieren. Mitp-Verlag, 2008, ISBN 978-3-8266-5931-7. • Ralf Haberich: FUTURE DIGITAL BUSINESS - Wie Web Analytics und Business Intelligence Online Marketing und Conversion beeinflussen. Mitp-Verlag, 2012, ISBN 978-3-8266-9233-8.

Weblinks • DAA ex WAA – Digital Analytics Association [20], Englisch • Web Analytics Buch Online [21] • Anleitungen zur datenschutzkonformen Nutzung der gängigsten Web-Analytics-Tools [22]

Einzelnachweise

[1] Ziele des Web-Controlling und weitere Informationen zum Online Handel (http:/ / www. ecommerce-leitfaden. de/ lasst-zahlen-sprechen. html#anchor_3)

[2] Michel Rossier: Mausbewegungen tracken (http:/ / www. divblog. net/ usability/ mausbewegungen-tracken/ ). 15. Juli 2007.

[3] http:/ / www. gesetze-im-internet. de/ tmg/ __15. html

[4] http:/ / www. telemedicus. info/ urteile/ Datenschutzrecht/ Tracking-von-IP-Adressen/

524-AG-Muenchen-Az-133-C-567708-IP-Adresse-ist-kein-personenbezogenes-Datum. html

[5] Näher http:/ / www. daten-speicherung. de/ ?p=213

[6] http:/ / www. daten-speicherung. de/ ?p=197 Web Analytics 7

[7] http:/ / www. vorratsdatenspeicherung. de/ content/ view/ 301/ 79/ lang,de/

[8] http:/ / www. jurpc. de/ rechtspr/ 20080110. htm

[9] http:/ / relevancy. bger. ch/ pdf/ azabvger/ 2009/ a_03144_2008_2009_05_27_t. pdf

[10] http:/ / www. daten-speicherung. de/ ?p=1218

[11] http:/ / www. conseil-constitutionnel. fr/ conseil-constitutionnel/ francais/ les-decisions/ 2009/ decisions-par-date/ 2009/ 2009-580-dc/

decision-n-2009-580-dc-du-10-juin-2009. 42666. html Abs. 27

[12] http:/ / daten-speicherung. de/ index. / bundesjustizministerium-surfprotokollierung-durch-webseitenbetreiber-illegal/

[13] http:/ / daten-speicherung. de/ index. php/ bundesjustizministerium-surfprotokollierung-durch-webseitenbetreiber-illegal/

[14] :/ / www. bsi. bund. de/ cae/ servlet/ contentblob/ 476812/ publicationFile/ 28294/ 2_Daten_pdf. pdf

[15] http:/ / ec. europa. eu/ justice_home/ fsj/ privacy/ docs/ wpdocs/ 2000/ wp37de. pdf http:/ / ec. europa. eu/ justice_home/ fsj/ privacy/ docs/

wpdocs/ 2002/ wp58_de. pdf http:/ / ec. europa. eu/ justice_home/ fsj/ privacy/ docs/ wpdocs/ 2007/ wp136_de. pdf

[16] http:/ / dejure. org/ dienste/ vernetzung/ rechtsprechung?Text=VI%20ZR%20196/ 08

[17] http:/ / www. wirspeichernnicht. de/ content/ view/ 4/ 21/

[18] http:/ / www. datenschutz-mv. de/ dschutz/ beschlue/ Analyse. pdf siehe dazu http:/ / www. daten-speicherung. de/ ?p=1870

[19] http:/ / www. daten-speicherung. de/ ?p=1736

[20] http:/ / www. digitalanalyticsassociation. org/

[21] http:/ / www. web-analytics-buch. de/ Web-Analytics-Markt/ 01_frueher_heute_morgen. htm

[22] http:/ / www. onlinemarketing-praxis. de/ web-controlling/ web-analytics-datenschutzkonform-einsetzen

Google Analytics

Google Analytics

[1] analytics.google.com Beschreibung Websiteanalysetool Registrierung ja Eigentümer Google Inc. Status aktiv

Google Analytics ist ein Dienst des US-amerikanischen Unternehmens Google Inc., der der Datenverkehrsanalyse von Webseiten dient. Der Dienst untersucht u. a. die Herkunft der Besucher, ihre Verweildauer auf einzelnen Seiten, sowie die Nutzung von Suchmaschinen und erlaubt damit eine bessere Erfolgskontrolle von Werbekampagnen.

Geschichte Google Analytics ist eine Weiterentwicklung einer ursprünglich von der Urchin Software Corporation stammenden Technik. Das Unternehmen Urchin wurde von Google Inc. im März 2005 übernommen.[2] Aus diesem Grund nennt sich das zur Analyse herangezogene Verfahren auch Urchin Tracking Monitor (UTM).

Kritik

Datenschutz von Benutzerprofilen Datenschutzrechtlich betrachtet ist Google Analytics problematisch und umstritten. Google kann mit diesem Analysewerkzeug ein umfassendes Benutzerprofil von Besuchern einer Webseite anlegen. Wird ein anmeldepflichtiger Google-Dienst von den Besuchern verwendet, so kann dieses Benutzerprofil auch bestimmten Personen zugeordnet werden. Zusätzlich problematisch ist die Speicherung der Daten in den USA, welche dem Datenschutz einen geringeren Stellenwert einräumen als europäische Staaten.[3] Google Analytics 8

Das Telemediengesetz in Deutschland lässt nach § 12 [4] Abs. 1 TMG eine Verarbeitung von personenbezogenen Daten nur zu, wenn der Benutzer vorher zugestimmt hat oder eine gesetzliche Ermächtigung vorliegt. Durch den Einsatz eines Werkzeugs wie Google Analytics wird aber mitunter die vollständige IP-Adresse (eine benutzerbezogene Angabe) des Seitenbesuchers an einen Dritten (Google) übermittelt, was dem Datenschutz des Benutzers entgegenwirken kann. Sofern der Benutzer nicht vorher eingewilligt hat, ergeben sich dadurch datenschutzrechtliche Probleme. Es ist bisher juristisch nicht geklärt, welche Rechtsgrundlage dies erlauben soll (siehe § 12 Abs. 1 TMG). Google Analytics ist ein Dienst, der sich beim Aufruf einer Website anonym verhält. Das heißt, dass der Aufrufende diese Interaktion mit Google Analytics gar nicht erst erfährt. Es ist daher umstritten, ob eine solche Übermittlung verboten ist. Hinzu kommen rechtliche Schwierigkeiten. Etwa dass eine Einwilligung „bewusst“ erfolgen muss (§ 13 [5] Abs. 2 TMG) und die Webseite nicht nur bei einer Zustimmung zugänglich gemacht werden darf (§ 12 Abs. 3 TMG). Der Landesbeauftragte für Datenschutz in Schleswig-Holstein kam 2009 zu dem Schluss, dass die Nutzung von Google Analytics durch Webseitenanbieter unzulässig sei.[6]. Google änderte in der Folgezeit die Funktionalität, so dass der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit im September 2011 verkündete, dass Google Analytics jetzt unter Auflagen verwendet werden darf.[7] Zu den Auflagen gehört u.a., dass nicht die gesamte IP-Adresse gespeichert werden darf und Google vom Betreiber der Website vertraglich zur Speicherung der Daten beauftragt werden muss. Mit diesem Code-Zusatz wurde eine zentrale Forderung der Datenschutz-Aufsichtsbehörden erfüllt, wenngleich die Frage nach der datenschutzrechtlich zulässigen Widerspruchsmöglichkeit erhalten bleibt.[8] In Hessen bleibt die Nutzung von Google Analytics durch öffentliche Stellen rechtlich unzulässig.[9] Für die Schweiz weigert sich Google, die oben genannten Auflagen ebenfalls einzuführen.

Schutz der eigenen Privatsphäre Die Erfassung von Datenspuren durch Google Analytics lässt sich verhindern, indem das Laden und Ausführen des Google-Analytics-Scripts (was u. U. auch den Seitenaufbau verlangsamt) verhindert wird. Dies geschieht beispielsweise durch das Blockieren von JavaScript (zum Beispiel durch die Firefox-Erweiterung NoScript, Ghostery oder durch Werbeblocker). Auch möglich ist, den Zugriff auf die Google-Analytics-Domain google-analytics.com insgesamt zu sperren (zum Beispiel durch Werbeblocker, durch Aufnahme in eine Sperrliste, die viele Router anbieten, oder durch die Verwendung der Hosts-Dateien). Am 25. Mai 2010 veröffentlichte Google eine Betaversion des Google Analytics Opt-out Browser Add-ons für Internet Explorer (7 und 8), Google Chrome (4.x und höher) und Mozilla Firefox (3.5 und höher). Das Add-on deaktiviert nach Angaben von Google jede Datenübertragung über das Google Analytics Javascript.[10]

Weiterverarbeitung der Daten Durch den Einsatz von Google Analytics wird eine Webseite für Google transparenter, da Google Einblick in die spezifischen Zugriffe der Webseite bekommt. Es ist umstritten, ob diese Daten von Google (intern) weiterverarbeitet werden oder nicht. Google könnte mit den durch Analytics erhaltenen Daten beispielsweise den Suchalgorithmus anpassen. Bei Websurfern, die ein Konto bei Google besitzen (und somit das „Google-Cookie“ in ihrem Browser gespeichert haben), wäre Google technisch in der Lage, die gesammelten Datenspuren mit einem Nutzerkonto zu verknüpfen, und genau nachzuvollziehen, wer sich wann auf welcher Webseite aufgehalten hat. Dies betrifft alle Webseiten, die Google Analytics einsetzen. Darüber hinaus wäre es auch denkbar, dass exakte Informationen darüber gespeichert werden, welche Produkte wie oft, wann und zu welchem Preis in einem Onlineshop verkauft werden. Selbst die Erfassung des monatlichen Gesamtumsatzes wäre möglich.[11] Google Analytics 9

Anbindung an andere Dienste Neben der kostenlosen Nutzung von Google Analytics ist die einfache Verknüpfbarkeit zu anderen Google-Diensten wie z. B. Google AdWords oder Google AdSense gegeben. So lassen sich die standardmäßigen Analytics-Daten mit weiteren Informationen aus diesen Diensten anreichern. So kann man zusätzliche Schlüsse für die Optimierung von z.B. Google AdWords ziehen. Seit Oktober 2011 ist auch eine Verknüpfung mit den Google Webmaster Tools möglich. Außerdem ist seit einiger Zeit eine App für das Betriebssystem Android erhältlich, mit der Nutzer unterwegs Statistiken aus Google Analytics abrufen können. Seit Juni 2012 unterstützt Google auch den Abruf von Echtzeitdaten über die Anwendung.. Seit dem 17. Oktober 2012 unterstützt die Echtzeit-Analyse ebenfalls gefilterte Profile

Literatur • Timo Aden: Google Analytics – Implementieren. Interpretieren. Profitieren. 2009, Hanser Fachbuch, ISBN 978-3-446-41905-6 • Brian Clifton: Advanced Web Metrics with Google Analytics. 2008, Wiley Pub., ISBN 978-0-470-25312-0 • Thomas Kaiser: Google Analytics - Erfolgskontrolle für Webseiten. 2010, Franzis, ISBN 978-3-7723-6477-8

Weblinks • Deutscher Internetauftritt von Google Analytics [12] • Zeit Online: Datenschützer wollen Einsatz von Analytics verhindern [13] • Offizielles Google Browser-Add-on zur Deaktivierung von Google Analytics [14]

Einzelnachweise

[1] http:/ / analytics. google. com

[2] Google übernimmt Urchin Software (http:/ / pressetext. de/ news/ 050329009/ google-uebernimmt-urchin-software) bei pressetext.de

[3] Kassensturz 11. November 2008: Wie Google Schweizer ausspioniert (http:/ / www. srf. ch/ konsum/ themen/ multimedia/ daten-gier-wie-google-schweizer-ausspioniert)

[4] http:/ / www. gesetze-im-internet. de/ tmg/ __12. html

[5] http:/ / www. gesetze-im-internet. de/ tmg/ __13. html

[6] 31. Tätigkeitsbericht des Landesbeauftragten für Datenschutz Schleswig-Holstein zu Google Analytics (https:/ / www. datenschutzzentrum.

de/ material/ tb/ tb31/ kap07. htm#72)

[7] Beanstandungsfreier Betrieb von Google Analytics ab sofort möglich (http:/ / www. datenschutz-hamburg. de/ news/ detail/ article/

beanstandungsfreier-betrieb-von-google-analytics-ab-sofort-moeglich. html), 15. September 2011

[8] Google und Datenschutz: Google Analytics erfüllt zentrale Forderung der Datenschutz-Aufsichtsbehörden (http:/ / www. iitr. de/

datenschutz-google-analytics-erfuellt-zentrale-forderung-der-datenschutz-aufsichtsbehoerden. html) Artikel des IITR vom 26. Mai 2010.

[9] Nutzung von Google Analytics durch öffentliche Stellen in Hessen rechtlich unzulässig (http:/ / www. datenschutz. hessen. de/ ar008. htm#entry3592), Seite des Hessischen Datenschutzbeauftragten, 23. Februar 2013.

[10] Greater choice and transparency for Google Analytics (http:/ / analytics. blogspot. com/ 2010/ 05/ greater-choice-and-transparency-for. html)

[11] Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein: Tracking – Nutzerverfolgung im Internet (https:/ / www.

datenschutzzentrum. de/ tracking/ ), abgerufen am 19. Februar 2009

[12] http:/ / www. google. de/ analytics/ de-DE/

[13] http:/ / www. zeit. de/ digital/ datenschutz/ 2009-11/ google-analytics-datenschutz

[14] https:/ / tools. google. com/ dlpage/ gaoptout?hl=de Piwik 10

Piwik

Piwik

Basisdaten [1] Maintainer Matthieu Aubry und andere Aktuelle Version 1.12 (30. Mai 2013) Ausführungsumgebung Plattformunabhängig Programmiersprache PHP Kategorie Web Analytics Lizenz GPL Version 3 Deutschsprachig Ja

[2] piwik.org

Piwik ist ein Open-Source-Programm für Webanalytik. Es ist das Nachfolgeprojekt des inzwischen eingestellten Projekts „phpMyVisites“ und dessen Weiterentwicklung. Es wird von Sponsoren[3] finanziert und seit dem 21. November 2008 von SourceForge.net als eine gehostete Applikation für Entwickler angeboten. Der Funktionsumfang umfasst:[4] • Statistik über Seitenabrufe auf Tageszeiträume kumuliert und als Echtzeitlog • Unique Visits mit third party cookies • Besucheranalyse (Herkunftsländer, Browser, Betriebssystem) • Referreranalyse • Zieldefinition • Mandantenfähigkeit für mehrere Webseiten • Kampagnen- und Zieltracking für den Ecommerce • Anonymisierung der IP-Adresse zum Datenschutz • Clients für Android und iOS Piwik ist eine Alternative zu Google Analytics.[5] Auch wenn der Funktionsumfang geringer ist, hat es den Vorteil, die datenschutzrechtlich sensiblen Logdaten auf dem eigenen Server zu speichern. Seit Erscheinen der ersten Version 0.1 am 6. März 2009 wurde Piwik knapp 1.500.000-mal heruntergeladen (Stand: September 2013).[6] In Deutschland ist Piwik nach Google Analytics das meistverwendete Webanalytik-Werkzeug.[7] Piwik 11

Technik Piwik ist in PHP geschrieben und nutzt eine MySQL-Datenbank. Die Besucherzählung erfolgt mit JavaScript oder Zählpixel, über eine API oder eine Logdateianalyse.[8] Serverseitig werden die Bibliotheken Zend Framework, PEAR und Smarty, clientseitig jQuery genutzt.[9] Die Logdaten werden nicht-relational gespeichert und regelmäßig, bei großen Instanzen per cron, auf Tageszeiträume aggregiert und gestaget.[10] Diese Archivdaten werden je Monat in einzelnen Tabellen abgelegt. Die grafische Benutzeroberfläche (GUI) ist webbasiert, Graphen werden seit Version 1.5 mit Canvaselementen[11][12] dargestellt. Alle Kennzahlen können auch mit einer REST API abgefragt werden. Diese API nutzt auch Piwik Connector, ein Desktopprogramm auf Basis von Adobe Air.[13] Zusätzlich können über eine REST API in den Formaten CSV, XML und JSON alle Daten abgefragt und die Software gesteuert werden. Mit der Version 1.8.2 wurden zahlreiche Verbesserungen vorgenommen, so etwa in der Darstellung der graphischen Datenanalyse sowie im Datenschutz-Bereich mit der Unterstützung von Do Not Track. Gleichzeitig wurden neue Funktionen hinzugefügt, so etwa die Möglichkeit des Importierens und Auswertens von Webserver-Logdateien, das Anlegen benutzerdefinierter Dashboards und das Anzeigen erweiterter Berichte.[14]

Weblinks • deutsche Website von Piwik [15] • Piwik Connector für Desktopstatistiken [16] • Hinweise und Empfehlungen zur Analyse von Internet-Angeboten mit „Piwik“ [17] (PDF-Datei; 303 kB) durch das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein (Datenschutz-Aufsichtsbehörde) • Sammlung zahlreicher Anleitungen und Hilfen für Piwik [18]

Einzelnachweise

[1] http:/ / piwik. org/ the-piwik-team/

[2] http:/ / piwik. org/

[3] http:/ / piwik. org/ about/ sponsors/

[4] http:/ / piwik. org/ features/

[5] sogar von den Entwicklern selbst: Piwik aims to be an open source alternative to Google Analytics. http:/ / piwik. org

[6] Downloadzähler von Piwik (http:/ / piwik. org/ download-piwik/ ). Abgerufen am 24. September 2013

[7] Distribution of traffic analysis tools among websites that use .de (http:/ / w3techs. com/ technologies/ segmentation/ tld-de-/ traffic_analysis). Abgerufen am 1. Mai 2012

[8] http:/ / piwik. org/ log-analytics/

[9] http:/ / dev. piwik. org/ trac/ browser/ trunk/ libs

[10] http:/ / piwik. org/ docs/ plugins/ -schema/

[11] http:/ / piwik. org/ blog/ 2011/ 06/ piwik-innovative-with--canvas-chart-and-contributing-by-jqplot-creator/

[12] http:/ / piwik. org/ changelog/

[13] http:/ / www. piwik-connector. com/

[14] Piwik 1.8.2: Google-Analytics-Alternative mit neuen Features und Bugfixes (http:/ / t3n. de/ news/ piwik-182-393814/ ), t3n, abgerufen am 13. Juni 2012

[15] http:/ / de. piwik. org

[16] http:/ / www. piwik-connector. com/

[17] https:/ / www. datenschutzzentrum. de/ tracking/ piwik/ 20110315-webanalyse-piwik. pdf

[18] http:/ / www. redirect301. de/ tag/ piwik AWStats 12

AWStats

AWStats

[1] Entwickler Laurent Destailleur Aktuelle Version 7.2 (9. Juli 2013) Betriebssystem plattformunabhängig Programmiersprache Perl Kategorie Logdateianalyse Lizenz GPL (Freie Software) Deutschsprachig ja [2] http:/ / www. awstats. org/

AWStats ist eine freie Webanalyse-Software. Sie wird zur Auswertung von Logdateien verwendet, die Webserver auf Basis von Besucheranfragen erstellen. AWStats erzeugt Berichte als HTML-Seiten, die mit einem Browser betrachtet werden können und auf diese Weise beispielsweise direkt von der analysierten Webseite verlinkt werden können.

Hintergrund Das Script kann mit Logdateien von Web-, Mail- oder FTP-Servern umgehen. Es wurde in der Programmiersprache Perl geschrieben und wird unter der GNU General Public License vertrieben. AWStats unterstützt die wichtigsten Webserver-Logformate wie die des Apache (NCSA combined/XLF/ELF-Logformat oder common/CLF-Logdateiformat), WebStar, IIS (W3C-Logdateiformat) und viele weitere. Es generiert aus den Logdateien eine grafische und textbasierte Statistik, wobei nicht direkt Bilddateien erzeugt, sondern die Grafiken durch HTML-Tabellen und CSS-Konstrukte simuliert werden. Da AWStats ausschließlich auf Perl basiert und nur einige CPAN-Module zum Laufen benötigt, ist es auf jedem Perl unterstützenden Betriebssystem lauffähig.

Arbeitsweise

AWStats wird regelmäßig, üblicherweise täglich, aufgerufen (z.B. automatisiert durch einen Cronjob). Bei jedem Aufruf überfliegt AWStats die vorhandenen Statistiken und überprüft anhand eines Zwischenspeichers, welche Logzeilen bereits analysiert wurden. Dann analysiert es neu hinzugekommene Logzeilen und fügt sie seinem Datenbestand hinzu und aktualisiert die HTML-Zusammenfassungen.

Je nach Konfiguration kann AWStats nach der Auswertung in einem Screenshot einer typischen Ausgabe von Balkendiagramm anzeigen, um welche Uhrzeit ein Aufruf erfolgte, wie AWStats viele Daten übertragen wurden, welche Browser-Version verwendet wurde, von welchem Rechner und von welcher Adresse der Besucher kam. Gemeinsam mit allen anderen Logzeilen entstehen so aussagekräftige Ergebnisse. AWStats 13

Anwendung

AWStats kann in zwei verschiedenen Modi betrieben werden: Entweder als Hintergrundprogramm oder als CGI-Programm (bzw. unter Zuhilfenahme von mod_perl). Im ersteren Modus erzeugt AWStats nach einmaligem Aufruf statische HTML-Dateien. Dies tut AWStats prinzipiell auch bei der zweiten Variante, zusätzlich kommen jedoch Extrafunktionen, die individuelle Anfragen von Besuchern zulassen, etwa eine Übersicht der Balkendiagramme, die die monatliche Aufrufrate verwendeten Browser zwischen März 2007 und April 2009. Diese der analysierten Website anzeigen Analysedaten werden dann unmittelbar bei Anforderung generiert. Dies führt zwangsläufig zu einer höheren Serverlast als die pure Anzeige von statischen Dateien.

Konfiguration und Erweiterungen AWStats wird durch eine umfangreich dokumentierte Konfigurationsdatei angepasst, die sich einer simplen Syntax der Form # Kommentar Eigenschaft="Wert" AndereEigenschaft="Wert"

bedient. Außerdem ist AWStats durch sogenannte „Extra Sections“ erweiterbar. Diese sind kurze Codestücke, die es ermöglichen, spezielle Statistiken zu erstellen.

Alternativen Als konkurrierendes freies Programm mit etwa dem gleichen Umfang wird oft Webalizer genannt.

Weblinks • Die offizielle Webpräsenz [2] mit Dokumentation und Beispielen (englisch)

Quellennachweise

[1] http:/ / www. destailleur. fr/

[2] http:/ / www. awstats. org/ Webalizer 14

Webalizer

Webalizer Entwickler Bradford L. Barrett Aktuelle Version 2.23-08 (26. August 2013) Betriebssystem Windows, , Solaris, Irix, OS/2, FreeBSD, Mac OS X, BeOS, OpenVMS u. a. Programmiersprache C Kategorie Statistik-Software Lizenz GPL (Freie Software) Deutschsprachig ja

[1] webalizer.org

Webalizer ist eine Web Analytics Software, die mit Logdateianalyse arbeitet und unter der GPL steht. Angeregt wurde das Projekt im Jahre 1997 durch Bradford L. Barrett. Die vom Webalizer generierten Statistiken enthalten üblicherweise folgende Informationen: Anfragen, Besuche, Verweise, Länder der Besucher und Menge der ausgelieferten Daten. Diese Statistiken können sowohl grafisch als auch textuell betrachtet werden und sind auf unterschiedlichen Zeitskalen (Stunden, Tage, Monate, Jahre) dargestellt.

Übersicht Die Protokolldateianalyse einer Webseite wird durch Gruppierung und Zusammenfassung verschiedener, vom Webserver während des Benutzerzugriffs in Protokolldateien aufgezeichneter Daten erzeugt. Dabei werden meistens die folgenden Parameter verwendet und ausgewertet: URL Ein Uniform Resource Locator (URL) bezeichnet eindeutig die vom Browser des zugreifenden Nutzers angeforderten Daten. Hit Jeder HTTP-Zugriff durch den Webbrowser des Nutzers wird als ein Hit bzw. Zugriff gezählt. Dabei können HTTP-Zugriffe auch für nicht vorhandene Inhalte anfallen, die aber trotzdem als Zugriff mitgezählt werden. Wenn beispielsweise eines von fünf durch den Webbrowser des Nutzers angeforderten Bildern fehlt, zählt der Webserver trotzdem sechs Zugriffe (Hits), von denen fünf als erfolgreich (die HTML-Datei und vier Bilder) und einer als fehlgeschlagener Zugriff (der für das fehlende Bild) aufgezeichnet werden.

Auswertungen Webalizer produziert standardmäßig zwei verschiedene Auswertungen, einen Jahresüberblick und eine detaillierte Monatsauswertung für jeden ausgewerteten Monat. Der Jahresüberblick enthält Informationen über die Anzahl von Seitenzugriffen (hits), Datei- und Seitenabrufe (file and page requests), zugreifende Rechner (hosts) sowie die Anzahl ihrer Zugriffe (visits), sowie den täglichen Durchschnitt dieser Werte für jeden Monat. Zu der Auswertung gehört auch eine graphische Jahreszusammenfassung. Jede der Monatsauswertungen wird als einzelne HTML-Seite aufgebaut, die zum einen eine monatliche Übersicht der genannten Werte (Gesamtanzahl der Hits, File/Page Requests, Visits, Hosts, etc.), zum anderen eine tägliche Webalizer 15

Zusammenfassung dieser Werte für jeden Tag des Monats, eine stundenweise Zusammenfassung für jede Stunde jedes Tages, eine Übersicht nach den abgerufenen Seiten mit ihrer URL, eine nach ihrer IP-Adresse gegliederte Übersicht der zugreifenden Rechner, eine Übersicht über Anfangs- und Ausstiegs-URL, aus der die am meisten verwendeten Einstiegs- und End-URLs des Servers ersichtlich sind, eine Referrer-Übersicht, aus der die URLs der Seiten zu ersehen sind, von denen aus der Zugriff bzw. die Weiterleitung erfolgt ist, eine Übersicht über die verwendeten Suchbegriffe, eine Übersicht über die für den Zugriff verwendeten Webbrowser sowie eine Übersicht über die Länder, aus denen der Zugriff auf die Webseiten erfolgt ist. Jede der vorstehend beschriebenen Standard-HTML-Auswertungen benennt die zwanzig häufigsten Einträge für jeden auszuwertenden Parameter, beispielsweise die zwanzig am häufigsten aufgerufenen Seiten (URLs). Die Zahl der tatsächlich aufgeführten Zeilen in jeder dieser Auswertungen lässt sich über die Konfiguration beeinflussen. Webalizer lässt sich auch so konfigurieren, das er separate Auswertungen für jeden Parameter erzeugt, die beispielsweise jeden einzelnen Nutzer der Website oder alle angeforderten URL-Adressen aufführen. Zusätzlich zu den in HTML generierten Berichten kann der Webalizer auch so konfiguriert werden, dass er durch Kommata begrenzte Dateien (CSV) erzeugt, die alle in einem Bericht verwendeten Daten in reiner Textform enthalten. Diese Dateien kann man in Tabellenkalkulationsprogramme oder Datenbanken einlesen und dort weiter auswerten.

Sprachunterstützung Statistische Auswertungen in HTML können in mehr als 30 Sprachen erzeugt werden, dazu gehören: Vereinfachtes Chinesisch, Dänisch, Deutsch, Englisch, Estnisch, Finnisch, Französisch, Galizisch, Griechisch, Indonesisch, Isländisch, Italienisch, Japanisch, Katalanisch, Koreanisch, Kroatisch, Litauisch, Malaiisch, Niederländisch, Norwegisch, Polnisch, Portugiesisch (auch für Brasilien), Rumänisch, Russisch, Schwedisch, Serbisch, Slowakisch, Slowenisch, Spanisch, Tschechisch, Türkisch, Ukrainisch, Ungarisch. Um Berichte in einer anderen Sprache zu erzeugen, muss ein spezielles Webalizer Binary für diese Sprache kompiliert werden.

Kritikpunkte • Die erzeugten Statistiken unterscheiden nicht zwischen menschlichen Nutzern einer Website und automatisierten Zugriffen, beispielsweise durch Suchmaschinenroboter. Die daraus resultierenden Berichte weisen dann natürlich zu hohe Zugriffszahlen aus, verglichen mit den nur durch menschliche Nutzer erzeugten Zugriffen. • Die ausgewiesenen Zugriffszahlen werden auch durch Downloadmanager verfälscht, die die Downloads von der Website in Teilen vornehmen. Jeder Zugriff mit dem Status 206 „Partial Content“ wird als separater Zugriff gezählt. • Es gab bis zur Version 2.20 keine Auswertung für Abfragebegriffe (query); dynamisch erzeugte Webseiten, z. B. PHP-Seiten mit Argumenten, können dann nicht separat ausgewiesen werden. Seit Version 2.20 ist es mit StripCGI und DefaultIndex möglich, diese separat auflisten zu lassen. Webalizer 16

Alternativen • AWStats • Piwik • Analog

Weblinks • offizielle Webpräsenz [1] • Webalizer GUI [2], grafische Benutzeroberfläche für den Webalizer • Webalizer Xtended [3] (Weiterentwicklung des ursprünglichen Webalizer mit zahlreichen Erweiterungen und Verbesserungen wie beispielsweise HTTP-404-Statistik, HTTP-Statuscode-Grafik, benutzerdefinierbare Farben für die generierten Statistiken, GeoIP, Sicherheits-Bugfixes und vielem mehr) • Stone Steps Webalizer [4] (Weiterentwicklung des ursprünglichen Webalizer mit einem überarbeiteten Layout der erzeugten HTML-Seiten, Sicherheits-Bugfixes sowie zahlreichen Erweiterungen wie z. B. HTTP-404-Statistik, benutzerdefinierbaren Farben und vielem mehr)

Quellennachweise

[1] http:/ / www. webalizer. org/

[2] http:/ / www. tobias-schwarz. net/ webalizer_gui. html

[3] http:/ / www. patrickfrei. ch/ webalizer/

[4] http:/ / www. stonesteps. ca/ projects/ webalizer/

Logdateianalyse

Bei der Logdateianalyse wird die Logdatei eines Computersystems eines gewissen Zeitraumes nach bestimmten Kriterien untersucht. Bei aktuellen Computersystemen werden die unterschiedlichsten Systeme mitprotokolliert. Beispielsweise finden sich bei jedem Webserver, bei jeder Datenbank und jeder Firewall Logdateien. Je nach Art, Inhalt und Umfang der Aufzeichnung der Logdatei können daraus verschiedene Schlüsse gezogen werden.

Auswertung von Webserver-Logdateien Die interpretierten Statistiken ermöglichen es, den Aufbau und die Struktur der Internetseite zu optimieren. Sie sind Grundlage für Benutzerfreundlichkeitsanalysen oder liefern Aussagen über den Erfolg einer Marketingaktion. Mit einer Analyse der Logdateien kann man ansatzweise Webcontrolling betreiben.

Einige mögliche Fragestellungen • Wie lauten IP-Adresse und Hostname des Nutzers? • Welchen Browser hat er genutzt? • Auf welcher Seite stand der Link, mit dem der Nutzer auf die Seite gekommen ist? • Welche Suchmaschine und welche Suchwörter hat er genutzt? • Wie lange blieb er auf der Website? • Wie viele Seiten ruft er dabei auf? • Auf welcher Seite hat er die Website verlassen? • Welche Ergänzungsmodule hat er installiert? • Welches Betriebssystem nutzt er? • Welche Internetseiten hat Mitarbeiter Mustermann während der Arbeitszeit besucht? (hier muss in der Regel der Betriebsrat einbezogen werden) Logdateianalyse 17

• Woher kommt der Nutzer? Diese Fragen lassen sich vor allem durch die Auswertung der sogenannten Kommunikationsranddaten beantworten.

Probleme bei der Analyse Das Hauptproblem der Logdateianalyse bei Webserver-Logdateien ist die Tatsache, dass HTTP ein zustandsloses Protokoll ist. Das heißt, jede Anfrage eines Clients nach einer Webseite (oder jeder einzelnen darin vorkommenden Grafik usw.) ist für den Webserver eine eigenständige Aktion. Klickt sich der Benutzer durch eine Website, hat der Webserver keinerlei Kenntnis, dass der Benutzer gerade schon eine Seite abgerufen hat. Um trotzdem ein zustandsbehaftetes HTTP zu ermöglichen, wird bei dynamisch erzeugten Webseiten gelegentlich beim ersten Aufruf des Benutzers eine so genannte Session-ID vergeben, die der Client dann bei den folgenden Anfragen immer mitsendet. Dies kann über einen Cookie oder einen an jeden URI zusätzlich angehängten Parameter erfolgen, wobei ein Cookie jedoch nicht in der Logdatei sichtbar ist und eine gesonderte Programmierung für die Logdateianalyse benötigt. Falls ein Cookie gesetzt werden kann (das ist vom Client abhängig), ist auch eine spätere Wiedererkennung möglich, sofern der Cookie in der Zwischenzeit nicht verändert bzw. gelöscht wurde. Ansonsten können nur rein statistische Aussagen über die (wahrscheinlichen) Wiederkehrer einer Seite getroffen werden. Dies ist dann z.B. durch Kombinationen von gleicher IP-Adresse, Bildschirmauflösung, übereinstimmenden Plug-ins usw. annähernd möglich, genau ist diese Methode aber nicht. Allerdings gibt es Untersuchungen zu Techniken, wie man einzelne Rechner anhand ihrer individuellen Gangungenauigkeit der Systemuhr wiedererkennen kann. Eine andere im HTTP bestehende Möglichkeit, einen Benutzer zu identifizieren, ist die Verwendung der IP-Adresse. Sie kann jedoch für viele unterschiedliche Benutzer dieselbe sein, wenn diese einen Proxyserver, Network Address Translation oder Ähnliches verwenden. Sie sind daher nur mit größter Vorsicht zu verwenden, da eine IP-Adresse nicht mit einem Benutzer gleichzusetzen ist. Oftmals hat der Betreiber einer Webseite jedoch keinen Zugriff auf die Logdatei des Webservers, sodass häufig versucht wird, mittels Zählpixeln dennoch eine statistische Auswertung zu ermöglichen. Hierzu werden kleine, unsichtbare (1×1 Pixel, transparent) Bilder in die Webseite eingebunden, die auf einem Webserver abgelegt werden, dessen Logdatei man auswerten kann. Erweiterte Informationen, wie beispielsweise die Bildschirmauflösung oder eine Liste von installierten Webbrowser-Plug-ins, werden auch gerne gewünscht, sind jedoch nicht in einer Logdatei enthalten. Diese Informationen werden dann üblicherweise mittels einer Client-seitigen Skriptsprache ermittelt und ebenfalls mittels Zählpixel separat geloggt.

Korrelation von Logdateien Neben der Auswertung einzelner Dateien existiert quasi als Königsdisziplin die Korrelation unterschiedlicher Logdateien, insbesondere zur Fehleranalyse. Dabei ist es wichtig, dass die beteiligten Systeme alle Logeinträge mit einem Zeitstempel versehen und darüber hinaus die Uhren dieser Systeme nahezu synchron gehen. Hier empfiehlt sich der Einsatz eines Netzwerkzeitprotokolls wie NTP. Beispiel für eine Korrelation von Logdateien und -einträgen wäre die Verbindung von Firewall-Logdatei und Router-Logdateien sowie Accountingdaten auf einem von einem Cracker kompromittierten System. Logdateianalyse 18

Zulässigkeit der Analyse in Deutschland → Hauptartikel: Webcontrolling Nach Auffassung der Aufsichtsbehörden dürften personenbezogene Daten eines Nutzers ohne Einwilligung nur erhoben und verwendet werden, soweit dies erforderlich ist, um die Inanspruchnahme von Telemedien zu ermöglichen und abzurechnen. Die Analyse des Nutzungsverhaltens unter Verwendung vollständiger IP-Adressen (einschließlich einer Geolokalisierung) sei aufgrund der Personenbeziehbarkeit dieser Daten nur mit bewusster, eindeutiger Einwilligung zulässig.[1]

Programme zur Logdateianalyse Es gibt eine Vielzahl von Programmen, die dabei helfen Logdateien zu analysieren. Die folgenden Aufzählungen listen einige davon:

Freie Programme (Open Source) • Analog • AWStats • Kibana[2] • LIRE • mgaccesslog • ModLogAn • pageLogger • Piwik • RRDtool • Visitors • W3Perl • Webalizer • Webalizer Xtended • WUM • WUMprep

Kostenlose Programme (Freeware) • HTTP LogStat • Funnel Web Analyzer • PrimaWebtools • Web Entry Miner WEM • Xlogan Logdateianalyse 19

Kommerzielle Programme • aconon Web-Controlling • APAGO • CounterLabs • EXAConsult MBIS • Intares-MQS Web Mining • LFApro • Mescalero • NetMind • NetTracker • SAS Web Analytics • ShopStat • Sawmill Analytics • SmarterStats • W3 Statistics (kostenlose Version erhältlich) • Urchin Software • WiredMinds • WebReflow (kostenlose Version erhältlich) • WebSpy • WebTrends • Xlogan Pro

Produkt-Verzeichnisse • deutschsprachig auf web-analytics.org • englischsprachig von Terry Lund

Literatur • Bensberg, Frank: „Web Log Mining als Instrument der Marketingforschung – Ein systemgestaltender Ansatz für internetbasierte Märkte.“ Wiesbaden 2001 – ISBN 3-8244-7309-7 • Kimball, R. / Merz, R.: The Data Webhouse Toolkit. New York et al. 2000. • Lutzky, C. / Teichmann, M.-H.: Logfiles in der Marktforschung: Gestaltungsoptionen für Analysezwecke. Jahrbuch der Absatz- und Verbrauchsforschung, 48. Jahrgang, 2002, Seiten 295–317. • Massand, B. / Spiliopolou, M.: Web Usage Analysis and User Profiling. Berlin et al. 2000.

Einzelnachweise

[1] http:/ / www. datenschutz-mv. de/ dschutz/ beschlue/ Analyse. pdf, siehe dazu http:/ / www. daten-speicherung. de/ ?p=1870.

[2] Kibana Homepage (http:/ / kibana. org/ ) Ganglinie 20

Ganglinie

Eine Ganglinie ist die graphische Darstellung von Messwerten in ihrer zeitlichen Reihenfolge. Dabei befindet sich die Zeit stets auf der X-Achse, der Messwert auf der Y-Achse des Koordinatensystems.

Wortherkunft 'Der Gang' ist ein Wort mit neun - teils selten verwendeten - Bedeutungen.[1] Hier bedeutet es "Ablauf; Verlauf, den etwas nimmt." 'Gang' ist in ähnlicher Bedeutung auch Wortbestandteil von Wellengang, Seegang und Eisgang (= das Treiben („gehen“) von Eis auf fließenden Gewässern).

Messwerte Der Begriff der Ganglinie wird in vielen Branchen verwendet. Die Grafik kann abbilden (auf der Y-Achse): • Einen Dezibel-Wert (Lärm), • die Anzahl von Fahrzeugen (Verkehrsaufkommen) • deren Geschwindigkeit (Geschwindigkeitsganglinie), • die Temperatur, • einen Emissionswert oder • die Belastung eines Netzes. Man verwendet den Begriff 'Ganglinie' häufig im Zusammenhang mit hydrologischen Messwerten an (siehe Hydrograph): • Wasserstand oder Durchfluss an einem Pegel, • Hochwasser (Wasserstand beim Durchgang einer Hochwasserwelle, beeinflusst durch Niederschlag oder Schneeschmelze), • Grundwasser, • Abfluss, Fließgeschwindigkeit, • Sedimentfracht des Wassers (gemessen in Menge oder Volumen).

Zeitachse Die Zeitachse kann, je nach beabsichtigter Aussage der Grafik, jede Art von Zeitskala enthalten. Man unterscheidet zwei Ganglinientypen: • Ganglinien mit gemessenen Werten während einer bestimmten Periode (z.B. mehrere Tage oder Jahre). Beispiele hierfür sind die Tageshöchsttemperatur in Rio über die letzten 10 Jahre oder der Wasserstand der Elbe bei Tangermünde in den vergangenen 31 Tagen. • Ganglinien, die abgeleitete Werte (Mittelwerte) in einer festen Zeiteinheit abbilden. Diese bezeichnet man als Normganglinien oder 'typisierte Ganglinien'. Beispiele hierfür sind das Verkehrsaufkommen an einem bestimmten Punkt einer Bundesstraße an einem Werktag oder die mittlere Tagestemperatur in Rio im Jahresverlauf. Ganglinie 21

Ganglinien-Beispiele

Normganglinien von Die Entwicklung der globalen Normganglinien von Temperatur Anzahl der neuen Artikel in Temperatur (Tag und Durchschnitts-Temperatur und Niederschlag in Rio de der Wikipedia pro Tag Nacht) und Niederschlag während der letzten zwei Janeiro auf Fuerteventura Jahrtausende

Verhältnis der tatsächlich nach VDEW: Verlauf des gelöschten Artikel zu den winterlichen Stromverbrauchs gestellten Löschanträgen (Last) über verschiedene Wochentage

Ganglinien-Beispiele im Web • Beispiel für Verkehrsaufkommen [2] • Wasserstand Tangermünde, die letzten 31 Tage [3] • Grundwasserganglinie in Kaarst, mehrjährig [4]

Einzelnachweise

[1] duden.de (http:/ / www. duden. de/ rechtschreibung/ Gang_Bewegung_Weg_Speise) Wenn man die Bedeutungsvarianten einzeln zählt, kommt man sogar auf 14 Bedeutungen

[2] http:/ / verkehr. cnlab. ch/ verkehr1/

[3] http:/ / www. bafg. de/ php/ TANGERMUENDEELBEW. htm

[4] http:/ / www. kaarst. de/ C125707B002A6821/ html/ A158205ED81FB41BC12571410050F37B?openDocument Konversion (Marketing) 22

Konversion (Marketing)

Konversion, oder auch nach dem englischen Ursprung Conversion, ist ein Fachausdruck des Marketings, insbesondere des Online-Marketings. Dieser Ausdruck bezeichnet die Umwandlung des Status einer Zielperson in einen neuen Status, z. B. die Umwandlung eines Interessenten in einen Kunden.

Ziele Ziele und deren Konversion im Online-Marketing können z. B. sein: • Konversion von Suchergebnissen in Suchmaschinen in Seitenaufrufe einer Webseite • Konversion des Nutzers einer Suchmaschine in einen Besucher einer Webseite • Konversion eines Besuchers einer Webseite in einen Interessenten für ein Downloadangebot • Konversion von Webseitenbesuchern in Kontaktanfragen • Umwandlung eines Kaufinteressenten in einen Käufer auf einer Website oder in einem Online-Shop • Registrierung für einen Newsletter auf einer Website • Ausfüllen einer Angebotsanfrage in einem Online-Shop Es gibt allerdings auch Beispiele einer Konversion im klassischen Marketing, wie bspw. • die Rücksendung einer Antwortpostkarte • die Anforderung von Informationen mittels Coupon einer Anzeige • die Reaktion auf ein Preisausschreiben (Adressen werden generiert) • Bestellen eines Katalogs nach einem Mailing Im Online-Bereich spricht man von der Konversionsrate und dem Conversion-Tracking, die eine der zentralen Größen der Web-Analyse darstellt.

Konversionsrate Die Messung der Konversion erfolgt durch die Konversionsrate (Konvertierungsrate, Conversion Rate (CR), Prospect-Conversion-Rate (PCR)). Diese gibt den Teil der Kaufinteressenten an, die eine bestimmte Webseite besuchen und dabei zu Käufern werden. Die Konversionsrate errechnet sich wie folgt:

Mit Hilfe der Konversionsrate wird die Wirksamkeit einer Werbemaßnahme ermittelt. Typisch sind Werte zwischen ein und fünf Prozent[1], was bedeutet, dass von 100 neu gewonnen Besuchern eines Online-Shops ein bis fünf einen Kauf durchführen (also vom Besucher/Leser zum Käufer konvertieren). Allgemeiner sagt die Konversionsrate aus, wie viele der Besucher einer Webseite eine gewünschte Aktion ausführen; diese Aktion kann beispielsweise auch das Abgeben eines Kommentars oder Klicken eines Banners sein. Die Steigerung der Konversionsrate geht einher mit der gezielten Reduzierung der Abbruchraten einer Marketingmaßnahme, z. B. dem Verlassen einer Website oder dem Ausblenden einer Werbung. Da z. B. kommerzielle Webseiten Besucher über kostspielige Online-Werbemaßnahmen generieren, steigert eine gezielte, systematische Erhöhung der Konversionsrate neben dem Umsatz auch die Rendite. Konversion (Marketing) 23

Maßnahmen zur Steigerung der Konversion im E-Commerce Es gibt zahlreiche Maßnahmen und Ansätze zur Steigerung der Konversionsrate. Die relevantesten sind: • direkte Ausrichtung der Website auf ein klar definiertes Konversionziel (z. B. "Newsletter-Anmeldungen steigern") • Verbesserung des Inhalts der Website (Text, Bilder, Videos), um das Konversionziel zu bedienen • Verbesserung des Einkaufserlebnisses • Verbesserung der Benutzerfreundlichkeit, um Barrieren zur Erreichung des Konversionziels abzubauen und dadurch die Abbruchrate zu reduzieren • Einsatz von Online-Produktberatern und Guided Selling-Systemen zur Steigerung der Konversionsrate für Online-Shops und Hersteller-Websites, um den Produktsuch- und Produktberatungsprozess zu verbessern • Einsatz von Online-Gütesiegeln, um das Vertrauen der (Neu)Kunden in den Shop zu erhöhen. • Reduktion von Elementen, die den Nutzer von der Erreichung des Konversionziels ablenken. Ein Beispiel ist das Ausblenden des Hauptmenüs im Warenkorb.

Erhöhung der Konversionsrate bei einem Online Shop Zur besseren Erklärung soll folgende Beispielrechnung herangezogen werden. Dabei wird betrachtet, wie sich eine Veränderung der Konversionsrate bei Neukunden auf den Umsatz des Online Shops auswirkt. Bei folgender Beispielrechnung ist eine etwaige Kundenabwanderung nicht berücksichtigt[2] • Besuche von Neukunden pro Jahr: 50.000 • Durchschnittlicher Warenkorbwert: 80 EUR • Anteil der Neukunden, die zu Stammkunden werden: 25 % • Wiederholungskäufe pro Kunde pro Jahr: 2 Was passiert, wenn die Konversionsrate bei Neukunden einmalig um 1 Prozentpunkt steigt? • Zusätzlich gewonnene Neukunden pro Jahr: 500 • Zusätzlicher Umsatz im ersten Jahr: 40.000 EUR • Zusätzlicher Umsatz im zweiten Jahr: 60.000 EUR • Zusätzlicher Umsatz im dritten Jahr: 80.000 EUR Dabei wird deutlich, dass sich bereits eine geringfügige Erhöhung der Konversionsrate signifikant auf den Umsatz des Unternehmens auswirken kann.

Conversion Funnel

Während anfangs überwiegend lediglich die Konversion eines Besuchers eines Online-Shops zu einem Käufer oder Kunden gemessen wurde, werden heute sog. "Conversion Funnel" (Trichter) gebildet. Diese bilden eine Serie von logisch aufeinander folgenden Konversionen, die z. B. ein Besucher einer Webseite durchlaufen soll, als Filterungsprozess im Sinne eines Trichters ab.

Einzelnachweise Beispiel Conversion Funnel

[1] Übersicht über typische Konversionsraten und Studien (http:/ / chili-conversion. de/ aktuelle-conversion-rate-studien-2013). Conversion-Blog 'chili-conversion'. Abgerufen am 24. November 2013.

[2] zur Konversionsrate (http:/ / www. ecommerce-leitfaden. de/ lasst-zahlen-sprechen. html#anchor_3_2''Beispielrechnung). Website des Ecommerce Leitfadens. Abgerufen am 18. Januar 2010. Conversion-Tracking 24

Conversion-Tracking

Der Begriff Besuchsaktionsauswertung oder englisch Conversion-Tracking bezeichnet den Teil der Website-Analytik, der die Effektivität misst, mit der ein adressierter Personenkreis dazu bewegt wird, gewünschte Aktionen durchzuführen.

Ermittlung von Kenngrößen Die allgemeine Ermittlung einer Rate erfolgt nach der Formel

Für die Order Conversion Rate ist das Basisereignis der Besuch der Website und das Zielereignis die Aufgabe einer Bestellung. Weist eine Website innerhalb eines Monats 10.000 Besucher auf und verbucht in diesem Zeitraum 250 Bestellungen, so wurde eine Order Conversion Rate erzielt von 250 / 10.000 * 100 % = 2,5 %. Das webbasierte Conversions-Tracking stößt meist allerdings dann auf seine Grenzen, wenn der User das Internet verlässt und einen Telefonkontakt herstellt. Diesen so genannten Medienbruch überwindet zwischenzeitlich das so genannte Telefontracking.

Methoden des Conversion-Trackings • Log-Analyse - Diese Methode beruht auf den Aufzeichnungen des Webservers der Website. • Script Tracking - Das eingesetzte Programm (CMS, Onlineshop) zeichnet relevante Daten auf. • Tracking Service - In die einzelnen Seiten der Website werden Skripte eines Fremdservices eingebaut, welche relevante Daten aufzeichnen. Über einen passwortgeschützten Webzugang loggt sich der Seitenbetreiber auf der Website des Serviceanbieters ein und ruft seine Daten dort ab. In allen drei Fällen werden die Aufzeichnungen von einem Programm ausgewertet, welches daraus Statistiken und Berichte generiert.

Wichtigste Kenngrößen Im E-Commerce ist Conversion-Tracking von besonderer Bedeutung, da es Aufschluss gibt über den Erfolg von Maßnahmen, Präsentationen, Benutzerführung etc., die direkten Einfluss auf den erzielten Umsatz haben. Die wichtigsten Kenngrößen (bezogen stets auf die Anzahl der genannten Objekte) sind • Order conversion rate - das Verhältnis von Bestellungen zu Besuchern • Basket conversion rate - das Verhältnis von Bestellungen zu Warenkörben • Order abandonment rate - das Verhältnis von Bestellungen zu begonnenen Bestellprozessen • Visitor conversion rate - das Verhältnis von Besuchern einer expliziten Webseite (Webpage) zu Besuchern der Website • Registration conversion rate - das Verhältnis von Besuchern einer Website, die sich registrieren, zu Besuchern, welche die Website ohne Registrierung wieder verlassen. • Das Verhältnis von neu registrierten Kunden zu Neukunden (ohne Registrierung) • Das Verhältnis von mehrmals bestellenden registrierten Kunden (Stammkunden) zu registrierter Kunden • Das Verhältnis von Newsletterempfängern zu Lesern, sowie (aufgrund des Newsletters) zu Besuchern (Click-Through-Rate) und zu Käufern (Order conversion rate des Newsletters) Conversion-Tracking 25

Literatur • Jörg Dennis Krüger: Conversion Boosting mit Website Testing. mitp-Verlag, 2011, ISBN 978-3826690792. [1]

Einzelnachweise

[1] Website zum Buch (http:/ / conversionboosting. com)

Click-Through-Rate

Die Click-Through-Rate (kurz: CTR; auch: Klickrate) ist eine Kennzahl im Bereich Internet-Marketing, welche die Anzahl der Klicks auf Werbebanner oder Sponsorenlinks im Verhältnis zu den gesamten Impressionen darstellt. Wird eine Werbung hundertmal angezeigt und dabei einmal angeklickt, beträgt die Klickrate 1 %. Die Click-Through-Rate bewegt sich bei klassischer Bannerwerbung im World Wide Web ohne gezielten Einsatz meist im Promillebereich – auf 1000 Anzeigen kommen bisweilen nur ein oder zwei Klicks. Bei guter Abstimmung von Werbung und Anzeigenumfeld lassen sich mit demselben Werbemittel auch Raten zwischen 1 und 3 Prozent erreichen. Neuere Werbeformen, die sich über die Webseite legen, gelangen hingegen nicht selten in den zweistelligen Prozentbereich, was auch mit „Fehlklicks“, also Klicks, die nicht der Werbung galten oder sie lediglich entfernen sollten, zusammenhängen kann. Diese Verhältnisse müssen insbesondere Anbieter von Werbeflächen beachten, die Werbung annehmen, die per Klick statt per Anzeige bezahlt wird. Die Klickrate wird häufig als ein vorrangiges Erfolgsmaß eines Werbemittels dargestellt. Dies ist aber gerade bei Kampagnen, die weniger dem Direktverkauf eines einzelnen Produktes als vielmehr der Markenbildung (Branding), also der Steigerung der Bekanntheit einer Marke oder eines Produkts dienen, eine nur teilweise zutreffende Annahme.

Klickrate im E-Mail-Marketing Abweichend von der Bannerwerbung wird die Klickrate im E-Mail-Marketing als Verhältnis zwischen versandten Mails und Klicks auf die in der Mail enthaltenen Links definiert. Hierbei lässt sich die Bruttoklickrate (alle Klicks auf die Links, auch Mehrfachklicks einzelner Personen) von der Nettoklickrate (von jeder Person wird nur ein Link pro Klick gezählt) unterscheiden. Je nach Branche und weiteren Umständen gelten Klickraten zwischen 3 und 15 % als normal.

Einzelnachweise Besucherzähler 26

Besucherzähler

Ein Besucherzähler – auch Counter (engl. für Zähler), Hit Counter oder Webcounter – registriert, wie oft eine Webseite aufgerufen wird. Dieses geschieht meistens über Zählpixel, die Zugriffszahlen können öffentlich angezeigt werden. Der Begriff „Counter“ ist in der deutschen Sprache auch als Anglizismus anstelle von Fahrkartenschalter oder Empfangstheke gebräuchlich. Ist der Besucherzähler einer Webseite gemeint, wird er technisch meistens durch ein Zählpixel realisiert. Dabei wird meist eine 1×1-Pixel große transparente Grafik auf der Webseite eingebunden, die mit einem serverseitigen Skript auf Seiten des Counter-Anbieters verbunden ist. Es erkennt jeden Zugriff und zählt ihn in einer Datenbank. Es wäre zum Beispiel möglich, als Anbieter eines Zähldienstes jedem Benutzer einen eigenen Zähler-Code zur Verfügung zu stellen, der solch ein „Bild“ darstellt und dem dann über die URL noch ein Benutzername oder eine Benutzer-ID übergeben wird und der „Count“ so einem bestimmten Benutzer zugeordnet werden kann. Detaillierte Statistiken werden meistens durch eine auf den zu zählenden Seiten eingebundene JavaScript-Datei erreicht. Sie ermöglichte es, auch die beim Nutzer verwendete Bildschirmauflösung, installierte Plug-ins oder den verwendeten Browser auszulesen. Diese Informationen werden an die URL zu dem eben genannten Bild angehängt und per JavaScript ein Bild in die Seite eingebunden, das dahinterliegende Server-Skript kann dann auch die durch den Browser verfügbaren Informationen speichern. Vervollständigen lässt sich das Angebot dann über Geo-Datenbanken. Solche Datenbanken stellen eine Verbindung zwischen IP-Adresse und Position auf der Erde her, eine IP-Adresse identifiziert einen Surfer im Netz (allgemein eigentlich nur eine im Netzwerk angemeldeten Netzwerkkarte, eine detaillierte Beschreibung sprengt hier den Rahmen) und so kann der Besitzer der durch den Zähler überwachten Webseite einsehen, aus welchen Regionen der Welt seine Besucher kommen. Allerdings ist eine exakte Bestimmung der Position über die IP-Adresse nicht möglich. Beispielsweise besitzt T-Online einen IP-Adressen-Pool und weist bestimmten Benutzern im Raum „Köln/Bonn“ zufällig Adressen zu, so dass eine genauere Bestimmung als „Köln/Bonn“ in diesem Fall nicht möglich ist. Eine andere Möglichkeit, einen Besucherzähler zu realisieren, besteht darin, ein Skript auf der Website einzubinden, das serverseitig ausgeführt wird. In diesem Fall kann die größtmögliche Flexibilität in Bezug auf Aussehen und Konfigurierbarkeit erreicht werden, da nicht auf einen externen Dienst zurückgegriffen wird.

Weblinks • Links zum Thema Webcounter [1] im Open Directory Project

Quellennachweise

[1] http:/ / www. dmoz. org/ World/ Deutsch/ Computer/ Internet/ Webdesign_und_-entwicklung/ Erstellung_von_Webseiten/

Ressourcen_und_Tools/ Counter_und_Statistik/ Unique Visit 27

Unique Visit

Unique Visit (engl. „einzelner Besuch“) ist eine Metrik der Zugriffshäufigkeit einer Website. Dabei wird jede IP-Adresse in einem bestimmten Zeitraum nur einmal gezählt, egal wie oft sie in diesem Zeitraum die Website besucht (Seitenabrufe) oder wie viele Elemente dabei heruntergeladen werden. Der Visit beschreibt damit einen (meist zusammenhängenden) Nutzungsvorgang einer Website. Beachten sollte man jedoch, dass der Zeitraum, in dem jeder Besuch nur einmal gezählt wird, stark variieren kann. Die Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e. V. (IVW) arbeitet im Rahmen ihres Messverfahrens „Skalierbares Zentrales Messsystem“ (SZM) mit dem nach eigenen Aussagen international standardisierten Wert von 30 Minuten. Der Visit auf einer Website gilt somit als beendet, wenn 30 Minuten lang keine neue Seite mehr abgerufen wurde. Außerdem identifiziert eine einzelne IP-Adresse nicht zwangsläufig eine einzelne Person. Anonymisierungsdienste können je Zugriff dem einzelnen Nutzer jeweils eine andere IP-Adresse zuweisen, dagegen weisen Zugriffe von verschiedenen Personen innerhalb eines lokalen Netzwerks durch Network Address Translation dieselbe Adresse auf.

Abgrenzung Im Bereich Web-Controlling werden die Begriffe Unique Visitor bzw. Unique User bzw. Besucher häufig synonym zum Unique Visit verwendet. Dabei beschreibt der Begriff Unique Visit den Nutzungsvorgang, während in dem Visitor, User oder Besucher die Person hinter dem Vorgang zu sehen ist. In Deutschland ist der Begriff Unique User fest von der Arbeitsgemeinschaft Online Forschung e. V. (AGOF) belegt und beschreibt den „einzelnen Nutzer“ auf Basis der AGOF internet facts. Die Summe der Unique User eines Mediums sind die Personen, die in einem bestimmten Zeitraum Kontakt mit einem Werbeträger bzw. einzelnen Belegungseinheiten hatten. Referrer 28

Referrer

Ein Referrer ist die Internetadresse der Webseite, von der der Benutzer durch Anklicken eines Links zu der aktuellen Seite gekommen ist (engl. to refer „verweisen“). Beim Abruf der Seite wird der Referrer an den Server, der die Seite bereitstellt, übermittelt. Der Referrer wird ebenfalls bei Dateien übermittelt, die in die abgerufene Seite eingebunden sind (z. B. Bilder, JavaScript-Bibliotheken, externe Stylesheets), ohne dass es einer gesonderten Benutzeraktion bedarf. Der Referrer ist ein optionaler[1] Teil der an den Webserver geschickten HTTP-Anfrage. Obschon optional, ist die Übermittlung bei allen gängigen Browsern voreingestellt. Nur wenn die aktuelle Seite per HTTPS abgerufen und die abzurufende Seite per HTTP zu übermitteln ist, soll die Übermittlung des Referrers unterbleiben[2]. Wird die abzurufende Seite hingegen ebenfalls per HTTPS übertragen, findet – unabhängig vom Host – eine Übermittlung des Referrers statt. Die Übermittlung des Referrers „Hinter dem Rücken“ des Benutzers und des Betreibers ist ein Grund für das Durchsickern personenbezogener Daten aus nicht-öffentlichen Web-basierten Systemen[3]. Das RFC 2616 (Hypertext Transfer Protocol HTTP/1.1) erklärt den technischen Hintergrund.

Beispiel einer HTTP-Anfrage mit Referrer-Übergabe Angenommen, die Webseite http://example.org/referring_page enthält einen Link auf diesen Wikipedia-Artikel: http://de.wikipedia.org/wiki/Referrer. Wenn der Benutzer diesen Link in seinem Webbrowser auswählt (anklickt), dann wird vom Browser eine Verbindung zu dem Webserver aufgebaut, der unter dem Namen de.wikipedia.org erreichbar ist, und die gewünschte Seite angefordert. In diesem Beispiel sendet der Webbrowser folgende Anforderung in der Syntax des Hypertext Transfer Protocols (HTTP): GET /wiki/Referrer HTTP/1.1 Host: de.wikipedia.org Referer: http://example.org/referring_page

(Zur Schreibweise siehe weiter unten.) Welche Angaben in der Anforderung gesendet werden, hängt vom verwendeten Webbrowser und dessen Konfiguration ab. So kann die Übermittlung des Referrers in jedem gängigen Webbrowser – mit Bordmitteln oder mit Hilfsprogrammen – abgeschaltet werden.

Was mit dem Referrer geschieht In der Regel speichert jeder Webserver in einer Protokolldatei eine Zeile je Abruf, in der neben IP-Adressen, Statusangaben und der User-Agent-Angabe, also dem verwendeten Webbrowser, auch der Referrer gespeichert wird. Der Webserver bzw. sein Betreiber kann die erhaltenen Angaben auf jede erdenkliche Weise verarbeiten. Dies dient vor allem der statistischen Auswertung; der Betreiber der Webseite erfährt, welche fremden Webseiten auf seine Seite verweisen. Der Webserver kann aber auch eine vom Referrer abhängige Antwort liefern. Manche Bilder lassen sich nur abrufen, wenn der Referrer auf der gleichen Website ist; der Betreiber will damit verhindern, dass fremde Seiten die eigenen Bilder einbinden. Dieses Verfahren ist jedoch unter Umständen problematisch, da die Angabe des Referrers durch den User-Agenten erfolgt, laut Protokollspezifikation grundsätzlich freiwillig ist und beispielsweise bei Einsatz eines Proxyservers unterdrückt sein kann. Referrer-Spam ist eine besondere Form des aggressiven Marketings und wird vor allem von pornografischen Internetangeboten genutzt. Hierbei hinterlässt ein Spambot einen Referrer mit dem URL des Angebots auf möglichst vielen Websites. Wenn eine dieser betroffenen Websites ihre Referrer veröffentlicht, was besonders bei Weblogs beliebt ist, so befinden sich darunter die Spamlinks zu den Pornografieseiten. Referrer 29

Dereferrer Je nach Web-Browser ist eine Übermittlung des Referrers abschaltbar. Ein Dereferrer ist ein Dienst, der die Verlinkung einer Website erlaubt, ohne dass diese Website sinnvolle Referrerinformationen bekommt, auch wenn die Übermittlung im Browser aktiv ist. Eine Verlinkung der Seite http://de.wikipedia.org/ über den fiktiven Dereferrerdienst http://www.example.org/ könnte zum Beispiel so aussehen: http://www.example.org/?http://de.wikipedia.org/

Hier ruft der Webbrowser zunächst die example.org-Seite auf und wird dann auf de.wikipedia.org weitergeleitet. Für den Wikipediaserver sieht es so aus, als ob die Verlinkung von example.org ausgehe. Dies wird z. B. dazu angewandt, um geheime Daten in der ursprünglichen URL zu verbergen, wie z. B. eine Session-ID im Querystring oder die bloße Existenz der verweisenden Website. Als Beispiel seien hier Webmail-Anbieter genannt: Bei der Darstellung von E-Mails in ihren Webseiten ersetzen sie ggf. enthaltene Hyperlinks durch eine Umleitung über einen anbietereigenen Dereferrer-Dienst. Dadurch wird verhindert, dass eine böswillige Website über die im Referrer übermittelte Session-ID die Webmailing-Sitzung übernimmt (Session Hijacking), wenn ein Link auf die böswillige Website in der dargestellten E-Mail angeklickt wird. Vorteil gegenüber der browserseitigen Konfiguration: Der Benutzer muss weder das Wissen haben, wie die Referrerübermittlung auf Browserseite zu deaktivieren ist, noch kann er die Deaktivierung vergessen. Bei der Benutzung von Dereferrern muss beachtet werden, dass Anker nur dann funktionieren, wenn die # durch %23 ersetzt wurde, da der Webbrowser sonst versucht, den Anker bereits auf der Dereferrer-Seite zu finden. Auch sollte bei der Wahl eines Dereferrer-Dienstes beachtet werden, dass es dem Anbieter möglich ist, Informationen über Ausgangs- und Zielseite sowie die Zeit und die IP des Benutzers zu sammeln. Letzteres kann vermieden werden, indem man Zusatzmodule für Webbrowser, sogenannte Add-ons, nutzt (für Firefox beispielsweise Refcontrol[4]), die generell verhindern, dass ein Referrer übertragen wird, und dies nur auf Nutzerwunsch zulassen. Dies ist unter anderem aus Datenschutzerwägungen interessant, da andernfalls die Möglichkeit besteht, die Referrer mit den Nutzer-IP-Adressen in Verbindung zu bringen.

Referrer-Spoofing Unter Referrer-Spoofing, einer Form des URL-Spoofings, versteht man das Vortäuschen von Referrern beim Übermitteln des HTTP-Request. Die Zielsetzung eine derartigen Vorgehens ist es beispielsweise, unautorisierten Zugriff auf eine Webseite zu erlangen, sowie die Verschleierung der Information, welchem Weblink man gefolgt ist. Dies kann durch entsprechende Erweiterungen für den Browser oder durch Proxys (z. B. Proxomitron) erreicht werden (siehe auch Cross-Site Request Forgery). Referrer 30

Schreibweise Die korrekte englische Schreibweise lautet Referrer. Der ursprüngliche RFC (RFC 2068) enthielt jedoch versehentlich die falsche Schreibweise Referer und erhebt diesen Wortlaut damit zum Standard innerhalb von HTTP. In anderen Standards wie im DOM wird die korrekte Schreibweise verwendet (hier: document.referrer[5]).

Referenzen [1] „The Referer[sic] request-header field allows the client to specify […] the address (URI) of the resource from which the Request-URI was obtained […]“ RFC 2616 § 14.36 [2] „Clients SHOULD NOT include a Referer header field in a (non-secure) HTTP request if the referring page was transferred with a secure protocol.“ RFC 2616 § 15.1.3

[3] Balachander Krishnamurthy: Privacy leakage on the Internet http:/ / www. ietf. org/ proceedings/ 77/ slides/ plenaryt-5. pdf S. 47 ff.

[4] https:/ / addons. mozilla. org/ de/ firefox/ addon/ refcontrol/

[5] Document Object Model (HTML) Level 1 (http:/ / www. w3. org/ TR/ 1998/ REC-DOM-Level-1-19981001/ level-one-html. html#ID-1006298752)

Weblinks • RFC 2616 (Hypertext Transfer Protocol HTTP/1.1)

Seitenabruf

Seitenabruf, auch Page Impression bezeichnet die Anzahl der Abrufe einer einzelnen Webseite mit einem Webbrowser. Dieser Begriff ist vor allem im deutschen Sprachraum gebräuchlich. Im Englischen wird meist der Begriff Page View verwendet. Um die Bedeutung dieser Kennzahl zu verstehen, ist es hilfreich, sich die technischen Grundlagen zu vergegenwärtigen. Historisch war jede Aktion auf einer Webseite immer mit dem Laden einer HTML-Seite verknüpft. Jedes Eintippen einer Internetadresse und jeder Klick auf einen Link erzeugte jeweils eine neue HTML-Seite, die danach vom Browser geladen wurde. Die Page Impression war lange Zeit die Maßzahl für die Aktivität der Benutzer auf einer Webseite. Mittlerweile ist die Aktivität nicht mehr unbedingt mit dem Laden einer kompletten HTML-Seite verknüpft. Es stehen modernere Programmiertechniken zur Verfügung. Aktionen des Benutzers können dazu führen, dass z. B. nur einzelne Grafiken oder andere Bestandteile einer Seite von einem Server nachgeladen werden (Ajax). Schon bei der Messung muss darauf geachtet werden, dass sinnvoll interpretierbare Daten erhoben werden, die Aufschluss über das Verhalten der Besucher geben können. Automatisiert geladene Seiten oder Bestandteile einer Seite dürfen dagegen nicht als Page Impression gezählt werden. Beispiele hierfür sind: • automatische Weiterleitungen • automatischer Reload einer Seite • automatischer Reload von Bestandteilen einer Seite • Pop-Ups • Banner • Pop Unders • Werbe-Overlays • Zugriffe durch Robots, Proxys und Spiders • Zugriffe beim Monitoring • Zugriffe durch automatisierte Software oder Performance Tests Seitenabruf 31

Definition einer ‚Seite‘ Die Seite (Page) wird von der DAA (Digital Analytics Association) wie folgt definiert: Die Seite ist eine vom Analysten zu definierende Einheit an Inhalt. (engl. „An analyst definable unit of content“). Die Definition der Seite hat sich damit vom Abruf gelöst und wird nun mit dem Erlebnis des jeweiligen Benutzers verbunden. Häufig hängt das vom Benutzer „gefühlte“ Betrachten einer Seite technisch nicht mehr mit dem Abruf einer Webseite von einem Server zusammen. Beispielsweise wird in manchen Online-Shops der gesamte Kaufprozess auf einer einzigen HTML-Seite durchgeführt. Dabei klappen immer wieder andere Bestandteile der Seite auf und wieder zu.

Bedeutung der Kennzahl Page Impressions Die Page Impression als Kennzahl für die Aktivität der Benutzer erlaubt Aussagen darüber zu treffen, wo sich die Besucher innerhalb einer Site aufhalten und was sie dort tun. Werden Seiten häufiger aufgerufen als andere, kann das vielfältige Ursachen haben. So zum Beispiel: • Die Seite ist sehr interessant. • Die Seite ist schlecht benutzbar, Besucher finden sich nicht zurecht und rufen immer wieder erfolglos eine bestimmte Seite auf. • Die Seite ist die Zielseite einer Werbekampagne mit vielen Seitenaufrufen. • Die Seite wurde an prominenter Stelle (intern wie extern) verlinkt. Dasselbe gilt auch für per Ajax nachgeladene Elemente einer Seite. Die abzuleitenden Handlungen für den Betreiber der Website ergeben sich wie immer aus der Interpretation der jeweiligen Kennzahlen, der Umstände und der Erfahrung des Analysten. Es kommt immer auf die Umstände im Einzelfall an, ob viele PI (Page Impressions) positiv oder negativ zu bewerten sind.

Weblinks • Digital Analytics Association [20] (englisch) • Begriff ‚Pageviews‘ ausführlich erklärt [1] • Was ist eine Seite in der Webanalyse? [2] • Unique Visitors bzw. Unique Users [3] • Web Analytics Association – Definition wichtiger Kennzahlen der Webanalyse [4] (PDF, englisch)

Quellennachweise

[1] http:/ / www. gradlinig. com/ 2011/ 09/ kennzahlen-page-impressions-page-views-user-interactions/

[2] http:/ / www. gradlinig. com/ 2011/ 12/ was-ist-eine-seite-in-der-web-analyse/

[3] http:/ / www. gradlinig. com/ 2012/ 02/ was-ist-ein-unique-besucher-bzw-unique-visitor/

[4] http:/ / www. webanalyticsassociation. org/ resource/ resmgr/ PDF_standards/ WebAnalyticsDefinitionsVol1. pdf Zählpixel 32

Zählpixel

Zählpixel (engl. Tracking Bug oder Web Bug; auch deutsch Web-Wanze, Tracking-Pixel, IVW-Pixel, ivwbox, Pixel-Tag, Pixelmethode, Ein-Pixel-Bild, 1×1 gif, Clear gif oder Web Beacon) sind kleine Grafiken in HTML-E-Mails oder auf Webseiten, die eine Logdatei-Aufzeichnung und eine Logdateianalyse ermöglichen, die oft für statistische Auswertungen verwendet werden.

Technik

Die meist nur 1×1 Pixel messenden Bilder sind häufig auch transparent oder in der Farbe des Hintergrundes erstellt, damit sie nicht sichtbar sind. Wird ein Dokument geöffnet, dann wird dieses kleine Bild von einem Server im Internet geladen, wobei das Herunterladen dort registriert wird. So kann der Betreiber des Servers sehen, wann und wie viele Nutzer diesen Zählpixel anforderten bzw. ob und wann eine E-Mail geöffnet oder eine Webseite besucht wurde.

Private Betreiber einer Webseite können durch das Einbinden eines Zählpixels ohne Zugriff auf die Logdateien des Servers Informationen über die Besucher erhalten. So werden auf zahlreichen Internetseiten Ablauf des Zählpixel-Verfahrens Zähler (Counter) verwendet, die auf demselben Prinzip aufbauen, aber bei jedem neuen Besucher ein neues „Bild“, d. h. eine um eins erhöhte Zahl, darbieten. Meist wird die Funktion durch einen JavaScript-Aufruf realisiert, dennoch wird weiterhin der Begriff Zählpixel verwendet.

Beispiel Beispiel des Zählpixels aus Piwik, wie es in einem HTML-Quelltext eingebaut ist. Ist in dem genutzten Browser kein Javascript aktiviert, wird das Zählpixel anstelle des Javascript-Codes genutzt, um dennoch den Zugriff des Benutzers zu registrieren.

// Zusätzliches echtes Pixel für User mit deaktiviertem JavaScript

Kritik Das Zählpixel gibt dem Serverbetreiber Zugriff auf zahlreiche Nutzungsdaten und ist datenschutzrechtlich umstritten: • Bewegungsprofil der gesamten Sitzung, • welchen Browser und welches Betriebssystem der Empfänger verwendet, • welche IP-Adresse der Empfänger hat; damit seinen Internetdienstanbieter und mithilfe von Geotargeting Auskunft über den ungefähren Standort, • bei E-Mail: ob und wann die E-Mail geöffnet wurde. Diese Daten können dazu dienen, die Website zu verbessern. Zum Beispiel kann ermittelt werden, welche Browserversionen (noch) in relevantem Umfang verwendet werden, um den besten Zeitpunkt zur Beseitigung von "Altlasten" zu finden. Auch Überlegungen zur Ergonomie sind möglich: So könnten häufig verwendete Links besser erreichbar gemacht werden und Newsletter, die ungelesen bleiben, überdacht werden. Es mag dem Benutzer auch dienen, lokalisierte Informationen zu erhalten. Nicht zuletzt kann es bei werbe-finanzierten Angeboten für den Betreiber hilfreich sein, dem Werbekunden die Reichweite der Seite zu dokumentieren. Für den Anwender bleibt jedoch unklar, was mit der gesammelten Information über statistische Zwecke hinaus geschieht. Hier besteht die Sorge, dass die zunächst anonym gesammelten Informationen zur eigenen IP-Adresse, mit den Informationen von zahlreichen anderen Websites kombiniert, ein umfangreiches Interessensprofil ergeben. Dieses könnte schließlich auch mit einem Namen, einer Mailadresse, Fotos, einem Profil in einem sozialen Netzwerk usw. verknüpft werden, so dass Persönlichkeitsrechte verletzt werden können. Versender von Spam können (sofern der Mail-Client des Empfängers eine entsprechende Sicherheitslücke aufweist) durch Einbau eines Zählpixels in die E-Mail ermitteln, ob E-Mail an eine bestimmte E-Mail-Adresse gelesen wird, und ob die Adresse daher gültig ist. Bei der Ausnutzung von Cross-Site-Scripting-Schwachstellen wird häufig ein ähnliches Verfahren verwendet, um die Session-ID des Opfers an den Server des Angreifers zu übertragen.

Gegenmittel • Wird eine E-Mail oder Webseite offline gelesen, kann die Grafik des Zählpixels nicht vom Server geladen werden und dort also auch nicht registriert werden. • Man kann auch entweder ein Mailprogramm benutzen, das keine HTML-E-Mails unterstützt bzw. sie nicht anzeigt, oder dem Mailprogramm per Firewall nur restriktive Zugriffsrechte ins Internet gestatten. Mittlerweile gibt es in einigen Mailprogrammen auch die Möglichkeit, externe Grafiken nur nach Bestätigung anzeigen zu lassen. • Geeignete Browser-Erweiterungen machen Zählpixel sichtbar. Speziell zum Blockieren von Zählpixeln dient beispielsweise die Browser-Erweiterung Ghostery, die für alle gängigen Browser verfügbar ist. Ghostery zeigt dem Nutzer im Browser sämtliche Zählpixel an und ermöglicht es ihm, diese automatisch selektiv oder komplett zu blockieren. Zählpixel 34

• Im HTTP-Verkehr lokal zwischengeschaltete Proxys können Zählpixel unter Umständen erkennen und den Abruf unterbinden. (Privoxy, Proxomitron/Proximodo, Webwasher)

Weblinks • Telepolis-Artikel – Nach den Cookies die Web Bugs [1] • Heise-Artikel – „Web Bugs“ bedrohen Privatsphäre [2] • Kritische Betrachtung der Datensammlung durch IVW-Boxen [3] • Erklärung und Ablauf des Zählpixel-Verfahrens [4]

Quellennachweise

[1] http:/ / www. heise. de/ tp/ deutsch/ inhalt/ te/ 5482/ 1. html

[2] http:/ / www. heise. de/ newsticker/ meldung/ 11604

[3] http:/ / cert. uni-stuttgart. de/ ticker/ article. php?mid=641

[4] http:/ / www. ecommerce-leitfaden. de/ lasst-zahlen-sprechen. html#anchor_3_3_2

Cron

Der Cron-Daemon dient der zeitbasierten Ausführung von Prozessen in Unix und unixartigen Betriebssystemen wie Linux, BSD oder Mac OS X, um wiederkehrende Aufgaben – sogenannte Cronjobs – zu automatisieren. Häufig führt der Cron-Daemon wichtige Programme für die Instandhaltung des Systems aus, wie zum Beispiel Dienste für das regelmäßige Archivieren und Löschen von Logdateien.

Crontab Die auszuführenden Anweisungen werden in einer benutzereigenen Tabelle gespeichert, der sogenannten Crontab. Der Begriff leitet sich ab von griechisch chronos = die Zeit und lat. tabula = die Tafel oder das Brett und bedeutet demnach so viel wie „Zeittafel“ (also „Stundenplan“). Diese Tabelle besteht aus sechs Spalten; die ersten fünf dienen der Zeitangabe (Minute, Stunde, Tag, Monat, Wochentag), alle weiteren Zeichen bis zum Zeilenumbruch werden als der auszuführende Befehl aufgefasst. Jedes Mal, wenn ein spezifischer Zeitpunkt erreicht wird, wird der entsprechende Befehl, meist ein Shellskript, ausgeführt. Cron wird durch eine Crontab-Datei (Cron-Tabelle) gesteuert – eine Konfigurationsdatei, die Shell-Befehle nach einem bestimmten Zeitplan regelmäßig ausführt. Die Crontab-Dateien sind dort gespeichert, wo die Listen von Arbeitsplätzen und anderen Anweisungen an den Cron-Daemon liegen. Benutzer können ihre eigenen individuellen Crontab-Dateien anlegen und oft gibt es eine systemweite Crontab-Datei (normalerweise in /etc oder ein Unterverzeichnis von /etc), die nur Systemadministratoren bearbeiten können. Jede Zeile einer Crontab-Datei stellt einen Job dar und setzt sich aus einem Cron-Ausdruck zusammen, dem ein auszuführenden Shell-Befehl folgt. Einige Implementierungen von Cron, wie sie in der beliebten 4. BSD Auflage von Paul Vixie geschrieben und in vielen Linux-Distributionen enthalten sind, fügen dem Format ein sechstes Feld hinzu: einen Benutzernamen, durch den der angegebene Job vorbehaltlich der Existenz des Benutzers und seiner Berechtigungen durchlaufen wird. Dies ist nur in den systemweiten Crontabs erlaubt, nicht in anderen, die jeweils von einen einzelnen Benutzer zu konfigurieren sind. Das sechste Feld wird auch manchmal für Jahre statt eines Benutzernamen verwendet, die nnCron Daemon für Windows tut dies. Vixie cron verwendet allerdings nicht die sechste Spalte als ein Jahr, und wenn es als Jahr verwendet wird, wird das Jahr als der Befehl ausgeführt und führt zu einem Fehler. Für „Tag der Woche“ (Feld 5), sind beide 0 und 7 für Sonntag berücksichtigt, obwohl einige Versionen von Unix, wie AIX „7“ in der Manpage als nicht zulässig auflisten. Während normalerweise der Job ausgeführt wird, sofern alle Cron 35

Felder der Zeit/Datum-Spezifikation mit dem aktuellen Datum und der Uhrzeit übereinstimmen, gibt es eine Ausnahme: Wenn sowohl „Tag des Monats“ (3) und „Tag der Woche“ (5) beschränkt sind (nicht „*“), muss nur ein Kriterium für das aktuelle Datum erfüllt werden.

Beispiele

Minute Stunde Tag Monat Wochentag Bedeutung

0 0 * * * Täglich null Uhr

5 * * * * Fünf Minuten nach jeder vollen Stunde

*/5 * * * * Alle 5 Minuten

59 23 * * 0 Jeden Sonntag (Sonntag kann als 0 oder 7 geschrieben werden) um 23:59 Uhr

20,30 1 * * 1-5 Montags bis Freitags jeweils um 01:20 und 01:30 Uhr

0 1 1-7 12 1 Am 1. bis 7. Dezember sowie an jedem Montag im Dezember um ein Uhr nachts

Geschichte

Frühe Versionen Cron, geschrieben von Brian W. Kernighan, war in Unix Version 7 ein Systemdienst (später als Daemon), der aufgerufen wurde, wenn sich das Betriebssystem im Mehrbenutzermodus befand. Kernighans Algorithmus war einfach: Die Crontab wurde einmal in der Minute eingelesen und ausgewertet und Befehle, deren Ausführung für diese Minute geplant war, mit Root-Rechten ausgeführt. Diese Version von Cron war einfach und robust, verbrauchte jedoch auch Ressourcen, wenn nichts zu tun war. Bei einem in den späten 1970er Jahren an der Purdue University durchgeführten Lasttest wurde festgestellt, dass die Anwendung zu viel Last auf dem System, einer VAX (Virtual Address eXtension), die sich die Mitarbeiter teilten, erforderte.

Mehrbenutzerfähigkeit Die nächste Version von Cron wurde mit der Veröffentlichung von Unix System V geschaffen, um die Fähigkeiten von Cron für alle Benutzer und nicht nur für den Superuser eines Unix-Systems zu erweitern. Heute mag dies trivial erscheinen, da die meisten Unix- und Unix-ähnliche Systeme über leistungsstarken Prozessoren verfügen und nur eine kleinen Anzahl von Benutzern verfügen. Zu diesem Zeitpunkt erforderte der Einsatz auf einem 1 MIPS-System mit rund 100 Benutzerkonten einen neuen Ansatz. In einer Ausgabe der Fachzeitschrift Communications of the ACM vom August 1977 veröffentlichten WR Franta und Kurt Maly einen Artikel mit dem Titel „An efficient data structure for the simulation event set“, worin sie eine Datenstruktur für Ereigniswarteschlangen für diskrete ereignisgesteuerte Simulationssysteme beschreiben, die nachweislich den am häufigsten verwendeten Algorithmen mit einfach verketteten Listen überlegen sind („performance superior to that of commonly used simple linked list algorithms“) und eine Worst-Case-Komplexität von besitzt, wobei n die Anzahl der Ereignisse in der Warteschlange bezeichnet.

Der Student Robert Brown erkannte nach Durchsicht dieses Artikels die Parallele zwischen Cron und ereignisorientierter Simulation und schuf eine Implementierung der Franta-Maly Event list manager (ELM) für Experimente. Ereignisorientierte Simulationen laufen in „virtueller Zeit“, Peeling-Ereignisse abseits der Ereigniswarteschlange so schnell wie möglich und die Weiterentwicklung ihrer Vorstellung von „jetzt“ zu der geplanten Zeit für das nächste Ereignis. Durch die Ausführung des Ereignissimulators in Echtzeit („real time“) anstelle von virtueller Zeit wurde eine Version von Cron geschaffen, sie verbrachte den größten Teil ihrer Zeit im Cron 36

Ruhezustand und wartete auf den Moment, wenn die Aufgabe, die ausgeführt werden sollte, an der Spitze der Ereignisliste war. Das folgende Schuljahr brachte neue Studenten in das Graduiertenkolleg, darunter Keith Williamson, der die Systemmitarbeiter im Fachbereich Informatik zugeordnet wurde. Als Trainingsaufgabe forderte Brown ihn auf, den Prototyp Cron zu einem Produktionsumgebungsservice weiterzuentwickeln. Dieses Mehrbenutzer-Cron ging Ende 1979 an der Purdue University in Gebrauch. Diese Version von Cron ersetzte vollständig die /etc/cron, die in der Informatik-Abteilung VAX 11/780 mit 32/V im Einsatz war. Der Algorithmus, der für dieses Cron eingesetzt wurde, verhält sich wie folgt: 1. Beim Start des Systems nach einer Datei namens .crontab in den Home-Verzeichnissen aller Kontoinhaber suchen 2. Für jedes gefundene crontab wird der nächste Zeitpunkt in der Zukunft bestimmt, an dem ein Befehl ausgeführt werden soll. 3. Platziere diese Befehle auf der Franta-Maly Event-Liste mit der entsprechenden Zeit und ihren „fünf Feld“-Zeit-Spezifikationen. 4. Tritt in die Hauptschleife ein: 1. Suche den Eintrag an der Spitze der Warteschlange und berechne, wie weit in der Zukunft er ausgeführt werden soll. 2. Tritt für diesen Zeitraum in Ruhezustand. 3. Beim Erwachen und nach Überprüfung der korrekten Zeit, führe die Aufgabe an der Spitze der Warteschlange aus (im Hintergrund) mit den Rechten des Benutzers, der die Aufgabe erstellt hat. 4. Bestimme den Zeitpunkt in der Zukunft, um den Befehl auszuführen und schreibe Ihn wieder in die Event-Liste mit dem errechneten Zeitwert. Zusätzlich reagierte der Daemon auf SIGHUP-Signale und plante halbstündlich spezielle Ereignisse zum erneuten Einlesen der Crontab ein. Ausgaben auf den Standardaus- sowie Fehlerausgaben wurden per E-Mail an den Besitzer der Crontab gesandt. Der Ressourcenverbrauch dieser Implementierung von Cron war nur noch von der Menge und Häufigkeit der geplanten Aufgaben abhängig, mit Ausnahme der Überwachung der Crontab. Williamson schloss sein Studium ab, verließ die Universität mit einem Master of Science der Informatik, schloss sich den Bell Laboratories in Murray Hill in New Jersey an und nahm seine Fassung von Cron dorthin mit. In den Bell Laboratories integrierten er und andere den Unix-Befehl at in Cron, verschoben die Crontab-Dateien aus dem Benutzerverzeichnis in ein gemeinsames, Host-spezifisches Spool-Verzeichnis und führten ein dadurch notwendig gewordenes Kommando crontab ein, mit dem Benutzer Ihre Crontab-Dateien in dieses Spool-Verzeichnis kopieren konnten. Diese Version von Cron erschien später weitgehend unverändert in Unix System V und BSD sowie deren Derivaten, im Betriebssystem Solaris von Sun Microsystems, IRIX von Silicon Graphics, HP-UX von Hewlett-Packard sowie IBM AIX. Eigentlich hätte die Software von der Purdue Research Foundation lizenziert werden müssen, da diese die Entwicklung finanzierte, zur damaligen Zeit wurde jedoch kein Augenmerk darauf gelegt. Cron 37

Moderne Versionen Mit dem Aufkommen des GNU-Projekts und Linux erschienen neue crons. Die häufigste von ihnen ist die Vixie cron, die ursprünglich von Paul Vixie in 1987 geschrieben wurde. Version 3 von Vixie cron wurde Ende 1993 veröffentlicht. Version 4.1 wurde in ISC Cron umbenannt und im Januar 2004 veröffentlicht. Version 3 wird mit einigen geringfügigen Bugfixes in den meisten Linux-Distributionen und BSD verwendet. Im Jahr 2007 entstand noch der RedHat-Fork von vixie-cron 4.1, das Cronie Projekt, und im Jahr 2009 anacron 2.3. Weitere populäre Implementierungen sind dcron und fcron. Allerdings ist anacron kein unabhängiger cron-Daemon, er stützt sich zur Ausführung auf einen anderen cron-Daemon. dcron war das Werk von DragonFly BSD Gründer Matt Dillon, derzeit wird der Code von Jim Pryor gepflegt.

Alternativen • at führt Jobs (einmalig) zu einer bestimmten Uhrzeit aus. • anacron setzt keinen ständig laufenden Rechner voraus und prüft beim Einschalten, ob ein Job hätte ausgeführt werden müssen, und holt das mit eingestellter Verzögerung nach. • fcron enthält die Fähigkeiten von cron und anacron und weitergehende Optionen. • launchd ist der Cron-Ersatz bei Mac OS X/Darwin. • Quartz ist ein Job Scheduling Framework für Java • incron ist ein Fileevent basierter Cron.

Literatur • Aleen Frisch: Essential System Administration: Help for UNIX System Administrators. O’Reilly, 2002, S. 90–100. • Michael S. Keller: Take Command: cron: Job Scheduler. Linux J. 1999, 65es, Article 15 (September 1999). (Onlineversion) [1]

Weblinks • cron(8) [2] – Linux-Manpage (deutsch) • crontab(5) [3] – Linux-Manpage (deutsch) • Cron im Apfelwiki.de für Mac OS X erklärt [4]

Quellennachweise

[1] http:/ / dl. acm. org/ citation. cfm?id=327966. 327981

[2] http:/ / linux. die. net/ man/ 8/ cron

[3] http:/ / linux. die. net/ man/ 5/ crontab

[4] http:/ / www. apfelwiki. de/ Main/ CRON Do Not Track 38

Do Not Track

Do Not Track (DNT) (engl. für „nicht verfolgen“) ist ein so genanntes HTTP-Header-Feld und signalisiert einer Webseite oder Webanwendung den Wunsch, dass diese über die Aktivitäten des Besuchers kein Nutzungsprofil erstellt. DNT wurde 2009 von Christopher Soghoian, Sid Stamm und Dan Kaminsky vorgeschlagen. Zurzeit wird es durch die W3C standardisiert. Firefox war der erste Browser der dieses Feld unterstützte, später folgten Internet Explorer (ab Version 9)[1], Safari, Opera und Chrome.

Geschichte von Do Not Track Im Jahr 2007 fragten mehrere Verbraucherschutzgruppen die Federal Trade Commission (FTC, die Bundeshandelskommmision der USA), ob es möglich sei, eine DNT-Liste für Online-Werbung zu schaffen. Es wurde vorgeschlagen, dass Online-Werber ihre Informationen bei der FTC vorlegen müssen, damit diese eine maschinenlesbare Liste der Domain-Namen von denjenigen Unternehmen erstellen können, die Cookies platzieren oder andere Möglichkeiten nutzen, um Verbraucher zu verfolgen.[2] Die DNT-Funktion wurde 2009 von den Forschern Christopher Soghoian, Sid Stamm und Dan Kaminsky vorgeschlagen[3] und wird aktuell von der World Wide Web Consortium (W3C) standardisiert.[4] Im Juli 2009 erstellen Christopher Soghoian und Sid Stamm ein erstes Prototyp-Add-on für den Firefox Web-Browser, welches die Unterstützung für die DNT-Header-Funktion implementiert. Stamm war zu der Zeit Datenschutz-Ingenieur bei Mozilla. Soghoian begann bald danach für die FTC zu arbeiten.[5] Ein Jahr später gibt der FTC-Vorsitzende Jon Leibowitz während einer Anhörung des US-Senats zum Thema Privatsphäre dem Senate Commerce Committee gegenüber an, dass die Kommission die Idee einer „Do-Not-Track“-Liste erforscht.[6] Im Dezember 2010 gibt die FTC einen Datenschutzbericht heraus, in dem ein “do not track”-System vorgestellt wird. Dies ermöglicht den Menschen zu vermeiden, dass ihre Aktionen online überwacht werden.[7] Eine Woche später, ebenfalls im Dezember 2010, kündigte Microsoft die Unterstützung der DNT-Funktion für ihren Webbrowser Internet Explorer 9 (IE 9) an. Zukünftig soll dieser den Nutzern sogenannte Blacklists (dt. Schwarze Listen) von Dritten bieten, die sie vor Verfolgung schützen.[8] Ab dem Internet Explorer 10 ist die DNT-Funktion standardmäßig aktiviert und muss vom Nutzer erst deaktiviert werden, wenn dieser das möchte.[9][10] Im Januar 2011 gab Mozilla bekannt, dass ihr Browser zukünftig DNT-Header unterstützen wird.[11] So folgen Mozilla Firefox 4.0 Beta 11,[12] Apples Safari[13][14] und Opera.[15] DNT wird durch Google Chrome seit der Version 23 unterstützt. Am 7. März 2011 wurde ein Entwurf von Mozillas DNT bei der IETF eingereicht.[16]

Funktionsweise Das Header-Feld namens "DNT” akzeptiert aktuell drei Zustände: • "1" = in diesem Fall möchte der Nutzer nicht verfolgt werden (opt out) • "0" = in diesem Fall stimmt der Nutzer einer Verfolgung zu (opt in) oder • "null" (Kein Versand des Headers) = Der Nutzer hat keine entsprechende Präferenz gesetzt. Standard ist der letzt genannte Fall, also dass die Header nicht gesendet werden. Erst wenn der Nutzer im Browser die entsprechenden Einstellungen vornimmt, werden die anderen Optionen je nach Auswahl ausgeführt, sofern der Nutzer dies möchte. Eine Ausnahme ist hier der Internet Explorer ab Version 10, der standardmäßig immer "1" sendet (siehe oben). Wenn ein Web-Browser Inhalte anfordert oder Daten über HTTP sendet, kann er optional zusätzliche Informationen in einen oder mehrere als "Header" bezeichnete Felder einfügen. Ist der DNT-Header auf den Wert 1 gesetzt, Do Not Track 39

impliziert dies, dass der Nutzer nicht verfolgt werden möchte.[17][18] Die Ausführung dieser Nicht-Tracking-Richtlinie kann nur auf dem HTTP-Server implementiert werden, die Einhaltung ist freiwillig. In dieser Hinsicht ist DNT vergleichbar mit dem Robots Exclusion Standard. Dieser Mechanismus für HTTP-Server sorgt dafür, dass automatische Web-Clients (sogenannte „Webcrawler“ oder „Robots“, zu dt. Roboter) Dateien auslesen können, die festlegen, ob und wie eine Internetseite von Webcrawlern durchsucht werden darf. Auch hier ist keine vollständige Berücksichtigung garantiert, da die Einhaltung durch den Webcrawler erfolgen muss.

Effektivität Weltweit sind Internetseiten gesetzlich noch nicht verpflichtet, DNT-Anfragen zu respektieren und zu beachten. Der W3C konnte bislang noch keinen Konsens zwischen der Werbeindustrie und der Federal Trade Commission in den USA herstellen. In Europa erfüllt der vorgeschlagene DNT-Header in der "null"-Stellung nicht die durch den Art. 5 Abs. 3 ePrivacy Richtlinie vorgegebenen Anforderungen zur informierten Einwilligung für das Setzen und Auslesen von Cookies. Internetseiten, die die IE 10 default-Einstellung "1" ignorieren verstoßen gegen Art. 5 Abs. 3 ePrivacy Richtlinie. Datenschutzaufsichtsbehörden verfolgten Verstöße gegen den sog. Cookie-Artikel in den ersten zwei Jahren nach seiner Einführung nicht. Die deutschen Datenschutzaufsichtsbehörden sind sich jedoch einig, dass das Setzen des DNT-Headers auf 1 „der Erklärung eines Widerspruchs im Sinne von § 15 [3] Abs. 3 TMG gleichkommt“[19]. Solche Widersprüche seien von Anbietern von Telemedien zu beachten. Diensteanbieter dürfen also, wenn diese Option gesetzt ist, auch dann keine Nutzungsprofile erstellen, wenn sie auf den Einsatz von Cookies verzichten.

Einzelnachweise

[1] http:/ / blogs. msdn. com/ b/ ie/ archive/ 2011/ 03/ 14/ web-tracking-protection-minimum-standards-and-opportunities-to-innovate. aspx. Abruf: 15. Juni 2012

[2] "The History of the Do Not Track Header" (https:/ / www. cdt. org/ privacy/ 20071031consumerprotectionsbehavioral. pdf) (PDF; 101 kB).

Center for Democracy and Technology (http:/ / en. wikipedia. org/ wiki/ Center_for_Democracy_and_Technology). Vom 31. Oktober 2007. Abruf: 16. Juni 2012

[3] Soghoian, Christopher. "The History of the Do Not Track Header" (http:/ / paranoia. dubfire. net/ 2011/ 01/ history-of-do-not-track-header. html). Slight Paranoia. Abruf: 16. Juni 2012

[4] "Tracking Protection Working Group" (http:/ / www. w3. org/ 2011/ tracking-protection/ ). W3C. Abruf: 16. Juni 2012

[5] Zetter, Kim (2009-08-17). "Outspoken Privacy Advocate Joins FTC" (http:/ / www. wired. com/ threatlevel/ 2009/ 08/ soghoian-joins-ftc/ ). Wired News. Abruf: 16. Juni 2012

[6] Corbin, Kenneth (2010-07-28). "FTC Mulls Browser-Based Block for Online Ads" (http:/ / www. internetnews. com/ ec-news/ article. php/

3895496/ FTC+ Mulls+ BrowserBased+ Block+ for+ Online+ Ads. htm). Internet News. Abruf: 16. Juni 2012

[7] Angwin, Julia (2010-12-02). "FTC Backs Do-Not-Track System for Web" (http:/ / online. wsj. com/ article/

SB10001424052748704594804575648670826747094. html). Wall Street Journal. Abruf: 16. Juni 2012

[8] IEBlog (2010-12-07), "IE9 and Privacy: Introducing Tracking Protection" (http:/ / blogs. msdn. com/ b/ ie/ archive/ 2010/ 12/ 07/

ie9-and-privacy-introducing-tracking-protection-v8. aspx). Abruf: 16. Juni 2012

[9] http:/ / www. heise. de/ newsticker/ meldung/ Microsoft-aktiviert-Do-Not-Track-in-Internet-Explorer-10-1588863. html. Abruf: 16. Juni 2012

[10] Fahmida Y. Rashid (2012-06-02). "Microsoft Turns on Do Not Track By Default in IE10" (http:/ / securitywatch. pcmag. com/

web-browsers/ 298596-microsoft-turns-on-do-not-track-by-default-in-ie10). Abruf: 17. Juni 2012

[11] Angwin, Julia (2011-01-21). "Web Tool On Firefox To Deter Tracking" (http:/ / online. wsj. com/ article/

SB10001424052748704213404576100441609997236. html). Wall Street Journal. Abruf: 17. Juni 2012

[12] Angwin, Julia (2011-01-21). "Web Tool On Firefox To Deter Tracking" (http:/ / online. wsj. com/ article/

SB10001424052748704213404576100441609997236. html). Wall Street Journal. Abruf: 17. Juni 2012

[13] Nick Wingfield (2011-04-14), "Apple Adds Do-Not-Track Tool to New Browser" (http:/ / online. wsj. com/ article/

SB10001424052748703551304576261272308358858. html), Wall Street Journal, Abruf: 16 Juni 2012

[14] "Web Tracking Protection: Minimum Standards and Opportunities to Innovate" (http:/ / blogs. msdn. com/ b/ ie/ archive/ 2011/ 03/ 14/

web-tracking-protection-minimum-standards-and-opportunities-to-innovate. aspx). Abruf: 16. Juni 2012

[15] Opera Desktop Team (2012-02-11), "Core update with Do Not Track, and mail and theme fixes" (http:/ / my. opera. com/ desktopteam/

blog/ 2012/ 02/ 10/ core-dnt-mail-themes), opera.com, Abruf: 16. Juni 2012 Do Not Track 40

[16] IETF "Do Not Track: A Universal Third-Party Web Tracking Opt Out" (http:/ / tools. ietf. org/ html/ draft-mayer-do-not-track-00). Abruf: 16. Juni 2012

[17] Do Not Track- Universal Web Tracking Opt-Out (http:/ / donottrack. us/ ), Abruf: 17. Juni 2012

[18] "Try out Do-Not-Track-HTTP-Header" (http:/ / blog. sidstamm. com/ 2011/ 01/ try-out-do-not-track-http-header. html). Abruf: 17. Juni 2012

[19] Berliner Beauftragter für Datenschutz und Informationsfreiheit: Bericht 2011 (http:/ / www. datenschutz-berlin. de/ attachments/ 861/

JB_11_Inhalt_Web. pdf) (PDF; 3,1 MB), S. 169

Weblinks

• DNT bei Mozilla Firefox (FAQ) (http:/ / dnt. mozilla. org/ ) (engl.)

• DNT (https:/ / www. eff. org/ issues/ do-not-track) (engl.) bei EFF (Electronic Frontier Foundation)

• Understanding your online privacy (http:/ / www. abine. com/ blog/ 2012/

understanding-your-online-privacy-a-really-long-infographic/ ) (engl.), Abruf: 8. Februar 2012

• How to Turn on Do Not Track in Your Browser (http:/ / www. abine. com/ blog/ 2011/

how-to-turn-on-do-not-track-in-your-browser/ ) (engl.), Abruf: 7. September 2011 41

Web-Monitoring

Munin (Software)

Munin

Basisdaten Aktuelle Version 2.0.17 (19. Juli 2013) Betriebssystem Unix-Derivate Kategorie Monitoring Lizenz GPL (Freie Software) Deutschsprachig nein

[1] munin-monitoring.org/

Die freie Software Munin ist ein Werkzeug zur Überwachung von Rechnern in einem Rechnernetzwerk mit Status- und Prozess-Visualisierung. Ein zentraler Rechner, der sogenannte „Master”, sammelt Leistungsdaten von im Netzwerk verteilten Computern, den „Nodes”, speichert diese und stellt die Daten mittels Webschnittstelle graphisch dar. Die Speicherung der Messwerte geschieht mit Hilfe von RRDtool. Auf diese Weise wird eine Visualisierung der Leistungsdaten erzeugt, die einen Vergleich der aktuellen Daten mit den Daten anderer Rechner und Daten aus der Vergangenheit (im Regelfall maximal für etwa 400 Tage) gestatten. Dabei nimmt die Datengenauigkeit der historischen Werte mit ihrem Alter ab, so dass die verwendete Datenbank eine konstante Größe besitzt. Wegen dieses Mechanismus liegen die Daten des letzten Tages mit einer Auflösung von 5 Minuten vor, die Daten der letzten Woche mit einer Auflösung von 30 Minuten, die Daten des letzten Monats mit einer Auflösung von 2 Stunden und die Daten des letzten Jahres mit einer Auflösung von einem Tag.

Plugins Für Munin gibt es eine Reihe von clientseitigen Plugins, die es möglich machen, verschiedene Dienste eines Servers (z.B. Datenbanken, CPU-Last, Mails, Sensors, Netzwerk etc.) zu überwachen. Diese Plugins werden von einem Daemon gestartet, der Anfragen des Munin-Masters über eine Netzwerkverbindung entgegennimmt. Während der Daemon mit privilegierten Rechten (root) läuft, sorgt die Konfiguration dafür dass die Plugins mit eingeschränkten Rechten ausgeführt werden. Die Entwicklung eigener Plugins ist mit grundlegenden Programmier-Kenntnissen möglich. Mit MuninExchange existiert eine Plattform zum Austausch der von Anwendern entwickelten Plugins. Ebenfalls existiert eine Schnittstelle zu Nagios, einer alarmorientierten Überwachungs- und Monitorlösung. Munin (Software) 42

Unterstützte Plattformen Munin ist plattformübergreifend in Perl geschrieben, es werden daher alle gängigen Unix-/Linux Plattformen unterstützt. Die Installation ist jedoch auch auf nicht unterstützten Systemen möglich, die Installation von Perl vorausgesetzt. Daneben existiert eine Portierung für MS-Windows sowie für eingebettete Systeme (wie bspw. OpenWrt). Munin-Plugins können in beliebigen Sprachen programmiert sein. Darüber hinaus ist es möglich Abfragen per SNMP von beliebigen SNMP-fähigen Geräte (z.B. Switches, WLAN-Access-Points, Thermometer) durchzuführen, womit die Notwendigkeit der Installation eines Munin-Plugins entfällt.

Funktionsweise

Munin arbeitet mit einem Master-Rechner und beliebig vielen Nodes. Wenn nicht nur ein einziger lokaler Server überwacht werden soll, werden auf den zusätzlichen Computern sogenannte Munin-Node (die Clientsoftware) eingerichtet, und vom Munin-Master regelmäßig abgefragt. Diese Intervalle werden durch Cronjobs gesteuert, welche bei der Installation von Munin automatisch angelegt werden.

Die so gesammelten Daten werden in ein RRD-Archiv gespeist, durch Munin aufbereitet und auf dem Webinterface dargestellt. An den Webserver werden keine besonderen Ansprüche gestellt, da Munin die Seiten generiert und der Webserver nur statische Seiten ausliefern beispielhafter Munin-Graph muss. Allerdings unterstützt Munin bei der Einrichtung eines Passwortschutzes vor der Abfrage der Daten sowie beim Caching der Graphen im Webserver selbst.

Versionen Die Versionsnummer setzt sich aus einer Major-, einer Minor- sowie einer Release-Nummer zusammen. Die stabile Version (z. B. 1.2.6) bekommt dabei immer eine gerade Zahl, während die Unstable-Version eine ungerade Zahl enthält (z. B. 1.3.4). Die Unstable-Version enthält Features, die funktionieren, jedoch für Endanwender noch nicht in jedem Fall zu empfehlen sind. Hierzu gehört derzeit die Unterstützung für MacOS X sowie die Verschlüsselung des Netzwerkverkehrs mit TLS. Die Version an der die Entwickler aktuell arbeiten (trunk) kann jedermann mittels Subversion herunterladen.

Trivia Munin war einer der beiden Raben Odins (Hugin und Munin) und bedeutet übersetzt in etwa so viel wie „Erinnerung”. Es gibt auch eine Software namens Hugin.

Literatur • Gabriele Pohl und Michael Renner: (2008) Munin. Graphisches Netzwerk- und System-Monitoring 1. Auflage – Open Source Press ISBN 978-3937514482

Weblinks • Offizielle Webpräsenz [1] • Plugin-Verzeichnis MuninExchange auf github [2] Munin (Software) 43

Quellennachweise

[1] http:/ / munin-monitoring. org/

[2] https:/ / github. com/ munin-monitoring/ contrib/ 44

WPO: Web Performance Optimization

Google Page Speed

Google Page Speed ist ein Programm der Firma Google Inc., das auf der Technologiekonferenz Google I/O 2011 erstmals vorgestellt wurde. Mit der Anwendung können Webmaster die Ladezeit einer Internetpräsenz untersuchen lassen und ggf. Optimierungen vornehmen.[1] Google Page Speed beachtet dabei neben dem Aufbau von HTML-, CSS- und JavaScript-Dateien auch die Integration von Bildern ohne Interlacing oder die Cache-Vorgaben der Website. Neben einem Online-Dienst bietet Google auch ein Browser-Plugin für Page Speed sowie eine Erweiterung für den Apache HTTP Server an. Im Juli 2011 wurde außerdem ein Hosting-Angebot namens Google Page Speed Service vorgestellt.

Page Speed Online Google Page Speed Online kann direkt im Browser aufgerufen werden. Der Besucher muss lediglich eine URL eingeben und auswählen, ob es sich dabei um eine reguläre Website oder speziell für mobile Geräte angepasste Version handelt. In der Regel zeigt Page Speed Online nach weniger als zwei Minuten dann einen Bericht an, der in Kategorien mit hoher, mittlerer und niedriger Priorität untergliedert ist. Page Speed Online berechnet für jede Seite einen Gesamtwert, der maximal 100 Punkte erreichen kann.

Page Speed im Browser Besucher, die Google Page Speed regelmäßig nutzen, können alternativ auch ein Plugin für Mozilla Firefox und Google Chrome herunterladen. Für eine Installation im Firefox ist Firebug Voraussetzung, die Einrichtung in Chrome erfolgt zusammen mit den Google Chrome Developer Tools.

Page Speed für Webserver Auf der Google I/O 2011 wurde mod_pagespeed erstmals gezeigt, das die Ladezeit einer Internetpräsenz automatisch verbessern soll. Die Optimierungsvorschläge, die Google Page Speed Online oder das Browser-Plugin einem Webmaster machen, werden größtenteils automatisch umgesetzt. Seit Juli 2011 gibt es auch eine gehostete Version namens Google Page Speed Service, mit der kein Eingriff in die Serverkonfiguration notwendig ist. Stattdessen liefert Google die Website über seine eigenen Rechenzentren aus, wo auch die Geschwindigkeitsoptimierung erfolgt. Das Angebot wurde in den Medien teilweise als Angriff auf die Unabhängigkeit von Webmastern kritisiert.[2] Google Page Speed 45

Page Speed für Webseiten Nicht nur Webserver, sondern auch jede einzelne Webseite kann auf den Page Speed geprüft werden. Dabei gilt es nicht nur die Ladezeiten von Bildern, CSS und JavaScript-Files zu optimieren, sondern auch verschiedene Caching-Funktionen zu testen, um somit dem Besucher eine schnell ladende Webseite präsentieren zu können. Tipp, Hinweise, Tutorials und viele Codeschnipsel können dabei hilfreich sein. [3]

Weblinks • Offizielle Website [4]

Einzelnachweise

[1] Netzwelt.de: Schneller Surfen mit Google Page Speed (http:/ / www. netzwelt. de/ news/

87746-google-page-speed-schneller-surfen-caching-technik. html), abgerufen am 30. Juli 2011

[2] Spiegel Online: Google lockt Webmaster mit kurzen Ladezeiten (http:/ / www. spiegel. de/ netzwelt/ web/ 0,1518,777274,00. html), abgerufen am 30. Juli 2011

[3] Page-Speed.ent: Page Speed Tipps (http:/ / page-speed. net/ ), abgerufen am 4. Juli 2012

[4] http:/ / code. google. com/ intl/ de-DE/ speed/ page-speed/

SPDY

SPDY

Familie: ähnlich HTTP in der Internetprotokollfamilie, aber experimentell

Einsatzgebiet: Datenpaketversendung sowohl lokal als auch weltweit über verschiedene Netzwerke

Anwendung SPDY

Transport TCP

Internet IP (IPv4, IPv6)

Netzzugang Ethernet Token Token FDDI … Bus Ring

Standards: n. n.

SPDY [ˈspiːdi] (von englisch speedy ‚flott‘, ‚flink‘ oder ‚schnell‘) ist ein experimentelles, TCP-basiertes Netzwerkprotokoll, das vom Unternehmen Google entwickelt wurde. Google Chrome war der erste Webbrowser mit SPDY-Unterstützung. Mozilla Firefox unterstützt SPDY ab Version 11;[1] ab Version 13 ist es standardmäßig aktiviert.[2] Opera unterstützt SPDY seit Version 12.10.[3] SPDY wird von etwa 0,5% aller Websites unterstützt.[4] Ab Version 11 und Windows 8.1 unterstützt auch Microsoft Internet Explorer SPDY. Wenn SPDY zur Übertragung zum Einsatz kam, steht im Antwortheader bei Firefox der Eintrag „X-Firefox-Spdy“ mit einem Wert größer oder gleich 1 verzeichnet.[5] Jede SPDY-Übertragung wird mittels TLS verschlüsselt. Ursprünglich war auch die Komprimierung der HTTP-Header mit gzip vorgesehen – was aber aufgrund eines bekannt gewordenen Angriffs von CRIME nicht mehr SPDY 46

erfolgen sollte[6]. Einen rund doppelt so schnellen Seitenaufbau erreicht SPDY laut Google vor allem durch das Multiplexen der Übertragungen. Dadurch können über eine einzelne TCP-Verbindung beliebig viele Dokumente parallel übertragen werden.[7] Hier bietet SPDY die Möglichkeit, die einzelnen Anfragen zu priorisieren, um einen Deadlock zu vermeiden oder wichtige Dokumente schneller zu bekommen.[8] Außerdem kann bei SPDY der Server selbst Übertragungen initiieren und Inhalte direkt und ohne Anfrage an den Client senden (Server push[9]). So können aktualisierte Inhalte (z. B. neue E-Mails) ohne Neuladen durch den Anwender oder ständige Abfrage durch Skripte direkt an die bereits geladene Seite gesendet werden, die dann die entsprechenden Bereiche aktualisiert. Damit verbunden können u. a. die Ladezeiten von weiteren Seitenaufrufen verringert werden und eine bessere Auslastung des Netzwerks erreicht werden, da sinnlose Abfragen auf Verdacht entfallen.[10] Für den sehr verbreiteten Webserver Apache gibt es ein Modul namens mod_spdy, welches die SPDY-Unterstützung serverseitig bereitstellt.[11] Auch für nginx, eingesetzt bei einigen großen Services, existiert ein experimentelles Modul.[12] SPDY soll HTTP nicht komplett ersetzen, sondern nur einzelne Bestandteile erweitern oder ersetzen. Der in der Entwicklung befindliche Standard HTTP/2.0 basierte ursprünglich auf SPDY.

Weblinks • SPDY-Projekt [13] (englisch) • SPDY-Whitepaper [14] (englisch) • mod_spdy-Projektseite [15] (englisch) • nginx [16] (englisch) • SPDY-Testseite [17] (deutsch)

Einzelnachweise

[1] Firefox 11 implementiert SPDY-Protokoll (http:/ / www. admin-magazin. de/ News/ Firefox-11-implementiert-SPDY-Protokoll) – Artikel vom 14. März 2012

[2] network.http.spdy.enabled true (https:/ / bugzilla. mozilla. org/ show_bug. cgi?id=724563) - Link zu Bugzilla aufgerufen am 22. April 2012

[3] Opera 12.10 is out (http:/ / my. opera. com/ ODIN/ blog/ opera-12-10-is-out) - Opera Developer News

[4] Usage of SPDY for websites (http:/ / w3techs. com/ technologies/ details/ ce-spdy/ all/ all) - W3Techs

[5] https:/ / bugzilla. mozilla. org/ show_bug. cgi?id=736882#c1

[6] arstechnica.com http:/ / arstechnica. com/ security/ 2012/ 09/ crime-hijacks-https-sessions/

[7] http:/ / www. chromium. org/ spdy/ spdy-protocol/ spdy-protocol-draft2#TOC-Data-flow

[8] http:/ / www. chromium. org/ spdy/ spdy-protocol/ spdy-protocol-draft2#TOC-SYN_STREAM 3 Bit Prioritäten

[9] http:/ / www. chromium. org/ spdy/ spdy-protocol/ spdy-protocol-draft2#TOC-Server-Push-Transactions

[10] http:/ / www. chromium. org/ spdy/ spdy-protocol/ spdy-protocol-draft2#TOC-Server-Push-Transactions

[11] http:/ / code. google. com/ p/ mod-spdy/

[12] http:/ / nginx. org/ en/ docs/ http/ ngx_http_spdy_module. html

[13] http:/ / dev. chromium. org/ spdy/

[14] http:/ / dev. chromium. org/ spdy/ spdy-whitepaper

[15] http:/ / code. google. com/ p/ mod-spdy

[16] http:/ / nginx. org/ en/ docs/ http/ ngx_http_spdy_module. html

[17] https:/ / ist-spdy-aktiviert. de 47

Performnace-Test

Lasttest (Computer)

Unter einem Lasttest (Lehnübersetzung von Load Testing) versteht man einen Softwaretest, mit dem eine zu erwartende, auch extreme Last auf dem laufenden System erzeugt und das Verhalten desselbigen beobachtet und untersucht wird. Dazu kann eine Simulation eingesetzt werden. Ziel dabei ist es 1. Fehler aufzudecken, die im funktional orientierten Systemtest/Integrationstest nicht gefunden wurden. 2. Erfüllung nichtfunktionaler Anforderungen, wie z. B. geforderte Antwortzeiten sowie Mengenverarbeitungen, für den Produktivbetrieb nachzuweisen. 3. Die Dimensionierung der Hardwareausstattung zu überprüfen. Der Lasttest ist demnach dem funktionalen Test nachgelagert, d. h. das (Teil-)System muss in einem funktional stabilen Zustand sein, um überhaupt auf Lastbewältigung getestet werden zu können.

Ausprägungen Die Last kann darin bestehen, dass Funktionen sehr schnell hintereinander ausgeführt werden, oder dass parallele Aktivitäten von virtuellen Benutzern (Multiuser, vUser) ausgeführt werden. In der Regel wird dabei direkt auf Protokollebene (Netzwerkprotokoll) gearbeitet. Grundsätzlich lässt sich unterscheiden zwischen (1) Performancemessungen und (2) Lasttests. Performancemessungen wiederholen ausgewählte Testfälle bzw. Einzelprozesse aus dem Systemtest unter einer Grundlast: dadurch werden einzelne Funktionen auf ihre Performanzeigenschaften geprüft, d. h. sämtliche User führen den gleichen Prozess aus, wodurch die Skalierbarkeit für die Einzelfunktion(en) getestet wird. Man spricht in dem Zusammenhang auch von Transaktionen. Lasttests im engeren Sinne testen gesamte Prozessketten sowie den Prozessmix auf Performanz, d. h. die Verknüpfungen der Einzelprozesse; damit simulieren sie konkrete Vorgänge aus dem tatsächlichen Wirkbetrieb und stellen einen nicht zu unterschätzenden Schritt zur Erreichung der Wirkbetriebstauglichkeit dar. Auch hier ist die Skalierbarkeit von entscheidender Bedeutung, jedoch jetzt für den gesamten Prozessmix. Eine dabei häufige auftretende Fehlerwirkung sind Deadlocks beim Datenbankzugriff, die sonst nur schwer testbar sind. Wird das System bewusst über die definierte Lastgrenze hinaus beansprucht, spricht man vom Stresstest. Dabei sollte die Last (Anzahl der virtuellen User) schrittweise bis über die definierte Lastgrenze hinaus erhöht werden. Damit werden folgende Fragestellungen untersucht: • Wie ändert sich das Antwortzeitverhalten in Abhängigkeit von der Last? • Kann mit dem System auch unter hoher Last noch akzeptabel gearbeitet werden? • Zeigt das System undefiniertes Verhalten (z. B. Absturz)? • Kommt es zu Dateninkonsistenz? • Geht das System nach Rückgang der Überlast wieder in den normalen Bereich zurück? Im Gegensatz dazu dient der Niederlasttest, der absichtlich mit einer geringen Intensität betrieben wird, der Untersuchung des Interaktionsverhaltens der virtuellen Benutzer und des von ihnen erzeugten Nachrichtenverkehrs auf dem System. Einen Lasttest über einen längeren Zeitraum (z. B. 48–72 Stunden) nennt man Dauerlasttest; er dient in erster Linie zur Aufdeckung von Speicherlecks. Lasttest (Computer) 48

Die destruktivste Form eines Lasttests ist der Fail-Over-Test. Dabei geht es um die Überprüfung des Systemverhaltens unter Last bei Ausfall von Systemkomponenten. Im Idealfall werden damit Notfallszenarien überprüft, wie z. B. das rechtzeitige Zuschalten von Zusatzressourcen, um einen totalen Systemausfall zu verhindern.

Durchführung

Generierung der Testdaten Das Testverhalten wird meist über eine Skriptsprache definiert, bei vielen Tools kann man es auch – ähnlich einem Makro – über einen Webbrowser „aufnehmen“. Dies wird zumeist über einen Proxy realisiert, welcher die Requests, etc. in die Skriptsprache übersetzt. Ein wichtiges Kriterium ist hier die Benutzerfreundlichkeit bei der Testerstellung, aber auch die Variabilität und die unterstützten Protokolle (HTTP, HTTPS etc.). Vor allem in Bereichen wo die Quantität der Daten wichtiger als deren genauer Inhalt ist, werden auch so genannte Testdaten-Generatoren eingesetzt. Dies sind Programme, die eine große Datenmenge nach einem vorbestimmten Muster erzeugen, wobei die genaue Größe der Datenmenge in der Regel konfiguriert werden kann. Ein häufiger Anwendungsfall ist hier die Geschwindigkeitsmessung von Datenbanken.

Testlauf Im Testlauf wird mittels des erstellten Skriptes das aufgezeichnete Verhalten (eventuell ergänzt durch zufällige Elemente bzw. zählerabhängigen Variablen) in beliebig hoher Anzahl (Virtual Users) nebenläufig ausgeführt und somit die Anwendung unter Last gesetzt. Ein wichtiges Kriterium ist hierbei die maximal erzeugbare Last, sowie die Hardwareanforderungen, die damit einhergehen. Sinnvoll ist auch die Möglichkeit die Lasterzeugung auf mehrere Rechner zu verteilen, welche einige Tools anbieten. Hierdurch kann der Einfluss der Netzwerk-Kapazität, sowie der Hardware-Beschränkungen des lasterzeugenden Rechners, minimiert werden. In letzter Zeit integrieren einige kommerzielle Tools die Möglichkeit, zusätzliche Lastgeneratoren in einer Cloud einzubinden. Während des Testlaufs sammelt das Tool möglichst viele Daten. Grundsätzlich geschieht dies direkt auf der Seite der lasterzeugenden Anwendung (Antwortzeiten, Fehlercodes, etc.). Einige Tools bieten auch zusätzliche Möglichkeiten, um bestimmte Web-/Datenbank-Server (z. B. IIS, Apache, MSSQL) oder Anwendungsserver (Tomcat, etc.) zu überwachen, um direkt Zusammenhänge (z. B. hohe Antwortzeit vs. Datenbankzugriffe) zu analysieren. Die Datengewinnung kann jedoch auch modularisiert stattfinden (Hilfsprogramme z. B. auf dem Server der zu testenden Anwendung). Entscheidend ist, dass möglichst viele Möglichkeiten zur Sammlung verschiedener Daten geboten werden.

Auswertung Zur Auswertung stehen meist gewisse Kennzahlen (z. B. Antwortzeit vs. Zeit, Timeouts vs. Benutzerzahl, etc.) in Logdateien bzw. zeitabhängigen Graphen zur Verfügung. Gute (meist kommerzielle) Tools bieten auch Möglichkeiten, z. B. über (Auto-)Korrelationsfunktionen, die Abhängigkeiten im Verhalten zu analysieren (z. B. hohe Antwortzeit vs. Aufruf einer bestimmten Seite, etc.).

Normen Als Orientierung für die Planung eines Last- und Performancetests ist die DIN 66273 ein geeigneter Ausgangspunkt. Diese ist in der internationalen Norm ISO 14756 enthalten und standardisiert Begriffe sowie Mess- und Bewertungsverfahren der Leistung von komplexen DV-Systemen. Für die Instrumentierung von Anwendungen zur Performance- bzw. Antwortzeitmessung wurde innerhalb der Open Group der Application Response Measurement (ARM) Standard verabschiedet. Dieser Standard definiert eine Lasttest (Computer) 49

Programmierschnittstelle für die Programmiersprachen C und Java.

Softwaretools Zur Durchführung von Lasttests bieten sich sog. Lasttesttools an. Im Allgemeinen wird ein Lastserver installiert, der die Last auf dem zu testenden System erzeugt. Die Lasttesttools können entweder selbst hergestellt werden, oder man verwendet Standardsoftware, die eine Fülle an Funktionen und Auswertungsmöglichkeiten bietet.

Kommerzielle Anbieter • Simpleworks • Borland • C1 SetCon GmbH – TAPE • Compuware • Empirix • GFB Softwareentwicklungsgesellschaft mbH (Q-up) • Hewlett-Packard • IBM Rational • Intares GmbH • Ixia • Keynote Systems • Microsoft (als Teil der Visual Studio Suite) • Moniforce • Neotys SAS (Neoload) • OPNET • Quotium • Proxy-Sniffer • Scapa Technologies • s_aturn Zott+Co GmbH • WST • Xceptance GmbH

Freie Software • BadBoy • funkLoad Auf PyUnit basiertes Performance Framework für Web-Anwendungen • The Grinder • JaMonAPI – Java Performance Tuning und Scalability Measuring API • JMeter • OpenSTA • Selenium, Testsoftware für Web-Anwendungen • soapUI (Web Services, existiert in einer freien und einer kommerziellen Version) Lasttest (Computer) 50

Weblinks • Übersicht über freie und kommerzielle Tools mit Kurzbeschreibung [1] (englisch) • Homepage mit Artikeln und News zum Thema Performance Testing [2] (englisch) • Diplomarbeit über Testmethoden und Tools für Performancetests [3] (deutsch)

Literatur • Röhrle, Jörg: Ein regelbasierter Testdatengenerator für das Rapid Prototyping von Datenbankanwendungen, Hamburg : Kovač, 1995 • Stefan Asböck: Load Testing for eConfidence. Segue Software Deutschland GmbH, Hamburg 2001. • Mike Loukides, Gian-Paolo Musumeci: System Performance Tuning. 2. Auflage. O'Reilly & Associates, Sebastopol 2002. • Harry Sneed, Manfred Baumgartner, Richard Seidl: Der Systemtest - Von den Anforderungen zum Qualitätsnachweis. 3. Auflage. Carl Hanser Verlag, 2011, ISBN 978-3-446-42692-4. • Richard Seidl, Manfred Baumgartner, Thomas Bucsics: Basiswissen Testautomatisierung - Konzepte, Methoden und Techniken. 1. Auflage. dpunkt.verlag, 2011, ISBN 978-3-89864-724-3.

Quellennachweise

[1] http:/ / www. softwareqatest. com/ qatweb1. html#LOAD

[2] http:/ / www. loadtester. com/

[3] http:/ / www. performance-test. de/

Stresstest

Stresstest (englisch stress testing) bezeichnet einen Test, bei dem Reaktionen auf Stress wie erhöhte Beanspruchung und Belastung physischer oder psychischer Art gemessen werden.[1] Aufgrund der Verbreitung aus der Medizin in den verschiedensten Fachbereichen sowie der Alltagssprache wurde der Begriff von der Gesellschaft für deutsche Sprache (GfdS) zum Wort des Jahres 2011 in Deutschland gewählt.

Verwendung Der Begriff bezeichnet ursprünglich in der Humanmedizin Belastungstests wie in der Ergometrie. Nach Angaben von Doris Steffens vom Institut für deutsche Sprache wurde er in den 1990er Jahren in der Fachsprache etabliert und ist seit der Schlichtung zum umstrittenen Bahnprojekt Stuttgart 21 2011 in die Alltagssprache eingegangen. Nach Armin Burkhardt ist das Wort „sprachlich äußerst produktiv“, da es auf immer neue Bereiche angewandt werde.[2] Der Leiter der Dudenredaktion Werner Scholze-Stubenrecht sagte: „Es ist zu einem gängigen Wort geworden, das inzwischen auch auf Beziehungskrisen und Fußballer angewendet wird“. Der Duden teilte 2011 mit, dass das Wort in die Neuauflage des Deutschen Universalwörterbuchs und in die Onlineausgabe aufgenommen wurde.[3] Er wird unter anderem in folgenden Zusammenhängen verwendet: • in Bezug auf das Bahnprojekt Stuttgart 21: siehe Abschnitt Stresstest im Artikel Protest gegen Stuttgart 21 • in Bezug auf Kernkraftwerke: siehe Stresstest für Kernkraftwerke und Stresstest für Zwischenlager im Artikel Sicherheit von Kernkraftwerken • in der Finanzwirtschaft: siehe Stresstest (Finanzwirtschaft) • in der Informatik: siehe Lasttest (Computer) • in der Psychologie: Tests zur Beurteilung der individuellen Belastung Stresstest 51

Wort des Jahres 2011 Am 16. Dezember 2011 wählte die Gesellschaft für deutsche Sprache Stresstest zum Wort des Jahres und begründete die Entscheidung wie folgt: „Dieses Wort, ursprünglich aus der Humanmedizin stammend, begegnete im Laufe des Jahres auffällig oft. Es erwies sich dabei aus sprachlicher Sicht als äußerst produktiv und war in den verschiedensten Bereichen anzutreffen: Nicht nur Banken wurden auf ihre Belastbarkeit getestet, auch etwa das Bahnhofsprojekt Stuttgart 21, die grün-rote Landesregierung in Baden-Württemberg und deutsche Atomkraftwerke wurden Stresstests unterzogen. Diese Praxis und somit das Wort erlangten dadurch politische, wirtschaftliche und gesamtgesellschaftliche Relevanz. So ist Stresstest mittlerweile als fester Bestandteil der Alltagssprache anzusehen.“ – Gesellschaft für deutsche Sprache[4]

Einzelnachweise

[1] Wort des Jahres 2011: Stresstest (http:/ / www. duden. de/ sprachratgeber/ wort-und-unwort-des-jahres-in-deutschland/ 2), Jochen A. Bär auf duden.de, abgerufen am 21. Dezember 2011

[2] Der „Stresstest“ hat es in die Alltagssprache geschafft (http:/ / www. faz. net/ aktuell/ rhein-main/

wort-des-jahres-der-stresstest-hat-es-in-die-alltagssprache-geschafft-11566778. html), Frankfurter Allgemeine Zeitung vom 16. Dezember 2011

[3] "Stresstest" ist Wort des Jahres (http:/ / www. dw-world. de/ dw/ article/ 0,,15608065,00. html), Deutsche Welle vom 16. Dezember 2011

[4] Pressemitteilung vom 16. Dezember 2011 (http:/ / www. gfds. de/ presse/ pressemitteilungen/ 161211-wort-des-jahres-2011/ ): »Stresstest« zum Wort des Jahres 2011 gewählt, abgerufen am 21. Dezember 2011 Apache JMeter 52

Apache JMeter

Apache JMeter Maintainer Apache Software Foundation Aktuelle Version 2.10 (10. Oktober 2013) Betriebssystem plattformunabhängig Kategorie Lasttests-Werkzeug Lizenz Apache-Lizenz 2.0

[1] jmeter.apache.org

Apache JMeter ist ein freies, in Java geschriebenes Werkzeug zum Ausführen von Lasttests in Client/Server-Anwendungen, das von der Apache Software Foundation entwickelt wird. JMeter ermöglicht es mittels Zusammenstellen eines Testplanes zu spezifizieren, welche Teile der Anwendung (wie beispielsweise multi-threaded) durchlaufen werden sollen, um konkrete Ergebnisse über das Antwortzeitverhalten zu bekommen. Diese werden in der leicht zu bedienenden Oberfläche von JMeter präsentiert. Durch Logik-Komponenten, Listener, Sampler, Timer und Konfigurationselemente lassen sich bis ins Detail angepasste Testpläne erstellen. JMeter kann auch als Proxy-Komponente zum Aufzeichnen einer Abfolge von Testschritten eingesetzt werden, die als Basis von Testplänen eingesetzt werden kann. Ein besonderes Merkmal ist, dass mittels Sampler gesendete Requests sich nicht nur auf HTTP und HTTPS beschränken, sondern ebenso für FTP, SOAP und JDBC erzeugt werden können.

Weblinks • Offizielle Webpräsenz [1] (english) • Beispiel von Ergänzung für JMeter [2] (english) • Bedienungsanleitung in deutscher Sprache [3]

Quellennachweise

[1] http:/ / jmeter. apache. org/

[2] http:/ / jmeter-plugins. org/

[3] http:/ / www. fh-wedel. de/ ~si/ seminare/ ws02/ Ausarbeitung/ 9. perftools/ perftool2. htm 53

Dienstgütevereinbarung für Websites

Service-Level-Agreement

Der Begriff Service-Level-Agreement (SLA), Dienstgütevereinbarung (DGV) oder Dienstleistungsvereinbarung (DLV) bezeichnet eine Vereinbarung bzw. die Schnittstelle zwischen Auftraggeber und Dienstleister für wiederkehrende Dienstleistungen. Ziel ist es, die Kontrollmöglichkeiten für den Auftraggeber transparent zu machen, indem zugesicherte Leistungseigenschaften wie etwa Leistungsumfang, Reaktionszeit und Schnelligkeit der Bearbeitung genau beschrieben werden. Wichtiger Bestandteil ist hierbei die Dienstgüte (Servicelevel), welche die vereinbarte Leistungsqualität beschreibt. Charakteristisch für ein SLA ist, dass der Dienstleister jeden relevanten Dienstleistungsparameter unaufgefordert in verschiedenen Gütestufen (Levels) anbietet, aus welchen der Auftraggeber unter betriebswirtschaftlichen Gesichtspunkten auswählen kann. Bei einem herkömmlichen Dienstleistungsvertrag offeriert der Dienstleister diese Vertragsgestaltungsmöglichkeiten nicht.

Geschichte und Kontext Historisch sind SLA zuerst für IT-Dienstleistungen entstanden; inzwischen werden SLA für alle Arten von Dienstleistungen verwendet. In Deutschland und der Schweiz ist der Begriff SLA besonders durch die IT Infrastructure Library (ITIL) bekannt geworden. SLAs sind ein wesentlicher Bestandteil des Service-Level-Management (SLM). Im Rahmen des Service-Level-Management-Prozesses werden SLAs immer wieder überarbeitet und an geänderte Geschäftsanforderungen, die aktuellen Marktgegebenheiten und neue Kundenanforderungen angepasst.

Begriffsabgrenzung Vom Service Level Agreement (SLA) ist das Operational Level Agreement (OLA) zu unterscheiden. Ein OLA dient oft der Unterstützung bzw. der Absicherung eines SLA. Da diese Vereinbarungen zwischen Abteilungen des gleichen Unternehmens geschlossen werden, gelten diese in der Regel nur für den Dienstleister intern. Ein Underpinning Contract (UC) wiederum ist ein Absicherungsvertrag einer vereinbarten Leistung zwischen dem Service-Anbieter und einem für ihn tätigen Dienstleister. Abhängigkeiten bestehen insoweit als zugesicherte Leistungen durch unterstützende Verträge mit fremden Ressourcen gewährleistet werden und über Eskalationsmechanismen reaktiv miteinander in Beziehung stehen. Die formale Vereinbarung mit exakter Definition der technischen Parameter eines SLA wird mit Hilfe von Service Level Specification (SLS) oder Service Level Objective (SLO) durchgeführt. Service-Level-Agreement 54

Vereinbarungsinhalte Wesentliche Inhalte eines SLAs: • Zweck • Vertragspartner • Reviews • Änderungshistorie • Leistungsbeschreibung • Verantwortung Leistungserbringer • Verantwortung Leistungsempfänger • Verfügbarkeit des Services • Standards • Job-Planung / -Wartung • Service-Level-Kennzahlen (KPI) • Messzeitraum • Sonstige Definitionen • Externe Verträge • Eskalationsmanagement • Preisgestaltung • Rechtsfolgen bei Nichteinhaltung (insbesondere Vertragsstrafen) • Vertragslaufzeit • Unterschriften Die Definition von SLAs soll dem SMART-Prinzip folgen. Der Auftraggeber erhält eine in den SLAs fixierte Leistung (z. B. Reaktionszeiten des Supports, Wiederherstellung von Daten etc.) zu einem vereinbarten Preis und der Auftragnehmer garantiert, dass er sich an diese Vereinbarung hält. SLAs sollen einerseits eine Preis/Leistungs-Transparenz für Kunden und Partner schaffen, andererseits bieten sie eine Unterstützung bei der Streitschlichtung oder der Streitvermeidung, indem bei der - möglicherweise gemeinsamen - Ausarbeitung oder bei der Präsentation des SLA die kritischen Punkte geklärt werden.

Einige Beispiele für SLA-Anwendungen Anwendung von SLAs findet man überall dort, wo es ein geregeltes Dienstleistungsverhältnis zwischen einem (Dienstleistungs-)Lieferanten und einem Leistungsempfänger (Kunde) gibt. Beispielhaft werden SLAs in Outsourcing-Verträgen und in Shared Service Center eingesetzt. Nachfolgend einige Beispiele, in welchen Gebieten SLA heute verwendet werden: • Facilitymanagement • E-Mail-Anwendungen • Enterprise-Resource-Planning (ERP) • E-Shop (E-Commerce) • Billingsystem • E-Payroll (elektronische Gehaltsabrechnung) • Financial Information Services • Telekommunikation (Telefon oder Mobilfunk) • Callcenter • Personaldienstleistung • Hosting / Housing von Servern • Cloud Computing Service-Level-Agreement 55

• IT-Service-Management (für Applikationen)

Literatur • Avy Ellis, Michael Kauferstein: Dienstleistungsmanagement - Erfolgreicher Einsatz von prozessorientiertem Service Level Management. Springer, Berlin 2007. ISBN 978-3-540-40585-6 • Thomas G. Berger: Service Level Agreements. VDM, Saarbrücken 2007. ISBN 978-3-8364-1021-2 • Michael Pulverich, Jörg Schietinger (Hrsg.): Service Levels in der Logistik. Mit KPIs und SLAs erfolgreich steuern. Verlag Heinrich Vogel, München 2007. ISBN 978-3-574-26091-9

Weblinks • Das Service Level Agreement aus rechtlicher Sicht: Was ist bei Verträgen zu beachten? [1]

Quellennachweise

[1] http:/ / www. gulp. de/ kb/ lwo/ vertrag/ servicelevelagreement_f. html

Webhosting

Unter Webhosting oder auch Nethosting versteht man die Bereitstellung von Webspace sowie die Unterbringung (Hosting) von Webseiten auf dem Webserver eines Internet Service Providers (ISP).

Technologie Der Webhoster genannte Provider stellt − üblicherweise gegen Rechnungslegung − seine Ressourcen zur Verfügung. Zu diesen Ressourcen gehören insbesondere Bereitstellung und Betrieb von Host, Webserver und deren Netzwerkanbindung. Oft finanzieren sich Webhoster auch durch Werbung, die auf die Website geschaltet wird. Der Leistungsumfang von Webhosting-Angeboten variiert erheblich. Die Angebote beginnen mit einer einfachen Website über Server mit Skriptsprachenunterstützung (z. B. CGI, PHP) und Datenbank-Backend (z. B. MySQL) bis hin zu Paketen, die ein Web-Content-Management-System beinhalten (z. B. TYPO3, Joomla), Monitoring, Datensicherung, statistischen Auswertungen, Lastverteilung oder Hochverfügbarkeit. Hierbei kommt es sowohl auf die Software als auch auf den die Verfügbarkeit bzw. den Service bei Ausfällen an. Der Markt ist unübersichtlich und unterliegt ständigen Veränderungen. Zur Orientierung können Branchenportale und regelmäßige Testberichte über die Provider in Fachzeitschriften hilfreich sein. Es gibt viele Produktkategorien und man kann von Shared Hosting über vServer bis Cloud-Hosting alles erhalten. Dabei sind vor allem Shared Hosting-Produkte besonders günstig, will man jedoch professionellere Pakete erhalten, muss man gegebenenfalls auch mehr zahlen. Meist ist es möglich, einen Kompromiss zwischen Preis und Leistung einzugehen. Wichtige Kriterien bei der Auswahl sind die einmaligen und monatlichen Kosten, der Leistungsumfang, die Anbindungsgeschwindigkeit und der Umfang der verfügbaren Serviceleistungen. Eine andere Möglichkeit des Webhosting ist das Cloud-Hosting. Als Cloud-Hosting bezeichnet man eine Technologie des Hostings, die sich vor allem durch ihre Flexibilität auszeichnet. Hierbei werden die Daten direkt in einer Cloud gehostet, was viel Verwaltungsarbeit spart, aber auch flexibler Ressourcen verteilt. Webhosting 56

Arten von Hosting Kostenloses Webhosting-Service Wird kostenlos von verschiedenen Providern bereitgestellt. Die angebotenen Funktionen sind jedoch sehr eingeschränkt und werden z. B. durch Werbung finanziert. Shared Webhosting-Service Dabei nutzen sämtliche Domains einen gemeinsamen Pool von Server-Ressourcen, wie Speicherplatz, RAM oder CPU. Einfache Funktionen werden angeboten, aber unflexibel im Bezug auf Software und Updates. Reseller Webhosting Bietet die Möglichkeit als eigener Hoster Dienste zu vergeben. Diese sogenannten Reseller-Accounts werden in unterschiedlichen Größen bereitgestellt. Virtual Dedicated Server Diese Art des Webhosting teilt Server-Ressourcen in virtuelle Server auf, wobei die Ressourcen der Hardware dem jeweiligen User flexibel zugeordnet werden können. Dedicated Hosting Der User hat vollen administrativen Zugriff auf einen eigenen Server. Selbstverantwortung für Sicherheit und Wartung eines eigenen dedizierten Servers wird dem User übertragen. Managed Hosting Service Eigener Server aber nicht volle Kontrolle über diesen. Die Daten dürfen z. B. mittels eines FTP-Tools aufgespielt werden. Einschränkungen für den User bestehen. Colocation Web-Hosting Der User verfügt über einen eigenen Server und volle Kontrolle. Der Standort des Servers befindet sich jedoch bei einem anderen Hosting-Unternehmen, welches Raum für die Unterbringung bietet. Cloud-Hosting Eine neue Art von Hosting-Plattformen, die dem User leistungsstarkes und zuverlässiges Hosting auf geclusterten Servern ermöglicht. Probleme bei Datensicherheit können jedoch bestehen. Clustered-Hosting Aufteilung der Ressourcen durch Zusammenschluss mehrerer Server. Cluster-Server bieten einen Lösungsweg für hohe Verfügbarkeit. Grid-Hosting Verteiltes Hosting wenn sich ein Cluster wie ein eigenes Netz verhält. Es beinhaltet mehrere Knoten und setzt sich aus diesen zusammen. Home-Server Normalerweise ein einziger, privater Computer der als Server für die Bereitstellung einer oder mehrere Webseiten verwendet wird. Es gibt auch Webhostingdienste, die nur bestimmte Formen von Dateien akzeptieren, wie Foto-Sharing-Dienste nur Bilddateien und Videoportale nur Filme. [1] Webhosting 57

Uptime und Verfügbarkeit Verfügbarkeit, oder auch Uptime (aus dem Englischen für Betriebszeit), bezeichnet beim Webhosting die Zeit, in der eine Website online, öffentlich zugänglich ist. Die Uptime wird meist in Prozent und für einen einjährigen Zeitraum angegeben. Die Uptime wird mit der folgenden Formel berechnet: Gesamtzeit = 365 Tage pro Jahr * 24 Stunden pro Tag * 60 Minuten pro Stunde = 525.600 Minuten pro Jahr. Eine Uptime von 99% bedeutet beispielsweise, dass eine Website 3.65 Tage im Jahr nicht erreichbar ist. Oder in anderen Zahlen 7.20 Stunden pro Monat oder 1.68 Stunden pro Woche. Die Zeit in der eine Website nicht verfügbar ist bezeichnet man als Downtime Die folgende Tabelle zeigt die Uptime und die daraus folgende Downtime einer Website.

Verfügbarkeit in % Downtime pro Jahr Downtime pro Monat* Downtime pro Woche

90% 36.5 Tage 72 Stunden 16.8 Stunden

95% 18.25 Tage 36 Stunden 8.4 Stunden

99% 3.65 Tage 7.20 Stunden 1.68 Stunden

99.5% 1.83 Tage 3.60 Stunden 50.4 Minuten

99.9% 8.76 Stunden 43.2 Minuten 10.1 Minuten

99.95% 4.38 Stunden 21.56 Minuten 5.04 Minuten

99.99% 52.56 Minuten 4.32 Minuten 1.01 Minuten

*Ein Monat entspricht hier 30 Tagen.

Downtime-Ursachen Wenn die Server eines Webhosters für eine bestimmte Zeit ausfallen kommt es zu einer Downtime. Dies wird meist durch Stromausfälle, oder technische Fehlfunktionen eines Servers verursacht. Meist sind dann alle Websites die auf dem betroffenen Server gehosted sind, nicht verfügbar.

Einzelnachweise

[1] Dimaweb.at - Arten von Webhosting (http:/ / www. dimaweb. at/ index. php/ ct-menu-item-23/ 9-articles/ 18-was-ist-webhosting. html) - abgerufen am 14. November 2013 SMART (Projektmanagement) 58

SMART (Projektmanagement)

SMART ist ein Akronym für „Specific Measurable Accepted Realistic Timely“ und dient z.B. im Projektmanagement, aber auch im Rahmen von Mitarbeiterführung und Personalentwicklung als Kriterium zur eindeutigen Definition von Zielen im Rahmen einer Zielvereinbarung.[1] Im Deutschen kann man es z. B. so übersetzen:

Buchstabe Bedeutung Beschreibung

S Spezifisch Ziele müssen eindeutig definiert sein (nicht vage, sondern so präzise wie möglich).

M Messbar Ziele müssen messbar sein (Messbarkeitskriterien).

A Akzeptiert Ziele müssen von den Empfängern akzeptiert werden/sein (auch: angemessen, attraktiv, ausführbar oder anspruchsvoll).

R Realistisch Ziele müssen möglich sein.

T Terminiert zu jedem Ziel gehört eine klare Terminvorgabe, bis wann das Ziel erreicht sein muss.

Ein Ziel ist nur dann S.M.A.R.T., wenn es diese fünf Bedingungen erfüllt. Bei konsequenter Anwendung von „SMART“ ergeben sich klare, mess- und überprüfbare Ziele: • Langfristige Ziele = Richtungsweiser • Mittel- und kurzfristige Ziele Ziele und Aufgaben sind unbedingt für alle Beteiligten und Betroffenen schriftlich festzuhalten. Daraus wird der Projektplan für die Umsetzung erarbeitet. Die Umsetzung und der Projektfortschritt sind anhand der Meilensteine regelmäßig zu überprüfen: • Was ist erreicht? • Hat sich an den Zielen etwas geändert? Der Projektplan ist gegebenenfalls zu korrigieren.

Alternative Auflösungen

Buchstabe Bedeutung Alternativen

S Specific Significant, Stretching, Simple

M Measurable Meaningful, Motivational, Manageable

A Accepted Appropriate, Achievable, Agreed, Assignable, Actionable, Ambitious, Aligned, Aspirational, Attainable, As if now (wie bereits erreicht formuliert)

R Reasonable Relevant, Realistic, Resourced, Resonant

T Time-bound Time-oriented, Time framed, Timed, Time-based, Timeboxed, Timely, Time-Specific, Timetabled, Time limited, Trackable, Tangible

Einzelnachweise [1] Doran, G. T. (1981). There's a S.M.A.R.T. way to write management's goals and objectives. Management Review, Volume 70, Issue 11(AMA FORUM), pp. 35-36. Downtime 59

Downtime

Downtime (engl. für Stillstandszeit, Ausfallzeit, Abstellzeit) ist die gebräuchliche Bezeichnung der Zeit, in der ein System, insb. ein Computersystem, nicht verfügbar bzw. nicht funktionstüchtig ist. Man unterscheidet zwischen geplanter und ungeplanter Downtime.

Geplante Downtime Als geplante Downtime bezeichnet man eine gezielte und planmäßige Abschaltung eines Computersystems. Oft wird eine geplante Downtime in die arbeitsfreien Nachtstunden gelegt und den Benutzern angekündigt. Meist stehen Alternativsysteme bereit. Eine geplante Downtime ist z. B. bei Hardware-Aufrüstungen oder Umzügen notwendig.

Ungeplante Downtime Als ungeplante Downtime bezeichnet man plötzlich auftretende Störungen, wie z. B. infolge von Head-Crashs bei Festplatten oder Überhitzung. Eine ungeplante Downtime kann zu schweren finanziellen Verlusten führen, da die von dem betroffenen EDV-System unterstützten Geschäftsprozesse nicht oder nur unter Mehraufwand ablaufen können. Beispielsweise bei einem Webshop würde sich das in ausbleibenden Bestellungen niederschlagen. Der Ausfall eines ERP-Systems könnte nach kurzer Zeit eine ganze Fabrikanlage lahmlegen, weil keine Just-in-time-Produktion mehr möglich ist. Als Gegenmaßnahme wird redundant ein Ersatzsystem vorgehalten, das im Notfall die Funktionen des primären Systems übernehmen kann. Man spricht vom Failover. Bei Computersystemen wird die Verfügbarkeit in Dauer der Uptime in der Gesamtzeit gemessen und in Prozent angegeben. Ein 7x24-System mit 99 % Verfügbarkeit darf im Jahr 3,6 Tage ausfallen, ein 99,99 % verfügbares System 52 Minuten und ein 99,999 % (five nines) verfügbares System nur fünf Minuten. Computersysteme können hochverfügbar gemacht werden, indem sie über interne Redundanz, z. B. mehrere Netzteile oder RAID, verfügen oder indem sie als verteilte Systeme betrieben werden. Das Gegenteil von Downtime ist die Uptime. Verfügbarkeit 60

Verfügbarkeit

Die Verfügbarkeit eines technischen Systems ist die Wahrscheinlichkeit oder das Maß, dass das System bestimmte Anforderungen zu bzw. innerhalb eines vereinbarten Zeitrahmens erfüllt. Sie ist ein Qualitätskriterium und eine Kennzahl eines Systems.

Definition als Kennzahl Die Verfügbarkeit lässt sich anhand der Zeit, in der ein System verfügbar ist, definieren:

Zu unterscheiden ist in diesem Zusammenhang der Unterschied zwischen einer geplanten und einer ungeplanten Downtime. Da zur Berechnung der Verfügbarkeit nur die Ausfallzeit innerhalb des vereinbarten Zeitraums gerechnet wird, liegt eine geplante Downtime (z. B. zur Ausführung von Wartungsaufgaben) außerhalb des vereinbarten Zeitraums. Nur eine ungeplant auftretende Downtime wird als Ausfallzeit gerechnet. Wenn eine vollständige 7 × 24 Verfügbarkeit vereinbart ist, bedeutet das, dass es keine geplanten Downtimes gibt. Jegliche Betriebsunterbrechung wird dann als Ausfallzeit gerechnet. Wartungsarbeiten müssen bei solchen Systemen – so weit möglich – während des laufenden Betriebes ausgeführt werden.

Anwendung Bei größeren, komplexen technischen Systemen (zum Beispiel Elektrizitätsversorgung) versteht man unter Verfügbarkeit das Verhältnis der Zeit innerhalb eines vereinbarten Zeitraums, in der das System für seinen eigentlichen Zweck operativ zur Verfügung steht (Betriebszeit, operation time), zu der vereinbarten Zeit. Die Betriebszeit kann bei einem technischen System durch regelmäßige Wartung und durch Fehler/Schäden sowie Reparaturen zu deren Beseitigung begrenzt sein. Die Verfügbarkeit wird hierbei üblicherweise in Prozent angegeben. Bei Computersystemen (zum Beispiel DSL, Online-Brokering) wird die Verfügbarkeit in „Dauer der Uptime pro Zeiteinheit“ gemessen und in Prozent angegeben. (Die Verfügbarkeit ist auch dann nicht mehr gegeben, wenn die Antwortzeit eines Systems eine bestimmte Kenngröße überschreitet.) Als Zeiteinheiten werden typischerweise Minuten, Stunden, Tage, Monate, Quartale oder Jahre verwendet. Bei Flugzeugen kommt die Dispatch Reliability zur Anwendung. Die Verfügbarkeit als Eigenschaft eines Systems wird daher in dem Vertrag (Service Level Agreement, SLA) zwischen dem Systembetreiber und dem Kunden festgeschrieben. Dort können auch die Folgen (zum Beispiel Konventionalstrafen) bei Nichteinhaltung der Verfügbarkeit geregelt sein. Die Verfügbarkeit hat je nach Vereinbarung große Auswirkungen auf die Anforderungen bzgl. Ausfall und Wartbarkeit des Systems. Für ein System, das 12 Stunden am Tag, an 5 Wochentagen, in 52 Wochen im Jahr (12 × 5 × 52) zur Verfügung steht (3120 Stunden), bedeutet dies in Stunden: Verfügbarkeit 61

Verfügbarkeit Minimale erwartete Betriebszeit Maximale erlaubte Ausfallzeit Restzeit

99 % 3088,8 31,2 5640

99,5 % 3104,4 15,6 5640

99,7 % 3110,64 9,36 5640

99,9 % 3116,88 3,12 5640

99,95 % 3118,44 1,56 5640

100 % 3120 0 5640

Ausgehend von 365 Tagen im Jahr steht hier eine Restzeit von 5640 Stunden oder 235 Tagen zum Beispiel zur Wartung des Systems zur Verfügung, ohne dass die Verfügbarkeit leiden muss. Für ein System, das 24 Stunden am Tag, an 365 Jahrestagen (24 × 365) zur Verfügung steht (8760 Stunden), bedeutet dies:

Verfügbarkeit Minimale erwartete Betriebszeit Maximale erlaubte Ausfallzeit Maximale erlaubte Ausfallzeit (Stunden) (Stunden) (Minuten)

99 % 8672,4 87,6 5256

99,1 % 8681,16 78,84 4730,4

99,2 % 8689,92 70,08 4204,8

99,3 % 8698,68 61,32 3679,2

99,4 % 8707,44 52,56 3153,6

99,5 % 8716,2 43,8 2628

99,6 % 8724,96 35,04 2102,4

99,7 % 8733,72 26,28 1576,8

99,8 % 8742,48 17,52 1051,2

99,9 % 8751,24 8,76 525,6

99,99 % 8759,124 0,876 52,56

100 % 8760 0 0

Hier steht keine Restzeit mehr zur Verfügung. Die Wartung muss daher in der erlaubten Ausfallzeit erfolgen. Zur Optimierung der Verfügbarkeit kann man unter anderem den Verfügbarkeitsverbund einsetzen. Systeme, die mit einer hohen Verfügbarkeit (99,99 % oder besser) laufen müssen, bezeichnet man als hochverfügbare Systeme. Kennzahlen der Verfügbarkeit sind • maximale Dauer eines einzelnen Ausfalls (Verfügbarkeit: Ausfallzeit im Jahresdurchschnitt, auch Verfügbarkeitsklasse), • Zuverlässigkeit (Fähigkeit, über einen gegebenen Zeitraum hinweg unter bestimmten Bedingungen korrekt zu arbeiten), • Fehlersicherer Betrieb (Robustheit gegen Fehlbedienung, Sabotage und höhere Gewalt), • System- und Datenintegrität, • Wartbarkeit (verallgemeinernd: Benutzbarkeit überhaupt), • Reaktionszeit (wie lange dauert es, bis das System eine spezielle Aktion ausgeführt hat), • Mean Time to Repair (MTTR, mittlere Dauer der Wiederherstellung nach einem Ausfall), Verfügbarkeit 62

• Mean Time between Failure (MTBF, mittlere Betriebszeit zwischen zwei auftretenden Fehlern ohne Reparaturzeit), • Mean Time to Failure (MTTF, siehe MTBF, wird jedoch bei Systemen/Komponenten verwendet die nicht repariert, sondern ausgetauscht werden). Besteht ein System aus mehreren aufeinander aufbauenden Teilsystemen, ergibt sich die gesamte Netto-Verfügbarkeit aus der Multiplikation der Verfügbarkeitswerte der Teilsysteme.

Literatur • Josef Börcsök: Elektronische Sicherheitssysteme. Hardwarekonzepte, Modelle und Berechnung. Hüthig, Heidelberg 2004, ISBN 3-7785-2939-0 (Praxis). • Peter S. Weygant: Clusters for High Availability. A Primer of HP-UX Solutions. Prentice Hall PTR, Upper Saddle River NJ 1996, ISBN 0-13-494758-4 (Hewlett-Packard Professional Books).

Paketumlaufzeit

Die Round Trip Time (RTT; „Rundreisezeit“) bzw. Paketumlaufzeit gibt die Zeit an, die ein Datenpaket (Datagramm) in einem Rechnernetz benötigt, um von der Quelle zum Ziel und zurück zu reisen. Es handelt sich also um die Summe aus Laufzeit von Punkt A nach Punkt B und der Laufzeit von Punkt B nach Punkt A.

Anwendung der Messung Diese Methode der Messung wird deshalb viel häufiger in der Praxis der Netzwerktechnik verwendet als die (nur in eine Richtung gemessene) Latenzzeit (oder Verzögerungszeit bzw. engl. „delay“), weil dabei keine aufwendige Zeitsynchronisation der beiden beteiligten Endgeräte benötigt wird. Bei der RTT-Messung ist jedoch zu bedenken, dass in vielen Fällen durch asymmetrisches Routing (z. B. aufgrund von BGP-Policys) unsymmetrische Verzögerungszeiten auftreten können und die halbe RTT damit nicht unbedingt eine gute Näherung für die Verzögerungszeit in eine Richtung liefert. Die RTT wird zum Beispiel vom Transmission Control Protocol (TCP) verwendet, um zu bestimmen, wann Pakete nach Ausbleiben einer Bestätigung erneut gesendet werden sollten.[1] Diese Maßnahme dient dazu, das Protokollverhalten abhängig von den verfügbaren Transportkapazitäten und bei wechselnden Lastzuständen anzupassen. Eine einfache Möglichkeit zur Bestimmung der RTT besteht darin, von mehreren Paketen die Zeitdifferenz zwischen Aussendung und Eintreffen der Bestätigung zu messen und dann über mehrere Messungen zu mitteln. Pakete, die mehrfach gesendet werden mussten (Timeout), sollten bei der Rechnung ignoriert werden, da nicht immer klar ist, für welches Paket die Bestätigung galt. Entgegen der Definition im Einleitungsabschnitt wird die RTT also meist nicht mit einem hin- und zurückgesendeten Paket gemessen. Stattdessen misst man normalerweise so, dass Host A ein spezielles Paket zu Host B schickt (z. B. ICMP-Ping). Beim Empfang sendet Host B unmittelbar ein Antwortpaket zu Host A zurück. Die Zeit zwischen Aussenden des ersten und Empfangen des Antwortpaketes ist dann die RTT. Dieser minimale Unterschied ist naturgemäß eher akademischer Natur und spielt höchstens dann eine Rolle, wenn sich bei Host B das Versenden des Antwortpaketes signifikant verzögert, beispielsweise durch stark erhöhte CPU-Last. Endanwender können die RTT beispielsweise mit dem Werkzeug Ping messen, welches bei den meisten modernen Betriebssystemen beiliegt. Paketumlaufzeit 63

Typische Messwerte Typische RTT-Werte:[2]

Lokales Netzwerk (TCP), 1500 Byte-Paket Internet (IP), jenseits des Routers

100BaseT-Ethernet 1 ms innerhalb Deutschlands < 50 ms

WLAN 802.11b 10 ms USA 100–150 ms

Kabel allgemein 10 ms Fernost bis zu 300 ms

DSL-6000 ohne Fastpath 40 ms

DSL-2000 ohne Fastpath 55 ms

ISDN 200 ms

UMTS 300 - 400 ms

GPRS 700 - 1000 ms

RTT vs. Ping Ping testet Wege im Netz bzw. das Routing im Netz und gibt den Status meist in Form von ICMP-Fehlermeldungen, Paketverlustquoten, Sequenznummern, Informationen über Paketgrößen/Fragmentierung, Time-to-live und u. a. auch der Round-Trip-Time (Rundreisezeit) aus (die genauen Informationen hängen vom verwendeten Ping-Programm bzw. Betriebssystem ab). Wer die RTT sinnvoll messen will, sollte sich nicht auf Ping alleine verlassen, da das von Ping verwendete ICMP-Protokoll in vielen Netzen gegenüber dem üblichen TCP-Datenverkehr anders geroutet oder priorisiert wird.

Einzelnachweise [1] RFC 6298 [2] Christoph Lüders, Martin Winkler: Pingpong. in: c't. Hannover 2006,23, S.199.

Weblinks

• Der IP-Check von Serversniff.de misst die RTT von ICMP- und TCP-Paketen zu beliebigen Servern (http:/ /

serversniff. de/ content. php?do=ipinfo) Quelle(n) und Bearbeiter des/der Artikel(s) 64

Quelle(n) und Bearbeiter des/der Artikel(s)

Web Analytics Quelle: http://de.wikipedia.org/w/index.php?oldid=124785973 Bearbeiter: Achim Jäger, Aka, Armin P., AxelAmthor, Blah, BusinessVillage, Carl Steinbeißer, Chatter, Cleverboy, Coatilex, Complex, Daniel73480, DasBee, Dennis Ring, Der Messer, Dhanyavaada, DonHo, Dp-at, Dumont, ErkanE, Extromedia, Florian Adler, Frank.reese, Frankwitte, FreelancerHamburg, FridoDeluxe, Giftmischer, Guenson, Haberich, Hlambert63, Hufufae, Ilam, Kai-Hendrik, Krd, Kreisverkehrsampel, Kry, Ksakki, Kungfuman, LKD, LSG1, Markus Schweiß, Marsbiker, Mauk, Milvus, Mischbar, Nolispanmo, Norro, Nothere, Nuriavives, Oschiffers, P. Birken, Peisi, Pelz, Peter200, PhilipHubs, Pittimann, Q1712, RealPapaJoe, Registered, RobertLechner, Romanczar, RonMeier, Roterraecher, Sebastian Schiller, Seewolf, Sigbert, Silberchen, Speck-Made, Stefan Birkner, T.kroha, Taliopo, Tattoo, Thinkbeta, Tmfreitag, Typokorrektör, UWiS, Unima1, Ute Erb, VanGore, Video2005, WAH, Waerfelu, Wikifreund, Wunschpunkt, YMS, Zahnradzacken, 119 anonyme Bearbeitungen

Google Analytics Quelle: http://de.wikipedia.org/w/index.php?oldid=123675749 Bearbeiter: Abubiju, Aemtxd, Aka, Att309, Beauty, Bernard Ladenthin, Björn Bornhöft, Boshomi, Btonn, Bui-hinsche-db, BuschBohne, Candid Dauth, CommonsDelinker, Courbd, Cronox, DanielWette, DanielXP, Datenkind, Drahkrub, ElAustrio, ErkanE, Euku, Fernando S. Aldado, Fox122, FreelancerHamburg, GFJ, Giftmischer, Gsälzbär, Guenson, Gunnar.offel, Habakuk, Hebbet, Homer9913, Howwi, Hubertl, IGEL, Igne, Inkowik, Ionenweaper, JCS, Jcr, Juncensis, Kaama, Kai-Hendrik, Kai3k, Kaisersoft, Kalorie, Kokoloresentsorger, Krawi, Krd, Krys69, Ködermaus, LKD, LaVa85, LiLaLux, MFM, MainFrame, MarcAusBremen, MatthiasRauer, Mpfaendr, Napa, Norro, Numbo3, Olliseck, Oms, Peisi, Philipp-de, Pietz, Q. Wertz, Ralf5000, Raphael Frey, Rasenlatscher, Revolus, Robin Fast, RosarioVanTulpe, Roterraecher, S.lukas, Schampar, Seestaernli, Seewolf, Seir, Simified, Skraska, Stadtmaus0815, Tambora, Tellsgeschoss, Theophilius, Tilla, Tmfreitag, Troopers, Trustable, Tsz, Wackknuerstchen, Webalytics, Wiegels, Wikinero, Wikinger77, Willkommen, Wunschpunkt, YMS, 104 anonyme Bearbeitungen

Piwik Quelle: http://de.wikipedia.org/w/index.php?oldid=124511997 Bearbeiter: A1bi, Alabay, Biktora, Claaser, Der Messer, DinoBambino, Dnaber, Extromedia, Fast.ch, FreelancerHamburg, Gandi, Giftmischer, Gsälzbär, Günther M. Apsel, Herbert Buchbinder, Juncensis, Karl.Kirst, Kghbln, Kig8472, Koethener-land, LSG1, Loki 66, Lurchi5, MFM, Mbur, Mysxwa, Nassauer27, Onkel74, Pentachlorphenol, Prayingman, RSX, Sigbert, Thejudgement, ThorJH, Trac3R, VanGore, YMS, 32 anonyme Bearbeitungen

AWStats Quelle: http://de.wikipedia.org/w/index.php?oldid=121011599 Bearbeiter: Aka, Anuvito, Ath, Benji, Bernard Ladenthin, Biktora, Boris Stumm, Bountin, Church of emacs, DinoBambino, Johann stieger, KMic, Kungfuman, LarsiR, Norro, Scotty16, Seth Cohen, Speck-Made, Stefan Schultz, Tuxman, YMS, 12 anonyme Bearbeitungen

Webalizer Quelle: http://de.wikipedia.org/w/index.php?oldid=123224562 Bearbeiter: .eXotech, 08-15, Bachsau, Biktora, Chillvie, CommonsDelinker, Concept1, Cosmonaut, Ebcdic, Emdee, Flammabel, Fomafix, Fubar, Gnu1742, Goodgirl, Gulfstream N9999M, Heinte, Hugo75, Jpp, Kghbln, LSG1, Mamue, Markus Pfeil, P. Birken, PerfektesChaos, Rorkhete, Speck-Made, Stefan Schultz, Streifengrasmaus, Syrcro, Tuxman, VanGore, Wittas, 28 anonyme Bearbeitungen

Logdateianalyse Quelle: http://de.wikipedia.org/w/index.php?oldid=120468724 Bearbeiter: Aeble, Aka, Arcy, BLueFiSH.as, Belz, Benedikt.Seidl, Blauerflummi, Blaufisch, Bluecay, Bodo Thiesen, Bunyip, Carter666, Cecil, Cfaerber, Ckeen, Complex, Detailtiger, Diddi, Dunedan, Echoray, ErikDunsing, FSK, FelixReimann, Fmrauch, Frank.reese, Fristu, Frze, GNB, GNosis, Guenson, Guillermo, Gulliveig, HaSee, Head, JanW, Jnn95, Jperl, Jpp, Knoerz, Koletti, LosHawlos, Lutzky, Makeslong, Markus1983, Melancholie, Mermer, Ninxit, Pascal64, Pere Ubu, Philipendula, PhilippMayr, Remi, Ronnydotnet, Schnupf, Sebastian.Dietrich, Septembermorgen, Sinn, Snevern, Speck-Made, Staro1, Steef389, Stefan Kühn, Stw, Sulfolobus, Texec, ThePeritus, Thoken, Trainspotter, Tsor, Unima1, Uwe Gille, VTC, Webalytics, Westiandi, Windharp, Xqt, YourEyesOnly, 157 anonyme Bearbeitungen

Ganglinie Quelle: http://de.wikipedia.org/w/index.php?oldid=100332603 Bearbeiter: Abubiju, Giftmischer, HaeB, Hedwig in Washington, Joes-Wiki, Knoerz, Ma-Lik, Mailtosap, Markus Schweiß, Matthiasb, Neun-x, Roterraecher, ☣, 6 anonyme Bearbeitungen

Konversion (Marketing) Quelle: http://de.wikipedia.org/w/index.php?oldid=124777769 Bearbeiter: CherryX, Conversiondoktor, Dmi07, Doc z, Elmschrat, ErkanE, Feirefis, Gundimaus, Gustavf, Hennermartin, INM, Inkowik, Jdk, Klaeren, MFM, Martin1978, Mps, Nepenthes, Otanger, Peng, Pfalzfrank, Poupée de chaussette, Ral74, Reni Tenz, Robb, Saibo, Sarion, Sportschuh, Teddyboy, Tomakos, UvM, Vwendeler, 21 anonyme Bearbeitungen

Conversion-Tracking Quelle: http://de.wikipedia.org/w/index.php?oldid=119199956 Bearbeiter: Aka, Doc z, Ephraim33, Florian Adler, Howwi, IPS, Jdk, Kochlerra, Martin1978, Noogle, Pischdi, Reni Tenz, Roterraecher, Rufus46, Saibo, Srbauer, VanGore, 13 anonyme Bearbeitungen

Click-Through-Rate Quelle: http://de.wikipedia.org/w/index.php?oldid=123576140 Bearbeiter: APPER, Aka, Carbidfischer, Doc z, Gratisaktie, Heckmotor, Jensbusse, KnightMove, LKD, Marketier, Michael Uhl, Nothere, PM3, Pemu, Sebmol, Seth Cohen, Sicherlich, Siebzehnwolkenfrei, Southpark, StefanServos, Stern, VanGore, Wolfgang1018, 16 anonyme Bearbeitungen

Besucherzähler Quelle: http://de.wikipedia.org/w/index.php?oldid=116370662 Bearbeiter: A Ruprecht, A.Savin, AHZ, Aka, Bello, Benji, BenniOne, Biezl, Blaufisch, Cethegus, Codeispoetry, Complex, Daf, Dersven, Digleu, Humpyard, Jumble, Karl.Kirst, Krawi, Krokofant, Lexun, Melancholie, Michail, Mijobe, Mnh, Mrehker, N-regen, Onkelkoeln, Ordnung, PeeCee, Polluks, Powels, Redeemer, Restore, Saibo, Sender, Skriptor, Speck-Made, Staro1, Stern, Wewewe, Wimmerm, WinfriedSchneider, Wolfgang1018, 82 anonyme Bearbeitungen

Unique Visit Quelle: http://de.wikipedia.org/w/index.php?oldid=120466535 Bearbeiter: Adrian Suter, Aka, Emha, Flominator, Frakturfreund, Gohnarch, Greki79, ISBN, Janneman, Jpp, Marax, Medienoekonom, Oxffffff, Quosch, Simon Krahnke, Sir Gawain, Speck-Made, Sportschuh, Symbolonia, Trofobi, Trustable, Vren, WikiMax, Wikidienst, Wikinger08, Zaphiro, 15 anonyme Bearbeitungen

Referrer Quelle: http://de.wikipedia.org/w/index.php?oldid=121570800 Bearbeiter: Aka, Androl, Arbec, Avoided, BeatePaland, Betterworld, Bronko, Carbenium, ChristianErtl, Cyclonus, D0ktorz, DasBee, Dein Deutschlehrer, Diddi, Doc z, EX10DeaDth, Echtner, Eldred, ErhardRainer, Florian Adler, Fomafix, Frakturfreund, GlenCoe1692, Hagman, Historiograf, Ireas, JAF, Jwacalex, KeineAhnung1337, KleinPhi, Kurt Jansson, Markus Mueller, Matt1971, Miko313, Misburg3014, Mo4jolo, Netnet, Nils, Pemu, Rainer Wasserfuhr, Redeemer, Redoute, STBR, Seth Cohen, Slt, ThorstenSommer, Timk70, Typokorrektör, Uwe Hermann, XenonX3, 89 anonyme Bearbeitungen

Seitenabruf Quelle: http://de.wikipedia.org/w/index.php?oldid=121569866 Bearbeiter: Alex track, AndrePitie, Bernd vdB, Daniel Apfelbaum, Denkergehirn, Der Messer, Didym, Doc z, Dunnschdig, Elya, Emha, Engelbaet, Felix Stember, Franczeska, Gorlingor, Gratisaktie, HMSmily, Hadhuey, Jonas John, Kku, Kurt Jansson, LIU, LKD, Leander76, Matthiasb, Mermer, Nockel12, Ocrho, Ot, PuppetMaster, Reinhard Kraasch, Rhin0, Rudolfox, Senzaltro, Seth Cohen, Speck-Made, Sportschuh, St.s, TheK, Tickle me, Trofobi, Typokorrektör, Unaegele, VanGore, Wedderkop, Zaphiro, 25 anonyme Bearbeitungen

Zählpixel Quelle: http://de.wikipedia.org/w/index.php?oldid=119759275 Bearbeiter: Achim Raschka, CMEW, ChristophDemmer, Conspiration, DF5GO, Diddi, Dwagener, ElRaki, Erschaffung, FBE2005, Fapeg, FlatFlood, Frank C. Müller, Gunther, Hendrik Brummermann, Hæggis, JakobVoss, Joey-das-WBF, Kleiner Stampfi, KommX, Krawi, LKD, LosHawlos, M-sch, MDKiller, MFM, Magnus, Man77, Master of Chess, MichaelDiederich, Nerd, Normalo, Pne, Seth Cohen, Speck-Made, Stangl66, Stefan Kühn, Steven Malkovich, Terabyte, Thoken, Tilo, TomK32, Trublu, Trustable, UKoch, Unscheinbar, VanGore, Vren, Weede, WikiMax, ʘx, 47 anonyme Bearbeitungen

Cron Quelle: http://de.wikipedia.org/w/index.php?oldid=125171875 Bearbeiter: A11158, Abubiju, Achimbode, Aka, Al3x, Alberto568, Andyftw, Arcudaki, Asturius, Avatar, Baikonur, Baschtlh, Bassanio, Benji, Boshomi, DanielHerzberg, Diba, Diogenes-DD, Donnerzusel, Exil, Fapeg, Flominator, Fomafix, Franc, Funktastatur, GGShinobi, GNosis, Gandi, Gormo, Grindinger, HaukeZuehl, Horst Gräbner, HugoRune, Hystrix, Igge, Ireas, Jivee Blau, Jörg Kopp, Kasper4711, Kghbln, Kohl, LKD, Leider, Littl, Lonelypixel, Matthias Reissner, Mietchen, Mjh, PDD, PeeCee, PeterPaan, Pst98, Ralf Roletschek, Red alert, Revolus, Rohieb, Samy2, Sebastian.Dietrich, Sentral, Sergant, Seth Cohen, Staro1, Stefan80h, TMg, Tci, ThePeritus, Theodorus Bruchwald, Thornard, Timothy da Thy, Tobias K., Trublu, Tullius, VanGore, WAH, Weissbier, Wiegels, WikiNick, Wind of change, Xeper, 114 anonyme Bearbeitungen

Do Not Track Quelle: http://de.wikipedia.org/w/index.php?oldid=124202827 Bearbeiter: Aka, Argentoratum, BauerBjörn, Crazy1880, DieBuche, Fiver, der Hellseher, Frank Hillemann, Fresh Marv, Gidoca, Jobu0101, Kku, Kolja21, Ködermaus, Mheinrich, NacowY, NeverDoING, Privatim33, Tattoo, Tristram, Trustable, 8 anonyme Bearbeitungen

Munin (Software) Quelle: http://de.wikipedia.org/w/index.php?oldid=121362337 Bearbeiter: Alex2222, Benba, Biktora, Church of emacs, Don Magnifico, Dunedan, Erebos42, Euku, Fantaa, Flominator, Giftmischer, Heinte, Inkowik, Jens Meißner, Krd, Kubieziel, Mitten, Netsaint, Octotron, Pigpen, Reaper35, Regani, Suessthomas, Tc80, Titus36, ToBeFree, Uncopy, Urxn, Ute Erb, XimeX, Λx.x, 25 anonyme Bearbeitungen

Google Page Speed Quelle: http://de.wikipedia.org/w/index.php?oldid=114107920 Bearbeiter: Horst Gräbner, Inkowik, Juncensis, NacowY, NeverDoING, Pagespeed, Stefanf74, Zahnradzacken, 2 anonyme Bearbeitungen

SPDY Quelle: http://de.wikipedia.org/w/index.php?oldid=124708854 Bearbeiter: Aerdnas, Aka, Alexander Elvers, Andim, Ben g, ChristophJeschke, Dipl-Ingo, Eike sauer, Giftmischer, IGEL, Komischn, Loki 66, Mana, Marcel083, McZusatz, Muck31, Nbuechen, PM3, Phiarc, Planetblue, Rieschl, Sepehrmmm, Seth Cohen, Spacefish, Sunks, Terranic, ThE cRaCkEr, Trockennasenaffe, Trustable, Tuxman, Wiki-observer, XimeX, 28 anonyme Bearbeitungen

Lasttest (Computer) Quelle: http://de.wikipedia.org/w/index.php?oldid=123196794 Bearbeiter: Abubiju, AchimR, Andizo, Armadillo-eleven, Avron, Bbuegler, Bernedom, Birger Fricke, Boshomi, Boysforbigtoys, Cecil, Cjesch, Con-struct, Dressen, ErikvanB, Fg68at, Fscheide, Funkruf, Gadaloo, Herrick, Hlambert63, Jaellee, Jpp, Kallistratos, Laza, LogoX, Mareike jacobshagen, Quelle(n) und Bearbeiter des/der Artikel(s) 65

Martin.Bemmann, Mauerquadrant, Micha83i, Michelangelo, Mscholze, Peisi, Pittimann, Saibo, Semper, Sentie77, Smartcom5, SonniWP2, Speck-Made, Spence, Stefan Birkner, Test-tools, Thire, Thomro, Tkoeppner, Trinar, Tromla, YMS, 79 anonyme Bearbeitungen

Stresstest Quelle: http://de.wikipedia.org/w/index.php?oldid=122683556 Bearbeiter: =, AchimR, Akkakk, Aloiswuest, Andizo, Aschmidt, Bigbug21, Con-struct, Dibe, Don Magnifico, E^(nix), Euku, FerdiBf, Grey Geezer, Gschupfta Ferdl, HaSee, Happolati, Heiko, Hmm204, Hungchaka, In dubio pro dubio, Inkowik, Jón, KaPe, Lether29, Marinebanker, Martin.Bemmann, Mef.ellingen, Neun-x, Okmijnuhb, Ottomanisch, PM3, Paulae, PsY.cHo, Railweh10, Regi51, Rohwedder, RonMeier, Ronald Sl, Sigbert, Skicu, Steffen2, Taste1at, Visionmaster2, Wasseralm, West, Yoursmile, 17 anonyme Bearbeitungen

Apache JMeter Quelle: http://de.wikipedia.org/w/index.php?oldid=123668155 Bearbeiter: A.Stöckli, Ath, Avron, Bastie, Biktora, Bunt, Church of emacs, Deki, EinStein, Fomafix, Jla net.de, Jpp, Lichtkind, MainFrame, Mauerquadrant, Mef.ellingen, MeisterV, Milamberspace, Sebastian Wallroth, Sebastian.Dietrich, Undera, Vren, Waldkobold, Weapon X, WikiJourney, 13 anonyme Bearbeitungen

Service-Level-Agreement Quelle: http://de.wikipedia.org/w/index.php?oldid=116191809 Bearbeiter: A Ruprecht, Aka, Aloiswuest, Boshomi, Ellipse, Emaraite, Firefox13, Flash1984, Florian Adler, Frank1101, Fva, Gratisaktie, H005, HannesKeller, JPense, Jkbw, Johnny Controletti, Jpp, Kku, Krd, Kretzer2, Linksfuss, M.Zielke, Meisterkoch, Millbart, Mitten, My4net, Neunundsiebzig, Nirakka, Nogideck, Normalo, Pegeba, PolarYukon, Rbrausse, Rudolfox, Scholderer, Sicherlich, Spuk968, Srbauer, Termininja, Wikinger08, WikipediaMaster, 36 anonyme Bearbeitungen

Webhosting Quelle: http://de.wikipedia.org/w/index.php?oldid=124469689 Bearbeiter: 80686, AbdulAlhazred, Abubiju, Aka, Akkarin, Andreas 06, Bene*, Blane, Bohling, Bombenleger, Boshomi, Brackenheim, Braveheart, BruecknerDirk, Bugert, Carbidfischer, Chotaire, ChristophDemmer, ClausVB, Codeispoetry, Complex, D, DaB., Dachris, DasBee, DennisExtr, Doc z, Doc.Heintz, Dudemaster23, EHarwart, EddieGP, Eke, Engie, FEXX, FUZxxl, Fkkportal, Fomafix, Frank Schulenburg, Friedrichheinz, Froschmann2, Gorfion, HaeB, He3nry, Heinte, Herr Th., Howwi, Inza, Jackalope, JakobVoss, Jcr, Jergen, Johnny Yen, Jpp, JuTa, Juliana, Jürgen Engel, Keks, Kku, Komma5, LKD, Larf, Leon, Lukas GDP, Lustiger seth, LutzBruno, Madimaus, Magnummandel, Matthias Schneider, MichaelDiederich, Michail, Milad A380, MilesMoeller, Nixred, Nolispanmo, Otv2007, Peacemaker, Petersoft, Pischdi, Pittimann, Quikquak, Roy1980, STBR, Sallynase, Saniya2090, SchwarzerKater(BLN), Schweigerl, Sir, Ska13351, Slt, Southpark, Spazion, StYxXx, Star Flyer, Stern, Subversiv-action, Suischo, Syrcro, Test, ThePeritus, Tim Freitag, Torakoro, Trockenfisch, Trustable, Ukko, Unscheinbar, Vintagesound, Westiandi, Wiki-observer, Wikidienst, Wikifh, YMS, 176 anonyme Bearbeitungen

SMART (Projektmanagement) Quelle: http://de.wikipedia.org/w/index.php?oldid=124670087 Bearbeiter: 4tilden, Aka, Anka Friedrich, Anniyka, Astrobeamer, Bernard Ladenthin, C rall, Christian Wantia, ChristophDemmer, Daaavid, Das Robert, Erfolgs-psychologe, Gleiberg, Graypi, HaeB, Horst Gräbner, Hydro, Jpp, Markus Bärlocher, Matzematik, Meikel1965, MovGP0, Nanokras, Ned Hanlan, Night Ink, P. Birken, Peisi, Peter200, Phil1881, Pittimann, Reinhard Kraasch, Richardigel, Royalsolo, Saibo, Samiko, Thomas.gutbier, Tobi2995, Ums, Yotwen, 49 anonyme Bearbeitungen

Downtime Quelle: http://de.wikipedia.org/w/index.php?oldid=125087949 Bearbeiter: Abubiju, Aka, Dberlin, Denis Barthel, Der Spion, Echoray, Foto 12, Frubi, Horst Gräbner, Kolja21, Michaelsy, Muck31, Peterlustig, Pfalzfrank, RedCat, Robb, Sparti, UlrichJ, Wivoelke, Zuffi, 11 anonyme Bearbeitungen

Verfügbarkeit Quelle: http://de.wikipedia.org/w/index.php?oldid=123920045 Bearbeiter: 9xl, Abubiju, Aka, Avron, Badenserbub, Baumfreund-FFM, Birger Fricke, Centic, Cjesch, Complex, DerHexer, Dibooo, El., Fabian Bieker, Fivel, Florian Adler, Fomafix, GuteMiiene, HaSee, Heinte, Inkowik, JakobVoss, Julius-m, Kku, Kvedulv, Kwerdenker, Laryllian, Lehmi, Liesel, Mazbln, Media lib, Mussklprozz, NikiNako, Nobart, Ordnung, Otmar-von-steuber.de, P. Birken, PhilippWeissenbacher, Reseka, Rs newhouse, S.K., Saibo, Sparti, Türstörung, Unscheinbar, Visionimperator, Wiki-knut123, Woches, YourEyesOnly, 47 anonyme Bearbeitungen

Paketumlaufzeit Quelle: http://de.wikipedia.org/w/index.php?oldid=116718262 Bearbeiter: -jha-, Birger Fricke, Carbidfischer, Cjesch, Fabian6129, Flominator, Fomafix, GGShinobi, Gronau, Krille, Marcus Cyron, Maximilianpuma, Mitten, Oxymoron83, Schubbay, Stern, Thomas Springer, Trustable, Tschäfer, Uweschwoebel, Video2005, W!B:, Wutzofant, 24 anonyme Bearbeitungen Quelle(n), Lizenz(en) und Autor(en) des Bildes 66

Quelle(n), Lizenz(en) und Autor(en) des Bildes

Datei:Clickpath Analysis.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Clickpath_Analysis.png Lizenz: Creative Commons Attribution-Sharealike 3.0 Bearbeiter: User:KTB Datei:Piwik-logo.svg Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Piwik-logo.svg Lizenz: Trademarked Bearbeiter: Unknown Datei:Piwik screenshot german.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Piwik_screenshot_german.png Lizenz: GNU General Public License Bearbeiter: Piwik Developer Team Datei:Awstats logo5.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Awstats_logo5.png Lizenz: Creative Commons Attribution-Sharealike 3.0 Bearbeiter: Eldy Datei:March08awstats.jpg Quelle: http://de.wikipedia.org/w/index.php?title=Datei:March08awstats.jpg Lizenz: Creative Commons Attribution-Share Alike Bearbeiter: WhatIfGaming Datei:Efecto Barrapunto.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Efecto_Barrapunto.png Lizenz: Public Domain Bearbeiter: Clemente Bild:Fuerteventura graph.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Fuerteventura_graph.png Lizenz: GNU Free Documentation License Bearbeiter: Ies, Maksim Bild:2000 Year Temperature Comparison.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:2000_Year_Temperature_Comparison.png Lizenz: unbekannt Bearbeiter: Chipmonkey, Cwbm (commons), Dipaolom, Dragons flight, Fences and windows, Gikü, Glenn, Herbythyme, Hgrobe, Infrogmation, Jianhui67, Kallerna, Liftarn, Mach, Mike801109, Myself488, Nagy, Pflatau, Qgaliana, Rosarinagazo, Saperaud, Stephan Schulz, Túrelio, Zedshort, 36 anonyme Bearbeitungen Bild:Klima riodejaneiro.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Klima_riodejaneiro.png Lizenz: GNU Free Documentation License Bearbeiter: Factumquintus, Maksim, Nemracc, 1 anonyme Bearbeitungen Bild:Neue_Artikel.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Neue_Artikel.png Lizenz: GNU Free Documentation License Bearbeiter: Cepheiden, Elian, Marcus Cyron, Markus Schweiss, Timeshifter, WikipediaMaster Bild:Verhaeltnis.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Verhaeltnis.png Lizenz: GNU Free Documentation License Bearbeiter: Cepheiden, Elian, Mabdul, Marcus Cyron, Markus Schweiss, Razorbliss, Timeshifter, WikipediaMaster Bild:Lastprofil VDEW Winter mit Kraftwerkseinsatz schematisch.jpg Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Lastprofil_VDEW_Winter_mit_Kraftwerkseinsatz_schematisch.jpg Lizenz: Creative Commons Attribution-Sharealike 3.0 Bearbeiter: User:Joes-Wiki Datei:Konversion.jpg Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Konversion.jpg Lizenz: Creative Commons Attribution-ShareAlike 3.0 Bearbeiter: Inkowik, Vwendeler Datei:Ablauf des Zählpixel-Verfahrens.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Ablauf_des_Zählpixel-Verfahrens.png Lizenz: Logo, Verwendung zu enzyklopädischen Zwecken erlaubt Bearbeiter: Ireas, Stangl66 Bild:Munin.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Munin.png Lizenz: Logo, Verwendung zu enzyklopädischen Zwecken erlaubt Bearbeiter: Fantaa, Jodo Datei:Munin-memory-week.png Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Munin-memory-week.png Lizenz: GNU Free Documentation License Bearbeiter: Didier Misson Lizenz 67

Lizenz

Wichtiger Hinweis zu den Lizenzen Die nachfolgenden Lizenzen bezieht sich auf den Artikeltext. Im Artikel gezeigte Bilder und Grafiken können unter einer anderen Lizenz stehen sowie von Autoren erstellt worden sein, die nicht in der Autorenliste erscheinen. Durch eine noch vorhandene technische Einschränkung werden die Lizenzinformationen für Bilder und Grafiken daher nicht angezeigt. An der Behebung dieser Einschränkung wird gearbeitet. Das PDF ist daher nur für den privaten Gebrauch bestimmt. Eine Weiterverbreitung kann eine Urheberrechtsverletzung bedeuten. Creative Commons Attribution-ShareAlike 3.0 Unported - Deed

Diese "Commons Deed" ist lediglich eine vereinfachte Zusammenfassung des rechtsverbindlichen Lizenzvertrages (http:/ / de. wikipedia. org/ wiki/ Wikipedia:Lizenzbestimmungen_Commons_Attribution-ShareAlike_3. 0_Unported) in allgemeinverständlicher Sprache. Sie dürfen: • das Werk bzw. den Inhalt vervielfältigen, verbreiten und öffentlich zugänglich machen • Abwandlungen und Bearbeitungen des Werkes bzw. Inhaltes anfertigen Zu den folgenden Bedingungen: • Namensnennung — Sie müssen den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. • Weitergabe unter gleichen Bedingungen — Wenn Sie das lizenzierte Werk bzw. den lizenzierten Inhalt bearbeiten, abwandeln oder in anderer Weise erkennbar als Grundlage für eigenes Schaffen verwenden, dürfen Sie die daraufhin neu entstandenen Werke bzw. Inhalte nur unter Verwendung von Lizenzbedingungen weitergeben, die mit denen dieses Lizenzvertrages identisch, vergleichbar oder kompatibel sind. Wobei gilt: • Verzichtserklärung — Jede der vorgenannten Bedingungen kann aufgehoben werden, sofern Sie die ausdrückliche Einwilligung des Rechteinhabers dazu erhalten. • Sonstige Rechte — Die Lizenz hat keinerlei Einfluss auf die folgenden Rechte: • Die gesetzlichen Schranken des Urheberrechts und sonstigen Befugnisse zur privaten Nutzung; • Das Urheberpersönlichkeitsrecht des Rechteinhabers; • Rechte anderer Personen, entweder am Lizenzgegenstand selber oder bezüglich seiner Verwendung, zum Beispiel Persönlichkeitsrechte abgebildeter Personen.

• Hinweis — Im Falle einer Verbreitung müssen Sie anderen alle Lizenzbedingungen mitteilen, die für dieses Werk gelten. Am einfachsten ist es, an entsprechender Stelle einen Link auf http:/ / creativecommons. org/ licenses/

by-sa/ 3. 0/ deed. de einzubinden.

Haftungsbeschränkung Die „Commons Deed“ ist kein Lizenzvertrag. Sie ist lediglich ein Referenztext, der den zugrundeliegenden Lizenzvertrag übersichtlich und in allgemeinverständlicher Sprache, aber auch stark vereinfacht wiedergibt. Die Deed selbst entfaltet keine juristische Wirkung und erscheint im eigentlichen Lizenzvertrag nicht.

GNU Free Documentation License Version 1.2, November 2002 Copyright (C) 2000,2001,2002 Free Software Foundation, Inc. 51 Franklin St, Fifth Floor, Boston, MA 02110-1301 USA Everyone is permitted to copy and distribute verbatim copies of this license document, but changing it is not allowed. 0. PREAMBLE The purpose of this License is to make a manual, textbook, or other functional and useful document "free" in the sense of freedom: to assure everyone the effective freedom to copy and redistribute it, with or without modifying it, either commercially or noncommercially. Secondarily, this License preserves for the author and publisher a way to get credit for their work, while not being considered responsible for modifications made by others. This License is a kind of "copyleft", which means that derivative works of the document must themselves be free in the same sense. It complements the GNU General Public License, which is a copyleft license designed for free software. We have designed this License in order to use it for manuals for free software, because free software needs free documentation: a free program should come with manuals providing the same freedoms that the software does. But this License is not limited to software manuals; it can be used for any textual work, regardless of subject matter or whether it is published as a printed book. We recommend this License principally for works whose purpose is instruction or reference. 1. APPLICABILITY AND DEFINITIONS This License applies to any manual or other work, in any medium, that contains a notice placed by the copyright holder saying it can be distributed under the terms of this License. Such a notice grants a world-wide, royalty-free license, unlimited in duration, to use that work under the conditions stated herein. The "Document", below, refers to any such manual or work. Any member of the public is a licensee, and is addressed as "you". You accept the license if you copy, modify or distribute the work in a way requiring permission under copyright law. A "Modified Version" of the Document means any work containing the Document or a portion of it, either copied verbatim, or with modifications and/or translated into another language. A "Secondary Section" is a named appendix or a front-matter section of the Document that deals exclusively with the relationship of the publishers or authors of the Document to the Document's overall subject (or to related matters) and contains nothing that could fall directly within that overall subject. (Thus, if the Document is in part a textbook of mathematics, a Secondary Section may not explain any mathematics.) The relationship could be a matter of historical connection with the subject or with related matters, or of legal, commercial, philosophical, ethical or political position regarding them. The "Invariant Sections" are certain Secondary Sections whose titles are designated, as being those of Invariant Sections, in the notice that says that the Document is released under this License. If a section does not fit the above definition of Secondary then it is not allowed to be designated as Invariant. The Document may contain zero Invariant Sections. If the Document does not identify any Invariant Sections then there are none. The "Cover Texts" are certain short passages of text that are listed, as Front-Cover Texts or Back-Cover Texts, in the notice that says that the Document is released under this License. A Front-Cover Text may be at most 5 words, and a Back-Cover Text may be at most 25 words. A "Transparent" copy of the Document means a machine-readable copy, represented in a format whose specification is available to the general public, that is suitable for revising the document straightforwardly with generic text editors or (for images composed of pixels) generic paint programs or (for drawings) some widely available drawing editor, and that is suitable for input to text formatters or for automatic translation to a variety of formats suitable for input to text formatters. A copy made in an otherwise Transparent file format whose markup, or absence of markup, has been arranged to thwart or discourage subsequent modification by readers is not Transparent. An image format is not Transparent if used for any substantial amount of text. A copy that is not "Transparent" is called "Opaque". Examples of suitable formats for Transparent copies include plain ASCII without markup, Texinfo input format, LaTeX input format, SGML or XML using a publicly available DTD, and standard-conforming simple HTML, PostScript or PDF designed for human modification. Examples of transparent image formats include PNG, XCF and JPG. Opaque formats include proprietary formats that can be read and edited only by proprietary word processors, SGML or XML for which the DTD and/or processing tools are not generally available, and the machine-generated HTML, PostScript or PDF produced by some word processors for output purposes only. The "Title Page" means, for a printed book, the title page itself, plus such following pages as are needed to hold, legibly, the material this License requires to appear in the title page. For works in formats which do not have any title page as such, "Title Page" means the text near the most prominent appearance of the work's title, preceding the beginning of the body of the text. A section "Entitled XYZ" means a named subunit of the Document whose title either is precisely XYZ or contains XYZ in parentheses following text that translates XYZ in another language. (Here XYZ stands for a specific section name mentioned below, such as "Acknowledgements", "Dedications", "Endorsements", or "History".) To "Preserve the Title" of such a section when you modify the Document means that it remains a section "Entitled XYZ" according to this definition. The Document may include Warranty Disclaimers next to the notice which states that this License applies to the Document. These Warranty Disclaimers are considered to be included by reference in this License, but only as regards disclaiming warranties: any other implication that these Warranty Disclaimers may have is void and has no effect on the meaning of this License. 2. VERBATIM COPYING You may copy and distribute the Document in any medium, either commercially or noncommercially, provided that this License, the copyright notices, and the license notice saying this License applies to the Document are reproduced in all copies, and that you add no other conditions whatsoever to those of this License. You may not use technical measures to obstruct or control the reading or further copying of the copies you make or distribute. However, you may accept compensation in exchange for copies. If you distribute a large enough number of copies you must also follow the conditions in section 3. You may also lend copies, under the same conditions stated above, and you may publicly display copies. 3. COPYING IN QUANTITY If you publish printed copies (or copies in media that commonly have printed covers) of the Document, numbering more than 100, and the Document's license notice requires Cover Texts, you must enclose the copies in covers that carry, clearly and legibly, all these Cover Texts: Front-Cover Texts on the front cover, and Back-Cover Texts on the back cover. Both covers must also clearly and legibly identify you as the publisher of these copies. The front cover must present the full title with all words of the title equally prominent and visible. You may add other material on the covers in addition. Copying with changes limited to the covers, as long as they preserve the title of the Document and satisfy these conditions, can be treated as verbatim copying in other respects. If the required texts for either cover are too voluminous to fit legibly, you should put the first ones listed (as many as fit reasonably) on the actual cover, and continue the rest onto adjacent pages. If you publish or distribute Opaque copies of the Document numbering more than 100, you must either include a machine-readable Transparent copy along with each Opaque copy, or state in or with each Opaque copy a computer-network location from which the general network-using public has access to download using public-standard network protocols a complete Transparent copy of the Document, free of added material. If you use the latter option, you must take reasonably prudent steps, when you begin distribution of Opaque copies in quantity, to ensure that this Transparent copy will remain thus accessible at the stated location until at least one year after the last time you distribute an Opaque copy (directly or through your agents or retailers) of that edition to the public. It is requested, but not required, that you contact the authors of the Document well before redistributing any large number of copies, to give them a chance to provide you with an updated version of the Document. 4. MODIFICATIONS You may copy and distribute a Modified Version of the Document under the conditions of sections 2 and 3 above, provided that you release the Modified Version under precisely this License, with the Modified Version filling the role of the Document, thus licensing distribution and modification of the Modified Version to whoever possesses a copy of it. In addition, you must do these things in the Modified Version: • A. Use in the Title Page (and on the covers, if any) a title distinct from that of the Document, and from those of previous versions (which should, if there were any, be listed in the History section of the Document). You may use the same title as a previous version if the original publisher of that version gives permission. • B. List on the Title Page, as authors, one or more persons or entities responsible for authorship of the modifications in the Modified Version, together with at least five of the principal authors of the Document (all of its principal authors, if it has fewer than five), unless they release you from this requirement. • C. State on the Title page the name of the publisher of the Modified Version, as the publisher. • D. Preserve all the copyright notices of the Document. • E. Add an appropriate copyright notice for your modifications adjacent to the other copyright notices. • F. Include, immediately after the copyright notices, a license notice giving the public permission to use the Modified Version under the terms of this License, in the form shown in the Addendum below. • G. Preserve in that license notice the full lists of Invariant Sections and required Cover Texts given in the Document's license notice. • H. Include an unaltered copy of this License. • I. Preserve the section Entitled "History", Preserve its Title, and add to it an item stating at least the title, year, new authors, and publisher of the Modified Version as given on the Title Page. If there is no section Entitled "History" in the Document, create one stating the title, year, authors, and publisher of the Document as given on its Title Page, then add an item describing the Modified Version as stated in the previous sentence. • J. Preserve the network location, if any, given in the Document for public access to a Transparent copy of the Document, and likewise the network locations given in the Document for previous versions it was based on. These may be placed in the "History" section. You may omit a network location for a work that was published at least four years before the Document itself, or if the original publisher of the version it refers to gives permission. • K. For any section Entitled "Acknowledgements" or "Dedications", Preserve the Title of the section, and preserve in the section all the substance and tone of each of the contributor acknowledgements and/or dedications given therein. • L. Preserve all the Invariant Sections of the Document, unaltered in their text and in their titles. Section numbers or the equivalent are not considered part of the section titles. • M. Delete any section Entitled "Endorsements". Such a section may not be included in the Modified Version. • N. Do not retitle any existing section to be Entitled "Endorsements" or to conflict in title with any Invariant Section. • O. Preserve any Warranty Disclaimers. If the Modified Version includes new front-matter sections or appendices that qualify as Secondary Sections and contain no material copied from the Document, you may at your option designate some or all of these sections as invariant. To do this, add their titles to the list of Invariant Sections in the Modified Version's license notice. These titles must be distinct from any other section titles. You may add a section Entitled "Endorsements", provided it contains nothing but endorsements of your Modified Version by various parties--for example, statements of peer review or that the text has been approved by an organization as the authoritative definition of a standard. You may add a passage of up to five words as a Front-Cover Text, and a passage of up to 25 words as a Back-Cover Text, to the end of the list of Cover Texts in the Modified Version. Only one passage of Front-Cover Text and one of Back-Cover Text may be added by (or through arrangements made by) any one entity. If the Document already includes a cover text for the same cover, previously added by you or by arrangement made by the same entity you are acting on behalf of, you may not add another; but you may replace the old one, on explicit permission from the previous publisher that added the old one. The author(s) and publisher(s) of the Document do not by this License give permission to use their names for publicity for or to assert or imply endorsement of any Modified Version. 5. COMBINING DOCUMENTS You may combine the Document with other documents released under this License, under the terms defined in section 4 above for modified versions, provided that you include in the combination all of the Invariant Sections of all of the original documents, unmodified, and list them all as Invariant Sections of your combined work in its license notice, and that you preserve all their Warranty Disclaimers. The combined work need only contain one copy of this License, and multiple identical Invariant Sections may be replaced with a single copy. If there are multiple Invariant Sections with the same name but different contents, make the title of each such section unique by adding at the end of it, in parentheses, the name of the original author or publisher of that section if known, or else a unique number. Make the same adjustment to the section titles in the list of Invariant Sections in the license notice of the combined work. Lizenz 68

In the combination, you must combine any sections Entitled "History" in the various original documents, forming one section Entitled "History"; likewise combine any sections Entitled "Acknowledgements", and any sections Entitled "Dedications". You must delete all sections Entitled "Endorsements". 6. COLLECTIONS OF DOCUMENTS You may make a collection consisting of the Document and other documents released under this License, and replace the individual copies of this License in the various documents with a single copy that is included in the collection, provided that you follow the rules of this License for verbatim copying of each of the documents in all other respects. You may extract a single document from such a collection, and distribute it individually under this License, provided you insert a copy of this License into the extracted document, and follow this License in all other respects regarding verbatim copying of that document. 7. AGGREGATION WITH INDEPENDENT WORKS A compilation of the Document or its derivatives with other separate and independent documents or works, in or on a volume of a storage or distribution medium, is called an "aggregate" if the copyright resulting from the compilation is not used to limit the legal rights of the compilation's users beyond what the individual works permit. When the Document is included in an aggregate, this License does not apply to the other works in the aggregate which are not themselves derivative works of the Document. If the Cover Text requirement of section 3 is applicable to these copies of the Document, then if the Document is less than one half of the entire aggregate, the Document's Cover Texts may be placed on covers that bracket the Document within the aggregate, or the electronic equivalent of covers if the Document is in electronic form. Otherwise they must appear on printed covers that bracket the whole aggregate. 8. TRANSLATION Translation is considered a kind of modification, so you may distribute translations of the Document under the terms of section 4. Replacing Invariant Sections with translations requires special permission from their copyright holders, but you may include translations of some or all Invariant Sections in addition to the original versions of these Invariant Sections. You may include a translation of this License, and all the license notices in the Document, and any Warranty Disclaimers, provided that you also include the original English version of this License and the original versions of those notices and disclaimers. In case of a disagreement between the translation and the original version of this License or a notice or disclaimer, the original version will prevail. If a section in the Document is Entitled "Acknowledgements", "Dedications", or "History", the requirement (section 4) to Preserve its Title (section 1) will typically require changing the actual title. 9. TERMINATION You may not copy, modify, sublicense, or distribute the Document except as expressly provided for under this License. Any other attempt to copy, modify, sublicense or distribute the Document is void, and will automatically terminate your rights under this License. However, parties who have received copies, or rights, from you under this License will not have their licenses terminated so long as such parties remain in full compliance. 10. FUTURE REVISIONS OF THIS LICENSE The Free Software Foundation may publish new, revised versions of the GNU Free Documentation License from time to time. Such new versions will be similar in spirit to the present version, but may differ in detail to address new

problems or concerns. See http:/ / www. gnu. org/ copyleft/ . Each version of the License is given a distinguishing version number. If the Document specifies that a particular numbered version of this License "or any later version" applies to it, you have the option of following the terms and conditions either of that specified version or of any later version that has been published (not as a draft) by the Free Software Foundation. If the Document does not specify a version number of this License, you may choose any version ever published (not as a draft) by the Free Software Foundation. ADDENDUM: How to use this License for your documents To use this License in a document you have written, include a copy of the License in the document and put the following copyright and license notices just after the title page: Copyright (c) YEAR YOUR NAME. Permission is granted to copy, distribute and/or modify this document under the terms of the GNU Free Documentation License, Version 1.2 or any later version published by the Free Software Foundation; with no Invariant Sections, no Front-Cover Texts, and no Back-Cover Texts. A copy of the license is included in the section entitled "GNU Free Documentation License". If you have Invariant Sections, Front-Cover Texts and Back-Cover Texts, replace the "with...Texts." line with this: with the Invariant Sections being LIST THEIR TITLES, with the Front-Cover Texts being LIST, and with the Back-Cover Texts being LIST. If you have Invariant Sections without Cover Texts, or some other combination of the three, merge those two alternatives to suit the situation. If your document contains nontrivial examples of program code, we recommend releasing these examples in parallel under your choice of free software license, such as the GNU General Public License, to permit their use in free software.