5 Google Analytics Filter die euch das Leben erleichtern werden

Google Analytics ist, richtig eingesetzt, ein extrem mächtiges Werkzeug, mit welchem man viele wertvolle Informationen aus seinen Seiten ziehen kann. Dadurch können operative Entscheidungen auf einer soliden Grundlage getroffen werden. Dies ist jedoch nur dann möglich, wenn die Daten sauber erfasst und aufbereitet sind. 5 Stolpersteine bzw. Kniffe werde ich im Folgenden beleuchten.

Übersicht


Hostname anzeigen

Standardmäßig wird in Google Analytics die Domain nicht in der Seiten-URL integriert. Bedeutet, dass die Seite http://www.example.com/eine-url/ nur mit /eine-url/ in den Auswertungen auftauchen. Das ist soweit nicht weiter schlimm, es sei denn man möchte mehrere Subdomains in einer Property gemeinsam analysieren.

Dann nämlich würde Google Analytics example.com/eine-url/ und m.example.com/eine-url/ als ein und die selbe Seite, nämlich /eine-url/, interpretieren.

Ist das nicht gewünscht, kann das mit einem Filter entsprechend eingerichtet werden. Hierzu müssen zunächst die Filtereinstellungen der Datenansicht aufgerufen und ein neuer Filter erstellt werden.

ga-filter

Danach werden folgende Filtereinstellungen gesetzt:

ga_filter_hostname

Wurde der Filter korrekt angelegt und gespeichert fließen fortan die Daten inklusive Hostnamen in die Berichte ein.


Lowercase URLs

Je nachdem wie das CMS System Seitenaufrufe verarbeitet, kann es sein, dass verschiedene Schreibweisen in den Google Analytics Berichten auftauchen. So kann z.B. /eine-url/ und /Eine-URL/ dort erscheinen und es somit schwierig machen, diese Seite korrekt zu bewerten. Um zu vermeiden, dass bei solchen Aufrufen die Daten in mehrere Töpfe fließen, können die URLs mit einem Filter bereinigt werden:

ga_filter_lowercase


URL-Parameter

Auch Parameter, die der URL angehängt werden, können dafür sorgen, dass Seitenaufrufe unerwünscht in verschiedene Töpfe aufgeteilt werden und somit die Analyse schwierig machen bzw. verfälschen. Wird beispielsweise bei einer Bildergalerie die Bildnummer per Parameter an die URL angehängt könnte das so aussehen: /bildergalerien/eine-bildergalerie/?bild=3. In den Berichten würden standardmäßig alle Bilder einzeln gelistet werden:

  • /bildergalerien/eine-bildergalerie/?bild=1
  • /bildergalerien/eine-bildergalerie/?bild=2
  • /bildergalerien/eine-bildergalerie/?bild=3
  • /bildergalerien/eine-bildergalerie/?bild=4
  • /bildergalerien/eine-bildergalerie/?bild=5

Dadurch können einzelne Bildergalerien nicht untereinander verglichen werden. Will man Einzelbilder nicht einzeln aufgelistet haben, sondern nur die Galerie (/bildergalerien/eine-bildergalerie/) kann der URL-Parameter ?bild=x beim Processing entfernt werden.

ga-datenansicht
ga-filter-query


Trailing Slash

Sogenannte Trailing Slashes sind ein weiterer Faktor der, je nach CMS System, für Unordnung in den Google Analaytics Berichten sorgen kann. So kann /eine-url/ und /eine-url zwar zur gleichen Seite führen, jedoch doppelt in den Berichten auftauchen. Aber auch hier kann ein Filter helfen und für Ordnung sorgen. Der Filter hängt jedem Verzeichnis ganz einfach einen Trailing Slash (/) an.

Damit Verzeichnisse erkannt werden können, muss die Anforderungs-URL folgende Regular Expression (RegEx) durchlaufen:

^(/[a-z0-9/_\-]*[^/])$

Die komplette Filtereinstellungen sehen wie folgt aus:

ga_filter_trailing_slash


Bot Traffic

Bots, Crawler, Spider. Wie man sie auch nennen mag, alle können Traffic auf der Seite erzeugen, welchen man eigentlich nicht in seinen Berichten haben möchte, da dieser nicht von Menschen ausgelöst wurde.

Früher war es extrem einfach Bot Traffic aus den Berichten herauszufiltern. Alles was man machen musste war: nichts! Das liegt daran, dass Google Analytics JavaScript und Cookies benötigt um korrekt tracken zu können. Bots konnten diese Technologien lange Zeit nicht verwenden. Mittlerweile beherrschen das jedoch mehr und mehr intelligente System, wodurch Aufrufe von diesen auch teilweise in den Google Analytics Berichten auftauchen. Das verzerrt die Statistik und kann so manchen Peak in den Analysen erklären. Bei kleineren Webseiten können Bots für bis zu 80% des Traffics verantwortlich sein. Es lohnt sich also dieser möglichst gut herauszufiltern.

Etwas Abhilfe kann da ein Filter schaffen, der zumindest die großen und bekannten Bots herausfiltert. Dazu können Bots eines bestimmten Internetproviders ausgeschlossen werden:

^(microsoft corp(oration)?|inktomi corporation|yahoo! inc.|google inc.|
stumbleupon inc.)$|gomez

ga_filter_bots

Seit einiger Zeit bietet Google Analytics auch eine komfortablere Möglichkeit Traffic von Bots zu unterdrücken:

ga_filter_bots_settings


Bei all diesen Filtern ist zu beachten, dass diese nicht nachträglich wirken, sondern erst für zukünftigen Traffic sobald diese eingerichtet wurden.

Des Weiteren empfiehlt es sich, Filter nicht direkt in der Live-Datenansicht einzurichten, sondern erst in einer Test-Datenansicht auf ihre Funktion zu prüfen.

Welche Erfahrungen habt Ihr mit Filtern gemacht? Konntet Ihr, z.B. mit dem Bot-Traffic-Filter einen Unterschied erkennen?

Alle Beiträge von Dominik

Unsere meistgelesenen Beiträge

Zwei Jahre Chromebook: Ein Erfahrungsbericht

Google Chromebook
|
Gute 25 Jahre PC-Nutzung - von Anfang an mit Windows. Dann raucht im wahrsten Sinne des Wortes mein teures und gar nicht so altes Lenovo-Notebook ab. Und ich bestelle mir einfach ein Chromebook und bin schneller weg aus der Windows-Welt, als ich es für möglich gehalten hätte. Zwei Jahre ist das nun her - und ich habe zwischendurch immer wieder über meine Erfahrungen mit dem Chromebook berichtet.