Daten sind das Gold im Online-Marketing. Daten über das Verhalten der Online-Besucher. Wer sind die Nutzer, wofür interessieren sie sich und wo bewegen sie sich? Ein weit verbreitetes Tool für die Analyse des Nutzerverhaltens ist Google Analytics. Was aber, wenn bereits die Ausgangsdaten fehlerhaft sind? Dann wird zwangsläufig auch die Analyse zu Fehlinterpretationen führen. Daher ist dem Bemühen um saubere Daten absolute Priorität einzuräumen.
Wir nennen die sechs größten Hindernisse auf dem Weg zu sauberen Daten.
1. Tracking Code
Die richtige Implementierung des Tracking Codes ist Grundvoraussetzung für die richtige Erfassung der Daten. Deshalb ist die richtige und akkurate Platzierung des Codes von besonderer Bedeutung. Am häufigsten treten die folgenden Fehler bei der Code-Erfassung auf:
- fehlender Code: Oftmals fehlt der Tracking Code komplett auf einigen Seiten. Die Ursache kann sein, dass der Code bei der Erstimplementierung schlicht vergessen wurde, oder aber es wurden Seiten hinzugefügt wie spezielle Landingpages oder neue Templates und das Coding wurde nicht berücksichtigt.
- falsch verbauter Code: Es ist nicht nur wichtig alle relevanten Seiten zu erfassen. Es ist auch entscheidend an welcher Position der Code ausgespielt wird. Ziel sollte es sein, den Analytics oder Tag Manager Code möglichst weit oben im <head> zu positionieren, damit auch bei nicht vollständig geladenen Seiten eine Erfassung erfolgt.
- Code Duplikate: Ebenso verfälschend wie fehlender Code ist das Vorhandensein von doppeltem Code auf einer Seite. Besonders bei der Migration auf die neue Analytics Library oder in den Tag Manager kann es durchaus passieren, dass der Tracking Code auf einer Seite hinzugefügt wird – ohne Entfernung des bereits vorhandenen Codes.
2. Filter
Der Einsatz von Filteransichten ist elementar für die strukturierte Betrachtung und Interpretation der Daten bzw. Kampagnen. Auf Basis der Filter-Views werden weitreichende strategische und operative Entscheidungen getroffen. Fatal, wenn die Filter nicht richtig eingerichtet sind. Häufige Fehler sind:
- Fehlender Ausschluss von internem Traffic: Website-Traffic kommt auch von internen Quellen wie Mitarbeitern, Lieferanten und Service Providern. Dies sind aber nicht die Besucherströme, die betrachtet werden sollen und sie verfälschen folglich das Ergebnis. Der interne Traffic lässt sich über Filter relativ einfach ausschließen, doch besonders Newcomer in Google Analytics vergessen diesen Schritt oftmals.
- falsch konfigurierte Filter: Wenn die Filter einmal falsch aufgesetzt sind, dann ist dieser Fehler nicht rückgängig zu machen, weil die historischen Daten nicht einfach wiederhergestellt werden können. Dieses Problem lässt sich vermeiden, indem eine Sandbox-Ansicht erstellt wird, eine Testansicht, in der vor der endgültigen Implementierung die Filtereinstellung getestet und überprüft wird. Und auf keinen Fall sollte ein Backup View fehlen, eine filterlose Ansicht der Gesamtdaten, die jederzeit eine Einsicht der Rohdaten ermöglicht.
3. Kampagnenparameter
Google Analytics wird für die Betrachtung des Nutzerverhaltens auf der Webseite eingesetzt, insbesondere aber auch zur Auswertung von Kampagnen. Wenn keine oder nicht aussagekräftige Kampagnenergebnisse vorliegen, liegt es häufig an folgenden Fehlern:
- fehlende Kampagnenparameter: Um Kampagnen auswerten zu können, müssen diese anhand von sogenannten UTM-Kampagnenparametern gekennzeichnet werden. Wird dieses Tagging vergessen, so sind alle Klicks auf kampagnenbezogene Elemente wie Display Ads, PPC Ads oder Affiliate Marketing als allgemeiner Referral Traffic ausgewiesen und können nicht korrekt ausgewertet werden.
- App-Traffic ohne Coding: Der Traffic von Apps nimmt mehr und mehr zu. Dieser Traffic wird in der Regel als direct Traffic in Analytics erfasst. Um dies zu vermeiden ist die Nutzung von UTM Parametern empfehlenswert, was häufig nicht beachtet wird.
- falsche Parameter: Nur bei einheitlicher und korrekter Konfigurierung der Kampagnenparameter können die Daten korrekt analysiert werden. Fallstricke lauern insbesondere bei der Benennung der drei grundlegenden Parameter Quelle, Medium und Kampagnenname. Alleine die unterschiedliche Schreibweise des Kampagnennamens in Groß- oder Kleinschreibung bewirkt, dass der Traffic nicht mehr der gleichen Kampagne zugeordnet wird.
4. Cross Domain Tracking
Sobald mit Google Analytics mehrere Domains oder Subdomains erfasst werden sollen, ist besondere Sorgfalt bei der Anwendung von Cross Domain Tracking nötig, ansonsten drohen verfälschte Messzahlen. Die häufigsten Fehler sind:
- fehlendes Tracking von Subdomains: Ohne Kennzeichnung der Subdomains als zugehörige Websites wird der User nicht als ein und derselbe erkannt. Um dies zu vermeiden kann beispielsweise der „Cookie domain“-Wert auf „auto“ gesetzt werden.
- Falsche Konfiguration von Cross Domain Tracking: Damit die Usererkennung über verschiedene Domains hinweg funktioniert, müssen weitere und tiefgreifende Einstellungen im Tracking Code vorgenommen werden. Zu beachten ist, dass die verknüpften Domains im Anschluss über die Verweisausschlussliste ausgeschlossen werden.
5. Ausschluss von Referrals
In manchen Fällen ist es sinnvoll, bestimmte Referrals auszuschließen, da sie nicht relevant für die Auswertung sind und die Ergebnisse verfälschen. Hierfür bietet sich die Verweisausschlussliste an. Häufig nicht beachtet wird z.B. der Ausschluss von:
- Self-Referrals – Traffic, der durch die User eigener Domains oder Subdomains entsteht
- Payment-Anbietern wie Paypal, die lediglich für den Abschluss des Kaufprozesses nötig sind
- Intranets
6. Spam, Bots
Wenn der Website-Traffic erfreulich zunimmt, liegt das u.U. nicht an einer gelungenen Kampagne, sondern an fehlendem oder unvollständigem Ausschluss von Spam- und Bot-Traffic. Bots können die Internetzugriffe in die Höhe schnellen lassen. Die Fehlerquellen:
- fehlender Ausschluss von Bot Traffic: Im Google Analytics Setup lässt sich ein Großteil des Bot-Traffics bereits durch einfaches Aktivieren des automatischen Bot-Schutzes eliminieren
- fehlende Filter: Der Referral Traffic sollte manuell kontinuierlich überprüft werden. Bei nicht nachvollziehbarem Traffic empfiehlt es sich, die Herkunft zu kontrollieren und manuell Quellen oder Hosts über einen Filter auszuschließen. Mit Hilfe des Google Tag Managers lassen sich darüber hinaus sehr effektive Lösungen automatisiert aufsetzen.