Die 10% Regel

Von | 4. Dezember 2012

Was man ruhig öfter mal sagen sollte: Webanalyse ist keine exakte Wissenschaft!

Siehe Jim Sterne: It’s Not an Exact Science oder auch Avinash Kaushik: Data Quality Sucks, Let’s Just Get Over It. Ersterer ist von November 2012, letzterer von Juni 2006! In den letzten 6 Jahren hat sich nichts geändert, und das liegt an der Natur der Sache.

Der wichtige Part: „But then move on, don’t try to go for 100% when 95% will do just fine!“

Das kann ich nur unterschreiben! 100% stimmige Daten werden wir in der Webanalyse nicht erleben.

100% ist unmöglich

Es gibt diverse technische Gründe, warum Daten aus der Webanalyse niemals 100% stimmen.

Cookies sind ein großer Teil davon. Sie sind beim Besucher und damit inherent unzuverlässig. Sie identifizieren einen Browser, nicht einen Menschen. Sie werden von Zeit zu Zeit gelöscht. Sie werden teilweise automatisch geblockt. Und dennoch verlassen sich fast alle Webanalysetools auf Cookies für die Visitoridentifizierung, weil es keine bessere Antwort gibt zur Zeit.

Javascript spielt eine Rolle, zumindest für Webanalysesysteme, die im Browser tracken. Javascript kann an- oder abgeschaltet sein. Andere Bereiche der Seite können die Javascriptengine verwirren oder gleich abschießen, Benutzer können das Script manipulieren, …

Das Internet selber ist auch nicht ganz ohne. Manchmal gehen HTTP Requests (und nichts anderes sind die meisten Trackingcalls) schlicht verloren, ohne daß es jemand merkt.

Am schlimmsten aber sind die Benutzer: Die löschen ihre Cookies oder wechseln mitten drin den Browser oder sogar das Gerät. Die klicken schnell weiter, bevor die Seite fertig geladen und getrackt war. Die blocken Tracking generell oder spezifische Cookies. Und das allerschlimmste: Sie benehmen sich nicht so, wie das Marketing das geplant oder erwartet hat!

Zumindest in Deutschland sind sie außerdem sehr mißtrauisch gegenüber jeder Art von Tracking, Personalisierung oder anderweitiger Datenerhebung.

All das zusammen führt dazu, daß ich persönlich mir keinerlei Gedanken machen würde über Daten, die bis zu 10% von dem abweichen, was ich erwarte.

Beispiel Retail: Wenn ich am Montag 100 Bücher verkauft habe, und mein Webanalysetool mir 96 anzeigt: gut, das paßt.

(Einwurf: wer es genauer will, kann server-seitiges Tracking implementieren. Damit kann man im Retail auch 1% Genauigkeit machen. Ist das den Aufwand wert? Das muß jeder selbst wissen.)

Was tun?

Aus dem Artikel von Avinash Kaushik halte ich Schritt 1 seines Plans für den wichtigsten: „Resist the urge to dive deep into the data to find root cause“, oder „widerstehe der Versuchung, tief in den Daten nach dem Ursprung (oder dem Fehler) zu suchen“.

Das kann man gar nicht genug betonen: Wenn die Daten ok sind, soll man nicht nach Fehlern suchen. Zeitverschwendung.

„Daten ok“ ist dabei wie oben schon erwähnt ein recht weit gefaßter Begriff. Meine persönliche Daumenregel ist wie gesagt „unter 10% ist gut“, aber das muß jeder selbst entscheiden. Der Aufwand für eine Analyse steht dabei dem Gewinn an Vertrauen gegenüber, und letzterer kann durchaus viel wert sein.

Frage: Was tun also?

Antwort: Akzeptieren.

Oft kommen Fragen nach der Genauigkeit der Daten dadurch zustande, daß zwei oder mehr unterschiedliche Analysetools benutzt werden und die Daten nicht übereinstimmen. Darüber hat Avinash Kaushik einen ausführlichen Artikel geschrieben, der beschreibt warum die Daten nicht zu passen scheinen: The Ultimate Web Analytics Data Reconciliation Checklist.

Dazu gibt es eigentlich nicht mehr zu sagen.

Unsere Welt ist weit davon entfernt, perfekt zu sein. Wir haben die Aufgabe, Zahlen zu interpretieren, auf die man sich nicht vollständig verlassen kann. Wir werden von traditionellen Marketern und Controllern verlacht. Unsere Vorgesetzten halten uns für Nummernschubser und verstehen selten wirklich, was wir eigentlich tun.

Vielleicht sollten wir uns diesen einen Schuh einfach nicht anziehen.

Ungenauigkeit ist unschön, keine Frage, aber sie ist selten wirklich relevant. Ich denke wir sollten uns damit abfinden und uns den anderen (wichtigeren) Aspekten unseres Jobs zuwenden!

(Ich schreibe das alles natürlich vollkommen selbstlos und keineswegs deswegen, weil mein Job mehrere Jahre lang war, bei der Analyse von groben Abweichungen zu helfen. Ist ja klar.)

2 Gedanken zu „Die 10% Regel

  1. Pingback: Warum hat eigentlich immer Google Analytics recht? | Webanalyse auf Deutsch

  2. Pingback: Cookies seit H.25.4 | Webanalyse auf Deutsch

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.