„Nein“ Sagen!

Von | 5. November 2013

Erinnert sich hier noch jemand an „Birne kann alles“?

Birne ist Protagonist einiger Bücher aus den 70ern, die ich als Kind gerne mochte.

Der Titel ist griffig genug, daß ich mich bis heute klar daran erinnern kann.

Außerdem bietet sich der Titel geradezu an, wenn es um die Beschreibung von technischen Errungenschaften geht, z.B. „Das iPhone kann alles“ oder „Das iPhone 5s kann noch mehr“.

In unserem Ökosystem fällt man nicht unangenehm auf, wenn man den Titel für Analytics benutzt: „Adobe Analytics kann alles“.

Das möchte ich heute gerne mal aus einer etwas anderen Perspektive betrachten.

Alles Können

Alles können ist super.

Dummerweise sind wir Menschen und daher nicht perfekt. Wir können eben nicht alles.

Wir probieren, den alten Traum von Perfektion mithilfe externer Tools zu leben, z.B. indem wir Computer oder Software benutzen. Die zugrundeliegende Idee: je besser das Hilfsmittel, desto mehr Nutzen habe ich. Je besser, desto näher an der Perfektion.

In der Webanalyse (und ganz generell in Marketing und Analyse) ist das eine tief verwurzelte Gewißheit. Wir alle wissen, daß wir mit mehr Daten bessere Einsichten gewinnen können. Oder mit besseren Analysen wirkungsvollere Änderungen durchführen oder genauere Vorhersagen machen.

Diese Gewißheit sitzt so tief, daß wir uns ihrer überhaupt nicht bewußt sind. Wir atmen das quasi.

Ein paar Beispiele aus der Webanalyse:

  • Schade, daß wir erst im Juni implementiert haben, sonst könnten wir mit den Daten vom letzten Weihnachstgeschäft jetzt besser extrapolieren.
  • Segmentierung wäre aussagekräftiger, wenn wir demografische Attribute einbauen könnten…
  • Wir messen jetzt auch die offline Konversionen, Retouren und andere Ereignisse. Damit können wir den Marketingetat besser verteilen.
  • Wenn wir nur Benutzer quer über alle ihre Geräte messen könnten, …

Auch in den Tools sitzt die Idee tief.

Ad Hoc Analysis (fka Discover) kann tiefer in die Daten drillen, das ist also besser. Mit Genesis kann ich offsite Daten einbinden, die brauchen wir für eine korrekte Bewertung. Report Builder erlaubt die Vermischung von Webanalysedaten mit anderen direkt in Excel. Mit Data Sources kann ich andere Daten einbinden und mit Data Feeds die Webanalyserohdaten direkt in mein Datawarehouse speisen.

Adobe Analytics bietet eine breite Palette von Tools, die ziemlich breit Anforderungen abdecken können.

Gut daran ist, daß ich sehr gezielt genau das sammeln und analysieren kann, was ich brauche.

„Alles“?

Schlecht daran ist, daß ich sehr gezielt genau das sammeln und analysieren muß, was ich brauche.

Eine simple Implementierung von Adobe Analytics ohne jede Anpassungen (also ohne props, eVars und events) ist sehr limitiert, was ihren Wert angeht. Wer auch nur ansatzweise Wert auf relevante Daten und Analyse legt, sollte mindestens ein paar Success Events und eine handvoll eVars implementieren.

Damit ist die Analyticsimplementierung also im Grunde immer eine angepaßte. So etwas wie eine „Standardimplementierung“ gibt es nicht.

Natürlich ist das sinnvoll, wenn es um die Ziele des Unternehmens geht: Für einen Retailer will man ja ganz anders implementieren als z.B. für eine Bank. Aber die Anpassungen gehen viel weiter. Beispiel: Es gibt zur Zeit 3 verschiedene Wege in Adobe Analytics, Kampagnenberührungspunkte und deren Abhängigkeiten zu analysieren.

Aus Sicht des Anbieters (Adobe) mag das sinnvoll sein, denn diese drei Wege sind fundamental unterschiedlich umgesetzt. Auch für Experten ist es hilfreich, denn ein Experte kann sich den besten Weg herauspicken.

Für alle Anderen jedoch ist es einfach nur verwirrend. Das fängt mit der Auswahl an (was sind die Unterschiede? Welcher Weg passt am besten zu mir? Was bedeuten diese ganzen Buzzwords, mit denen die Unterschiede erklärt werden?), geht beim Support weiter (wer supported mich? Muß ich dafür zahlen?) und hört beim Reporting auch nicht auf (Mein Bekannter sieht in seinem Unternehmen XYZ, das ist mit meiner Analyse gar nicht vergleichbar. Was nun?).

Nichts Müssen

Nur das wir uns richtig verstehen: Ich halte es für gut, wenn ein System mir alle Freiheiten läßt. Denn dann kann ich es so lange lernen und anpassen, bis es wirklich das tut, was ich will. Android versus iOS — für mich ist die Entscheidung ganz einfach. Aber ich bin eben ein Geek.

Die meisten Leute allerdings fahren mit iOS gut (oder sogar besser), denn das System gibt in vielen Bereichen vor, wie genau etwas getan werden soll. Der Vorteil: Muß man nicht groß nachdenken. Die meisten Dinge in iOS erschliessen sich Kleinkindern. Meine 2-Jährige kann auf einem iPad ganz lässig Spiele starten und dann zu Youtube wechseln und dort Peppa Pig sehen.

Der Knackpunkt: Das führt zu hoher Akzeptanz. Vor iOS waren Tablets überhaupt kein Thema!

Wer etwas ganz Neues einführen möchte, fährt allemal besser, wenn er den (ohnehin schon geforderten) potentiellen Nutzern so wenig Steine (Optionen, Auswahl) in den Weg wirft wie möglich.

Ich denke, daß Webanalyse zwar nicht mehr „etwas ganz Neues“ ist, aber eben doch noch vor dem Stadium der allgemeinen Akzeptanz. Die überwältigende Mehrheit aller Mitarbeiter hat entweder kein Wissen, kein Interesse oder unterschwellige Überwachungsvorstellungen. Manche erwarten auch viel zu viel.

Daher: Keep it simple!

Es ist wahrscheinlich sinnvoll, sich ab und zu daran zu erinnern, daß man mit Webanalyse zwar im Prinzip „alles“ machen kann, auf der anderen Seite aber nirgendwo geschrieben steht, daß man das muß!

Ich bin nach langer Zeit in meiner Rolle mittlerweile der Meinung, daß ein Webanalyst seinen Benutzern keinen Gefallen tut, wenn er kommentarlos einfach jeden Wunsch umsetzt. Und zwar selbst dann, wenn er das perfekt tut, d.h. den Wunsch tatsächlich versteht und perfekt abbildet.

Mein Tip: öfter mal „Nein“ sagen. Oder vielleicht sogar immer.

Nein!

Ich denke, „nein“ sagen hilft auf zwei Arten.

Erstens hilft es dabei, Anforderungen im Zaum zu halten.

Benutzer wissen weniger über Analytics als Analysten. Sie wissen nur, was sie gerne wisen möchten und leiten daraus eine Vorstellung davon ab, was man tracken müsse. Jede Diskussion sollte immer erstmal die Anforderungen auf das minimal Nötige reduzieren. Gegen „scope creep“. Und weil man den Benutzer dazu bringt, sein Problem besser zu durchdenken und vor allem abzugrenzen, was notwendig ist und was nicht.

Langfristig reduziert man dadurch das Risiko, daß man irgendwann den Überblick verliert. Denn wenn der Überblick fehlt, dann kann alles mögliche passieren.

Zweitens fördert es Akzeptanz.

Je weniger Fragen Nutzer sich stellen müssen, je eindeutiger die Daten sind, desto einfacher ist es für die Benutzer, diesen Daten oder daraus entstehenden Analysen zu vertrauen und sie zu nutzen.

Und auch hier noch eine Klarstellung: Ich sage nicht „one size fits all“! Ich sage „find your size, then stick with it.“

Ich denke es ist wichtig, daß im Marketing oder in der Webanalyse irgendwo strikte Richtlinien gesetzt werden. Nicht auf der niedrigsten Stufe, also wo es um’s Detail geht, sondern abstrakter, mehr im Sinne von „Metriken müssen immer direkt mit Unternehmenszielen verknüpft sein“ oder „Wenn ein zufällig im Gang angetroffener Mitarbeiter einen Report nicht in 5 Minuten versteht (und insbesondere warum er wichtig ist!), dann ist er nicht gut genug“.

Meine Frage: Wer hier hat solche Richtlinien im Einsatz und wie gut funktioniert das?

9 Gedanken zu „„Nein“ Sagen!

  1. Pingback: Jahresrückblick 2013 | Webanalyse auf Deutsch

  2. Pingback: Anomaly Detection | Webanalyse auf Deutsch

  3. Pingback: Komplexität vs Ninjas | Webanalyse auf Deutsch

  4. Pingback: Navigation Timing – Ladezeiten messen? | Webanalyse auf Deutsch

  5. Pingback: Keine “Schlechten” Daten! | Webanalyse auf Deutsch

  6. Pingback: Einfach v Flexibel v Stabil | Webanalyse auf Deutsch

  7. Pingback: Event Serialisierung? Pfff! | Webanalyse auf Deutsch

  8. Pingback: Vertrauen, Teil 462 | Webanalyse auf Deutsch

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.