Multichannel und Attribution

Von | 4. März 2014

Ich schreibe ungern Beiträge, in denen ich nicht neben einer Fragestellung oder einem spezifischen Ziel auch gleich die Lösung angeben kann, oder sie zumindest so weit umreißen, daß ein fachkundiger Marketer sie (eventuell mithilfe eines fachkundigen Entwicklers) alleine umsetzen kann. Heute muß das aber leider sein, es geht heute eher um’s Verständnis.

Attribution ist ein großes Thema, fast so groß wie „Engagement“ oder der Star aus dem Jahre 2013, „Big Data“.

Definieren wir zunächst mal, worum es gehen soll. An einem Beispiel.

Szenario 1 — Einfach

Eine meiner Druckerpatronen ist leer, ich brauche eine neue. Ich tippe den Namen oben in meinem Browser in die „Adresszeile“, der Browser befragt kurz Google, das oberste Ergebnis zeigt auf Amazon. Ich klicke durch, überprüfe kurz, ob es die richtige Patrone ist und kaufe sie. Simpel.

Bei Amazon betrachtet ein Marketer seine Channels. Wenn er Lust hätte, könnte er bis hinunter auf meine Transaktion gehen und somit sehen, daß ich über „Natural Search“ kam und GBP 23.03 für die XL Cartridge (schwarz) ausgegeben habe. Der Umsatz kann also ganz einfach auf Natural Search zurückgeführt werden.

Szenario 2 — Komplex

Leider ist es meistens viel komplizierter, z.B. hatte ich meinen Drucker nicht einfach so auf gut Glück gekauft sondern vorher einiges an Recherche angestellt, unter anderem bei Amazon, wo ich ihn dann letztendlich auch gekauft hatte.

Vorhergegangen waren daher zwei oder drei Besuche bei Amazon, bei denen ich nur eine Übersicht haben wollte, was für Drucker es so gibt. Und ich war mehrfach da, weil ich den Preis sehen wollte, und wie teuer der Versand sein würde.

(Das Thema „Intent“ soll uns heute nicht interessieren, also die Frage, warum eigentlich ein Besucher auf die Seite kommt. Man vereinfacht das gerne und geht davon aus, daß ein Kaufinteresse irgendwie immer da ist.)

Interessant ist natürlich, wie ich bei meinen Besuchen jeweils bei Amazon gelandet war. Beim ersten Mal hatte ich einfach die URL in den Browser getippt und dann über die interne Suche Drucker gefunden. Beim zweiten Besuch hatte ich bei Google nach dem Drucker gesucht. Der dritte Besuch war Folge einer Email von Amazon zu diesem Drucker. Und am Ende hatte ich wieder einfach die URL eingetippt und dann den Drucker gekauft.

Soweit meine Sicht.

Des Marketers Sicht

Der Marketer weiß nicht, was in meinem Kopf vorgeht. Er kann probieren aus den Berührungspunkten abzuleiten, ob seine Aktivitäten erfolgreich sind.

Hintergrund dieser Analyse ist immer die Frage: Gebe ich meinen Marketingetat optimal aus, d.h. investiere ich an der richtigen Stelle?

Der Marketingetat teilt sich üblicherweise online auf in „SEM“ oder „paid search“, „Email“, „Display“ oder „banner“, „Affiliates“, „Social“ und noch ein paar andere. Das meiste Geld geht normalerweise nach „SEM“.

Nicht vergessen darf man die Kosten für „SEO“, also die Optimierung der Seite, damit sie bei Google bei Suchen möglichst vorne steht. Und natürlich entstehen für alle diese Kanäle auch Personalkosten.

All diese Kosten sollen natürlich Erfolg bringen, d.h. der Marketer erwartet einen gewissen ROI, idealerweise in Form von mehr Umsatz. Und weil sich die Kosten auf die Kanäle aufteilen, möchte man gerne wissen, welche Kanäle wieviel zum Umsatz beigetragen haben. Das nennt man dann Attribution.

In meinem ersten Beispiel konnte der Marketer die GBP23.03 komplett auf „natural search“ anrechnen, also auf die Arbeit seiner SEO Kollegen oder des Brandings.

Das zweite Beispiel ist komplizierter, weil es 4 Berührungspunkte gab: direct, natural search, email und nochmal direct. Wem schreiben wir die GBP100 zu?

Die ganze Chose hat 2 Aspekte:

  1. Erkennung aller Berührungspunkte
  2. Gewichtung

Meist wird in Diskussionen über Attribution der Schwerpunkt auf den zweiten Aspekt gelegt, ich halte aber den ersten für viel wichtiger. Erstens ist er die Grundlage (ohne Erkennung klappt die Gewichtung nicht), und zweitens halte ich den zweiten für überbewertet.

Wir sollten nicht immer so tun, als wäre die Erkennung ein Kinderspiel, dafür ist das Thema nämlich viel zu interessant und komplex.

Erkennung

Damit man überhaupt über Attribution reden kann, muß man zunächst mal in der Lage sein, alle Marketingkanäle als solche zu erkennen. Wenn ein Besucher auf meine Website kommt, muß ich also herausfinden, wo genau er herkam und das dann einem meiner Kanäle zuordnen.

In SiteCatalyst Adobe Analytics gibt es grundsätzlich drei Möglichkeiten, diese Zuordnung zu implementieren:

  1. Die eingebauten Marketing Channels Reports
  2. Die „Unified Sources“ VISTA Rule
  3. Javascript (z.B. mit „Channel Manager“ und „CVP“ Plugins)

Die Marketing Channels Reports sind Teil von Analytics. Man konfiguriert sie selbst (oder läßt sich dabei von Consulting helfen). Sie liefern dann für jeden Channel und jede Metrik jeweils first und last touch.

Die „Unified Sources“ VISTA Rule war traditionell die einzige Methode, alle Kanäle zu erfassen. Die Kollegen von Engineering Services haben dabei meist auch noch eine „assists“ Metrik hinzugefügt. Jeder Kanal in der Kette außer dem letzen bekommt pro order einen assist angerechnet.

Mit Javascript kann man die Erkennung und Zuordnung der Kanäle beim Tracken erledigen. Im Prinzip handelt es sich hier um eine Erweiterung des normalen Kampagnentracking, bei der man erstens mehr Kanäle abdeckt und zweitens alle Berührungspunkte „stackt“, also „stapelt“.

Jede dieser Methoden hat Vor- und Nachteile, wie das so ist.

  • Marketing Channels sind eingebaut — kein zusätzlicher Implementierungsufwand, keine zusätzlichen Kosten
  • Marketing Channels sind Teil des Produktes, werden also kontiuierlich verbessert und an Rahmenbedingungen angepaßt (Google & Yahoo und die Suchbegriffe fallen mir da ein)
  • Marketing Channels liefern first und last touch
  • Marketing Channels liefern nur first und last touch
  • VISTA/ES liefert eine „assists“ Metrik
  • VISTA/ES arbeitet auf Adobe Servern — kein zusätzlicher Implementierungsaufwand
  • VISTA/ES kostet Geld
  • VISTA/ES wird nach Projekt abgerechnet, Änderungen in den Rahmenbedingungen führen zu Kosten, wenn man die Rule ändern will oder muß
  • Javascript ist flexibel
  • Javascript muß implementiert werden (obwohl meist nur im s_code)
  • Javascript muß bei Änderungen an den Rahmenbedingungen angepaßt werden

Seit Einführung der Marketing Channels Reports kann man mit Bordmitteln schon first und last touch analysieren. Für mehr Flexibilität gibt es dann die VISTA / Engineering Services Lösung oder Javascript.

Meine persönliche Empfehlung wäre, Javascript zu benutzen sofern das möglich ist. VISTA ist gut für Fälle wo es absolut unmöglich ist, die Implementierung lokal zu ändern.

Was nicht funktioniert, ist eine Mischung aus verschiedenen Reports. Ich erlebe oft, daß Marketer probieren die Daten aus den verschiedenen Traffic Sources Reports zu kombinieren, z.B. aus den Referring Domains und den Search Engines Reports.

Das Problem ist, daß diese Reports nur jeweils einen Ausschnitt sehen und es Überlappung gibt. Ob ich nachher nochmal gesucht habe, weiß ein Affiliate ja z.B. gar nicht.

Nur eine Lösung, die alle Kanäle abdeckt, liefert wirklich „konfliktfreie“ Zahlen.

Gewichtung

[Screenshot]

Hamburg Hafen mit Treibeis

Ich begebe mich jetzt mal auf ganz dünnes Eis.

Attribution basierend auf einem Modell zu tracken und zu reporten halte ich für Unsinn.

Was ich für hochgradig sinnvoll halte ist die Analyse der Berührungspunkte.

Das muß ich jetzt natürlich begründen, oder?

Grund Nummer 1 — Das Modell paßt nicht lange.

In einer idealen Welt wird das Modell erstellt, nachdem man mit einer tiefgehenden Analyse der Daten genau verstanden hat, welche Faktoren an welcher Stelle eine wie große Rolle spielen.

Wie genau soll das Modell sein? Und welchen Aufwand können wir realistisch betreiben, um diese Genauigkeit zu erreichen?

Leider wird die Komplexität des Modells mit steigenden Ansprüchen an die Genauigkeit immer höher, vermutlich nicht-linear. D.h. wenn ich den Fehler halbieren möchte, muß ich wahrscheinlich mehr als die doppelte Arbeit reinstecken. Ab einer gewissen Komplexität wird es auch schwierig, das Modell überhaupt noch zu verstehen.

Und selbst wenn das Modell jetzt toll paßt, wird es vielleicht in zwei Monaten schon wieder von der Realität abweichen. Man muß also ständig neu analysieren und das Modell nachführen.

Anschauliches Beispiel: Man nehme einen Atlas und suche einen beliebigen Fluß. Basierend auf einem Abschnitt lege man eine Linie (berechnete Kurve) durch den Fluß. Ich wette, daß die Linie nicht den Fluß abdeckt, egal wie sehr man sich bemüht.

Je komplexer das Modell ist, desto unwahrscheinlicher, daß es ständig angepaßt werden kann.

So oder so wird das Modell bald signifikant abweichen.

Die meisten Unternehmen brauchen Zeit, bis Änderungen durchsickern. Ob das Modell (und alles darauf basierende Reporting!) daher überhaupt eine Chance hat angepaßt zu werden, ist fraglich.

Wenn man bedenkt, daß man ursprünglich dank Modell die Verteilung des Marketingetat bestimmen wollte, dann wird klar, warum ein Modell nicht nur wertlos, sondern sogar gefährlich ist.

Grund Nummer 2 — Kontinuität der Daten

Wer Ereignisse trackt, also z.B. Orders, Newslettersignups und Ähnliches, der hat wertfreie Daten. Diese Daten repräsentieren Ereignisse im „echten Leben“™, die sich nicht ändern werden. Ein Signup mag für den Marketer unwichtig werden, aber er bleibt immer ein Signup.

Ein Modell ist da anders. Wer ein Modell im Tracking abbildet, trackt Metriken oder Dimensionen, die nicht über lange Zeit festgelegt sind.

Dadurch wird es schwierig, vergleichende Reports zu erzeugen, also zum Beispiel Reports, die das Weihnachtsgeschäft von 2012 und 2013 vergleichen.

Einem Durchschnittsnutzer der Daten ist vielleicht gar nicht bewußt, daß die Kennzahlen aus dem Modell 2012 anders gewichtet waren als 2013. Die Gefahr daß der Benutzer Äpfel mit Ambossen vergleicht und dann völlig absurde Schlußfolgerungen zieht, ist hoch!

Was dann?

Wenn Modelle so gefährlich sind, wie soll ich denn dann entscheiden, wo das Geld investiert werden soll? Sind nicht Daten unfehlbar?

Natürlich!

Deswegen sage ich ja auch: Was ich für hochgradig sinnvoll halte ist die Analyse der Berührungspunkte.

Wer seine Daten kontext- und bedeutungsfrei sammelt, kann sich darauf verlassen, daß eine beliebige Technik zur Analyse der Daten immer wieder funktioniert. So eine Analyse sollte daher Ergebnisse liefern, mit denen man souverän Geld verteilen kann.

Wichtig ist, daß und vor allem wie man analysiert!

Meine Empfehlung ist, sich die Analyse der Daten sehr genau zu überlegen und im Idealfall eine Methode festzulegen. Für die Analyse, wohlgemerkt, nicht für die Ergebnisse der Analyse!

Ein wenig mit Excel Daten zu visualisieren reicht hier sicherlich nicht aus. Wir reden hier eher von Statistiktools oder selbstgestrickten Analysen in R.

Solange die Art der Analyse über längere Zeit vergleichbar ist, kann man dann sogar über diesen Zeitraum hinweg Vergleiche anstellen.

Der Knackpunkt ist also, aus den wertfreien Daten per Analyse den aktuellen Stand zu extrahieren und dies regelmäßig zu wiederholen, z.B. einmal pro Quartal und sicherlich vor größeren Ereignissen wie Weihnachtsgeschäft oder wenn sich am Geschäft etwas ändert.

3 Gedanken zu „Multichannel und Attribution

  1. Pingback: Attribution – wie geht’s weiter? | Webanalyse auf Deutsch

  2. Pingback: Checkliste – Vom Bedarf zum Code | Webanalyse auf Deutsch

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.