Conversion Optimierung – Teil 1: Typische Fehler beim A/B-Testing

Da sich die im Linkbird-Blog veröffentlichten Artikel überwiegend mit SEO-Themen auseinandersetzen, wollen wir euch in unserer dreiteiligen Gast-Blogreihe über Conversion Optimierung und einem abschließenden Webinar am 13. Mai 2015, das von unserem Conversion-Experten Nils Kattau durchgeführt wird, grundlegende Erkenntnisse aus jenem Bereich näher bringen. Denn nur wer über den Tellerrand hinaus blickt, hat die Chance sich schneller und innovativer weiterzuentwickeln als andere Wettbewerber. Ein klassisches Verfahren der Conversion Optimierung zur Verbesserung des Nutzerverhaltens ist das A/B-Testing. In diesem Beitrag erfahrt ihr, welche Fehler sich bei dieser Methode einschleichen können und wie man diese bestmöglich vermeidet.  

Inhaltsverzeichnis

  1. Suchmaschinenoptimierung und Conversion Optimierung
  2. Exkurs: A/B-Testing
  3. Typischer Fehler #1: Bauchgefühl statt Datenbasis
  4. Typischer Fehler #2: Überkreative Designer und Texter
  5. Typischer Fehler #3: Zu viel auf einmal testen
  6. Größter Fehler: Gar nicht testen
 

Suchmaschinenoptimierung und Conversion Optimierung

Suchmaschinenoptimierung (SEO) dient der besseren Platzierung von Websites in organischen Suchmaschineneergebnisse und soll damit höheren Traffic auf der Seite erzeugen. Da erzählen wir jetzt sicherlich nichts Neues. Es reicht jedoch nicht, sich im Zuge von Optimierungsmaßnahmen ausschließlich auf SEO zu beschränken, denn wenn aus dem erhöhten Traffic schlussendlich keine Käufe und daher auch keine Gewinnsteigerung resultieren, wird die Investition in SEO nicht effizient genutzt. An diesem Punkt kommt der Bereich Conversion (Rate) Optimierung (CRO) ins Spiel. CRO ist trivial gesprochen die Wissenschaft, immer mehr Website-Besucher in Kunden zu verwandeln. Denn das Problem, das viele Unternehmen beschäftigt, ist, dass viele Besucher die Seite ohne weitere Interaktionen direkt wieder verlassen. Dies hat zur Folge, dass die Besucher somit nicht als Interessenten (Leadgenerierung) oder als Kunden (Käufer im Onlineshop) gewonnen werden können. Das bedeutet, dass der Traffic zwar gestiegen sein kann – der Gewinn ließ sich dadurch aber nicht zwangsläufig erhöhen. Wer dagegen ebenfalls auf CRO setzt, kann neben der Steigerung des Return on Investment (ROI) auch aus SEO-Sicht profitieren, da zugleich die Nutzersignale verbessert werden. Conversion Optimierung und SEO in Zahlen

Obwohl viele Unternehmen mit Conversion Rate unzufrieden sind, optimieren sie nicht regelmäßig. Quelle: LEAP/ Digital Marketing GmbH

Aus diesem Grunde können wir nur empfehlen, auf eine Kombination aus SEO und CRO zu setzen, um die Anzahl der Sales und Leads gewinnbringend zu erhöhen. Bevor wir jedoch auf das eigentliche Artikelthema der typischen Fehler beim A/B-Testing eingehen können, soll zunächst in Kürze erklärt werden, wie ein solches Testing abläuft und welches Ziel damit verfolgt wird.

Exkurs: A/B-Testing

Bei einem A/B(/n)-Test werden mindestens zwei Varianten einer Website hinsichtlich deren Effekt auf die Conversion Rate oder andere messbare Ziele miteinander verglichen. Dabei werden nach der Analyse der betreffenden Website eine oder mehrere Varianten erstellt, bei denen ein spezifischer Aspekt der Website verändert wird. Das kann beispielsweise die Überschrift, ein Teaserbild oder eine Formularplatzierung sein. Zu festgelegten Anteilen wird den Besuchern der Website per Zufallsprinzip das Original ausgespielt oder aber eine der erstellten Varianten. Infolgedessen wird deren Nutzungsverhalten mittels Analysesoftware mit statistischer Signifikanz so verlässlich ermittelt, dass sichtbar wird, welche Variante am besten performt. Original und Varianten beim A/B-Testing

A/B-Testing-Ergebnisse im Vergleich: Variante 1 mit positivem Effekt und Variante 2 mit negativem Effekt auf die Conversion Rate im Vergleich zum Original. Quelle: LEAP/ Digital Marketing GmbH

Ziel ist es, dabei herauszufinden, welche der Varianten die Conversion Rate und damit auch den ROI steigern sowie letztlich zu einer konstanten Gewinnmaximierung führen. Es gibt vielzählige Optimierungsoptionen auf einer Website und daher meistens auch eine große Anzahl an A/B-Test-Möglichkeiten. Welche Änderungen man vornimmt, hängt von der erwarteten Stärke des Einflusses sowie der Umsetzbarkeit ab.   Beispiele für häufig getestete Elemente sind:
  • Wording: Überschriften, Produktbeschreibungen, inhaltliche Aussagekraft, Sprachstil, Platzierung, Textlänge, Vorteilskommunikation
  • Bilder, Grafiken, Videos: inhaltliche Aussagekraft, Platzierung, Dauer, Zielgruppenrelevanz
  • Formulare: Länge, Anzahl und Art von auszufüllenden Feldern, Sensibilität der einzugebenden Informationen, Felderbeschreibung
  • Buttons: Farbwahl, Wording der Handlungsaufforderung
  Im Idealfall erreicht man durch eine der Varianten eine Steigerung der Conversion Rate, sodass man im Anschluss die Originalversion durch die gewinnbringendere Variante ersetzt. Es kann jedoch auch vorkommen, dass die Variante einen negativen Effekt erzielt. Doch auch dann hat man etwas über seine Zielgruppe gelernt und weiß, dass die Originalversion bereits die optimalere ist und dass man ggf. andere Einflussfaktoren testen sollte. So einfach das A/B-Testing auch erscheinen mag – es kann immer wieder zu Fehlern im Laufe des Prozesses kommen. Welches die drei typischen Fehler beim A/B-Testing sind und wie man sie vermeiden kann, klären wir im Folgenden.

Typischer Fehler #1: Bauchgefühl statt Datenbasis

Da jeder Mensch individuell ist und aufgrund dessen verschiedene Geschmäcker und Vorlieben vorherrschen, gibt es häufig Diskussionen, wenn es um Design-Fragen oder die Zielgruppenansprache bei der Website geht. Dass derartige Überlegungen von äußerster Relevanz sind, belegen eine Vielzahl von A/B-Tests, die beweisen: Bereits kleinste Veränderungen wie beispielsweise bei der Strukturierung oder dem Design der Website können zu enormen Unterschieden in der Wahrnehmung beim Besucher führen. Zentral dabei ist, dass zielgruppenorientiert und entsprechend der Kundenbedürfnisse optimiert wird, da nur so eine Steigerung der Conversion Rate erwirkt werden kann. Dabei darf man sich jedoch nicht auf sein Bauchgefühl verlassen, sondern sollte unbedingt datengestützte Entscheidungen treffen. Nur so kann gewährleistet werden, dass nicht auf Basis von Vermutungen sondern Gewissheit entschieden wird. Eine ausführliche Analyse vor der Hypothesenbildung und Erstellung der Varianten ist daher unabdingbar. Hierfür stehen verschiedene Webanalysetools zur Verfügung. Das wohl bekannteste unter ihnen ist Google Analytics, das aufschlussreiche Nutzerdaten erhebt und sofern implementiert auch Umsatz- und Conversion-Daten misst. Mit Hilfe des Tools sind unter anderem die Herkunft der Besucher, die Verweildauer auf der Seite, die Nutzung sowie Daten zu Absprungraten oder der Gerätetypen- und Browsernutzung auswertbar. Google Analystics-Beispielanalyse

Beispiel-Ansicht von Analysedaten aus dem Tool Google Analytics.Quelle: Google Analytics

  Darüber hinaus gibt es für weitere Analyseformen wie Clickmaps oder Scrollmaps verschiedene Softwareanbieter wie Hotjar, Crazy Egg oder overheat, die Aussagen über das Nutzerverhalten während des Seitenbesuchss zulassen. Hierbei werden Muster ersichtlich, die dabei helfen, die Website so zu optimieren, dass die Usability verbessert wird.   Clickmap-Beispiel im Tool overheat

Beispiel einer Clickmap in der Ansicht des Tracking-Tools overheat. Quelle: overheat

Dadurch erlangt man Erkenntnisse, welche die Hypothesenbildung in Hinblick auf die Steigerung der Conversion Rate datenbasiert unterstützen. Ziel jener Analysen ist immer die Identifikation der größten Schwachstellen aber auch Potenziale einer Website. Die Hypothesenbildung dient der genauen Zieldefinition für einen A/B-Test. Ohne eine gute Hypothese ist der Testerfolg reiner Zufall und es können nur wenige oder keine Erkenntnisse aus den Tests gezogen werden. Im Zuge der anschließenden Hypothesenbildung sollten vier Aspekte geklärt werden:
  • Problemstellung
  • Änderungsintention
  • Verhaltensbeeinflussung
  • Ziele
  So banal es klingt: Bei dieser Festlegung muss immer beachtet werden, dass das definierte Ziel durch die Wahl der Verhaltensbeeinflussung auch wirklich erreichbar ist. Mögliche Störfaktoren sollten dabei weitestgehend vermieden werden. Auch die Konsistenz für den Untersuchungszeitraum muss gegeben sein, da durch saisonale Ereignisse wie an Feiertagen oder bei Sonderrabatt-Aktionen die Ergebnisse verfälscht werden können. Die Gewährleistung der Repräsentativität spielt für die Aussagekraft der Daten eine erhebliche Rolle, weshalb die Vorbereitungen wie auch die Umsetzung eines A/B-Testings in der Regel zeitintensiv sind. Die Laufzeit für ein Testing im Anschluss an das Analyseverfahren beträgt mindestens zwei Wochen, um Daten über einen repräsentativen Zeitraum zu erhalten. Nachdem ermittelt wurde, welche und wie viele Varianten erstellt werden, müssten die verantwortlichen Texter und Designer für die Umsetzung entsprechend instruiert werden. Hier wartet bereits der nächste typische Fehler beim A/B-Testing:

Typischer Fehler #2: Überkreative Designer und Texter

Text und Design tragen einen wesentlichen Anteil zur Erreichung des Ziels einer höheren Conversion Rate bei. Man sollte sich daher genügend Zeit nehmen, um die Designer und Texter, deren Aufgabe die Umsetzung der vorangegangenen Überlegungen ist, für den jeweiligen A/B-Test einzuweisen. Es gilt, die Rahmenbedingungen zu klären, Probleme der Website aufzuweisen, Ziele des Testings zu vermitteln und gegebenenfalls auch über Begrenzungen in der Umsetzung zu sprechen. Auf der anderen Seite ist ebenso von Bedeutung, Freiräume zu lassen. Dabei muss man jedoch darauf achten, dass der Fokus der kreativen Kollegen nicht verloren geht. Designer, die nicht auf Conversion Optimierung spezialisiert sind, haben schlichtweg aufgrund ihrer Ausbildung und Interessen häufig einen anderen Fokus als die Optimierung der Conversion Rate. Problematisch kann es darüber hinaus sein, wenn sich eine gewisse Betriebsblindheit einschleicht. Wer tagein, tagaus immer mit demselben Online-Angebot arbeitet, ist nicht mehr uneingeschränkt dazu in der Lage, das Angebot aus Nutzersicht zu betrachten. Die Sicht auf die eigene Website ist immer durch den Insiderblick auf Funktionalität, Formulierungen und Prozesse verzerrt. Die verantwortlichen Seitenersteller kennen die Seitenstruktur, haben die Navigation auf der Seite konfiguriert und wissen, wo welche Inhalte zu finden sind. Website-Besucher müssen sich jedoch auf einer für sie neuen Website erst einmal zurechtfinden und die Seitenstruktur kennenlernen. Dabei sollen Unsicherheiten seitens der Website-Besucher vermieden werden, indem beispielsweise Interaktionselemente selbsterklärend beschriftet. Zudem sollte klar kommuniziert werden, welche Vorteile der Besucher von der Nutzung des Angebots hat (Stichwort Vorteilskommunikation), wie folgendes Beispiel des Tools smartimize veranschaulicht: Positives Beispiel für Vorteilskommunikation und Button-Beschriftung

Positives Beispiel hinsichtlich der Aspekte Vorteilskommunikation und Button-Beschriftung bei Smartimize. Quelle: Smartimize

Im Vergleich dazu das Beispiel in abgeänderter Form als negatives Beispiel ohne Vorteilskommunikation und ohne eindeutige Button-Beschriftung: Negatives Beispiel Buttonbeschriftung und Vorteilskommunikation

Negatives Beispiel hinsichtlich der Aspekte Vorteilskommunikation und Button-Beschriftung

Vorsicht auch beim Wording: Nutzerfernes Insiderwissen oder Fachjargon kann viele Website-Besucher abschrecken. Nicht jeder weiß zum Beispiel, was hinter den Begriffen „Above-the-Fold“ oder „DomainPop“ steckt – Fachbegriffe gibt es in jedem Themenbereich. Daher darf man als Seitenbetreiber niemals von sich auf die Nutzer schließen und davon ausgehen, dass die Wahrnehmung der Besucher die gleiche ist. Design und Text müssen daher bei der Erstellung der Varianten für das A/B-Testing immer verständlich, nachvollziehbar und zielgruppenorientiert sein. Dies zu bedenken und entsprechend umzusetzen gehört zu den Hauptfähigkeiten, die einen Conversion-Texter oder -Designer in höchstem Maße auszeichnen. Deshalb empfiehlt es sich, bei der Umsetzung des A/B-Testings zum Zweck der Conversion Optimierung auf Conversion-Designer und -Texter zu setzen. Denn bei CRO liegt das Hauptaugenmerk nicht auf künstlerischer Selbstverwirklichung sondern auf der Steigerung des ROI. Wesentlich ist zum Schluss, dass Text und Design das Conversion-Ziel unterstützen und an die Zielgruppe angepasst sind. Dafür haben Conversion-Texter und -Designer durch ihre spezielle Ausbildung und Berufserfahrung einfach einen besseren Blick. Manchmal ist aus CRO-Sicht wie das Sprichwort sagt „weniger mehr“ und die Aspekte Übersichtlichkeit und Verständlichkeit stehen im Vordergrund.

Typischer Fehler #3: Zu viel auf einmal testen

Der letzte der drei typischen Fehler beim A/B-Testing, die wir in diesem Artikel vorstellen möchten, betrifft die mangelnde Interpretierbarkeit der Ergebnisse. Dies resultiert oft daraus, dass innerhalb eines A/B-Tests zu viele Faktoren getestet wurden, sodass eindeutige Rückschlüsse schwierig sind. Dies ist der Fall, wenn beim Testing beispielsweise zugleich eine Überschrift, ein Button und ein Bild verändert werden. Wenn übermäßig viele oder nicht der Hypothese entsprechende Elemente in einem Test verändert werden, lässt sich nicht feststellen, welche Änderung zu welchem Effekt bezüglich der Conversion Rate geführt hat. Im schlimmsten Fall heben sich positive und negative Anpassungen auf und eigentlich gewinnbringende Anpassungen werden permanent verworfen. Auswirkung der Website-Elemente auf die Conversion Rate

Mögliche Einzel-Effekte innerhalb eines A/B-Tests bei übermäßiger Anzahl an Änderungen. Quelle: LEAP/ Digital Marketing GmbH

Um diese Fehlerquelle zu umgehen, sollten die Elemente in einzelnen Tests überprüft werden. Dadurch kann man nachvollziehen, welches Element für welche Veränderung verantwortlich ist. Ansonsten erhält man lediglich ein Gesamtergebnis, bei dem unklar ist, ob die Änderung eines Elements vielleicht sogar einen negativen Effekt auf die Conversion Rate hatte. Prüft man dies in separaten Tests, werden derartige Auswirkungen ersichtlich und die Ergebnisse korrekt interpretierbar. Veränderungen sollen demnach nicht nur eine Steigerung bewirken sondern auch Rückschlüsse auf die Zielgruppe ermöglichen. Wenn das Testergebnis gut interpretierbar ist, erlangt man neue Erkenntnisse über die Zielgruppe und kann diese auch für weitere Kommunikationsmittel nutzen.

Größter Fehler: Gar nicht testen

Daher kann man im Resümee als folgenschwerste Fehlentscheidung die Unterschätzung der Relevanz von A/B-Testings betrachten. Denn die Steigerung der Conversion Rate führt in der Regel zu einer Steigerung des Umsatzes und und des ROI. Das bedeutet, dass die Website-Besuche pro Nutzer rentabler werden – und das unabhängig von Investitionen in höheren Traffic durch beispielsweise AdWords-Kampagnen. CRO ist deshalb so effizient für die Gewinnmaximierung, weil die Optimierungsmaßnahmen sich auf die Nutzerschaft bezieht, die den Weg auf die Website bereits gefunden hat, aber noch keine gewinnbringende Interaktion hat. Wer sich nicht mit CRO beschäftigt, lässt ein großes Potenzial zur Umsatzsteigerung ungenutzt verstreichen. Dass sich führende Unternehmen dessen bewusst sind, beweisen deren Investition in A/B-Testings. A/B-Testing-Investitionen von Großunternehmen

Anzahl von A/B-Tests, die für Amazon, Google und Wikipedia durchgeführt werden. Quelle: LEAP/ Digital Marketing GmbH

Dabei muss man sich bewusstmachen, dass jeder A/B-Test, der die Conversion Rate steigert, zu einer Gewinnmaximierung und Steigerung des ROI beiträgt. Dass sich im Rahmen des Testings positive Effekte auf die Conversion Rate ergeben und diese deutlich gesteigert wird, ist dabei wahrlich keine Seltenheit.   Unser Rechenbeispiel zeigt eine mögliche Umsatzsteigerung durch die Erhöhung der Conversion Rate auf: Rechenbeispiel für Umsatzsteigerung durch CRO

Vergleich des Umsatzes vor und nach Steigerung der Conversion Rate durch erfolgreiches A/B-Testing. Quelle: LEAP/ Digital Marketing GmbH

Selbst wenn die Conversion Rate bei einem Test nicht erhöht wird, war der Test keinesfalls umsonst. Ein weit verbreiteter Irrglaube ist, dass Tests, in denen kein Uplift der Conversion Rate erzielt wird, als Misserfolg gewertet werden sollten. Doch auch aus diesen Tests lassen sich wertvolle Erkenntnisse über Verhalten und Motivation der Nutzer ableiten und gewinnbringend für nachfolgende Optimierungen einsetzen. Aus diesem Grund können wir nur empfehlen, sich mit dem Thema Conversion Optimierung und A/B-Testing auseinanderzusetzen. Denn um sich auch langfristig im Wettbewerb durchsetzen zu können, ist eine permanente und kontinuierliche CRO unerlässlich.   In unserem zweiten Teil der Blogreihe „Conversion Optimierung“ am Donnerstag den 28. April 2016 werden wir uns weiter vorwagen: Freut euch auf zehn wertvolle Tipps zur Optimierung von LandingPages. Quellen:
  • Barketing SEO Monitor 2013
  • http://www.sem-deutschland.de/social-media-marketing/e-commerce-studie-2014-seo-adwords-social-media-der-groessten-deutschen-online-shops/
  • http://moz.com/blog/ecommerce-kpi-benchmark-study
 
Tanja Weber

Tanja Weber

Tanja Weber ist Content Strategist bei der LEAP Digital Marketing GmbH (Fusion aus der Barketing IMS GmbH und ConversionLift UG; seit Oktober 2015). Die Kommunikations- und Medienwissenschaftlerin war zuvor im Bereich SEO bei Barketing tätig und hat in diversen medialen Bereichen Erfahrungen gesammelt.

Follow Me:
TwitterFacebookLinkedIn

  • Wir bieten im Zuge dieser 3-teiligen Blog-Reihe „Conversion Optimierung“ eine kostenlose Conversion-Rate Site-Clinic an. Kommentiert einfach eure Webseite zu diesem Post und wir werden eine davon live in unserem abschließenden Webinar optimieren.

  • Wir bieten im Zuge dieser 3-teiligen Blog-Reihe „Conversion Optimierung“ eine kostenlose Conversion-Rate Site-Clinic an. Kommentiert einfach eure Webseite zu diesem Post und wir werden eine davon live in unserem abschließenden Webinar optimieren.

  • Pingback: Top 10 der Woche 16/16 - SEO-united.de Blog()

  • Pingback: Conversion Optimierung – Teil 2: 5 Tipps für bessere Landing Pages -()