A/B-Test

Was ist ein A/B-Test?

Ein A/B-Test ist eine Methode, bei der zwei Versionen einer Website, einer Dialog-Marketing-Sendung oder einer anderen Marketingkampagne getestet werden. Dabei wird ermittelt, welche Variante besser performt. Die Kampagne wird in zwei Versionen aufgeteilt, bei Webseitenversionen werden die Besucher zufällig einer der beiden Versionen zugewiesen. Bei Empfängergruppen werden diese in 2 Testgruppen aufgeteilt. Die Ergebnisse der beiden Versionen werden dann verglichen, um zu sehen, anhand von Traffic oder Bestellvorgängen, welche Version eine bessere Leistung erbringt.

 

Mit A/B-Tests werden eindeutige Fakten geschaffen – vage Vermutungen haben ein Ende. Sie können messen, welche Seite oder welches Werbemittel besser funktioniert und z. B. eine höhere Conversion-Rate erzielt. Dies kann Ihnen helfen, Ihre Website oder Ihre Marketingkampagnen zu optimieren und Ihre Ergebnisse zu verbessern.

Ziel des A/B-Tests

Ziel ist die Performance einer Website oder Kampagne zu verbessern. Dabei werden zwei Versionen eines Elements miteinander verglichen, um zu sehen, welche Version besser performt. Im Rahmen eines A/B-Tests sollte immer nur eine Variable geändert werden. Nur so können Sie sicherstellen, dass es tatsächlich dieser eine Faktor war, der z.B. zu mehr Kaufabschlüssen geführt hat. Wenn mehrere Variablen gleichzeitig geändert werden, ist es schwierig zu sagen, welche Änderung für die Verbesserung verantwortlich ist.

Die Ziele können unterschiedlich sein, z.B.:

  • Neukundengewinnung
  • Umsatzsteigerung
  • Newsletter-Anmeldungen generieren
  • Traffic erhöhen

Was Sie beim A/B-Test beachten sollten

Ein A/B-Test sollte nach Möglichkeit über einen längeren Zeitraum laufen, um unterschiedliche Interessentengruppen zu berücksichtigen und sicherzustellen, dass es keine verfälschten Ergebnisse z.B. aufgrund saisonaler Schwankungen geben konnte. Generell gilt: Je größer die Stichprobe ist, desto kürzer die Testlaufzeit. Sie sollten auch dafür sorgen, dass immer nur ein Test läuft und nicht mehrere A/B-Tests parallel. Vor einem A/B-Test muss das Kampagnenziel definiert sein, damit klar ist, welche Performance-Werte verglichen werden sollen.

 

Mit A/B-Tests werden eindeutige Fakten geschaffen – vage Vermutungen haben ein Ende. Sie können messen, welche Seite oder welches Werbemittel besser funktioniert und z. B. eine höhere Conversion-Rate erzielt. Dies kann Ihnen helfen, Ihre Website oder Ihre Marketingkampagnen zu optimieren und Ihre Ergebnisse zu verbessern.

Ziel des A/B-Tests

Ziel ist die Performance einer Website oder Kampagne zu verbessern. Dabei werden zwei Versionen eines Elements miteinander verglichen, um zu sehen, welche Version besser performt. Im Rahmen eines A/B-Tests sollte immer nur eine Variable geändert werden. Nur so können Sie sicherstellen, dass es tatsächlich dieser eine Faktor war, der z.B. zu mehr Kaufabschlüssen geführt hat. Wenn mehrere Variablen gleichzeitig geändert werden, ist es schwierig zu sagen, welche Änderung für die Verbesserung verantwortlich ist.

Die Ziele können unterschiedlich sein, z.B.:

  • Neukundengewinnung
  • Umsatzsteigerung
  • Newsletter-Anmeldungen generieren
  • Traffic erhöhen

Was Sie beim A/B-Test beachten sollten

Ein A/B-Test sollte nach Möglichkeit über einen längeren Zeitraum laufen, um unterschiedliche Interessentengruppen zu berücksichtigen und sicherzustellen, dass es keine verfälschten Ergebnisse z.B. aufgrund saisonaler Schwankungen geben konnte. Generell gilt: Je größer die Stichprobe ist, desto kürzer die Testlaufzeit. Sie sollten auch dafür sorgen, dass immer nur ein Test läuft und nicht mehrere A/B-Tests parallel. Vor einem A/B-Test muss das Kampagnenziel definiert sein, damit klar ist, welche Performance-Werte verglichen werden sollen.

 

Was können Sie testen? Mögliche A/B-Test-Variablen zur Performance-Messung:

  • Bilder
  • Betreffzeile
  • Angebot
  • Absender-Adresse
  • Links
  • Call-to-Action-Text

Beispiel eines A/B-Tests:

Für einen Onlineshop sollen im Rahmen einer Standalone-Kampagne Neukunden generiert werden. Ziel der Kampagne ist es, 500 Neukunden zu gewinnen. Davon ausgehend, dass die E-Mail-Listen im Zielgruppen-Segment ca. 5 % Öffnungsrate und 0,5 % Response erzielen, müssten 2 Mio. Standalones verschickt werden, damit das prognostizierte Ziel erreicht wird. Bevor die Kampagne ausrollt, möchte das Unternehmen wissen, welches Template mehr Neukunden verspricht. Über zwei A/B-Tests werden die Betreffzeile und das Angebot hinsichtlich ihrer Performance verglichen. Dazu werden im ersten Stepp zwei unterschiedliche Betreffzeilen an eine kleine Testgruppe (je Variante 10.000 Empfänger) verschickt. Der Versand an die Testgruppen findet am gleichen Tag statt. Es zeigt sich, dass die Betreffzeilen-Variante A eine bedeutend höhere Öffnungsrate erzielen konnte. Im zweiten Stepp wird einer kleinen Testgruppe wieder ein Template geschickt, diesmal jedoch mit unterschiedlichen Angeboten, mit der Betreffzeilen-Variante A. Der erneute A/B-Test zeigt in der Auswertung, dass Angebots-Variante B besser performt und mehr Neukunden generiert. Nun ist klar, dass die Standalone-Kampagne mit Betreffzeilen-Variante A und Angebots-Variante B die besten Ergebnisse verspricht. Die Kampagne an 2 Mio. Empfänger kann nun starten. Der Versand wird über mehrere Tage gestreckt, sodass die Kampagne bei Bedarf noch nachoptimiert werden kann.

Ihre Ansprechpartnerin für A/B-Tests:

A/B-Tests helfen, die Performance Ihrer Kampagnen zu verbessern. Sollten Sie Hilfe bei der Ausführung von A/B-Test benötigen, sprechen Sie mit Sabine Schätzer schaetzer@trebbau.com Tel.: 0221 / 376 46 – 318 ). Wir unterstützen Sie gern.

 

aici 8.2.18-he.0