A/B-Testing: Split-Testing für höhere Conversion-Rate
A/B-Testing, auch Split-Testing genannt, ist eine Methode der Conversion-Rate-Optimierung (CRO). Sie vergleichen zwei Varianten (A und B) einer Seite oder eines einzelnen Elements, verteilen den Traffic kontrolliert auf beide Versionen und messen anhand klarer Ziele, welche Variante besser funktioniert.
Typische Ziele sind Klicks, Formular-Abschlüsse, Käufe, Newsletter-Anmeldungen oder Terminbuchungen.
Merksatz: Ein guter A/B-Test beantwortet genau eine konkrete Frage. Nicht zehn auf einmal.
Was ist A/B-Testing?
Beim A/B-Testing erstellen Sie zwei Versionen eines Inhalts:
- Version A: die Ausgangsversion (Control)
- Version B: die geänderte Version (Variant)
Beide Versionen werden möglichst zeitgleich ausgespielt, damit externe Einflüsse (Wochentag, Kampagnen, Saison) nicht das Ergebnis verzerren. Am Ende entscheiden Sie nicht nach Gefühl, sondern anhand von Daten.
Wofür eignet sich A/B-Testing?
A/B-Tests sind besonders sinnvoll, wenn eine Seite genug Traffic und Conversions hat, um Unterschiede sauber zu messen.
Häufige Anwendungsbereiche
- Headlines: Welche Überschrift erzeugt mehr Interesse?
- Call-to-Action: Text, Farbe, Größe, Position
- Formulare: Anzahl Felder, Labels, Fehlertexte, Trust-Elemente
- Layouts: Reihenfolge von Sektionen, Informationsdichte, visuelle Hierarchie
- Produktseiten: Bildauswahl, Nutzenargumente, Versand- und Retoureninfos
- Checkout: Schritte, Klarheit der Kosten, Zahlarten, Hinweise zur Sicherheit
Was man eher nicht testen sollte
- Änderungen, die technisch oder rechtlich riskant sind (z. B. Tracking ohne Consent)
- Sehr kleine Design-Details ohne klare Hypothese
- Mehrere große Änderungen gleichzeitig, wenn Sie nicht erklären können, warum es besser lief
A/B-Testing vs. Multivariate Tests
A/B-Testing ist nicht dasselbe wie ein multivariater Test.
| Testart | Was wird verglichen? | Vorteil | Nachteil | Typischer Einsatz |
|---|---|---|---|---|
| A/B-Test | Eine Änderung (oder eine Variante als Gesamtpaket) vs. Control | Einfach, robust, gut interpretierbar | Weniger Granularität | CTA, Headline, Sektion |
| Multivariater Test | Mehrere Elemente gleichzeitig in Kombinationen | Erkennt Interaktionen | Braucht sehr viel Traffic | Große Websites, hohe Conversion-Zahlen |
Wenn Sie unsicher sind: Starten Sie mit A/B-Tests. Sie sind in der Praxis meist der beste erste Schritt.
So läuft ein sauberer A/B-Test ab
1) Ziel festlegen (Primary Metric)
Definieren Sie genau eine Hauptmetrik, zum Beispiel:
- Conversion-Rate (Formular abgesendet / Besuch)
- Klickrate auf CTA (Klicks / Besuch)
- Umsatz pro Besuch (Revenue / Session)
Sekundäre Metriken sind okay, aber sie ersetzen nicht die Hauptentscheidung.
2) Hypothese formulieren
Eine gute Hypothese ist konkret und prüfbar:
- Wenn wir die Headline klarer auf den Nutzen ausrichten,
- dann steigt die Formular-Conversion,
- weil Besucher schneller verstehen, was sie bekommen.
3) Nur eine Variable testen
Wenn Sie gleichzeitig Headline, Bild und CTA ändern, wissen Sie am Ende nicht, was den Effekt ausgelöst hat. Testen Sie gezielt.
4) Laufzeit und Stichprobe planen
Stoppen Sie nicht zu früh, nur weil ein Ergebnis nach zwei Tagen gut aussieht. Planen Sie im Voraus:
- Mindestlaufzeit (oft 1 bis 2 Wochen, je nach Traffic)
- Mindestanzahl an Conversions pro Variante (Daumenregel: lieber mehr als zu wenig)
5) Ergebnis interpretieren und dokumentieren
Dokumentieren Sie:
- Hypothese
- Variante
- Laufzeit
- Primary Metric und Ergebnis
- Entscheidung (Gewinner übernehmen oder nicht)
- Erkenntnis für weitere Tests
Statistik-Grundlagen, die Sie kennen sollten
Sie müssen kein Statistik-Profi sein, aber diese Punkte helfen, typische Fehler zu vermeiden:
- Signifikanz: Wie wahrscheinlich ist es, dass der Unterschied nicht zufällig ist?
- Power: Haben Sie genug Daten, um einen echten Unterschied überhaupt erkennen zu können?
- Konfidenzintervall: In welchem Bereich liegt der echte Effekt wahrscheinlich?
Häufiger Fehler: “Peeking”
“Peeking” bedeutet: ständig reinschauen und stoppen, sobald es gut aussieht. Das erhöht die Wahrscheinlichkeit für falsche Gewinner. Besser:
- Laufzeit vorher festlegen
- Auswertung nach Plan durchführen
Beispiele für gute Testideen (mit klarer Hypothese)
Beispiel 1: Landingpage Headline
- A: “Webdesign und SEO aus München”
- B: “Mehr Anfragen über Ihre Website in 30 Tagen”
Hypothese: Variante B erhöht die Conversion, weil sie den Nutzen konkreter macht.
Beispiel 2: Formular vereinfachen
- A: 8 Felder
- B: 4 Felder (Name, E-Mail, Telefon optional, Nachricht)
Hypothese: Weniger Felder senken die Hürde und steigern die Abschlüsse.
Beispiel 3: CTA-Text präzisieren
- A: “Kontakt”
- B: “Kostenlose Erstberatung anfragen”
Hypothese: Konkreter CTA erhöht Klicks, weil Besucher wissen, was sie erwartet.
A/B-Testing Tools
Je nach Setup kommen unterschiedliche Tools infrage:
- Client-seitig (schnell, aber mit Performance- und Tracking-Risiken): klassische Testing-Tools, die Varianten im Browser ausspielen
- Server-seitig (sauberer, oft schneller): Varianten werden vor dem Rendern ausgeliefert
- CMS/Shop-Systeme: integrierte Tests oder Landingpage-Builder mit Variantenfunktion
Wichtig: Prüfen Sie Datenschutz und Consent-Setup, bevor Sie testen.
Checkliste: A/B-Test in der Praxis
- Zielmetrik eindeutig definiert
- Hypothese als Wenn-dann-weil formuliert
- Nur eine Variable geändert
- Tracking geprüft (Events, Ziele, Consent)
- Laufzeit und Mindestdaten vorher festgelegt
- Keine Auswertung während des Tests als Entscheidungsgrundlage
- Ergebnis dokumentiert und nächste Schritte abgeleitet
Mini-Beispiel: Event-Tracking für einen CTA (Code Snippet)
Wenn Sie einen Klick auf einen Button als Ziel messen wollen, können Sie ein Event auslösen. Beispielhaft (je nach Analytics-Setup anzupassen):
<button id="cta-beratung">Kostenlose Erstberatung anfragen</button>
