Der größte Fehler beim A / B-Testen

    Möchten Sie eine hohe Conversion-Site haben? Jeder will es. Aber viele machen diesen Fehler. Ein Fehler, der sie irreführt und zu einem traurigen Ergebnis führt.

    Die Jungs von Popcorn Metrics haben diesen Fehler beim A / B-Testen gemacht. Und damit andere nicht in Schwierigkeiten geraten, haben sie einen Artikel darüber geschrieben . Und wir haben es schnell übersetzt, um Sie vor diesem Fehler zu warnen!

    Stellen wir uns die Situation vor, in der

    Sie A / B-Tests der Site durchführen . Sie haben zwei Versionen - das Original und die Testversion. Als Ergebnis des Tests erhalten Sie die folgenden Ergebnisse: Konvertierung zur Registrierung auf der Originalseite - 2,3%, in der Testversion - 3,2%. Welche dieser Seiten hat das Experiment gewonnen?

    Natürlich ist die Testseite effizienter. Dem kann man derzeit nicht widersprechen. Warum? Weil die Zahlen nicht lügen. 3,2% mehr als 2,3%.

    Und hier beginnt der Spaß. Wenn Leute A / B-Tests durchführen, konzentrieren sie sich nur auf eine Stufe des Verkaufstrichters. In unserem Beispiel - bei der Umstellung auf Registrierung.



    Es scheint, was ist das Problem? Bei der Erstellung eines A / B-Experiments wird Ihnen immer beigebracht, ein bestimmtes Ziel auszuwählen und das Ergebnis daraus auszuwerten. Aber praktisch nirgends heißt es, dass Sie weiter und tiefer schauen müssen.

    Schließlich gibt es noch andere Stufen des Verkaufstrichters. In Ihrem Fall haben sich mehr Benutzer in der Testversion registriert. Das ist cool. Aber wie gingen sie als nächstes vor? Wie wurden sie zu bezahlten Nutzern konvertiert? Diese Frage ist viel wichtiger.

    Das ist das Problem. Nahezu niemand bewertet die Auswirkung eines A / B-Experiments auf den gesamten Verkaufstrichter, beginnend mit der ersten Stufe, die Sie mit diesem Test verbessern wollten, und endend mit der letzten Stufe, z. B. dem Kauf.



    Fahren wir nun mit diesem Experiment fort. Trotz der Tatsache, dass die Testversion der Seite mehr Conversions bei der Registrierung aufwies, war die Anzahl der Verkäufe in der Originalversion höher. Jetzt ist es nicht so offensichtlich? Wir können bereits der Tatsache widersprechen, dass die Testversion das A / B-Experiment gewonnen hat.

    Was ist für Sie wichtiger: Erhöhen Sie die Anzahl der Conversions in der ersten Phase des Verkaufstrichters oder verbessern Sie den gesamten Verkaufstrichter, damit mehr Benutzer das Endziel erreichen?

    Verwandte Artikel - Die 10 häufigsten Fehler beim A / B-Testen

    Achtung! Wenn Ihr Ziel während der A / B-Tests darin besteht, die Conversion nur in einer bestimmten Phase zu erhöhen, beispielsweise in der Registrierungsphase, unabhängig davon, wie sich dies auf den gesamten Verkaufstrichter und Ihr Einkommen auswirkt, können Sie nicht weiter lesen.

    Wenn Sie „weiter“ schauen und die richtigen, effektiven A / B-Tests durchführen möchten, bleiben Sie bei uns und wir werden Ihnen sagen und zeigen, welchen Fehler die Jungs von Popcorn Metrics gemacht haben. Vielleicht machst du es gerade und weißt noch nicht einmal davon.

    Bei der Firma Popcornmetrics



    Schauen wir uns den Verkaufstrichter des Popcorn-Metrik-Projekts an. Es gibt 5 Stufen, beginnend mit der Registrierung im Dienst (Registrieren) und endend mit der Platzierung des Codes (Veröffentlichen), und es ist ersichtlich, wie hoch die Conversion-Rate von einer Stufe zur anderen ist. In diesem Fall besteht die Hauptaufgabe darin, den potenziellen Kunden auf die letzte Stufe zu bringen, wenn er den Tracking-Code auf seiner Website platziert.

    Verwandter Artikel - 10 erfolgreiche A / B-Testfälle

    Als ein potenzieller Kunde auf die Hauptseite von Popcorn Metrics kam, wurde er aufgefordert, einen Link zu seiner Site einzugeben. Nachdem Sie den Link eingefügt und auf die Schaltfläche "Jetzt testen" geklickt haben, wird ein visueller Editor (Playmode) geöffnet. In diesem visuellen Editor können Sie sehen, wie der Dienst auch ohne Registrierung funktioniert. Dies geschieht, um die Vorteile des Dienstes so schnell wie möglich aufzuzeigen, ohne einen potenziellen Kunden zur Registrierung zu zwingen. Zuerst Wert und dann Verpflichtung - Registrierung für eine Testversion des Produkts.

    Die Wirksamkeit dieses Merkmals wurde in früheren Experimenten getestet. Es wurde beschlossen, die Experimente und Testoptionen fortzusetzen, um ein zweiminütiges Video anzusehen.

    In der ersten Version wurde ein Video direkt zur Hauptseite hinzugefügt. Im 2. - ein Textlink zum Video.

    "Ein

    Experiment wurde mit Google Analytics gestartet. Als Hauptziel wurde" Registrierung "ausgewählt - die erste Stufe des Verkaufstrichters.

    Nach dem Experiment stellte sich heraus, dass in der ersten Testversion mit dem Video (Variaton 1 - Playmode & Video Image) Umwandlung in Registrierung - 3,20%. Und dies war der beste Indikator unter allen drei Versionen.



    Somit ist der Gewinner in diesem Experiment die erste Testversion. Es stellte sich heraus, dass es 40% mehr Umwandlung als in den beiden anderen Fällen war. Und hier ist es am meisten verborgen großer Fehler.

    Sehen Sie die Ergebnisse des Experiments auf allen Stufen des Trichters.



    Bei der Durchführung von Experimenten in Google Analytics haben Sie die Möglichkeit, die Ergebnisse des Experiments für alle festgelegten Ziele anzuzeigen. Das heißt Selbst wenn Sie "Registrierung" als Hauptziel gewählt haben - die erste Stufe des Verkaufstrichters - können Sie die Auswirkung des Experiments auf andere Ziele verfolgen.

    Artikel zum Thema - So führen Sie einen Split-Test durch: 13 obligatorische Schritte Die

    Jungs von Popcorn Metrics haben gerade ein weiteres Ziel für die Analyse des Experiments hinzugefügt - Veröffentlichung des Codes. Wenn Sie plötzlich vergessen, ist dies das ultimative Ziel im Verkaufstrichter. Am Ende stellte sich heraus, dass unser Pseudo-Gewinner (Variante 1) die niedrigste Conversion-Rate für dieses Ziel hat. Und die Originalversion der Seite ist die höchste.

    So haben sich in der Testversion mit dem Video auf der Seite die Menschen am häufigsten registriert, aber gleichzeitig fast 2,5-mal seltener das Ende des Verkaufstrichters erreicht.

    Warum ist das passiert?



    Wenn ein potenzieller Kunde über einen visuellen Editor mit dem Service vertraut wird, bildet sich allein für ihn eine bestimmte Benutzererfahrung. Wenn durch das Video, dann ein anderes Erlebnis. Nachfolgende Aktionen hängen davon ab.

    Mit Hilfe der Analytik wurde eine weitere interessante Schlussfolgerung gezogen. Diejenigen, die das Video zum ersten Mal sahen, testeten den visuellen Editor sehr selten (in 9,62% der Fälle).



    Trotz der Tatsache, dass das Video sehr aufschlussreich war und die Nutzer es sich angesehen haben, hat es sie nicht wie einen visuellen Editor gefesselt, wodurch sie nicht auf die nächsten Stufen des Verkaufstrichters umgestellt wurden.

    Welche Lektion sollte aus diesem Fall gelernt werden?



    Ein A / B-Experiment durchzuführen und nur ein Ziel zu analysieren, ohne den gesamten Verkaufstrichter zu beachten, ist sehr gefährlich. Sie können die falsche Schlussfolgerung ziehen, die auf den ersten Blick richtig erscheint. Und wenn Sie tiefer schauen, wird alles anders ausfallen.

    Stell dir vor. Sie haben ein Experiment durchgeführt, diesen Fehler begangen und weitere Elemente der Site getestet, abhängig von den Ergebnissen dieses Tests. Es stellt sich heraus, dass alle weiteren Experimente Sie noch mehr in die Irre führen und es dann schwierig ist zu verstehen, was schief gelaufen ist, warum die Konversion in der ersten Phase zunimmt und die Einkommen sinken.

    Jetzt wissen Sie über den größten Fehler beim A / B-Testen Bescheid, den viele immer noch machen und den sie nicht einmal bemerken. Sei schlau, teste richtig!

    Vom Blog vorbereitetBoosta.ru und Projekt Changeagain.me

    Siehe auch unsere anderen beliebten Elemente:

    1. Sie helfen , alle die „Killer“ der Umwandlung zu finden - 10 Berichte in Analytics der Google (5000+ Ansichten)
    2. 100 Ideen für A / B - Tests. Erster Teil (über 2000 Aufrufe)
    3. 100 Ideen für A / B-Tests: Zweiter Teil (über 1000 Aufrufe)
    4. So finden Sie eine Idee für A / B-Tests: Heatmaps und Umfragen (über 1000 Aufrufe)

    Jetzt auch beliebt: