Cosa sono gli A/B test?
Spesso non siamo convinti di un annuncio pubblicitario o di un elemento di una pagina web, a volte non siamo soddisfatti al 100% del rendimento di una campagna pubblicitaria o di una landing page... e magari quella che ipotizzavamo essere la miglior soluzione da pubblicare, non è quello che speravamo.
In questi casi ci serve un test, un esperimento: ci serve un sistema che ci consenta di comprendere come il pubblico reagisce a quanto da noi proposto e a una sua variante, non con ipotesi e congetture, ma con numeri e percentuali registrati.
Ecco quindi l'A/B test: un esperimentograzie a cui possiamo somministrare a un pubblico da noi definito due versioni differenti (la versione A e la versione B, o anche "originale" e "variante") di una pagina web, di un annuncio pubblicitario, di un titolo, di una foto o anche di un modulo, di un pulsante, in pratica di qualsiasi elemento che noi vogliamo mettere alla prova.
Grazie a questi test faremo infatti vedere a una percentuale di utenti la versione originale e a un'altra percentuale di utenti la variante, andando a misurarne gli effetti.
Quando parliamo di A/B test parliamo di esperimenti che hanno l'obiettivo di scoprire cosa preferisce il nostro pubblico, mettendo a confronto due versione di uno stesso elemento, in originale A e in versione variante B.
Come fare un A/B test
Se pensiamo di creare un A/B test dobbiamo definire alcuni punti essenziali:
- l'obiettivo da misurare (che può essere la compilazione di un modulo, l'iscrizione a una newsletter, l'acquisto di un prodotto, le visite a una landing page, ecc), che misureremo poi in percentuale, come tasso di conversione
[Qui puoi vedere alcuni esempi di A/B test su annunci e landing page] - il pubblico target, ossia chi sarà soggetto al nostro esperimento (tutto il pubblico che vede le nostre pagine o i nostri annunci, o solo una porzione di esso)
- come somministrare l'esperimento al nostro pubblico target, che nel più classico dei test consiste nel proporre al 50% delle persone l'originale A e all'altro 50% la variante B
- quale sarà l'elemento variante del nostro esperimento (un'immagine, il titolo o il testo scritto in un paragrafo piuttosto che la loro formattazione, il pulsante di un modulo, la disposizione di un elemento in una pagina, ma anche annunci pubblicitari in cui far variare il titolo, il testo o l'immagine, ecc)
- la durata del nostro test (che talvolta può essere definita, soprattutto quando si ha un volume di utenti notevole, altre volte può essere dichiarata come "quel tanto che serve ad ottenere dati rilevanti")
Una volta definiti i punti chiave sopra indicati è essenziale predisporre le due varianti che concorreranno nell'esperimento: preparare il copy dei titoli o dei testi, creare i due annunci che andranno in test, preparare le immagini per la pagina o l'annuncio o la mail che andranno in test, preparare le due pagine web nelle versioni desiderate, ecc.
L'originale A e la variante B, siano pagine o annunci, andranno create e pubblicate ma soprattutto gestite in modo preciso e puntuale, per raccogliere tutti i dati utili derivanti dall'esperimento.
Molti tool aiutano in questa fase: in primis Google Optimizer (con cui posso creare esperimenti tra pagine web), ma anche altri servizi come VWO Virtual Website Optimizator (con cui addirittura posso creare esperimenti senza dover pubblicare più versione di una stessa pagina, perché il sistema stesso si occupa di gestire le varianti in modo "virtuale") o i servizi offerti dalle piattaforme advertising, come Google AdWords (con i suoi esperimenti sulle campagne o le varianti annuncio), o come Facebook Ads (con i suoi split test), mentre per le landing page una buona soluzione potrebbe essere Unbounce.
Come usare gli A/B test evitando gli errori più comuni
Come indicato sopra, è importante definire l'obiettivo da misurare, il pubblico e quale sarà l'elemento variante del nostro esperimento, ma è altrettanto importante non incorrere in errori. Se ci sono dubbi, meglio chiarirli prima di iniziare.
Errore 1:
"Proviamo a cambiare titolo e immagine in header e vediamo come reagiscono i visitatori..."
Idea carina, ma definiamo "come reagiscono i visitatori": vogliamo sapere se migliora la durata della visita? lo scroll di pagina? la compilazione di un modulo? una qualsiasi altra conversione?
Ricordiamo sempre di definire l'obiettivo che vogliamo misurare.
Errore 2:
"Senza usare i tool di esperimento, proviamo a far vedere per una settimana l'originale e la settimana successiva la variante..."
No, non va bene. In questo modo si rischia di influenzare il test con fluttuazioni di traffico stagionali, con altre attività di marketing o altri contenuti che influiscono sui meccanismi di utilizzo del web delle persone: definiamo il pubblico target (tutti i visitatori o anche tutti i nuovi visitatori è una buona soluzione) e come somministrare l'esperimento (50-50 è l'ideale)
Errore 3:
"Ok, per il nostro esperimento l'originale è la pagina A, mentre la variante sarà la pagina A con titolo nuovo, immagine nuova, modulo in alto a destra invece che a fondo pagina, testo modificato..."
Idea carina, ma se la variante B dovesse convertire meno significa che nel complesso le modifiche non hanno stupito il nostro pubblico... ma quale di queste modifiche? il titolo? l'immagine? il modulo e la sua nuova posizione?
Se testiamo un elemento per volta (posizione di un modulo), o una combinazione di elementi che siano strettamente connessi tra loro (posizione e pulsante di un modulo), potremo trarre conclusioni più precise.
Errore 4:
"L'originale ha 20 conversioni e la variante ne ha 15, meglio l'originale"
No, non va bene nemmeno questo: basterebbero 6 conversioni nella variante per sovvertire questa conclusione. La durata dell'esperimento deve essere sufficiente a fornire dati significativi... e se abbiamo dei dubbi, sfruttiamo uno dei tool nominati sopra: VWO quanto deve durare il mio AB/ test.
Esempio di A/B test con unico elemento variante
L'elemento che differisce è la posizione del modulo o di un pulsante CTA, tracciato come obiettivo.
Il test viene somministrato a tutto il pubblico di una campagna advertising, in cui il 50% degli utenti vede l'originale A ed il 50% vede la versione B. Alla fine del test il maggior numero di conversioni deriva dalla versione A. Da questo test possiamo dedurre che la miglior posizione dell'elemento che permette un maggior numero di conversioni è quella in alto (above the fold).
La pagina è ottimizzata? No, solo il pulsante in questo contesto, e il passo successivo potrebbe essere testare titolo, immagine ed altri elementi.
Esempio di A/B test con molti elementi varianti
Ci sono più elementi che differisco tra due annunci pubblicitari, l'originale A e la variante B: cambiano il titolo, il testo descrittivo e l'immagine.
In questo A/B test, somministrato a tutto il pubblico di una campagna advertising, in cui il 50% degli utenti vede l'annuncio A ed il 50% vede la versione B, emerge che il maggior numero di conversioni deriva dalla versione B. Abbiamo raggiunto l'obiettivo di individuare una versione migliore rispetto un'altra, ma quale degli elementi che sono diversi nelle due versioni è responsabile della variazione di rendimento? o è una combinazione di più fattori che determinano la vittoria della versione B?
Il passo successivo potrebbe essere fare un ulteriore test modificando un solo elemento, per comprenderne il suo rendimento specifico. In pratica, una volta fatto il nostro primo A/B test e raccolto i risultati, siamo pronti per il prossimo A/B test.
Testare, migliorare e ottimizzare sono 3 azioni che vanno fatte continuamente e costantemente se si vogliono ottenere i migliori risultati!
E tu hai ottenuto le informazioni che cercavi facendo A/B test delle tue pagine?
Se hai dei dubbi scrivili qui nei commenti.