it
English Español Deutsch Français Italiano Português (Brasil) Русский 中文 日本語
Invia il post
Torna ai giochi

A/B test: cosa sono e come sfruttarli al meglio

76
Wow-Score
Il Wow-Score mostra il livello di interazione del posto di un blog. Si calcola sulla correlazione tra il tempo di lettura attivo degli utenti, la loro velocità di scrolling e la lunghezza dell'articolo.

A/B test: cosa sono e come sfruttarli al meglio

Chiara Storti
A/B test: cosa sono e come sfruttarli al meglio

Cosa sono gli A/B test?

Spesso non siamo convinti di un annuncio pubblicitario o di un elemento di una pagina web, a volte non siamo soddisfatti al 100% del rendimento di una campagna pubblicitaria o di una landing page... e magari quella che ipotizzavamo essere la miglior soluzione da pubblicare, non è quello che speravamo.

In questi casi ci serve un test, un esperimento: ci serve un sistema che ci consenta di comprendere come il pubblico reagisce a quanto da noi proposto e a una sua variante, non con ipotesi e congetture, ma con numeri e percentuali registrati.

Ecco quindi l'A/B test: un esperimento grazie a cui possiamo somministrare a un pubblico da noi definito due versioni differenti (la versione A e la versione B, o anche "originale" e "variante") di una pagina web, di un annuncio pubblicitario, di un titolo, di una foto o anche di un modulo, di un pulsante, in pratica di qualsiasi elemento che noi vogliamo mettere alla prova.

Grazie a questi test faremo infatti vedere a una percentuale di utenti la versione originale e a un'altra percentuale di utenti la variante, andando a misurarne gli effetti.

A/B test: cosa sono e come funzionano

Quando parliamo di A/B test parliamo di esperimenti che hanno l'obiettivo di scoprire cosa preferisce il nostro pubblico, mettendo a confronto due versione di uno stesso elemento, in originale A e in versione variante B.

Come fare un A/B test

Se pensiamo di creare un A/B test dobbiamo definire alcuni punti essenziali:

  1. l'obiettivo da misurare (che può essere la compilazione di un modulo, l'iscrizione a una newsletter, l'acquisto di un prodotto, le visite a una landing page, ecc), che misureremo poi in percentuale, come tasso di conversione
    [Qui puoi vedere alcuni esempi di A/B test su annunci e landing page]
  2. il pubblico target, ossia chi sarà soggetto al nostro esperimento (tutto il pubblico che vede le nostre pagine o i nostri annunci, o solo una porzione di esso)
  3. come somministrare l'esperimento al nostro pubblico target, che nel più classico dei test consiste nel proporre al 50% delle persone l'originale A e all'altro 50% la variante B 
  4. quale sarà l'elemento variante del nostro esperimento (un'immagine, il titolo o il testo scritto in un paragrafo piuttosto che la loro formattazione, il pulsante di un modulo, la disposizione di un elemento in una pagina, ma anche annunci pubblicitari in cui far variare il titolo, il testo o l'immagine, ecc)
  5. la durata del nostro test (che talvolta può essere definita, soprattutto quando si ha un volume di utenti notevole, altre volte può essere dichiarata come "quel tanto che serve ad ottenere dati rilevanti")

Una volta definiti i punti chiave sopra indicati è essenziale predisporre le due varianti che concorreranno nell'esperimento: preparare il copy dei titoli o dei testi, creare i due annunci che andranno in test, preparare le immagini per la pagina o l'annuncio o la mail che andranno in test, preparare le due pagine web nelle versioni desiderate, ecc.

L'originale A e la variante B, siano pagine o annunci, andranno create e pubblicate ma soprattutto gestite in modo preciso e puntuale, per raccogliere tutti i dati utili derivanti dall'esperimento.

Molti tool aiutano in questa fase: in primis Google Optimizer (con cui posso creare esperimenti tra pagine web), ma anche altri servizi come VWO Virtual Website Optimizator (con cui addirittura posso creare esperimenti senza dover pubblicare più versione di una stessa pagina, perché il sistema stesso si occupa di gestire le varianti in modo "virtuale") o i servizi offerti dalle piattaforme advertising, come Google AdWords (con i suoi esperimenti sulle campagne o le varianti annuncio), o come Facebook Ads (con i suoi split test), mentre per le landing page una buona soluzione potrebbe essere Unbounce.

Come usare gli A/B test evitando gli errori più comuni

Come indicato sopra, è importante definire l'obiettivo da misurare, il pubblico e quale sarà l'elemento variante del nostro esperimento, ma è altrettanto importante non incorrere in errori. Se ci sono dubbi, meglio chiarirli prima di iniziare.

Errore 1:

"Proviamo a cambiare titolo e immagine in header e vediamo come reagiscono i visitatori..."

Idea carina, ma definiamo "come reagiscono i visitatori": vogliamo sapere se migliora la durata della visita? lo scroll di pagina? la compilazione di un modulo? una qualsiasi altra conversione?

Ricordiamo sempre di definire l'obiettivo che vogliamo misurare.

Errore 2:

"Senza usare i tool di esperimento, proviamo a far vedere per una settimana l'originale e la settimana successiva la variante..."

No, non va bene. In questo modo si rischia di influenzare il test con fluttuazioni di traffico stagionali, con altre attività di marketing o altri contenuti che influiscono sui meccanismi di utilizzo del web delle persone: definiamo il pubblico target (tutti i visitatori o anche tutti i nuovi visitatori è una buona soluzione) e come somministrare l'esperimento (50-50 è l'ideale)

Errore 3:

"Ok, per il nostro esperimento l'originale è la pagina A, mentre la variante sarà la pagina A con titolo nuovo, immagine nuova, modulo in alto a destra invece che a fondo pagina, testo modificato..."

Idea carina, ma se la variante B dovesse convertire meno significa che nel complesso le modifiche non hanno stupito il nostro pubblico... ma quale di queste modifiche? il titolo? l'immagine? il modulo e la sua nuova posizione?

Se testiamo un elemento per volta (posizione di un modulo), o una combinazione di elementi che siano strettamente connessi tra loro (posizione e pulsante di un modulo), potremo trarre conclusioni più precise.

Errore 4:

"L'originale ha 20 conversioni e la variante ne ha 15, meglio l'originale"
No, non va bene nemmeno questo: basterebbero 6 conversioni nella variante per sovvertire questa conclusione. La durata dell'esperimento deve essere sufficiente a fornire dati significativi... e se abbiamo dei dubbi, sfruttiamo uno dei tool nominati sopra: VWO quanto deve durare il mio AB/ test.

Esempio di A/B test con unico elemento variante

L'elemento che differisce è la posizione del modulo o di un pulsante CTA, tracciato come obiettivo.

Ab testing con un solo elemento variante

Il test viene somministrato a tutto il pubblico di una campagna advertising, in cui il 50% degli utenti vede l'originale A ed il 50% vede la versione B. Alla fine del test il maggior numero di conversioni deriva dalla versione A. Da questo test possiamo dedurre che la miglior posizione dell'elemento che permette un maggior numero di conversioni è quella in alto (above the fold).

La pagina è ottimizzata? No, solo il pulsante in questo contesto, e il passo successivo potrebbe essere testare titolo, immagine ed altri elementi.

Esempio di A/B test con molti elementi varianti

Ci sono più elementi che differisco tra due annunci pubblicitari, l'originale A e la variante B: cambiano il titolo, il testo descrittivo e l'immagine.

A/B test con molti elementi varianti

In questo A/B test, somministrato a tutto il pubblico di una campagna advertising, in cui il 50% degli utenti vede l'annuncio A ed il 50% vede la versione B, emerge che il maggior numero di conversioni deriva dalla versione B. Abbiamo raggiunto l'obiettivo di individuare una versione migliore rispetto un'altra, ma quale degli elementi che sono diversi nelle due versioni è responsabile della variazione di rendimento? o è una combinazione di più fattori che determinano la vittoria della versione B?

Il passo successivo potrebbe essere fare un ulteriore test modificando un solo elemento, per comprenderne il suo rendimento specifico. In pratica, una volta fatto il nostro primo A/B test e raccolto i risultati, siamo pronti per il prossimo A/B test.

Testare, migliorare e ottimizzare sono 3 azioni che vanno fatte continuamente e costantemente se si vogliono ottenere i migliori risultati!

E tu hai ottenuto le informazioni che cercavi facendo A/B test delle tue pagine?

Se hai dei dubbi scrivili qui nei commenti.

Chiara Storti
Pro

Fa ottime domande e dà risposte brillanti.

Chiara è co-fondatrice di Spicelab.it e partecipa come docente e relatore in vari eventi italiani di Web Marketing.
Chiara è una specialista del web: una campagna Ads sta a Chiara come il pane sta alla crema di cioccolata, una strategia SEO come Napoli alla pizza, una campagna Web Marketing come Genova al pesto. Dai domini all’advertising, dall’ottimizzazione al copywriting, dalle un mazzo di keywords: ti aprirà le porte al mondo del web(marketing) in un… click!
Condividi il post
o

Commenti

2000

Invia un feedback

Your feedback must contain at least 3 words (10 characters).

Useremo questa email solo per rispondere al tuo feedback. Informativa sulla privacy

Thank you for your feedback!

Sistema di ranking nella community

Il punteggio della Community SEMrush riflette il livello di riconoscimento professionale nella nostra community. Apprezziamo i contributi di qualità: i membri con il punteggio più alto riceveranno preziosi incentivi. Partecipa alle discussioni, scrivi post e parla nei webinar, adotta un tono amichevole, cerca di essere sempre d'aiuto, e arriverai al vertice delle classifiche.

  • Nuovo arrivato
    Si è appena iscritto o è troppo timido per dire qualcosa.
  • Entusiasta
    Ogni tanto prende parte alle conversazioni.
  • Aiutante
    Un membro esperto, sempre lieto di dare una mano.
  • Maestro
    Un veterano della community.
  • Pro
    Fa ottime domande e dà risposte brillanti.
  • Esperto
    Offre preziosi consigli e dà profondità alla conversazione.
  • Guru
    Un grande saggio del marketing digitale.
  • Superstar
    Sa tutto... o quasi.
  • Leggenda
    Arrivare fin qui non è affatto semplice.