{"id":190,"date":"2011-09-06T12:59:05","date_gmt":"2011-09-06T10:59:05","guid":{"rendered":"https:\/\/alistapart.com\/it\/article\/manuale-abtesting\/"},"modified":"2011-09-06T12:59:05","modified_gmt":"2011-09-06T10:59:05","slug":"manuale-abtesting","status":"publish","type":"article","link":"https:\/\/alistapart.com\/it\/article\/manuale-abtesting\/","title":{"rendered":"Introduzione ai test A\/B"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" src=\"http:\/\/alistapart.com\/it\/wp-content\/uploads\/sites\/2\/2011\/09\/n34apeweb.jpg\" border=\"0\" width=\"270\" height=\"201\" align=\"left\" \/>I dati sono uno strumento inestimabile per i web designer che devono prendere delle decisioni riguardanti la user experience. I test A\/B, o split test, sono uno dei modi pi\u00f9 semplici per misurare l&#8217;effetto di diversi design, contenuto o funzionalit\u00e0. I test A\/B ci permettono di creare degli elementi di user experience altamente performanti che potete implementare nel vostro sito. Ma \u00e8 importante essere sicuri di raggiungere dei risultati statistici significativi ed evitare le false tracce. Vediamo come fare.<\/p>\n<div class=\"paragrafo\">\n<h2>Cos&#8217;\u00e8 un test A\/B?<\/h2>\n<p>In un test A\/B si paragonano due versioni di un elemento della pagina per un certo tempo, con lo scopo di verificare quale abbia una miglior performance. Gli utenti vedranno una versione oppure l&#8217;altra e voi misurerete le conversioni per ciascun insieme di utenti. I test A\/B aiutano i designer nel confronto dei contenuti, come ad esempio titoli differenti, il testo per una call to action o la lunghezza del testo principale. Le scelte di design e di stile possono essere anch&#8217;esse testate. Ad esempio, potete testare dove mettere un pulsante per il login o quanto deve essere grande. I test A\/B possono inoltre essere d&#8217;aiuto per misurare i cambiamenti di funzionalit\u00e0: ad esempio, come e quando vengono mostrati i messaggi di errore.<\/p>\n<p>In aggiunta, gli split test possono esserci d&#8217;aiuto quando stiamo operando dei cambiamenti drastici nel design, che pertanto devono essere mitigati, come ad esempio un redesign della homepage. Potete prendere dei pezzi del design modificato e testarli per ogni passo che fate dal vecchio design al nuovo, senza preoccuparvi del fatto che un cambiamento drastico possa alienare la vostra base di utenti o causare una grande diminuzione delle conversioni.<\/p>\n<p>I risultati dei test A\/B hanno un impatto duraturo. E&#8217; importante sapere quali design pattern funzionano meglio per i vostri utenti, cos\u00ec che possiate ripetere i risultati \u201cvincenti\u201d dei test A\/B su tutto il vostro sito. Sia che apprendiate il modo in cui gli utenti rispondono al tono del contenuto, alle call to action o al layout, potete applicare quello che imparate man mano che create del nuovo contenuto.<\/p>\n<p>I dati vanno molto bene anche per i decision-maker che non sono designer. I test A\/B possono aiutare a prevenire le diminuzioni nel conversion rate, l&#8217;alienazione degli utenti abituali e le diminuzioni delle entrate. I clienti apprezzano questo tipo di dati. Le conversioni che misurate potrebbero effettivamente essere gli acquisti di determinati prodotti, i click su un link, il numero di visite di ritorno al sito, la creazione di account o qualunque altra azione misurabile. Gli split test possono aiutare il vostro team a prendere decisioni basate sui fatti piuttosto che sulle opinioni.<\/p>\n<\/div>\n<div class=\"paragrafo\">\n<h2>Decidere cosa testare<\/h2>\n<p>Innanzitutto, dovete decidere quali elementi della pagina vorreste sottoporre a un test. Le differenze tra le versioni A\/B dovrebbero essere nette: un piccolo cambiamento nel colore, un leggero riordinamento delle parole o dei cambiamenti trascurabili della funzionalit\u00e0 potrebbero non costituire dei buoni test A\/B, perch\u00e9 potrebbero non registrare delle grandi differenze nella user experience, dipendendo dalla dimensione della base degli utenti. La differenza tra le versioni dovrebbe influenzare il conversion rate e dovrebbe essere qualcosa da cui imparare per i futuri design. I migliori test A\/B dovrebbero confrontare:<\/p>\n<ul>\n<li>titoli delle e-mail completamente differenti,<\/li>\n<li>offrire servizi in pacchetti o per pi\u00f9 anni,<\/li>\n<li>richiedere la registrazione per un insieme di utenti e lasciarla opzionale per un altro.<\/li>\n<\/ul>\n<p><a href=\"http:\/\/whichtestwon.com\/\">Which Test Won<\/a> [Quale test ha vinto, <em>ndt<\/em>] \u00e8 una grande fonte di ispirazione per i test A\/B ed include i risultati cos\u00ec come le valutazioni dei tester sul perch\u00e9 ha vinto una particolare versione. I test A\/B dovrebbero essere fatti solo con una variabile alla volta: se testate pi\u00f9 di una differenza tra le versioni, sar\u00e0 impossibile dire in che modo ciascuna variabile ha influenzato le conversioni.<\/p>\n<p>A questo punto, dovreste anche capire quale metrica confronterete nelle due versioni. La metrica pi\u00f9 utilizzata per i test A\/B \u00e8 il conversion rate, ma ci potrebbero essere altri dati a cui siete interessati. Il conversion rate che misurate potrebbe essere la percentuale di utenti che hanno cliccato su un pulsante, che hanno compilato una form o aperto un&#8217;email.<\/p>\n<\/div>\n<div class=\"paragrafo\">\n<h2>Implementare i test<\/h2>\n<p>Una volta decise le differenze tra le versioni A e B, dovrete impostare il test A\/B perch\u00e9 giri sul vostro sito. Ci sono molti tool per eseguire i test A\/B che potete provare, a seconda del medium (website, email), piattaforma (HTML statico, contenuto dinamico) o comodit\u00e0 nel rilascio delle metriche per i tool di terze parti. Which Test Won ha una <a href=\"http:\/\/whichtestwon.com\/techguide\">nutrita lista di tool<\/a> che potete usare per creare i vostri test A\/B. Potete anche creare la vostra soluzione \u201cfatta in casa\u201d. Dovrete essere in grado di controllare:<\/p>\n<ul>\n<li>il numero di visitatori che vedono ciascuna versione del test,<\/li>\n<li>la differenza tra ogni versione<\/li>\n<li>come misurare l&#8217;effetto di ciascun test.<\/li>\n<\/ul>\n<p>Tracciare gli eventi con Google Analytics pu\u00f2 essere utile se state usando la vostra soluzione per lo split test. Potete personalizzare le variabili usando Google Analytics, che \u00e8 utile perch\u00e9 traccia gli utenti che vedono la versione A del vostro test e quelli che vedono la versione B. Questo pu\u00f2 aiutare a decifrare dati aggiuntivi oltre al fondamentale dato del conversion rate. Ad esempio, gli utenti in diversi stati hanno dato risultati differenti rispetto all&#8217;utente medio?<\/p>\n<p>Per impostare le variabili personalizzate in Google Analytics, aggiungete la seguente riga di JavaScript alla vostra pagina:<\/p>\n<p><code>_gaq.push(['_setCustomVar',1,'testname','testversion',2]);<\/code><\/p>\n<p>Potete trovare ulteriori informazioni sulla creazione di variabili personalizzate nella <a href=\"http:\/\/code.google.com\/apis\/analytics\/docs\/tracking\/gaTrackingCustomVariables.html\">documentazione di Google<\/a>. Le parti della riga di cui sopra che dovrete sostituire sono: <code>testname<\/code>, che sar\u00e0 un identificatore per il test A\/B che state facendo, e <code>testversion<\/code>, che indicher\u00e0 se si tratta della versione A o della B. Usate nomi che siano intuitivi. Ad esempio, se dovessi fare un esperimento per una homepage per confrontare un testo breve con un testo lungo, nella versione A userei:<\/p>\n<p><code>_gaq.push(['_setCustomVar',1,'Homepage Content Test','Short',2]);<\/code><\/p>\n<p>Nella versione B userei:<\/p>\n<p><code>_gaq.push(['_setCustomVar',1,'Homepage Content Test','Long',2]);<\/code><\/p>\n<p>Raccogliere queste informazioni in Google Analytics vi permetter\u00e0 di vedere pi\u00f9 dati sugli utenti che vedono il vostro testo rispetto al solo conversion rate, quali il numero di visite al sito, il numero di account creati e altro ancora. Per vedere queste variabili di Google Analytics una volta che avrete raccolto i dati, andate su Visitors &gt; Custom Variables e selezionate il nome del test che avete usato prima.<\/p>\n<\/div>\n<div class=\"paragrafo\">\n<h2>Misurare i risultati<\/h2>\n<p>Dopo qualche tempo (tipicamente alcune settimane, a seconda del traffico verso il test), controllate i risultati del vostro test e confrontateli con il conversion rate di ciascuna versione. Ciascun test A\/B dovrebbe raggiungere la <a href=\"http:\/\/it.wikipedia.org\/wiki\/Significativit%C3%A0\">significativit\u00e0 statistica<\/a> prima di potersi fidare dei suoi risultati. Potete trovare diversi calcolatori online per verificare se avete raggiunto un livello di sicurezza pari al 95% nel vostro test. La significativit\u00e0 \u00e8 calcolata utilizzando il numero totale di utenti che hanno partecipato a ciascuna versione del test ed il numero di conversioni per ciascuna versione: un numero scarso di utenti o di conversioni e avrete bisogno di pi\u00f9 dati per confermare il vincitore. Il <a href=\"http:\/\/www.usereffect.com\/split-test-calculator\">calcolatore di Usereffect.com<\/a> pu\u00f2 aiutarvi a capire quanti utenti in pi\u00f9 vi servono prima di raggiungere la sicurezza al 95%: porre fine ad un test troppo precocemente pu\u00f2 significare che la versione \u201cvincente\u201d non sia in realt\u00e0 la scelta migliore, quindi misurate attentamente.<\/p>\n<p>Pi\u00f9 visitatori vedono il vostro test, pi\u00f9 il test sar\u00e0 rapido. E&#8217; importante fare i test A\/B sulle aree ad alto traffico del vostro sito, cos\u00ec che possiate raggiungere velocemente la significativit\u00e0 statistica. Man mano che vi impratichite con gli split test, troverete che pi\u00f9 visitatori vedono il vostro test, pi\u00f9 sar\u00e0 facile raggiungere un livello di sicurezza pari al 95%.<\/p>\n<\/div>\n<div class=\"paragrafo\">\n<h2>Esempi di test A\/B<\/h2>\n<p>Supponiamo che io sia una sviluppatrice di un sito di e-commerce. Dal momento che i test A\/B sono perfetti per testare un elemento della pagina per volta, ho creato un test A\/B per risolvere un disaccordo riguardante il volere in bold una parte del nome del prodotto nell&#8217;account dell&#8217;utente. Avevamo una lunga lista di prodotti nell&#8217;interfaccia utente per aiutare gli utenti a gestire il rinnovo dei propri prodotti e non eravamo sicuri su quanto fosse facile scorrere questa lista. Nella Versione A, la lista degli item appariva con il nome di dominio in grassetto:<\/p>\n<blockquote>\n<p>service name, <strong>yourdomainname.com<\/strong><\/p>\n<\/blockquote>\n<p>Mentre nella Versione B appariva cos\u00ec:<\/p>\n<blockquote>\n<p>service name, yourdomainname.com<\/p>\n<\/blockquote>\n<p>Dopo aver raggiunto un numero sufficiente di conversioni tali da avere un livello di sicurezza al 95%, ecco i risultati:<\/p>\n<table style=\"width: 540px;\" border=\"0\" cellspacing=\"0\">\n<tbody>\n<tr>\n<th> <\/th>\n<th>E-commerce Conversion Rate<\/th>\n<th>Valore Per Visita<\/th>\n<\/tr>\n<tr>\n<th scope=\"row\">Versione A<\/th>\n<td>26.87%<\/td>\n<td>$11.28<\/td>\n<\/tr>\n<tr>\n<th scope=\"row\">Versione B<\/th>\n<td>23.26%<\/td>\n<td>$10.62<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>Chiaramente, la Versione A era la vincitrice e ci ha aiutato a capire che gli utenti molto probabilmente scorrono la lista di prodotti per cercare il proprio nome di dominio.<\/p>\n<p>La user interaction \u00e8 un&#8217;altra metrica da controllare quando si creano i test A\/B. Abbiamo confrontato i livelli di aggressivit\u00e0 del tono di un contenuto in un test e abbiamo osservato per capire come cambiavano i pattern dei visitatori.<\/p>\n<p>Testo della Versione A:<\/p>\n<blockquote>\n<p>Don\u2019t miss out on becoming a VIP user. Sign up now.<\/p>\n<\/blockquote>\n<p>[\u201cNon perdete l&#8217;occasione di diventare un utente VIP. Iscrivetevi adesso.\u201d, <em>ndt<\/em>]<\/p>\n<p>Testo della Versione B:<\/p>\n<blockquote>\n<p>Don\u2019t be an idiot; become a VIP!<\/p>\n<\/blockquote>\n<p>[\u201cNon fare l&#8217;idiota: diventa un VIP!\u201d, <em>ndt<\/em>]<\/p>\n<p>Il bounce rate pu\u00f2 essere una buona metrica per i test A\/B delle landing pages. Come abbiamo osservato i numeri, i bounce rate delle versioni erano significativamente differenti:<\/p>\n<table style=\"width: 540px;\" border=\"0\" cellspacing=\"0\">\n<tbody>\n<tr>\n<th> <\/th>\n<th>Bounce Rate<\/th>\n<\/tr>\n<tr>\n<th scope=\"row\">Versione A<\/th>\n<td>0.05%<\/td>\n<\/tr>\n<tr>\n<th scope=\"row\">Versione B<\/th>\n<td>0.13%<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>Naturalmente volevamo essere cauti con il testo troppo aggressivo e il bounce rate ha indicato che la versione pi\u00f9 aggressiva avrebbe potuto essere alienante per gli utenti. Occasionalmente, una volta raggiunta la significativit\u00e0 statistica, potreste voler indagare un po&#8217; di pi\u00f9 in questi dati, specialmente se avete una user base diversificata. In un altro test sul contenuto, ho separato i dati sul bounce rate per stato utilizzando Google Analytics.<\/p>\n<table style=\"width: 540px;\" border=\"0\" cellspacing=\"0\">\n<tbody>\n<tr>\n<th> <\/th>\n<th>Bounce Rate Versione A<\/th>\n<th>Bounce Rate Versione B<\/th>\n<\/tr>\n<tr>\n<th scope=\"row\">Stati Uniti<\/th>\n<td>13.20%<\/td>\n<td>16.50%<\/td>\n<\/tr>\n<tr>\n<th scope=\"row\">Non-US<\/th>\n<td>15.64%<\/td>\n<td>16.01%<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>La Versione B ha avuto un bounce rate pi\u00f9 consistente tra le versioni e abbiamo realizzato di aver bisogno di fare ulteriori test per vedere perch\u00e9 la versione A aveva performance cos\u00ec diverse per i due gruppi di utenti.<\/p>\n<p>Oltre ai test sul design e sul contenuto, si possono anche fare degli esperimenti sulla funzionalit\u00e0. Avevamo un pulsante che semplicemente aggiungeva un prodotto al carrello dell&#8217;utente. In entrambe le versioni del nostro test A\/B abbiamo usato lo stesso linguaggio e stile per il pulsante, con una sola differenza tra le due versioni: il pulsante della versione A aggiungeva il prodotto al carrello con il prezzo per un anno, mentre la versione B lo aggiungeva con il prezzo per due anni.<\/p>\n<p>Il nostro obiettivo era quello di misurare il conversion rate dell&#8217;e-commerce e la media del valore dell&#8217;ordine per le due versioni. Non eravamo sicuri se gli utenti che avrebbero usato la versione B avrebbero ridotto il numero di anni nel carrello per pagare un solo anno o se vedendo un prezzo pi\u00f9 alto nel carrello avrebbero rinunciato ed abbandonato il carrello. Speravamo di poter guadagnare di pi\u00f9 con la versione B, ma dovevamo testarlo. Dopo aver raggiunto il numero di conversioni necessarie perch\u00e9 il test fosse statisticamente significativo, abbiamo scoperto:<\/p>\n<table style=\"width: 540px;\" border=\"0\" cellspacing=\"0\">\n<tbody>\n<tr>\n<th> <\/th>\n<th>Valore Medio dell&#8217;Ordine<\/th>\n<th>E-commerce Conversion Rate<\/th>\n<\/tr>\n<tr>\n<th scope=\"row\">Versione A<\/th>\n<td>$17.13<\/td>\n<td>8.33%<\/td>\n<\/tr>\n<tr>\n<th scope=\"row\">Versione B<\/th>\n<td>$18.61<\/td>\n<td>9.60%<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>Il pulsante della versione B che aggiungeva il prodotto al carrello con il prezzo per due anni era ovviamente il vincitore. Siamo in grado di utilizzare questa informazione per creare altri pulsanti \u201cAggiungi al carrello\u201d sul sito.<\/p>\n<\/div>\n<div class=\"paragrafo\">\n<h2>False tracce<\/h2>\n<p>A volte, i dati dei test A\/B saranno inconcludenti. Recentemente, abbiamo fatto un test sulla nostra homepage per determinare quale contenuto aveva una performance migliore. Ero sicura che una determinata versione sarebbe stata la vincitrice assoluta. Tuttavia, entrambe le versioni produssero lo stesso e-commerce conversion rate, le stesse pagine per visita e lo stesso valore medio per ordine. Dopo aver fatto il test per settimane, realizzammo che non avremmo probabilmente mai trovato dei dati significativi per fare un cambiamento, cos\u00ec abbiamo posto fine al test e siamo passati al successivo. Dopo un risultato neutro, si poteva scegliere qualunque versione per l&#8217;uso sul sito, ma non c&#8217;erano dati statisticamente significativi che indicassero che una versione fosse \u201cmeglio\u201d dell&#8217;altra.<\/p>\n<p>Ricordatevi di non farvi intrappolare dai test A\/B: a volte non mostreranno alcuna differenza. Lasciate ai test un tempo sufficiente da essere sicuri di aver fatto del vostro meglio (a seconda del numero di visitatori che vedranno la pagina, mi piace fare test per almeno tre settimane prima di controllare i dati). Se pensate che un test possa non avere successo, terminatelo e provato qualcosa d&#8217;altro.<\/p>\n<p>Tenete una lista delle diverse cose che dovete testare: vi aiuter\u00e0 a continuare ad imparare nuove cose e servir\u00e0 inoltre come modo semplice per risolvere i disaccordi nelle decisioni riguardanti il design. \u201cLo aggiungo alla lista dei test A\/B\u201d \u00e8 utile quando si devono placare le persone che prendono le decisioni.<\/p>\n<p>Illustrazioni: {carlok}<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>I dati sono uno strumento inestimabile per i web designer che devono prendere delle decisioni sulla user experience. Gli A\/B test, o split test, sono uno dei modi pi\u00f9 semplici per misurare l&#8217;effetto di diversi design, contenuti o funzionalit\u00e0, aiutandovi a creare degli elementi di user experience altamente performanti che potete implementare nel vostro sito. Tuttavia, \u00e8 importante essere sicuri di raggiungere dei risultati statisticamente significativi ed evitare le false tracce. Lara Swanson ci mostra come fare.<\/p>\n","protected":false},"author":818,"featured_media":7000626,"comment_status":"open","ping_status":"open","template":"","categories":[271,48,9,267],"tags":[],"coauthors":[337],"class_list":["post-190","article","type-article","status-publish","has-post-thumbnail","hentry","category-javascript","category-numero-34-6-settembre-2011","category-usabilita","category-user-research"],"jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/article\/190","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/article"}],"about":[{"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/types\/article"}],"author":[{"embeddable":true,"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/users\/818"}],"replies":[{"embeddable":true,"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/comments?post=190"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/media\/7000626"}],"wp:attachment":[{"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/media?parent=190"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/categories?post=190"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/tags?post=190"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/alistapart.com\/it\/wp-json\/wp\/v2\/coauthors?post=190"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}