A/B testing
Les tests A/B consistent à créer 2 versions d'un actif numérique pour voir laquelle à laquelle les utilisateurs réagissent le mieux. Ces ressources peuvent être des pages de destination, des annonces display, des e-mails de marketing ou encore des publications sur les réseaux sociaux. Au cours d’un test A/B, une moitié de votre audience reçoit automatiquement la « version A » et une seconde moitié reçoit la « version B ». La performance de chaque version est basée sur des objectifs de taux de conversion, comme le pourcentage de personnes qui cliquent sur un lien, remplissent un formulaire ou réalisent un achat.
Les tests A/B ne sont pas une innovation apparue avec le marketing numérique. À une époque, le publipostage était la principale technique utilisée pour « diviser » ou « organiser » des offres afin de déterminer celle qui fonctionne le mieux. Les fonctionnalités numériques reposent sur cette même idée, mais permettent d’utiliser des résultats de test plus précis, plus fiables et plus rapides.
Si vous essayez de développer votre activité, connaître les stratégies marketing qui fourniront les meilleurs résultats auprès de votre audience peut s’avérer complexe. Les tests A/B (et d’autres stratégies d’optimisation des taux de conversion) vous permettent d’effectuer des tests afin d’améliorer votre contenu, de fournir les meilleures expériences client possible et d’atteindre votre objectif de conversion plus rapidement. Ce guide vous permettra de découvrir les bases des tests A/B.
Définition des tests A/B : Qu’est-ce qu’un test A/B ?
Les tests A/B, également connus sous le nom de « split testing », vous permettent de comparer deux versions d’un produit ou élément pour déterminer la version la plus efficace. En d’autres termes : vos utilisateurs préfèrent-ils la version A ou la version B ?
Le concept des tests A/B est semblable à la méthode scientifique. Si vous voulez savoir ce qui se passe lorsque vous changez un seul élément, vous devez créer une situation dans laquelle seul cet élément change.
Pensez aux expériences que vous avez réalisées à l’école primaire. Si vous plantez 2 graines dans 2 pots de terre et que vous placez l’un près de la fenêtre et l’autre dans le placard, vous observerez différents résultats. Ce type de mise en place expérimentale est ce que l’on appelle un test A/B.
Historique des tests A/B
Dans les années 1960, les spécialistes du marketing se sont rendu compte que ce type de test pourrait les aider à mieux comprendre l’impact de leurs publicités. Lequel des deux générerait le plus de ventes : une publicité à la télévision ou un spot radio ? Quel support est le mieux adapté au marketing par publipostage, les lettres ou les cartes postales ?
Dans les années 1990, alors qu’Internet commençait peu à peu à faire partie intégrante du monde des affaires, les tests A/B sont eux aussi passés à la sphère numérique. Lorsque les équipes de marketing numérique ont obtenu les ressources techniques nécessaires, elles ont commencé à tester leurs stratégies en temps réel, à grande échelle.
En quoi consiste le test A/B ?
Les tests A/B impliquent l’utilisation de solutions numériques pour tester différents éléments d’une campagne marketing. Pour effectuer un test A/B, vous devez avoir :
- Une campagne à tester. Pour faire le test A/B d’une campagne marketing, vous avez besoin d’un e-mail, d’une lettre d’information, d’une annonce publicitaire, d’une landing page ou d’un autre support déjà en cours d’utilisation.
- Éléments à tester. En examinant les différents éléments de votre campagne, réfléchissez à ce que vous pouvez changer et ce qui peut inciter les clients à agir. Assurez-vous de tester les éléments individuellement pour vous assurer d’obtenir des mesures correctes.
- Objectifs définis. Vos tests A/B doivent déterminer quelle version de votre campagne offrent de meilleurs résultats pour votre entreprise. Réfléchissez aux différents éléments que vous pouvez mesurer, y compris les clics, les inscriptions ou les achats.
À quoi ressemblent les tests A/B à l’ère du numérique ?
En substance, les tests A/B n’ont pas changé. Vous choisissez le facteur que vous souhaitez analyser, comme un article de blog avec des images et ce même article sans les images. Ensuite, vous affichez aléatoirement un des deux articles de blog auprès des visiteurs, tout en contrôlant d’autres facteurs. Vous enregistrez également autant de données que possible, notamment sur les taux de rebond, le temps passé sur la page, et ainsi de suite.
Vous pouvez même tester plusieurs variables à la fois. Par exemple, si vous souhaitez évaluer la police ainsi que la présence ou l’absence d’images, vous pouvez choisir de créer 4 pages différentes, chacune affichant le même article de blog avec une particularité :
- Arial avec images
- Arial sans images
- Times New Roman avec images
- Times New Roman sans images
Un logiciel de test A/B renvoie les données provenant d’expériences telles que celles-ci. Un de vos collaborateurs interprète ensuite les résultats pour décider si votre entreprise doit prendre une décision en fonction de ces données et dans quelle mesure, le cas échéant.
Pourquoi les tests A/B sont-ils importants ?
Les tests A/B vous fournissent les données nécessaires pour optimiser votre budget marketing. Supposons que votre responsable vous a donné un budget pour générer du trafic vers le site Web de votre entreprise en utilisant Google AdWords. Vous configurez un test A/B qui suit le nombre de clics sur trois titres d’articles différents. Vous exécutez le test pendant une semaine, en vous assurant d’utiliser le même nombre d’annonces pour chaque option à tout moment.
Les résultats de ce test vous aideront à déterminer quel titre génère le plus de clics. Vous pouvez alors utiliser ces données pour créer votre campagne marketing en conséquence, ce qui vous permettra d’obtenir un retour sur investissement (ROI) plus élevé que si vous vous étiez contenté de choisir un titre au hasard.
De petits changements pour de grandes améliorations
Les tests A/B vous permettent d’évaluer l’impact de changements relativement peu coûteux à mettre en œuvre. L’exécution d’une campagne AdWords demande un budget conséquent ; vous voulez donc que chaque aspect soit aussi efficace que possible.
Imaginons que vous exécutez un test A/B sur la police de votre page d’accueil, la taille du texte, les titres des menus, les liens et le positionnement de votre formulaire d’inscription personnalisé. Vous testez deux ou trois de ces éléments à la fois afin qu’il n’y ait pas trop de variables qui se recoupent.
Une fois le test terminé, vous observez que le fait d’avoir changé les trois derniers éléments augmente le taux de conversion de 6 % pour chaque élément. Votre concepteur Web implémente alors ces changements en moins d’une heure, après quoi vous aurez une chance d’obtenir 18 % de revenus supplémentaires.
Un risque maîtrisé pour de nombreux avantages
Les tests A/B sont non seulement rentables, mais aussi rapides. Ils vous permettent de tester deux ou trois éléments et d’obtenir une réponse. Vous pouvez alors facilement décider de mettre en œuvre ou non un changement. Si les données réelles ne correspondent pas aux résultats de vos tests, il est toujours possible de revenir à une version antérieure au test.
Tirer le meilleur parti du trafic
Si vous utilisez les tests A/B pour rendre votre site Web aussi efficace que possible, vous pourrez obtenir plus de conversions par visiteur. Plus votre pourcentage de conversion est élevé, moins vous aurez besoin de consacrer de temps et d’argent à vos activités marketing ; en théorie, toute personne qui visite votre site Web est plus susceptible d’agir.
Souvenez-vous que le fait d’améliorer votre site Web peut augmenter votre taux de conversion à la fois pour le trafic payant et pour le trafic non payant.
Avec quels types de contenu peut-on utiliser des tests A/B ?
En matière de contenu client, une multitude d’éléments peut être évaluée avec des tests A/B.
Les catégories les plus courantes comprennent :
- Campagnes par e-mail
- E-mails individuels
- Stratégies de marketing multimédia
- Publicités payantes sur Internet
- Newsletters
- Conception de sites Web
Dans chacune de ces catégories, vous pouvez effectuer des tests A/B avec un nombre illimité de variables. Si vous testez la conception de votre site Web, par exemple, vous pouvez essayer différentes options, notamment les suivantes :
- La palette de couleurs
- La mise en page
- Le nombre et le type d’images
- Les en-têtes et les sous-titres
- La tarification des produits
- Des offres spéciales
- La conception des boutons d’appel à l’action
- Comparer des e-mails vidéo et des e-mails non vidéo
En principe, vous pouvez tester presque n’importe quel élément de style ou de contenu dans un objet destiné aux clients.
Comment effectuer des tests A/B ?
En fin de compte, le processus de test A/B n’est ni plus ni moins que la méthode suivie par les scientifiques. Si vous voulez tirer le meilleur parti de ce processus, vous devez l’aborder de manière scientifique. Tout comme pour la méthode scientifique utilisée en laboratoire, la première étape d’un test A/B consiste à déterminer l’objet du test. Le processus dans son ensemble est divisé en plusieurs étapes :
1. Identifier un problème
Assurez-vous d’identifier un problème spécifique. Par exemple, « Mon nombre de conversions est insuffisant » serait trop général. Bien trop de facteurs entrent en jeu pour déterminer si une personne visitant votre site Web deviendra un client ou si le destinataire d’un de vos e-mails cliquera sur le lien de votre site Web. Vous devez savoir pourquoi votre contenu ne génère pas de conversions.
Exemple : Vous travaillez pour un magasin de vêtements pour femmes qui génère de nombreuses ventes en ligne, mais très peu de ces ventes proviennent des campagnes par e-mail du magasin. En consultant vos données analytiques, vous constatez qu’un pourcentage élevé d’utilisateurs ouvrent vos e-mails concernant des offres spéciales et les lisent, mais que peu d’entre eux passent à l’étape suivante.
2. Analyser les données des utilisateurs
Techniquement, vous pourriez effectuer des tests A/B sur tout ce que vos clients voient quand ils ouvrent vos e-mails, mais cela prendrait un temps considérable. Parmi la multitude d’éléments de conception et de contenu qui s’affichent sur leur écran, bon nombre d’entre eux ne sont pas pertinents ; il vous faut donc déterminer l’élément qui doit être ciblé en priorité.
Exemple : Les destinataires ouvrent bien vos e-mails, il n’y a donc aucun problème apparent avec la manière dont vous rédigez vos lignes d’objet. Ils passent également du temps à les lire, rien ne les rebute donc de but en blanc. Étant donné qu’une grande partie des utilisateurs qui trouvent l’adresse de votre site Web sur des supports tiers finissent par devenir des clients, vous pouvez supposer qu’il n’y a aucun problème avec la façon dont vous présentez vos produits. Cela suggère que, bien que les gens trouvent vos e-mails attrayants, ils abandonnent à mi-parcours avant de cliquer sur le lien de votre site Web.
3. Formuler une hypothèse à tester
Vous avez maintenant considérablement réduit le champ des possibilités. La prochaine étape consiste à déterminer exactement les éléments que vous souhaitez tester et la façon dont vous comptez procéder. Réduisez le nombre d’inconnues pour n’en garder qu’une ou deux, du moins pour commencer. Ensuite, vous pouvez déterminer la mesure dans laquelle le fait de modifier ce ou ces éléments pourrait vous permettre de résoudre le problème que vous rencontrez.
Exemple : Vous remarquez que le bouton de lien vers votre boutique en ligne est situé en bas de l’e-mail, sous le pli. Vous vous dites qu’en insérant le bouton en haut de la page, vous aurez peut-être plus de chance que les gens consultent votre site Web.
4. Vérifier votre hypothèse
Créez une nouvelle version de l’élément de test qui met en œuvre votre hypothèse. Ensuite, exécutez un test A/B entre votre page actuelle et cette nouvelle version auprès de votre audience cible.
Exemple : Vous créez une version de l’e-mail en plaçant le bouton au-dessus du pli, Vous ne changez pas sa conception, juste son positionnement. Vous décidez d’exécuter le test pendant 24 heures. Vous définissez alors cet intervalle comme paramètre temporel et lancez le test.
5. Analyser les données
Une fois le test terminé, analysez les résultats pour vérifier si la nouvelle conception de l’e-mail a entraîné des changements notables. Si ce n’est pas le cas, essayez de tester un nouvel élément.
Exemple : Votre nouvel e-mail a légèrement augmenté le taux de conversions, mais votre responsable veut savoir si quelque chose d’autre pourrait donner de meilleurs résultats. Puisque votre variable était le positionnement du bouton, vous décidez de le placer dans deux autres endroits.
6. Trouver de nouveaux challengers pour votre championne.
Dans le monde des tests A/B, on utilise parfois les termes « championne » et « challenger » pour se référer à l’option actuelle et aux nouvelles possibilités. Lorsque deux options ou plus sont mises sur le banc d’essai et que l’une d’entre elles s’avère nettement plus efficace, celle-ci est alors appelée « championne ». Vous pouvez ensuite tester cette championne par rapport à d’autres options, appelées « challengers ». Ce test pourrait dévoiler une nouvelle championne, ou révéler que la championne d’origine était réellement la meilleure option.
Exemple : Vous avez effectué un test A/B portant sur deux versions d’une page de destination et avez identifié la championne, mais il existe également une troisième version de la page que vous souhaitez comparer à la championne de votre premier test. La troisième version devient ainsi le nouveau challenger à tester par rapport à la championne du test précédent.
Après avoir suivi les six étapes décrites ci-dessus, vous pourrez déterminer si l’amélioration était suffisamment importante pour mettre fin au test et apporter les modifications nécessaires. Vous pouvez également exécuter un autre test A/B pour évaluer l’impact d’un autre élément, comme la taille du bouton ou ses couleurs.
Conseils pour les spécialistes des tests A/B
Voici quelques conseils pour vous aider à rendre vos tests A/B aussi utiles que possible.
Utilisez des échantillons représentatifs de vos utilisateurs
N’importe quel scientifique vous dira que si vous préparez une expérience, vous devez vous assurer que vos groupes de participants sont aussi similaires que possible. Si vous testez un site Web, vous pouvez utiliser divers outils de test automatisé pour vous assurer que chaque version sera présentée à un groupe de personnes aléatoire.
Si vous envoyez les versions directement à vos clients ou prospects, vous devrez créer manuellement des listes comparables. Faites en sorte que les groupes soient de taille aussi égale que possible, et si vous avez accès aux données, répartissez les destinataires de manière égale en fonction du sexe, de l’âge et de la région. Ainsi, toute variation de ces facteurs aura un impact minimal sur vos résultats.
Utilisez les plus grands échantillons possible
Plus le nombre de personnes testées est grand, plus vos résultats seront fiables. Cela est lié à un concept que les statisticiens appellent la « pertinence statistique ».
En somme, si le résultat est pertinent sur le plan statistique, cela signifie qu’il est peu probable qu’il soit dû au hasard. Par exemple, si vous envoyez une nouvelle version d’un e-mail à 50 personnes et la version de contrôle à 50 personnes, une augmentation de seulement 5 % du taux de clic signifie que 5 personnes ont été plus sensibles à votre nouvelle version. La différence est si minime qu’elle pourrait être due au hasard ; et si vous effectuez à nouveau le même test, il est possible que vous obteniez des résultats différents. En d’autres termes, vos résultats n’ont pas été pertinents sur le plan statistique.
Si vous avez la possibilité d’envoyer le même ensemble d’e-mails à des groupes de 500 personnes, une augmentation de 5 % signifierait que 50 personnes ont été plus sensibles à la nouvelle version, soit un résultat beaucoup plus susceptible de s’avérer pertinent.
Évitez les erreurs courantes
Il est tentant de créer un bouton contextuel de taille différente avec une nouvelle police, une nouvelle taille de texte et de nouvelles couleurs. Cependant, plus vous ajoutez de nouveaux éléments, plus vos résultats seront imprécis.
Pour poursuivre l’exemple donné ci-dessus, si la conception de votre nouveau bouton contextuel est complètement différente de l’originale, vous observerez probablement des corrélations entièrement fortuites. Peut-être semble-t-il que le grand bouton violet « Passer à la caisse » avec l’image du signe dollar fonctionne mieux que le petit bouton bleu qu’il a remplacé. Cependant, il est possible qu’un seul de ces éléments de conception soit significatif, comme la taille, par exemple.
N’oubliez pas que vous pourrez toujours exécuter un nouveau test avec d’autres éléments plus tard. Ce test de suivi sera plus facile à analyser qu’un test qui comporte 18 variables.
Attendez la fin du test avant d’apporter des modifications
Comme les tests A/B vous permettent de voir les effets d’un changement en temps réel, il peut être tentant de mettre fin au test dès que vous observez des résultats afin de pouvoir mettre immédiatement en œuvre une nouvelle version. Cependant, cela signifie que vos résultats risquent d’être incomplets et donc moins pertinents d’un point de vue statistique. Les variables soumises à une contrainte de temps peuvent avoir un impact sur vos résultats, vous avez donc tout intérêt à attendre la fin de la période de test pour bénéficier de la randomisation.
Exécutez plusieurs fois le même test
Le comportement des utilisateurs étant extrêmement variable, même le meilleur logiciel de test A/B n’est pas à l’abri de fournir de faux positifs. La seule façon de vous assurer que les résultats de vos tests sont précis est d’exécuter à nouveau le même test, avec les mêmes paramètres.
Cela est d’autant plus important si votre nouvelle version présente une faible marge d’amélioration. Un seul résultat faussé peut avoir une incidence considérable si les résultats positifs sont peu nombreux.
En outre, si vous exécutez de nombreux tests A/B, il est plus probable que vous rencontriez un faux positif de temps à autre. Vous ne pourrez peut-être pas vous permettre de relancer tous les tests à la fois, mais en effectuant un nouveau test de temps en temps, vous aurez plus de chances d’identifier des erreurs.
Simplifiez les tests A/B avec Mailchimp
Les tests A/B sont un moyen efficace d’évaluer la réaction de votre audience face à une conception ou une idée de contenu, car ils ne perturbent pas l’expérience de vos utilisateurs et n’exigent pas de leur envoyer des enquêtes malvenues. Essayez simplement quelque chose de nouveau et laissez les résultats parler d’eux-mêmes.
Novice en matière de tests A/B ? Testez facilement vos campagnes avec Mailchimp pour déterminer quels en-têtes d’e-mail, éléments visuels, objets et versions sont mieux accueillis par vos clients.