Le Journal d'UX
L'actualité UX,
au-dessus de la ligne de flottaison.
Wiki UX A/B testing

A/B testing

Methode
Définition

Méthode d'expérimentation qui consiste à comparer deux versions d'un même élément (page, bouton, formulaire) auprès de deux groupes d'utilisateurs distincts. Chaque groupe ne voit qu'une seule version. La performance est mesurée sur un indicateur précis : taux de clic, taux de conversion, temps passé. Le résultat statistiquement significatif désigne la version gagnante. La méthode suppose un volume de trafic suffisant pour produire des données exploitables.

En pratique

On isole une seule variable par test pour attribuer clairement l'effet observé. Le test doit tourner assez longtemps pour couvrir les variations de trafic (jours de semaine, pics saisonniers). Les outils courants (Google Optimize, AB Tasty, Optimizely) gèrent la répartition du trafic et le calcul de significativité. Lancer un A/B test sans hypothèse claire revient à jouer aux devinettes avec des graphiques en prime. Le test s'applique aussi bien à une page d'accueil qu'à un objet d'email.

Exemple

Booking.com exécute des milliers d'A/B tests par an, y compris sur la couleur et la position des boutons de réservation. Un test classique : comparer un CTA "Réserver" contre "Voir les disponibilités" pour mesurer l'impact sur le taux de conversion.

Voir aussi
Recherche quantitative (*Quantitative Research*)
Test multivarié (*Multivariate Testing*)
Taux de complétion (*Task Completion Rate*)
Taux de conversion (*Conversion Rate*)
Sources
Kohavi, R., Tang, D., Xu, Y. – Trustworthy Online Controlled Experiments: A Practical Guide to A/B Testing (Cambridge University Press, 2020)
Optimizely – A/B Testing Guide
Le Journal d'UX est un média indépendant sur l'expérience utilisateur. Liens curatés, wiki UX en français, communauté.