Méthode d'expérimentation qui consiste à comparer deux versions d'un même élément (page, bouton, formulaire) auprès de deux groupes d'utilisateurs distincts. Chaque groupe ne voit qu'une seule version. La performance est mesurée sur un indicateur précis : taux de clic, taux de conversion, temps passé. Le résultat statistiquement significatif désigne la version gagnante. La méthode suppose un volume de trafic suffisant pour produire des données exploitables.
On isole une seule variable par test pour attribuer clairement l'effet observé. Le test doit tourner assez longtemps pour couvrir les variations de trafic (jours de semaine, pics saisonniers). Les outils courants (Google Optimize, AB Tasty, Optimizely) gèrent la répartition du trafic et le calcul de significativité. Lancer un A/B test sans hypothèse claire revient à jouer aux devinettes avec des graphiques en prime. Le test s'applique aussi bien à une page d'accueil qu'à un objet d'email.
Booking.com exécute des milliers d'A/B tests par an, y compris sur la couleur et la position des boutons de réservation. Un test classique : comparer un CTA "Réserver" contre "Voir les disponibilités" pour mesurer l'impact sur le taux de conversion.