> > Infographie(s) : L'A/B Testing en une image

Infographie(s) : L'A/B Testing en une image


Infographie(s) : L'A/B Testing en une image
5 (100%) 5 votes

Infographie(s) : L'A/B Testing en une image

Une infographie qui nous explique en images le concept de l'A/B Testing, utilisé (notamment en SEO, mais pas que) pour tester et comparer plusieurs techniques ou méthodes marketing...

Notre infographie du vendredi est proposée aujourd'hui par le site Inéolab (un habitué de cette rubrique, l'un des rares sites en France à créer des infographies intéressantes et à nous les signaler pour qu'on en parle) et propose un résumé de ce qu'est l'A/B Testing (souvent utilisé en SEO mais aussi par Google avec ses tests incessants) : définition, astuces, usages, différences avec d'autres techniques, etc. Bref, un bon aperçu des méthodes utilisées aujourd'hui mises en place pour tester et comparer des méthodologies marketing, notamment sur un site web (cliquez sur l'image pour en obtenir une version agrandie) :

Infographie(s) : L'A/B Testing en une image
Infographie(s) : L'A/B Testing en une image. Source : Inéolab.

Commentaires : 5
  1. Nicolas TRIMARDEAU 8 juin 2018 at 8 h 36 min

    Cela résumé bien la mentalité des tests A/B et de l'amélioration continue. Un point que je trouve important dans l'A/B testing est de bien définir les hypothèses. Il est de mon point de vue très peu intéressant de proposer, par exemple, un test en mettant en concurrence des pages totalement différentes. Dans ce cas nous ne serions pas en mesure de vérifier quelle modification est performante ou non.

    Réaliser de nombreux "petits" tests est bien plus intéressant en terme d'analyse que de mettre en concurrence deux pages totalement différentes. Quite à réaliser des tests A/B/C/D (si le volume le permet)

    Un exemple assez parlant : l'utilisation des -er ou -ez dans les call to action. Il est intéressant de voir qu'une modification aussi minime à un impact sur le taux de clic sur lesdits CTA.

  2. Patrick Muller 9 juin 2018 at 17 h 55 min

    Une question À partie de combien de visite peut on dire que le résultat est fiable ? Est-ce que 100 visites sur chaque version suffit à se faire un opinion fiable ?

    • Patrice Decoeur 15 juin 2018 at 17 h 32 min

      100 est considéré comme le minimum.
      Vous pouvez considérer que les résultats sont alors suffisamment pertinents pour prendre une décision si vous avez 20 % d'écart, ou plus.

  3. Nicolas TRIMARDEAU 11 juin 2018 at 8 h 18 min

    De mon point de vue, cela dépend énormément, une variation de 50% peut être pertinente avec 100 visiteurs sur chaque page alors qu'une variation de 2% demandera peut être un peu plus de volume. Il faut bien penser a tester les pages en parallèle et sur la même période afin d'éviter des variations dues aux évènements externes (Même la météo peut avoir un effet sur le taux de conversion)

  4. Dan Bernier 11 juin 2018 at 14 h 45 min

    Merci Olivier pour le partage de notre infographie !
    Pour répondre à Patrick et Nicolas, chez Inéolab on a remarqué qu'un test était fiable lorsque ces 3 critères étaient remplis :
    1. 15 jours de test
    2. la tendance n'ai pas changé dans les 7 derniers jours
    3. 150 conversions minimum

    De mon point de vue, un test ne peut donc pas être réalisé pour 200 visiteurs sur la page : les résultats risquent de ne pas être très pertinents. Évidemment, c'est toujours sujet à caution car si le test A/B est réalisé sur une page qui a déjà un fort taux de conversion, l'amélioration peut être très claire. Alors que sur une page avec 1000 visites, les résultats pourraient être confus malgré tout.

    Pareil si le test est réalisé sur plein d'éléments de la page. Les résultats seraient noyés dans le nombre de modifications.

Un site du Réseau Abondance : Abondance / Réacteur / Formaseo / Outiref / Livre Référencement / Définitions SEO | Olivier Andrieu | Contact | Publicité sur le site