Lorsque vous contactez vos utilisateurs ou lancez une nouvelle campagne marketing, vous devez vous assurer de ne pas vous tromper. Les tests A/B peuvent vous aider à trouver la formulation et la présentation optimales en testant des variantes de messages sur des portions sélectionnées de votre base d'utilisateurs. Que votre objectif soit d'améliorer la fidélisation ou la conversion d'une offre, les tests A/B peuvent effectuer une analyse statistique pour déterminer si une variante de message surpasse la référence pour l'objectif que vous avez sélectionné.
Pour tester différentes variantes d'une fonctionnalité par rapport à une référence, procédez comme suit :
- Créez votre test.
- Validez votre test sur un appareil de test.
- Gérez votre test.
Créer un test
Un test utilisant Firebase In-App Messaging vous permet d'évaluer plusieurs variantes d'un même message intégré à l'application.
Connectez-vous à la console Firebase et vérifiez que Google Analytics est activé dans votre projet afin que le test ait accès aux données Analytics.
Si vous n'avez pas activé Google Analytics lors de la création de votre projet, vous pouvez l'activer dans l'onglet Intégrations, auquel vous pouvez accéder en utilisant > Paramètres du projet dans la console Firebase.
Dans la section Engage du menu de navigation de la console Firebase, cliquez sur A/B Testing.
Cliquez sur Créer un test, puis sélectionnez Messagerie dans l'application lorsque vous êtes invité à choisir le service que vous souhaitez tester.
Vous pouvez également développer Engage dans le menu de navigation de la consoleFirebase, puis cliquer sur In-App Messaging. Ensuite, cliquez sur Nouveau test.
Saisissez un nom et une description facultative pour votre test, puis cliquez sur Suivant.
Remplissez les champs Ciblage en commençant par choisir l'application qui utilise votre test. Vous pouvez également cibler un sous-ensemble de vos utilisateurs pour qu'ils participent à votre test en choisissant des options qui incluent les éléments suivants :
- Version : une ou plusieurs versions de votre application
- Audience utilisateur : audiences Analytics utilisées pour cibler les utilisateurs susceptibles d'être inclus dans le test
- Propriété utilisateur : une ou plusieurs propriétés utilisateur Analytics permettant de sélectionner les utilisateurs susceptibles d'être inclus dans le test.
- Pays/Région : un ou plusieurs pays ou régions pour sélectionner les utilisateurs susceptibles d'être inclus dans le test.
- Langue de l'appareil : une ou plusieurs langues et zones géographiques utilisées pour sélectionner les utilisateurs susceptibles d'être inclus dans le test
- Première ouverture : ciblez les utilisateurs en fonction de la première fois qu'ils ont ouvert votre application.
- Dernier engagement avec l'application : ciblez les utilisateurs en fonction de leur dernier engagement avec votre application.
Définissez le pourcentage d'utilisateurs cibles : sélectionnez le pourcentage d'utilisateurs de votre application correspondant aux critères définis sous Utilisateurs cibles que vous souhaitez répartir de manière égale entre la référence et une ou plusieurs variantes de votre test. Il peut s'agir de n'importe quel pourcentage compris entre 0,01 % et 100 %. Les pourcentages sont réattribués aléatoirement aux utilisateurs pour chaque test, y compris les tests dupliqués.
Dans la section Variantes, configurez un message intégré de référence à envoyer au groupe de référence à l'aide de l'interface de conception de messages que vous utilisez pour une campagne de messages intégrés normale.
Pour ajouter une variante à votre test, cliquez sur Ajouter une variante. Par défaut, les tests comportent une référence et une variante.
(Facultatif) Saisissez un nom plus descriptif pour chaque variante.
(Facultatif) En haut de la section Variantes, cliquez sur le bouton Comparer les variantes pour comparer une ou plusieurs variantes de message côte à côte avec le message de référence.
Définissez une métrique d'objectif pour votre test. Elle servira à évaluer les variantes du test, ainsi que toutes les métriques supplémentaires que vous souhaitez utiliser dans la liste. Ces métriques incluent des objectifs intégrés (engagement, achats, revenus, fidélisation, etc.). Analytics événements de conversion et Analytics autres événements.
Configurez la planification du test :
- Définissez une date de début et une date de fin pour le test.
- Définissez la façon dont les messages intégrés à l'application sont déclenchés dans toutes les variantes.
Cliquez sur Vérifier pour enregistrer votre test.
Vous pouvez effectuer jusqu'à 300 tests par projet, dont 24 tests en cours maximum. Les autres peuvent être des brouillons ou des tests terminés.
Valider votre expérience sur un appareil de test
Pour chaque installation Firebase, vous pouvez récupérer le jeton d'authentification d'installation qui y est associé. Vous pouvez utiliser ce jeton pour tester des variantes d'expérience spécifiques sur un appareil de test sur lequel votre application est installée. Pour valider votre test sur un appareil de test, procédez comme suit :
- Obtenez le jeton d'authentification de l'installation comme suit :
Swift
do { let result = try await Installations.installations() .authTokenForcingRefresh(true) print("Installation auth token: \(result.authToken)") } catch { print("Error fetching token: \(error)") }
Objective-C
[[FIRInstallations installations] authTokenForcingRefresh:true completion:^(FIRInstallationsAuthTokenResult *result, NSError *error) { if (error != nil) { NSLog(@"Error fetching Installation token %@", error); return; } NSLog(@"Installation auth token: %@", [result authToken]); }];
Java
FirebaseInstallations.getInstance().getToken(/* forceRefresh */true) .addOnCompleteListener(new OnCompleteListener<InstallationTokenResult>() { @Override public void onComplete(@NonNull Task<InstallationTokenResult> task) { if (task.isSuccessful() && task.getResult() != null) { Log.d("Installations", "Installation auth token: " + task.getResult().getToken()); } else { Log.e("Installations", "Unable to get Installation auth token"); } } });
Kotlin
val forceRefresh = true FirebaseInstallations.getInstance().getToken(forceRefresh) .addOnCompleteListener { task -> if (task.isSuccessful) { Log.d("Installations", "Installation auth token: " + task.result?.token) } else { Log.e("Installations", "Unable to get Installation auth token") } }
- Dans la barre de navigation de la console Firebase, cliquez sur Test A/B.
- Cliquez sur Brouillon (et/ou sur En cours d'exécution pour les tests Remote Config), pointez sur votre test, cliquez sur le menu contextuel (more_vert), puis sur Gérer les appareils de test.
- Saisissez le jeton d'authentification d'installation pour un appareil de test, puis choisissez la variante du test à envoyer à cet appareil.
- Exécutez l'application et vérifiez que la variante sélectionnée est reçue sur l'appareil de test.
Pour en savoir plus sur les installations Firebase, consultez Gérer les installations Firebase.
Gérer votre test
Que vous créiez un test avec Remote Config, le compositeur de notifications ou Firebase In-App Messaging, vous pouvez ensuite valider et lancer votre test, le surveiller pendant son exécution et augmenter le nombre d'utilisateurs inclus dans votre test en cours.
Une fois votre test terminé, vous pouvez noter les paramètres utilisés par la variante gagnante, puis les déployer pour tous les utilisateurs. Vous pouvez également exécuter un autre test.
Démarrer un test
- Dans la section Engage du menu de navigation de la console Firebase, cliquez sur A/B Testing.
- Cliquez sur Brouillon, puis sur le titre de votre test.
- Pour vérifier que votre application compte des utilisateurs qui seraient inclus dans votre test, développez les détails du brouillon et recherchez un nombre supérieur à 0 % dans la section Ciblage et distribution (par exemple, 1 % des utilisateurs correspondant aux critères).
- Pour modifier votre test, cliquez sur Modifier.
- Pour commencer le test, cliquez sur Démarrer le test. Vous pouvez effectuer jusqu'à 24 tests par projet à la fois.
Surveiller un test
Une fois qu'un test est en cours depuis un certain temps, vous pouvez vérifier sa progression et consulter les résultats obtenus jusqu'à présent auprès des utilisateurs qui y ont participé.
- Dans la section Engage du menu de navigation de la console Firebase, cliquez sur A/B Testing.
Cliquez sur En cours d'exécution, puis cliquez sur le titre de votre test ou recherchez-le. Sur cette page, vous pouvez consulter diverses statistiques observées et modélisées sur votre test en cours, y compris les suivantes :
- Différence par rapport à la référence (%) : mesure de l'amélioration d'une métrique pour une variante donnée par rapport à la référence. Calculée en comparant la plage de valeurs de la variante à celle de la référence.
- Probabilité de surpasser la référence : probabilité estimée qu'une variante donnée surpasse la référence pour la métrique sélectionnée.
- observed_metric par utilisateur : d'après les résultats du test, il s'agit de la plage de valeurs dans laquelle la métrique devrait se situer au fil du temps.
- Total observed_metric : valeur cumulative observée pour la référence ou la variante. Cette valeur permet de mesurer les performances de chaque variante de test et de calculer l'amélioration, la plage de valeurs, la probabilité de battre la référence et la probabilité d'être la meilleure variante. Selon la métrique mesurée, cette colonne peut être intitulée "Durée par utilisateur", "Revenus par utilisateur", "Taux de fidélisation" ou "Taux de conversion".
Une fois votre test exécuté pendant un certain temps (au moins sept jours pour FCM et In-App Messaging, ou 14 jours pour Remote Config), les données de cette page indiquent quelle variante, le cas échéant, est la "variante leader". Certaines mesures sont accompagnées d'un graphique à barres qui présente les données sous forme visuelle.
Déployer un test auprès de tous les utilisateurs
Une fois qu'un test a été exécuté suffisamment longtemps pour que vous disposiez d'une variante "optimale" ou gagnante pour votre métrique d'objectif, vous pouvez le déployer auprès de la totalité des utilisateurs. Cela vous permet de sélectionner une variante qui sera désormais présentée à tous les utilisateurs. Même si votre test n'a pas permis de déterminer clairement un gagnant, vous pouvez tout de même choisir de déployer une variante auprès de tous vos utilisateurs.
- Dans la section Engage du menu de navigation de la console Firebase, cliquez sur A/B Testing.
- Cliquez sur Terminé ou En cours d'exécution, puis sur le test que vous souhaitez déployer auprès de tous les utilisateurs. Cliquez ensuite sur le menu contextuel Déployer la variante.
Déployez votre test auprès de tous les utilisateurs en procédant de l'une des manières suivantes :
- Pour un test qui utilise le composeur de notifications, utilisez la boîte de dialogue Message de déploiement pour envoyer le message aux utilisateurs ciblés restants qui ne faisaient pas partie du test.
- Pour un test Remote Config, sélectionnez une variante pour déterminer quelles valeurs de paramètre Remote Config modifier. Les critères de ciblage définis lorsque vous avez créé le test sont ajoutés en tant que nouvelle condition dans votre modèle afin que seuls les utilisateurs ciblés par le test soient concernés par le déploiement. Après avoir cliqué sur Vérifier dans Remote Config pour vérifier les modifications, cliquez sur Publier les modifications pour terminer le déploiement.
- Pour un test In-App Messaging, utilisez la boîte de dialogue pour déterminer quelle variante doit être déployée en tant que campagne In-App Messaging autonome. Une fois sélectionné, vous êtes redirigé vers l'écran de composition FIAM pour apporter les modifications nécessaires (le cas échéant) avant la publication.
Développer un test
Si vous constatez qu'un test n'attire pas suffisamment d'utilisateurs pour que A/B Testing puisse désigner un leader, vous pouvez augmenter la distribution de votre test pour toucher un pourcentage plus important de la base d'utilisateurs de l'application.
- Dans la section Engage du menu de navigation de la console Firebase, cliquez sur A/B Testing.
- Sélectionnez le test en cours que vous souhaitez modifier.
- Dans Présentation du test, cliquez sur le menu contextuel , puis sur Modifier le test en cours d'exécution.
- La boîte de dialogue Ciblage affiche une option permettant d'augmenter le pourcentage d'utilisateurs participant au test en cours. Sélectionnez un nombre supérieur au pourcentage actuel, puis cliquez sur Publier. Le test sera déployé auprès du pourcentage d'utilisateurs que vous avez spécifié.
Dupliquer ou arrêter un test
- Dans la section Engage du menu de navigation de la console Firebase, cliquez sur A/B Testing.
- Cliquez sur Terminé ou En cours d'exécution, pointez sur votre test, cliquez sur le menu contextuel , puis sur Dupliquer le test ou Arrêter le test.
Ciblage des utilisateurs
Vous pouvez cibler les utilisateurs à inclure dans votre test à l'aide des critères de ciblage des utilisateurs suivants.
Critère de ciblage | Opérateur(s) | Valeur(s) | Remarque |
---|---|---|---|
Version | contient,
ne contient pas, correspond exactement, contient une expression régulière |
Saisissez une valeur pour une ou plusieurs versions d'application que vous souhaitez inclure dans le test. |
Lorsque vous utilisez l'un des opérateurs contient, ne contient pas ou correspond exactement à, vous pouvez fournir une liste de valeurs séparées par des virgules. Lorsque vous utilisez l'opérateur contient (regex), vous pouvez créer des expressions régulières au format RE2. Votre expression régulière peut correspondre à tout ou partie de la chaîne de version cible. Vous pouvez également utiliser les ancres ^ et $ pour faire correspondre le début, la fin ou l'intégralité d'une chaîne cible. |
Audiences d'utilisateurs | inclut tous les éléments de, inclut au moins un des éléments de, n'inclut pas tous les éléments de, n'inclut pas au moins un des éléments de |
Sélectionnez une ou plusieurs audiences Analytics pour cibler les utilisateurs susceptibles d'être inclus dans votre test. | Certains tests ciblant des audiences Google Analytics peuvent nécessiter quelques jours pour accumuler des données, car ils sont soumis à une latence de traitement des données Analytics. Ce délai est plus susceptible de se produire avec les nouveaux utilisateurs, qui sont généralement inscrits dans les audiences éligibles 24 à 48 heures après leur création, ou pour les audiences créées récemment. |
Propriété utilisateur | Pour le texte :
contient, ne contient pas, correspond exactement à, contient l'expression régulière Pour les nombres : <, ≤, =, ≥, > |
Une propriété utilisateur Analytics permet de sélectionner les utilisateurs qui peuvent être inclus dans un test, avec une gamme d'options pour sélectionner les valeurs de propriété utilisateur.
Sur le client, vous ne pouvez définir que des valeurs de chaîne pour les propriétés utilisateur. Pour les conditions qui utilisent des opérateurs numériques, le service Remote Config convertit la valeur de la propriété utilisateur correspondante en entier/float. |
Lorsque vous utilisez l'opérateur contient (regex), vous pouvez créer des expressions régulières au format RE2. Votre expression régulière peut correspondre à tout ou partie de la chaîne de version cible. Vous pouvez également utiliser les ancres ^ et $ pour faire correspondre le début, la fin ou l'intégralité d'une chaîne cible. |
Pays/Région | N/A | Un ou plusieurs pays ou régions utilisés pour sélectionner les utilisateurs susceptibles d'être inclus dans le test. | |
Langues | N/A | Une ou plusieurs langues et zones géographiques utilisées pour sélectionner les utilisateurs susceptibles d'être inclus dans le test. | |
Première ouverture |
Plus de
Moins de Entre |
Ciblez les utilisateurs en fonction de la première fois qu'ils ont ouvert votre application, en jours. | |
Dernier engagement avec une application |
Plus de
Moins de Entre |
Ciblez les utilisateurs en fonction de leur dernier engagement avec votre application, spécifié en jours. |
A/B Testing métriques
Lorsque vous créez un test, vous choisissez une métrique principale ou d'objectif qui est utilisée pour déterminer la variante gagnante. Vous devez également suivre d'autres métriques pour mieux comprendre les performances de chaque variante de test et suivre les tendances importantes qui peuvent différer pour chaque variante, comme la rétention des utilisateurs, la stabilité de l'application et les revenus générés par les achats via l'application. Vous pouvez suivre jusqu'à cinq métriques non liées à un objectif dans votre test.
Par exemple, supposons que vous ayez ajouté de nouveaux achats via l'application et que vous souhaitiez comparer l'efficacité de deux messages d'incitation différents. Dans ce cas, vous pouvez choisir de définir Revenus générés par les achats comme métrique d'objectif, car vous souhaitez que la variante gagnante représente la notification ayant généré les revenus les plus élevés pour les achats via l'application. Comme vous souhaitez également suivre la variante qui a généré le plus de conversions futures et fidélisé le plus d'utilisateurs, vous pouvez ajouter les éléments suivants dans Autres métriques à suivre :- Revenus totaux estimés pour comparer les revenus combinés générés par les achats via l'application et les annonces entre les deux variantes
- Fidélisation (1 jour), Fidélisation (2 à 3 jours), Fidélisation (4 à 7 jours) pour suivre la fidélisation quotidienne/hebdomadaire des utilisateurs
Les tableaux suivants expliquent comment les métriques d'objectif et les autres métriques sont calculées.
Statistiques "Objectif"
Métrique | Description |
---|---|
Utilisateurs n'ayant pas subi de plantage | Pourcentage d'utilisateurs n'ayant pas rencontré d'erreurs dans votre application détectées par le SDK Firebase Crashlytics pendant le test. |
Revenus publicitaires estimés | Revenus publicitaires estimés. |
Total des revenus estimés | Valeur combinée des revenus publicitaires estimés et des revenus issus des achats. |
Revenus issus des achats | Valeur combinée de tous les événements purchase et in_app_purchase .
|
Fidélisation (1 jour) | Nombre d'utilisateurs qui reviennent sur votre application chaque jour. |
Rétention (2 à 3 jours) | Nombre d'utilisateurs qui reviennent sur votre application dans un délai de deux à trois jours. |
Rétention (4 à 7 jours) | Nombre d'utilisateurs qui reviennent dans votre application au bout de quatre à sept jours. |
Rétention (8-14 jours) | Nombre d'utilisateurs qui reviennent sur votre application dans un délai de 8 à 14 jours. |
Fidélisation (plus de 15 jours) | Nombre d'utilisateurs qui reviennent dans votre application 15 jours ou plus après leur dernière utilisation. |
first_open | Un événement Analytics qui se déclenche lorsqu'un utilisateur ouvre une application pour la première fois après l'avoir installée ou réinstallée. Utilisé dans un entonnoir de conversion. |
Autres métriques
Métrique | Description |
---|---|
notification_dismiss | Événement Analytics qui se déclenche lorsqu'une notification envoyée par le compositeur de notifications est ignorée (Android uniquement). |
notification_receive | Événement Analytics qui se déclenche lorsqu'une notification envoyée par le compositeur de notifications est reçue alors que l'application est en arrière-plan (Android uniquement). |
os_update | Événement Analytics qui suit la mise à jour du système d'exploitation de l'appareil vers une nouvelle version.Pour en savoir plus, consultez Événements collectés automatiquement. |
screen_view | Événement Analytics qui suit les écrans consultés dans votre application. Pour en savoir plus, consultez Suivre les vues d'écran. |
session_start | Événement Analytics qui comptabilise les sessions utilisateur dans votre application. Pour en savoir plus, consultez Événements collectés automatiquement. |