بعد أن انتهيت من إعداد كل شيء، يمكنك بدء اختبار A/B وتشغيله
اختباره. أثناء إجراء الاختبار، يمكنك مراجعة النتائج في
وحدة تحكّم "Firebase"
نشر تطبيقك وبدء الاختبار
بعد إضافة المنطق للتعامل مع قيمة مَعلمة Remote Config
(الخطوة السابقة)، انشر أحدث إصدارات تطبيقك التي تشتمل على هذه الإصدارات.
في وحدة تحكّم Firebase، ابدأ اختبار أ/ب بالنقر على
بدء التجربة.
مراجعة النتائج
سينفّذ "Firebase A/B Testing" تجربتك. بعد الكشف عن المستخدمين
بصيغ مختلفة، ستعرض وحدة تحكّم Firebase
اقتراح التحسين.
راجِع مستوى أداء كلّ صيغة استنادًا إلى المقاييس التي اخترتها
أثناء إعداد الاختبار.
يستند Firebase A/B Testing في تقييمه إلى المقياس الأساسي الذي
اخترته، ولكنّه يوفّر لك أيضًا بيانات عن كل
المقاييس الثانوية الأخرى التي اخترتها. يتيح لك ذلك مراعاة
هذه المقاييس الثانوية عند إصدار حكم نهائي بشأن
أداء السعر المتغير.
توضِّح الصورة أدناه مثالاً لإجراء اختبار باستخدام أربعة صيغ، بما في ذلك
(لاحظ أنه في هذا البرنامج التعليمي بقي الأمر أكثر بساطة باستخدام ثلاثة
المختلفة). في المثال أدناه، اتّضح لشركة A/B Testing أنّ
الصيغة الفائزة هي الصيغة "أ" بسبب التحسينات في المقياس الأساسي وهو إجمالي الأرباح المقدّرة.
واجهة مستخدم وحدة تحكُّم Firebase تعرض مثالاً على نتائج اختبار أ/ب"
class="لقطة شاشة">
تاريخ التعديل الأخير: 2025-07-24 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-07-24 (حسب التوقيت العالمي المتفَّق عليه)"],[],[],null,["Step 4: Start the A/B test and review the test results in the Firebase console\n\n\u003cbr /\u003e\n\n|------------------------------------------------------------------------------------------------------------------|\n| Introduction: [Optimize AdMob ad frequency using Firebase](/docs/tutorials/optimize-ad-frequency) |\n| Step 1: [Use AdMob to create new ad unit variants for testing](/docs/tutorials/optimize-ad-frequency/step-1) |\n| Step 2: [Set up an A/B test in the Firebase console](/docs/tutorials/optimize-ad-frequency/step-2) |\n| Step 3: [Handle Remote Config parameter values in your app's code](/docs/tutorials/optimize-ad-frequency/step-3) |\n| **Step 4: Start the A/B test and review the test results in the Firebase console** \u003cbr /\u003e |\n| Step 5: [Decide whether to roll out the new ad format](/docs/tutorials/optimize-ad-frequency/step-5) |\n\n\u003cbr /\u003e\n\nNow that you have everything set up, you're ready to start and run your A/B\ntest. While the test is running, you can review results in the\nFirebase console.\n\n**Deploy your app and start the test**\n\n1. After you add the logic to handle the Remote Config parameter value\n (previous step), deploy the latest builds of your app that include them.\n\n2. In the Firebase console, start the A/B test by clicking\n **Start Experiment**.\n\n**Review results**\n\n1. Firebase A/B Testing will run your experiment. After it's exposed users\n to the different variants, the Firebase console will display an\n improvement suggestion.\n\n2. Review how each variant performed based on the metrics that you selected\n during test setup.\n\n Firebase A/B Testing makes its judgement based on the primary metric that\n you selected, but A/B Testing also provides you with data for all the\n other secondary metrics that you selected. This allows you to take into\n account these secondary metrics when making a final judgement about the\n performance of a variant.\n\nThe image below shows an example of a test run with four variants, including the\nbaseline (note that in this tutorial we kept it more simple with only three\nvariants). In this example below, A/B Testing has determined that the winning\nvariant is *Variant A* due to the improvements in the primary metric of\n*Estimated total revenue*.\nFirebase console UI showing example A/B test results\" class=\"screenshot\"\\\u003e\n\n\u003cbr /\u003e\n\n*** ** * ** ***\n\n\u003cbr /\u003e\n\n[arrow_back_ios**Step 3** : Handle Remote Config parameter values](/docs/tutorials/optimize-ad-frequency/step-3)\n[**Step 5** : Decide whether to roll out the new ad formatarrow_forward_ios](/docs/tutorials/optimize-ad-frequency/step-5)\n\n\u003cbr /\u003e\n\n*** ** * ** ***"]]