Firebase Remote Config를 사용하여 활성 사용자층이 있는 애플리케이션의 설정을 배포하는 경우 가장 효과적인 방법을 찾아야 합니다. A/B Testing 실험을 사용하면 다음을 결정할 수 있습니다.
- 사용자 환경을 최적화하는 최선의 기능 구현 방법: 앱 개발자는 사용자가 새로운 기능이나 업데이트된 사용자 환경을 좋아하지 않는다는 것을 앱 스토어에서 앱 평점이 하락한 후에야 깨닫는 경우가 너무나 많습니다. A/B 테스팅을 통해 사용자가 변경된 새 기능을 좋아하는지 아니면 상태 그대로의 앱을 선호하는지 측정할 수 있습니다. 또한 사용자 중 대다수를 기준 그룹에 두면 대부분의 사용자층은 실험이 끝날 때까지 앱의 동작이나 모양에 어떠한 변화도 없이 앱을 계속 그대로 사용할 수 있습니다.
- 비즈니스 목표를 위한 최선의 사용자 환경 최적화 방법: 수익이나 유지율과 같은 측정항목을 최대화하기 위해 제품을 변경하는 경우가 종종 있습니다. A/B 테스팅을 통해 비즈니스 목표를 설정하면 Firebase에서 통계 분석을 수행하여 선택한 목표에서 기준보다 대안의 실적이 우수한지 확인합니다.
기준을 활용해 여러 기능 대안에 대한 A/B 테스팅을 하는 방법은 다음과 같습니다.
- 실험을 만듭니다.
- 테스트 기기에서 실험의 유효성을 검증합니다.
- 실험을 관리합니다.
실험 만들기
Remote Config 실험을 통해 Remote Config 파라미터 하나 이상에서 여러 대안을 평가할 수 있습니다.
Firebase Console에 로그인하고 실험에서 Analytics 데이터에 액세스할 수 있도록 Google Analytics가 프로젝트에 사용 설정되어 있는지 확인합니다.
프로젝트를 만들 때 Google Analytics를 사용 설정하지 않았으면 통합 탭(Firebase Console의 > 프로젝트 설정을 사용하여 액세스 가능)에서 사용 설정할 수 있습니다.
Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
실험 만들기를 클릭한 후 실험하려는 서비스를 지정하라는 메시지가 표시되면 Remote Config를 선택합니다.
실험의 이름 및 설명(선택사항)을 입력하고 다음을 클릭합니다.
실험을 사용할 앱을 먼저 선택하고 타겟팅 입력란을 작성합니다. and를 클릭한 후 다음 목록에서 옵션을 선택하여 사용자의 일부만 실험에 참여하도록 타겟팅할 수도 있습니다.
- 버전: 하나 이상의 앱 버전입니다.
- 빌드 번호: 앱의 버전 코드입니다.
- 언어: 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 언어입니다.
- 국가/리전: 실험에 포함되어야 하는 사용자를 선택하는 데 사용되는 하나 이상의 국가 또는 리전입니다.
- 잠재 사용자: 실험에 포함될 수 있는 사용자를 타겟팅하는 데 사용되는 Analytics 잠재고객입니다.
- 사용자 속성: 실험에 포함될 수 있는 사용자를 선택하는 Analytics 사용자 속성 하나 이상입니다.
최초 실행: 사용자가 앱을 처음으로 실행한 시간을 기준으로 사용자를 타겟팅합니다.
최초 실행 시간별 사용자 타겟팅은 Android 또는 iOS 앱을 선택한 후에 사용 가능합니다. Remote Config SDK 버전인 Apple 플랫폼 SDK v9.0.0 이상 및 Android SDK v21.1.1 이상(Firebase BoM v30.3.0이상)에서 지원됩니다.
또한 최초 실행 이벤트 중에 클라이언트에서 Analytics를 사용 설정해야 합니다.
대상 사용자 비율 설정: 대상 사용자에 설정한 기준과 일치하는 앱 사용자층 중에서 기준 및 하나 이상의 실험 대안 간에 균등하게 나눌 비율을 입력합니다. 0.01%~100% 사이의 백분율을 입력할 수 있습니다. 사용자는 중복 실험을 포함하여 실험마다 무작위로 할당됩니다.
필요에 따라 일부 Analytics 이벤트를 처음 트리거한 사용자의 데이터만 실험에 집계되도록 활성화 이벤트를 설정합니다. 타겟팅 파라미터와 일치하는 모든 사용자가 Remote Config 실험 값을 수신하지만 활성화 이벤트를 트리거한 사용자만 실험 결과에 포함됩니다.
실험의 유효성을 보장하기 위해서는 선택한 이벤트가 앱에서 가져온 구성 값이 활성화된 후에 발생하는지 확인해야 합니다. 또한 다음 이벤트는 항상 가져온 값이 활성화되기 전에 발생하므로 사용할 수 없습니다.
app_install
app_remove
app_update
dynamic_link_first_open
실험의 목표에는 추적할 기본 측정항목을 선택하고 목록에서 추적하려는 추가 측정항목을 추가합니다. 여기에는 기본 목표(구매, 수익, 유지율, 비정상 종료가 발생하지 않은 사용자 등)가 포함됩니다. Analytics 전환 이벤트, 기타 Analytics 이벤트가 포함됩니다. 완료했으면 다음을 클릭합니다.
대안 섹션에서 기준을 선택하고 실험에 사용할 하나 이상의 대안을 선택합니다. 선택 또는 새로 만들기 목록을 사용하여 실험할 매개변수를 하나 이상 추가합니다. Firebase Console에서 이전에 사용한 적이 없는 파라미터를 만들어도 되지만 앱에 해당 파라미터가 있어야 효과가 있습니다. 이 단계를 반복하여 여러 매개변수를 실험에 추가할 수 있습니다.
(선택사항) 실험에 둘 이상의 대안을 추가하려면 다른 대안 추가를 클릭합니다.
대안에서 하나 이상의 매개변수를 변경합니다. 변경하지 않은 매개변수는 실험에 포함되지 않은 사용자의 매개변수와 동일합니다.
대안 가중치를 펼쳐 실험의 대안 가중치를 보거나 변경합니다. 기본적으로 각 대안에는 동일한 가중치가 부여됩니다. 가중치가 균일하지 않으면 데이터 수집 시간이 늘어날 수 있으며 실험이 시작된 후에는 가중치를 변경할 수 없습니다.
검토를 클릭하여 실험을 저장합니다.
프로젝트당 최대 300개의 실험이 허용되며 최대 24개까지 진행 중인 실험으로, 나머지는 초안 또는 완료로 구성할 수 있습니다.
테스트 기기에서 실험 검증
Firebase를 설치할 때마다 설치와 연결된 설치 인증 토큰을 가져올 수 있습니다. 이 토큰을 사용하면 앱이 설치된 테스트 기기에서 특정 실험 대안을 테스트할 수 있습니다. 테스트 기기에서 실험의 유효성을 검증하는 방법은 다음과 같습니다.
- 다음과 같이 설치 인증 토큰을 가져옵니다.
Swift
do { let result = try await Installations.installations() .authTokenForcingRefresh(true) print("Installation auth token: \(result.authToken)") } catch { print("Error fetching token: \(error)") }
Objective-C
[[FIRInstallations installations] authTokenForcingRefresh:true completion:^(FIRInstallationsAuthTokenResult *result, NSError *error) { if (error != nil) { NSLog(@"Error fetching Installation token %@", error); return; } NSLog(@"Installation auth token: %@", [result authToken]); }];
Java
FirebaseInstallations.getInstance().getToken(/* forceRefresh */true) .addOnCompleteListener(new OnCompleteListener<InstallationTokenResult>() { @Override public void onComplete(@NonNull Task<InstallationTokenResult> task) { if (task.isSuccessful() && task.getResult() != null) { Log.d("Installations", "Installation auth token: " + task.getResult().getToken()); } else { Log.e("Installations", "Unable to get Installation auth token"); } } });
Kotlin
val forceRefresh = true FirebaseInstallations.getInstance().getToken(forceRefresh) .addOnCompleteListener { task -> if (task.isSuccessful) { Log.d("Installations", "Installation auth token: " + task.result?.token) } else { Log.e("Installations", "Unable to get Installation auth token") } }
C++
firebase::InitResult init_result; auto* installations_object = firebase::installations::Installations::GetInstance( firebase::App::GetInstance(), &init_result); installations_object->GetToken().OnCompletion( [](const firebase::Future<std::string>& future) { if (future.status() == kFutureStatusComplete && future.error() == firebase::installations::kErrorNone) { printf("Installations Auth Token %s\n", future.result()->c_str()); } });
Unity
Firebase.Installations.FirebaseInstallations.DefaultInstance.GetTokenAsync(forceRefresh: true).ContinueWith( task => { if (!(task.IsCanceled || task.IsFaulted) && task.IsCompleted) { UnityEngine.Debug.Log(System.String.Format("Installations token {0}", task.Result)); } });
- Firebase Console 탐색 메뉴에서 A/B 테스팅을 클릭합니다.
- 초안(또는 원격 구성 실험인 경우 실행 중)을 클릭하고 마우스를 실험 위에 가져간 다음 컨텍스트 메뉴(more_vert)를 클릭하고 테스트 기기 관리를 클릭합니다.
- 테스트 기기의 설치 인증 토큰을 입력하고 테스트 기기로 전송할 실험 대안을 선택합니다.
- 앱을 실행하고 선택한 대안이 테스트 기기에 수신되는지 확인합니다.
Firebase 설치에 대한 자세한 내용은 Firebase 설치 관리를 참조하세요.
실험 관리
Remote Config, 알림 작성기 또는 Firebase In-App Messaging 중 무엇으로 실험을 만드는지에 관계없이 실험을 검증 및 시작하고 실험이 진행되는 동안 실험을 모니터링하며 진행 중인 실험에 포함된 사용자 수를 늘릴 수 있습니다.
실험이 끝나면 우수한 대안에 사용된 설정을 기록해 두고 이후에 모든 사용자에게 이 설정을 적용하거나 다른 실험을 진행할 수 있습니다.
실험 시작
- Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
- 초안을 클릭하고 실험 제목을 클릭합니다.
- 실험에 포함될 사용자가 앱에 있는지 검증하려면 초안 세부정보를 펼치고 타겟팅 및 분포에서 0%보다 큰 숫자가 있는지 확인합니다(예: 기준과 일치하는 사용자 1%).
- 실험을 변경하려면 수정을 클릭합니다.
- 실험을 시작하려면 실험 시작을 클릭합니다. 한 번에 프로젝트당 최대 24개의 실험을 실행할 수 있습니다.
실험 모니터링
실험이 일정 시간 진행되면 실험의 진행 상황을 확인하고 지금까지 실험에 참여한 사용자의 결과가 어떤지 살펴볼 수 있습니다.
- Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
실행 중을 클릭하고 실험 제목을 클릭하거나 검색합니다. 이 페이지에서는 다음을 포함하여 진행 중인 실험에 대한 다양한 관찰 및 모델링된 통계를 확인할 수 있습니다.
- 기준과의 차이(%): 기준과 비교하여 특정 대안의 측정항목 개선도를 측정한 값입니다. 대안의 값 범위를 기준의 값 범위와 비교하여 계산합니다.
- 기준 초과 가능성: 특정 대안이 선택한 측정항목의 기준을 초과할 것으로 예측되는 확률입니다.
- 사용자당 observed_metric: 실험 결과를 기준으로 시간 경과에 따라 측정항목 값이 속할 것으로 예상되는 범위입니다.
- 전체 observed_metric: 기준 또는 대안에서 관찰된 누적 값입니다. 이 값은 각 실험 대안의 효과를 측정하고 개선, 값 범위, 기준 초과 가능성, 최적의 대안이 될 확률을 계산하는 데 사용됩니다. 대상 측정항목에 따라 이 열에 '사용자당 기간', '사용자당 수익', '유지율', '전환율' 등의 라벨을 지정할 수 있습니다.
일정 시간(FCM 및 In-App Messaging의 경우 최소 7일, Remote Config의 경우 14일) 동안 실험이 진행된 후 이 페이지의 데이터에 '최우수 대안'(있는 경우)이 표시됩니다. 일부 측정항목은 데이터를 시각적으로 표현하는 막대 그래프가 함께 제공됩니다.
모든 사용자에게 실험 적용
목표 측정항목을 기준으로 가장 우수한 대안이 판명될 때까지 실험이 충분히 진행되었으면 이를 사용자 전체에 적용할 수 있습니다. 이렇게 하여 앞으로 모든 사용자에게 게시할 대안을 선택할 수 있습니다. 실험을 통해 우열이 명확히 가려지지 않은 경우에도 대안 중 하나를 모든 사용자에게 적용할 수 있습니다.
- Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
- 완료됨 또는 실행 중을 클릭하고 모든 사용자에게 적용할 실험을 클릭한 다음 컨텍스트 메뉴( )대안 적용을 클릭합니다.
다음 중 하나를 수행하여 실험을 모든 사용자에게 적용합니다.
- 실험에서 알림 작성기를 사용하는 경우 메시지 전파 대화상자를 사용하여 이전에 실험에 참여하지 않았던 나머지 타겟팅 사용자에게 메시지를 보냅니다.
- Remote Config 실험의 경우 대안을 선택하여 업데이트할 Remote Config 파라미터 값을 결정합니다. 실험을 만들 때 정의된 타겟팅 기준은 템플릿에 새 조건으로 추가되어 실험에서 타겟팅되는 사용자에게만 출시되도록 합니다. 원격 구성에서 검토를 클릭하여 변경사항을 검토한 후 변경사항 게시를 클릭하여 출시를 완료합니다.
- In-App Messaging 실험의 경우 대화상자를 사용하여 독립형 In-App Messaging 캠페인으로 출시해야 하는 대안을 결정합니다. 선택하면 Firebase 인앱 메시지 작성 화면으로 리디렉션되며 필요한 경우 게시하기 전에 변경할 수 있습니다.
실험 확장
A/B Testing에서 실험에 참여하는 사용자 수가 부족하여 우열을 가릴 수 없으면 실험의 분포를 늘려 앱 사용자층에서 실험에 참가하는 비율을 높이면 됩니다.
- Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
- 수정하려는 실행 중인 실험을 선택합니다.
- 실험 개요에서 컨텍스트 메뉴( )를 클릭한 후 실행 중인 실험 수정을 클릭합니다.
- 타겟팅 대화상자에는 실행 중인 실험에 있는 사용자의 비율을 높일 수 있는 옵션이 표시됩니다. 현재 백분율보다 큰 숫자를 선택하고 게시를 클릭합니다. 그러면 지정한 비율의 사용자에게 실험이 적용됩니다.
실험 복제 또는 중지
- Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
- 완료됨 또는 실행 중을 클릭하고 마우스 포인터를 실험 위에 가져간 다음 컨텍스트 메뉴( )를 클릭하고 실험 복제 또는 실험 중지를 클릭합니다.
사용자 타겟팅
다음과 같은 사용자 타겟팅 기준을 사용하여 실험에 포함할 사용자를 타겟팅할 수 있습니다.
타겟팅 기준 | 연산자 | 값 | 참고사항 | |
---|---|---|---|---|
버전 | 포함, 제외, 정확히 일치함, 정규식 포함 |
실험에 포함할 하나 이상의 앱 버전 값을 입력합니다. |
포함, 제외 또는 정확히 일치함 연산자를 사용하는 경우 쉼표로 구분된 값 목록을 제공할 수 있습니다. 정규식 포함 연산자를 사용하면 RE2 형식의 정규 표현식을 만들 수 있습니다. 정규 표현식은 타겟 버전 문자열의 일부 또는 전부와 일치할 수 있습니다. ^ 및 $ 앵커를 사용하여 타겟 문자열의 시작, 끝 또는 전체와 일치시킬 수도 있습니다. |
|
잠재 사용자 | 다음을 모두 포함, 다음 중 1개 이상 포함, 다음을 모두 포함하지 않음, 다음 중 최소 1개를 포함하지 않음 |
실험에 포함될 수 있는 사용자를 타겟팅하는 Analytics 잠재고객을 하나 이상 선택합니다. |
Google Analytics 잠재고객을 타겟팅하는 일부 실험에서는 Analytics 데이터 처리 지연 시간이 발생하므로 데이터가 누적되는 데 며칠이 걸릴 수 있습니다.
일반적으로 생성 후 24~48시간 이내에 적격 잠재고객으로 등록된 신규 사용자나 최근에 생성된 잠재고객에게 이러한 지연이 발생할 가능성이 가장 높습니다.
Remote Config의 경우 이는 사용자가 잠재고객에 적격하더라도 `fetchAndActivate()`를 실행할 때 Analytics에서 사용자를 잠재고객에 추가하지 않으면 사용자가 실험에 포함되지 않는다는 의미입니다. |
|
사용자 속성 | 텍스트:
포함, 제외, 정확히 일치함, 정규식 포함 숫자: <, ≤, =, ≥, > |
Analytics 사용자 속성은 실험에 포함될 수 있는 사용자를 선택하는 데 사용되며 다양한 옵션으로 사용자 속성 값을 선택할 수 있습니다.
클라이언트에서는 사용자 속성에 문자열 값만 설정할 수 있습니다. 숫자 연산자를 사용하는 조건의 경우 Remote Config 서비스는 해당 사용자 속성 값을 정수/부동 소수점 수로 변환합니다. |
정규식 포함 연산자를 사용하면 RE2 형식의 정규 표현식을 만들 수 있습니다. 정규 표현식은 타겟 버전 문자열의 일부 또는 전부와 일치할 수 있습니다. ^ 및 $ 앵커를 사용하여 타겟 문자열의 시작, 끝 또는 전체와 일치시킬 수도 있습니다. | |
국가/지역 | N/A | 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 국가 또는 지역입니다. | ||
언어 | N/A | 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 언어입니다. | ||
최초 실행 |
이전 이후 |
앱을 처음 실행할 때를 기준으로 사용자를 타겟팅합니다.
|
최초 실행별 사용자 타겟팅은 Android 또는 iOS 앱을 선택한 후에 사용 가능합니다. 현재 Remote Config SDK 버전인 Apple 플랫폼 SDK v9.0.0 이상 및 Android SDK v21.1.1 이상(Firebase BoM v30.3.0이상)에서 지원됩니다. 또한 최초 실행 이벤트 중에 클라이언트에서 Analytics를 사용 설정해야 합니다. |
측정항목 A/B Testing개
실험을 만들 때는 가장 우수한 대안을 판단하는 데 사용할 기본 또는 목표 측정항목을 선택합니다. 또한 각 실험 대안의 성과를 더 잘 파악하고 사용자 유지, 앱 안정성, 인앱 구매 수익 등 대안마다 차이가 있을 수 있는 중요한 추세를 추적하는 데 도움이 되는 다른 측정항목도 추적해야 합니다. 실험에서 목표 이외의 측정항목을 최대 5개까지 추적할 수 있습니다.
예를 들어 Remote Config를 사용하여 앱에서 두 가지 서로 다른 게임 흐름을 시작하고 인앱 구매와 광고 수익을 최적화하는 동시에 각 대안의 안정성과 사용자 유지를 추적하려는 경우를 가정해 보겠습니다. 이 경우 인앱 구매 수익과 광고 수익이 포함되므로 예상 총 수익을 목표 측정항목으로 선택할 수 있습니다. 그런 다음 추적할 기타 측정항목에 다음을 추가할 수 있습니다.
- 일일 및 주간 사용자 유지를 추적하려면 유지(2~3일) 및 유지(4~7일)를 추가합니다.
- 두 게임 흐름의 안정성을 비교하려면 비정상 종료가 발생하지 않은 사용자를 추가합니다.
- 각 수익 유형을 자세히 확인하려면 구매 수익 및 예상 광고 수익을 추가합니다.
다음 표에서는 목표 측정항목과 기타 측정항목이 계산되는 방식을 상세히 확인할 수 있습니다.
목표 측정항목
측정항목 | 설명 |
---|---|
비정상 종료가 발생하지 않은 사용자 | 실험 중에 앱에서 Firebase Crashlytics SDK가 탐지한 오류를 경험하지 않은 사용자의 비율입니다. |
예상 광고 수익 | 예상 광고 순익입니다. |
예상 총수익 | 구매 및 추정 광고 수익의 합산 값입니다. |
구매 수익 | 모든 purchase 및 in_app_purchase 이벤트의 합산 값입니다.
|
유지(1일) | 앱을 매일 다시 사용하는 사용자 수입니다. |
유지(2~3일) | 2~3일 이내에 앱을 다시 사용하는 사용자 수입니다. |
유지(4~7일) | 4~7일 이내에 앱을 다시 사용하는 사용자 수입니다. |
유지(8~14일) | 8~14일 이내에 앱을 다시 사용하는 사용자 수입니다. |
유지(15일 이상) | 앱을 마지막으로 사용하고 15일 이상 경과한 후에 앱을 다시 사용하는 사용자 수입니다. |
first_open | 사용자가 앱을 설치하거나 재설치한 후 처음으로 실행할 때 트리거되는 Analytics 이벤트입니다. 전환 유입경로의 일부로 사용됩니다. |
기타 측정항목
측정항목 | 설명 |
---|---|
notification_dismiss | 알림 작성기에서 보낸 알림을 닫을 때 트리거되는 Analytics 이벤트입니다(Android 전용). |
notification_receive | 알림 작성기에서 보낸 알림이 백그라운드 앱에 수신될 때 트리거되는 Analytics 이벤트입니다(Android 전용). |
os_update | 기기 운영체제가 새 버전으로 업데이트되는 시점을 추적하는 Analytics 이벤트입니다. 자세한 내용은 자동 수집 이벤트를 참조하세요. |
screen_view | 앱의 화면 조회를 추적하는 Analytics 이벤트입니다. 자세한 내용은 화면 조회수 추적을 참조하세요. |
session_start | 앱의 사용자 세션 수를 계산하는 Analytics 이벤트입니다. 자세한 내용은 자동으로 수집되는 이벤트를 참조하세요. |
BigQuery 데이터 내보내기
Firebase Console에서 A/B Testing 실험 데이터 보기 외에도 BigQuery에서 실험 데이터를 검사하고 분석할 수 있습니다. A/B Testing에는 별도의 BigQuery 테이블이 없지만 실험 및 대안 멤버십은 Analytics 이벤트 테이블 내의 모든 Google Analytics 이벤트에 저장됩니다.
실험 정보가 포함된 사용자 속성은 userProperty.key like "firebase_exp_%"
또는 userProperty.key =
"firebase_exp_01"
형식이며, 여기서 01
은 실험 ID이고 userProperty.value.string_value
에는 실험 대안의 색인(0부터 시작)이 포함됩니다.
이러한 실험 사용자 속성을 사용하여 실험 데이터를 추출할 수 있습니다. 이를 통해 실험 결과를 다양한 방법으로 분할하고 A/B Testing 결과를 독립적으로 확인할 수 있습니다.
시작하려면 이 가이드의 설명대로 다음을 완료합니다.
- Firebase Console에서 Google Analytics에 BigQuery 내보내기 사용 설정
- BigQuery를 사용하여 A/B Testing 데이터에 액세스
- 쿼리 예시 살펴보기
Firebase Console에서 Google Analytics에 BigQuery 내보내기 사용 설정
Spark 요금제를 사용하고 있으면 샌드박스 한도에 따라 BigQuery 샌드박스를 사용하여 BigQuery에 무료로 액세스할 수 있습니다. 자세한 내용은 가격 책정 및 BigQuery 샌드박스를 참조하세요.
먼저 Analytics 데이터를 BigQuery로 내보내고 있는지 확인합니다.
- 통합 탭(Firebase Console의 > 프로젝트 설정을 사용하여 액세스 가능)을 엽니다.
- 이미 다른 Firebase 서비스에서 BigQuery를 사용하고 있으면 관리를 클릭합니다. 그렇지 않으면 연결을 클릭합니다.
- Firebase와 BigQuery 연결 정보를 검토한 후 다음을 클릭합니다.
- 통합 구성 섹션에서 Google Analytics 전환 버튼을 사용 설정합니다.
지역을 선택하고 내보내기 설정을 선택합니다.
BigQuery에 연결을 클릭합니다.
선택한 데이터 내보내기 방식에 따라 테이블을 사용할 수 있을 때까지 최대 하루가 걸릴 수 있습니다. 프로젝트 데이터를 BigQuery에 내보내는 방법에 대한 자세한 내용은 BigQuery로 프로젝트 데이터 내보내기를 참조하세요.
BigQuery에서 A/B Testing 데이터에 액세스
특정 실험 데이터를 쿼리하기 전에 쿼리에 사용할 다음의 일부 또는 전체를 얻는 것이 좋습니다.
- 실험 ID: 실험 개요 페이지의 URL에서 이 값을 가져올 수 있습니다. 예를 들어 URL이
https://console.firebase.google.com/project/my_firebase_project/config/experiment/results/25
이면 실험 ID는 25입니다. - Google Analytics 속성 ID: 9자리 Google Analytics 속성 ID입니다. Google Analytics 내에서 찾을 수 있습니다. 프로젝트 이름을 확장하여 Google Analytics 이벤트 테이블 이름(
project_name.analytics_000000000.events
)을 표시하면 BigQuery에도 표시됩니다. - 실험일: 더 빠르고 효율적인 쿼리를 작성하려면 쿼리를 실험 데이터(
YYYYMMDD
서픽스로 식별되는 테이블)가 포함된 Google Analytics 일일 이벤트 테이블 파티션으로 제한하는 것이 좋습니다. 실험이 2024년 2월 2일부터 2024년 5월 2일까지 실행된 경우_TABLE_SUFFIX between '20240202' AND '20240502'
을 지정합니다. 예시를 보려면 특정 실험 값 선택을 참조하세요. - 이벤트 이름: 일반적으로 실험에 구성한 목표 측정항목에 해당됩니다. 예를 들면
in_app_purchase
이벤트,ad_impression
또는user_retention
이벤트입니다.
쿼리를 생성하는 데 필요한 정보를 수집한 후에는 다음 안내를 따르세요.
- Google Cloud 콘솔에서 BigQuery를 엽니다.
- 프로젝트를 선택한 후 SQL 쿼리 만들기를 선택합니다.
- 쿼리를 추가합니다. 실행할 쿼리 예시는 쿼리 예시 살펴보기를 참조하세요.
- 실행을 클릭합니다.
Firebase Console의 자동 생성 쿼리를 사용하여 실험 데이터 쿼리
Blaze 요금제를 사용하는 경우 실험 개요 페이지에 보고 있는 실험의 실험 이름, 대안, 이벤트 이름, 실험의 이벤트 수를 반환하는 샘플 쿼리가 제공됩니다.
자동 생성된 쿼리를 가져와 실행하려면 다음 안내를 따르세요.
- Firebase Console에서 A/B Testing을 열고 쿼리하려는 A/B Testing 실험을 선택하여 실험 개요를 엽니다.
- 옵션 메뉴의 BigQuery 통합 아래에서 실험 데이터 쿼리를 선택합니다. Google Cloud 콘솔 내 BigQuery에서 프로젝트가 열리고 실험 데이터를 쿼리하는 데 사용할 수 있는 기본 쿼리를 제공합니다.
다음 예시는 'Winter welcome experiment'이라는 이름의 3가지 대안(기준 포함)이 있는 실험에 대해 생성된 쿼리를 보여줍니다. 각 이벤트의 활성 실험 이름, 대안 이름, 순 이벤트, 이벤트 수를 반환합니다. 쿼리 빌더는 프로젝트 내에서 직접 열기 때문에 테이블 이름에서 프로젝트 이름을 지정하지 않습니다.
/*
This query is auto-generated by Firebase A/B Testing for your
experiment "Winter welcome experiment".
It demonstrates how you can get event counts for all Analytics
events logged by each variant of this experiment's population.
*/
SELECT
'Winter welcome experiment' AS experimentName,
CASE userProperty.value.string_value
WHEN '0' THEN 'Baseline'
WHEN '1' THEN 'Welcome message (1)'
WHEN '2' THEN 'Welcome message (2)'
END AS experimentVariant,
event_name AS eventName,
COUNT(*) AS count
FROM
`analytics_000000000.events_*`,
UNNEST(user_properties) AS userProperty
WHERE
(_TABLE_SUFFIX BETWEEN '20240202' AND '20240502')
AND userProperty.key = 'firebase_exp_25'
GROUP BY
experimentVariant, eventName
추가 쿼리 예시를 보려면 쿼리 예시 살펴보기로 진행하세요.
쿼리 예시 살펴보기
다음 섹션에서는 Google Analytics 이벤트 테이블에서 A/B Testing 실험 데이터를 추출하는 데 사용할 수 있는 쿼리의 예시를 보여줍니다.
모든 실험에서 구매 및 실험 표준 편차 값 추출
실험 결과 데이터를 사용하여 독자적으로 Firebase A/B Testing 결과를 확인할 수 있습니다. 다음 BigQuery SQL 문은 실험 대안과 각 대안의 순 사용자 수를 추출하고 in_app_purchase
및 ecommerce_purchase
이벤트에서 발생한 총수익과 _TABLE_SUFFIX
시작일과 종료일로 지정된 기간 내 모든 실험의 표준 편차를 합산합니다. 이 쿼리에서 얻은 데이터를 단측 t-검정을 위한 통계적 유의성 생성기에서 사용하여 Firebase에서 제공하는 결과가 자체 분석과 일치하는지 확인합니다.
A/B Testing에서 추론을 계산하는 방법에 대한 자세한 내용은 테스트 결과 해석을 참조하세요.
/*
This query returns all experiment variants, number of unique users,
the average USD spent per user, and the standard deviation for all
experiments within the date range specified for _TABLE_SUFFIX.
*/
SELECT
experimentNumber,
experimentVariant,
COUNT(*) AS unique_users,
AVG(usd_value) AS usd_value_per_user,
STDDEV(usd_value) AS std_dev
FROM
(
SELECT
userProperty.key AS experimentNumber,
userProperty.value.string_value AS experimentVariant,
user_pseudo_id,
SUM(
CASE
WHEN event_name IN ('in_app_purchase', 'ecommerce_purchase')
THEN event_value_in_usd
ELSE 0
END) AS usd_value
FROM `PROJECT_NAME.analytics_ANALYTICS_ID.events_*`
CROSS JOIN UNNEST(user_properties) AS userProperty
WHERE
userProperty.key LIKE 'firebase_exp_%'
AND event_name IN ('in_app_purchase', 'ecommerce_purchase')
AND (_TABLE_SUFFIX BETWEEN 'YYYYMMDD' AND 'YYYMMDD')
GROUP BY 1, 2, 3
)
GROUP BY 1, 2
ORDER BY 1, 2;
특정 실험 값 선택
다음 쿼리 예시에서는 BigQuery에서 특정 실험 데이터를 가져오는 방법을 보여줍니다. 이 샘플 쿼리는 실험 이름, 대안 이름(기준 포함), 이벤트 이름, 이벤트 수를 반환합니다.
SELECT
'EXPERIMENT_NAME' AS experimentName,
CASE userProperty.value.string_value
WHEN '0' THEN 'Baseline'
WHEN '1' THEN 'VARIANT_1_NAME'
WHEN '2' THEN 'VARIANT_2_NAME'
END AS experimentVariant,
event_name AS eventName,
COUNT(*) AS count
FROM
`analytics_ANALYTICS_PROPERTY.events_*`,
UNNEST(user_properties) AS userProperty
WHERE
(_TABLE_SUFFIX BETWEEN 'YYYMMDD' AND 'YYYMMDD')
AND userProperty.key = 'firebase_exp_EXPERIMENT_NUMBER'
GROUP BY
experimentVariant, eventName