Lista kontrolna produkcji dotycząca korzystania z Firebase AI Logic

Gdy aplikacja będzie gotowa do uruchomienia i użytkownicy będą mogli korzystać z funkcji generatywnej AI, zapoznaj się z tą listą kontrolną sprawdzonych metod i ważnych kwestii.

Ogólne

Sprawdź ogólną listę kontrolną dotyczącą uruchamiania aplikacji korzystających z Firebase

Ta lista kontrolna przed opublikowaniem aplikacji w Firebase zawiera ważne sprawdzone metody, które warto zastosować przed opublikowaniem dowolnej aplikacji w Firebase w wersji produkcyjnej.

 Sprawdź, czy Twoje projekty Firebase są zgodne ze sprawdzonymi metodami

Na przykład upewnij się, że do tworzenia, testowania i wdrażania aplikacji używasz różnych projektów Firebase. Poznaj więcej sprawdzonych metod zarządzania projektami.

Dostęp i bezpieczeństwo

Zapoznaj się z ogólną listą kontrolną dotyczącą bezpieczeństwa aplikacji korzystających z Firebase

Ta lista kontrolna bezpieczeństwa zawiera ważne sprawdzone metody dotyczące dostępu i bezpieczeństwa aplikacji i usług Firebase.

Rozpocznij egzekwowanie Firebase App Check

Firebase App Check pomaga chronić interfejsy API, które zapewniają dostęp do modeli GeminiImagen. App Check sprawdza, czy żądania pochodzą z Twojej aplikacji i autentycznego, niezmienionego urządzenia. Obsługuje dostawców atestów na platformach Apple (DeviceCheck lub App Attest), Androidzie (Play Integrity) i w internecie (reCAPTCHA Enterprise), a także wszystkich tych dostawców w przypadku aplikacji Flutter i Unity.

Aby przygotować się na nadchodzącą ulepszoną ochronę przed App Check, w tym ochronę przed powtórzeniem, zalecamy włączenie w aplikacjach używania tokenów ograniczonego użytku.

Ustawianie ograniczeń kluczy interfejsu API Firebase

Pamiętaj, że interfejsy API związane z Firebase używają kluczy interfejsu API tylko do identyfikowania projektu lub aplikacji Firebase, a nie do autoryzacji wywołań interfejsu API.

Płatności, monitorowanie i limity

Unikaj niespodziewanych rachunków

Jeśli Twój projekt Firebase korzysta z abonamentu Blaze (płatność według zużycia zasobów), monitoruj wykorzystanie zasobówskonfiguruj alerty budżetowe.

 Konfigurowanie monitorowania AI w konsoli Firebase

Skonfiguruj monitorowanie AI, aby uzyskać wgląd w kluczowe dane o skuteczności, takie jak liczba żądań, czas oczekiwania, błędy i wykorzystanie tokenów. Monitorowanie AI pomaga też sprawdzać i debugować funkcje Firebase AI Logic, wyświetlając poszczególne ślady.

Sprawdź limity wymaganych interfejsów API

Zarządzanie konfiguracjami

Używanie stabilnej wersji modelu w aplikacji produkcyjnej

W aplikacji produkcyjnej używaj tylko stabilnych wersji modelu (np.gemini-2.0-flash-001), a nie wersji podglądowej, eksperymentalnej ani aliasu aktualizowanego automatycznie.

Chociaż automatycznie aktualizowany alias stabilny wskazuje wersję stabilną, rzeczywista wersja modelu, na którą wskazuje, będzie się automatycznie zmieniać za każdym razem, gdy zostanie wydana nowa wersja stabilna, co może oznaczać nieoczekiwane działanie lub odpowiedzi. Wersje podglądoweeksperymentalne są zalecane tylko podczas tworzenia prototypów.

Konfigurowanie i używanie Firebase Remote Config

Za pomocą Remote Config możesz kontrolować ważne konfiguracje funkcji generatywnej AI w chmurze, zamiast na stałe kodować wartości w kodzie. Oznacza to, że możesz aktualizować konfigurację bez publikowania nowej wersji aplikacji.

  • (Zdecydowanie zalecane) Zdalnie zmieniaj nazwę modelu używanego w aplikacji w miarę wprowadzania nowych modeli lub wycofywania innych.

  • (Opcjonalnie) Dynamicznie, a nawet warunkowo kontroluj inne parametry w aplikacji, takie jak konfiguracja generowania modelu (maksymalna liczba tokenów, temperatura itp.), ustawienia bezpieczeństwa, instrukcje systemowe i dane promptu.

  • (Opcjonalnie) Ustaw parametr minimum_versionRemote Config, aby porównać bieżącą wersję aplikacji z najnowszą wersją zdefiniowaną w Remote Config. Możesz wyświetlać użytkownikom powiadomienie o aktualizacji lub wymuszać aktualizację.

Ustawianie lokalizacji dostępu do modelu

Dostępne tylko wtedy, gdy jako dostawcę interfejsu API używasz Vertex AI Gemini API.

Ustawienie lokalizacji dostępu do modelu może pomóc w kontroli kosztów i zapobiec opóźnieniom u użytkowników.

Jeśli nie określisz lokalizacji, domyślną wartością będzie us-central1. Tę lokalizację możesz ustawić podczas inicjowania lub opcjonalnie użyć Firebase Remote Config, aby dynamicznie zmieniać lokalizację na podstawie lokalizacji każdego użytkownika.