Lista kontrolna produkcji dotycząca korzystania z Vertex AI w Firebase

Gdy będziesz gotowy do uruchomienia aplikacji i zapewnienia użytkownikom dostępu do funkcji generatywnej AI, zapoznaj się z tą listą kontrolną sprawdzonych metod i ważnych kwestii.

Ogólne

Sprawdź ogólną listę kontrolną dotyczącą wdrażania aplikacji korzystających z Firebase

Ta lista kontrolna wdrażania Firebase zawiera ważne sprawdzone metody, które warto zastosować przed wdrożeniem aplikacji Firebase w wersji produkcyjnej.

Upewnij się, że Twoje projekty Firebase są zgodne ze sprawdzonymi metodami

Upewnij się na przykład, że używasz różnych projektów Firebase do tworzenia, testowania i produkcji. Zapoznaj się ze sprawdzonymi metodami zarządzania projektami.

Dostęp i bezpieczeństwo

Sprawdzanie ogólnej listy kontrolnej zabezpieczeń w przypadku aplikacji korzystających z Firebase

Ta lista kontrolna zabezpieczeń zawiera ważne sprawdzone metody dotyczące dostępu i bezpieczeństwa aplikacji i usług Firebase.

Rozpocznij wykonywanie Firebase App Check

App Check pomaga chronić Vertex AI Gemini API, weryfikując, czy żądania pochodzą z Twojej aplikacji. Obsługuje dostawców usług atestatycznych na platformach Apple (DeviceCheck lub App Attest), Android (Play Integrity) i w internecie (reCAPTCHA Enterprise).

Konfigurowanie ograniczeń kluczy interfejsu API Firebase

Pamiętaj, że interfejsy API związane z Firebase używają kluczy API tylko do identyfikowania projektu lub aplikacji Firebase, a nie do autoryzacji wywołania interfejsu API.

 Wyłącz nieużywane interfejsy API w projekcie Firebase

Jeśli na przykład najpierw wypróbowałeś interfejs Gemini API za pomocą interfejsu Google AI Studio, możesz teraz wyłączyć interfejs Generative Language API. Twoja aplikacja korzysta teraz z interfejsu Vertex AI in Firebase, który opiera się na interfejsach Vertex AI APIVertex AI in Firebase API.

Rozliczenia i limity

Sprawdź limity dla wymaganych interfejsów API

Korzystanie z interfejsu Vertex AI in Firebase wymaga 2 interfejsów API: Vertex AIVertex AI in Firebase.

Limity poszczególnych interfejsów API są mierzone nieco inaczej, co oznacza, że można ich używać do różnych celów. Ważne informacje znajdziesz w artykule Informacje o limitach poszczególnych interfejsów API. Możesz na przykład ustawić limity stawek na użytkownika (domyślnie 100 RPM).

Pamiętaj, że limity są też zmienne w zależności od modelu i regionu, dlatego odpowiednio dostosuj limity do swoich użytkowników i przypadków użycia.

W razie potrzeby możesz też zmienić limit lub poprosić o jego zwiększenie.

Unikaj niespodziewanych rachunków

Sprawdzoną metodą w przypadku wersji produkcyjnej jest monitorowanie wykorzystaniaustawianie alertów dotyczących budżetu.

Zarządzanie konfiguracjami

Używanie stabilnej wersji modelu w produkcyjnej aplikacji

W wersji produkcyjnej aplikacji używaj tylko stabilnych wersji modelu (np. gemini-2.0-flash-001), a nie wersji podglądu ani automatycznie aktualizowanych.

Chociaż automatycznie aktualizowana wersja wskazuje wersję stabilną, to rzeczywista wersja modelu, do której się odnosi, zmienia się automatycznie po wydaniu nowej wersji stabilnej, co może powodować nieoczekiwane działanie lub odpowiedzi. Ponadto wersje podglądu są zalecane tylko podczas tworzenia prototypu.

Zdecydowanie zalecamy też używanie Firebase Remote Config do kontrolowania i aktualizowania nazwy modelu używanej w aplikacji (szczegóły znajdziesz w następnej sekcji).

Konfigurowanie i używanie Firebase Remote Config

Dzięki Remote Config możesz kontrolować ważne konfiguracje funkcji generatywnej AI w chmurze zamiast kodować wartości w kodzie. Oznacza to, że możesz zaktualizować konfigurację bez publikowania nowej wersji aplikacji. Za pomocą funkcji Remote Config możesz robić wiele rzeczy, ale poniżej znajdziesz najważniejsze wartości, które zalecamy kontrolować zdalnie w przypadku funkcji generatywnej AI:

  • Uaktualniaj aplikację.

    • Nazwa modelu: zaktualizuj model używany przez aplikację, gdy zostaną wydane nowe modele lub wycofane inne.
  • Dostosowywanie wartości i danych wejściowych na podstawie atrybutów klienta lub opinii z testów bądź od użytkowników.

    • Konfiguracja modelu: dostosowywanie temperatury, maksymalnej liczby tokenów wyjściowych i innych parametrów.

    • Ustawienia bezpieczeństwa: dostosuj ustawienia bezpieczeństwa, jeśli zbyt wiele odpowiedzi jest blokowanych lub użytkownicy zgłaszają szkodliwe odpowiedzi.

    • Instrukcje systemoweprompty: dostosuj dodatkowy kontekst, który wysyłasz do modelu, aby kierować jego odpowiedziami i zachowaniem. Możesz na przykład dostosować prompty do określonych typów klientów lub spersonalizować prompty dla nowych użytkowników, które różnią się od tych używanych do generowania odpowiedzi dla obecnych użytkowników.

Możesz też opcjonalnie ustawić parametr minimum_version w pliku Remote Config, aby porównać bieżącą wersję aplikacji z najnowszą wersją zdefiniowaną w pliku Remote Config. Dzięki temu możesz wyświetlić użytkownikom powiadomienie o konieczności aktualizacji lub wymusić aktualizację.

Ustaw lokalizację, w której ma być uruchamiany usługa Vertex AI i uzyskiwana dostęp do modelu

Ustawienie lokalizacji może pomóc w ograniczeniu kosztów i opóźnień dla użytkowników.

Jeśli nie określisz lokalizacji, zostanie użyta domyślna wartość us-central1. Możesz ustawić tę lokalizację podczas inicjalizacji lub opcjonalnie użyć funkcji Firebase Remote Config, aby dynamicznie zmieniać lokalizację na podstawie lokalizacji każdego użytkownika.