Lista kontrolna produkcji dotycząca korzystania z Vertex AI w Firebase

Gdy wszystko będzie gotowe do uruchomienia aplikacji i do interakcji z funkcjami generatywnej AI przez prawdziwych użytkowników, zapoznaj się z tą listą kontrolną sprawdzonych metod i ważnych kwestii.

Ogólne

Sprawdź ogólną listę kontrolną dotyczącą wdrażania aplikacji korzystających z Firebase

Ta lista kontrolna wdrażania Firebase zawiera ważne sprawdzone metody, które warto zastosować przed wdrożeniem aplikacji Firebase w wersji produkcyjnej.

Upewnij się, że Twoje projekty Firebase są zgodne ze sprawdzonymi metodami

Upewnij się na przykład, że używasz różnych projektów Firebase do tworzenia, testowania i produkcji. Zapoznaj się ze sprawdzonymi metodami zarządzania projektami.

Dostęp i bezpieczeństwo

Sprawdź ogólną listę kontrolną zabezpieczeń w przypadku aplikacji korzystających z Firebase

Na tej liście kontrolnej zabezpieczeń znajdziesz ważne sprawdzone metody dotyczące dostępu do aplikacji i usług Firebase oraz zapewniania bezpieczeństwa w tych usługach.

Rozpocznij przestrzeganie Firebase App Check

App Check pomaga chronić Vertex AI Gemini API, weryfikując, czy żądania pochodzą z Twojej aplikacji. Obsługuje dostawców usług atestatycznych na platformach Apple (DeviceCheck lub App Attest), Android (Play Integrity) i w internecie (reCAPTCHA Enterprise).

Konfigurowanie ograniczeń kluczy interfejsu Firebase API

Uwaga: interfejsy API związane z Firebase wykorzystują klucze API wyłącznie do identyfikacji projektu lub aplikacji Firebase, a nie do autoryzacji do wywoływania interfejsu API.

 Wyłącz nieużywane interfejsy API w projekcie Firebase

Jeśli na przykład najpierw wypróbowałeś interfejs Gemini API za pomocą interfejsu Google AI Studio, możesz teraz wyłączyć interfejs Generative Language API. Twoja aplikacja używa teraz interfejsu Vertex AI in Firebase, który korzysta z interfejsów Vertex AI API oraz Vertex AI in Firebase API.

Płatności i limity

Sprawdź limity wymaganych bazowych interfejsów API

Korzystanie z interfejsu Vertex AI in Firebase wymaga 2 interfejsów API: Vertex AIVertex AI in Firebase.

Każdy interfejs API jest mierzony nieco inaczej, co oznacza, że można go używać do różnych celów. Ważne informacje znajdziesz w artykule Informacje o limitach dla każdego interfejsu API.

Pamiętaj, że limity różnią się też w zależności od modelu i regionu, więc upewnij się, że są one odpowiednio ustawione dla użytkowników i przypadków użycia.

W razie potrzeby możesz też zmienić limit lub poprosić o jego zwiększenie.

Unikaj niespodziewanych rachunków

Sprawdzoną metodą w przypadku wersji produkcyjnej jest monitorowanie wykorzystaniaustawianie alertów dotyczących budżetu.

Zarządzanie konfiguracjami

Używanie stabilnej wersji modelu w produkcyjnej aplikacji

W aplikacji produkcyjnej używaj tylko stabilnych wersji modelu (np. gemini-1.5-flash-002), a nie wersji podglądu ani wersji automatycznie aktualizowanej.

Chociaż automatycznie aktualizowana wersja wskazuje wersję stabilną, to rzeczywista wersja modelu, do której się odnosi, automatycznie zmienia się po wydaniu nowej wersji stabilnej, co może powodować nieoczekiwane działanie lub odpowiedzi. Ponadto wersje podgląd są zalecane tylko podczas tworzenia prototypów.

Zdecydowanie zalecamy też używanie Firebase Remote Config do kontrolowania i aktualizowania nazwy modelu używanej w aplikacji (szczegóły znajdziesz w następnej sekcji).

Konfigurowanie i używanie Firebase Remote Config

Dzięki Remote Config możesz zarządzać ważnymi konfiguracjami funkcji generatywnej AI w chmurze zamiast kodować wartości w kodzie. Oznacza to, że możesz zaktualizować konfigurację bez publikowania nowej wersji aplikacji. Remote Config daje wiele możliwości, ale zalecamy zdalne sterowanie funkcjami generatywnej AI:

  • Aktualizuj aplikację.

    • Nazwa modelu: aktualizuj model używany przez aplikację w miarę wprowadzania nowych lub wycofywania innych modeli.
  • Dostosowywanie wartości i danych wejściowych na podstawie atrybutów klienta lub opinii z testów bądź od użytkowników.

    • Konfiguracja modelu: dostosuj temperaturę, maksymalną liczbę tokenów wyjściowych i inne parametry.

    • Ustawienia bezpieczeństwa: dostosuj ustawienia bezpieczeństwa, jeśli zbyt wiele odpowiedzi jest blokowanych lub jeśli użytkownicy zgłaszają szkodliwe odpowiedzi.

    • Instrukcje systemowepodane przez Ciebie prompty: dostosuj dodatkowy kontekst, który wysyłasz do modelu, aby kierować jego odpowiedziami i zachowaniem. Możesz na przykład dostosować prompty do określonych typów klientów lub spersonalizować prośby dla nowych użytkowników, które różnią się od tych używanych do generowania odpowiedzi dla obecnych użytkowników.

Możesz też opcjonalnie ustawić parametr minimum_version w pliku Remote Config, aby porównać bieżącą wersję aplikacji z najnowszą wersją zdefiniowaną w pliku Remote Config. Dzięki temu możesz wyświetlić użytkownikom powiadomienie o konieczności uaktualnienia lub wymusić uaktualnienie.

Ustaw lokalizację, w której ma być uruchamiany usługa Vertex AI i uzyskiwać dostęp do modelu

Ustawienie lokalizacji może pomóc w ograniczeniu kosztów i opóźnień dla użytkowników.

Jeśli nie określisz lokalizacji, domyślnie przyjęta zostanie wartość us-central1. Możesz ustawić tę lokalizację podczas inicjalizacji lub opcjonalnie użyć funkcji Firebase Remote Config, aby dynamicznie zmieniać lokalizację na podstawie lokalizacji każdego użytkownika.