Checkliste für die Produktion bei der Verwendung von Vertex AI in Firebase

Wenn Sie Ihre App veröffentlichen und echte Endnutzer mit Ihren generativen KI-Funktionen interagieren lassen möchten, sollten Sie sich diese Checkliste mit Best Practices und wichtigen Überlegungen ansehen.

Allgemein

Allgemeine Checkliste für die Markteinführung von Apps mit Firebase prüfen

In dieser Checkliste für die Einführung von Firebase werden wichtige Best Practices beschrieben, die Sie beachten sollten, bevor Sie eine Firebase-App in die Produktion bringen.

Best Practices für Firebase-Projekte überprüfen

Verwenden Sie beispielsweise unterschiedliche Firebase-Projekte für Entwicklung, Tests und Produktion. Sehen Sie sich weitere Best Practices für die Verwaltung Ihrer Projekte an.

Zugriff und Sicherheit

Allgemeine Sicherheits-Checkliste für Apps durchgehen, die Firebase verwenden

In dieser Checkliste für die Sicherheit werden wichtige Best Practices für den Zugriff und die Sicherheit von Firebase-Apps und ‑Diensten beschrieben.

Erzwingen starten Firebase App Check

App Check trägt zum Schutz der Vertex AI Gemini API bei, indem überprüft wird, ob Anfragen von Ihrer tatsächlichen App stammen. Es unterstützt Attestierungsanbieter für Apple-Plattformen (DeviceCheck oder App Attest), Android (Play Integrity) und Web (reCAPTCHA Enterprise).

Einschränkungen für Ihre Firebase API-Schlüssel einrichten

Firebase-bezogene APIs verwenden API-Schlüssel nur zum Identifizieren des Firebase-Projekts oder der Firebase-App und nicht zur Autorisierung zum Aufrufen der API.

Alle nicht verwendeten APIs in Ihrem Firebase-Projekt deaktivieren

Wenn Sie beispielsweise zuerst die Gemini API mit Google AI Studio ausprobiert haben, können Sie jetzt die Generative Language API deaktivieren. Ihre App verwendet jetzt Vertex AI in Firebase, das stattdessen auf der Vertex AI API und der Vertex AI in Firebase API basiert.

Abrechnung und Kontingent

Kontingente für die erforderlichen zugrunde liegenden APIs prüfen

Für die Verwendung von Vertex AI in Firebase sind zwei APIs erforderlich: die Vertex AI API und die Vertex AI in Firebase API.

Das Kontingent jeder API wird etwas anders gemessen, sodass sie für unterschiedliche Zwecke verwendet werden kann. Wichtige Hinweise finden Sie unter Kontingente für die einzelnen APIs.

Kontingente variieren außerdem je nach Modell und Region. Achten Sie daher darauf, dass Ihre Kontingente für Ihre Nutzer und Anwendungsfälle entsprechend festgelegt sind.

Sie können auch das Kontingent bearbeiten oder eine Erhöhung des Kontingents beantragen.

Überraschungsrechnungen vermeiden

Als Best Practice für die Produktion sollten Sie Ihre Nutzung im Blick behalten und Budgetbenachrichtigungen einrichten.

Verwaltung von Konfigurationen

Stabile Modellversion in der Produktions-App verwenden

Verwenden Sie in Ihrer Produktions-App nur stabile Modellversionen (z. B. gemini-1.5-flash-002), keine Vorschauversion oder automatisch aktualisierte Version.

Obwohl eine automatisch aktualisierte Version auf eine stabile Version verweist, ändert sich die tatsächliche Modellversion, auf die sie verweist, automatisch, wenn eine neue stabile Version veröffentlicht wird. Dies kann zu unerwartetem Verhalten oder unerwarteten Antworten führen. Außerdem werden Vorabversionen nur während des Prototypings empfohlen.

Außerdem empfehlen wir dringend, Firebase Remote Config zu verwenden, um den in Ihrer App verwendeten Modellnamen zu steuern und zu aktualisieren. Weitere Informationen finden Sie im nächsten Abschnitt.

 Firebase Remote Config einrichten und verwenden

Mit Remote Config können Sie wichtige Konfigurationen für Ihre generative AI-Funktion in der Cloud steuern, anstatt Werte in Ihren Code einzufügen. Das bedeutet, dass Sie Ihre Konfiguration aktualisieren können, ohne eine neue Version Ihrer App zu veröffentlichen. Mit Remote Config haben Sie viele Möglichkeiten. Wir empfehlen jedoch, die folgenden wichtigsten Werte für Ihr Generative AI-Feature per Fernzugriff zu steuern:

  • Halten Sie Ihre App auf dem neuesten Stand.

    • Modellname: Aktualisieren Sie das Modell, das Ihre App verwendet, wenn neue Modelle veröffentlicht oder andere eingestellt werden.
  • Passen Sie Werte und Eingaben anhand von Kundenattributen oder Feedback aus Tests oder von Nutzern an.

    • Modellkonfiguration: Sie können unter anderem die Temperatur und die maximale Anzahl von Ausgabetokens anpassen.

    • Sicherheitseinstellungen: Passen Sie die Sicherheitseinstellungen an, wenn zu viele Antworten blockiert werden oder Nutzer schädliche Antworten melden.

    • Systemanweisungen und alle von Ihnen bereitgestellten Aufforderungen: Passen Sie den zusätzlichen Kontext an, den Sie an das Modell senden, um dessen Antworten und Verhalten zu steuern. So können Sie beispielsweise Prompts für bestimmte Kundentypen anpassen oder Prompts für neue Nutzer personalisieren, die sich von denen unterscheiden, die zum Generieren von Antworten für Bestandsnutzer verwendet werden.

Optional können Sie auch einen minimum_version-Parameter in Remote Config festlegen, um die aktuelle Version der App mit der in Remote Config definierten neuesten Version zu vergleichen. So können Sie Nutzern entweder eine Upgrade-Benachrichtigung anzeigen oder sie zum Upgrade zwingen.

 Speicherort festlegen, an dem der Vertex AI-Dienst ausgeführt und auf ein Modell zugegriffen werden soll

Das Festlegen eines Standorts kann die Kosten senken und dazu beitragen, Latenzen für Ihre Nutzer zu vermeiden.

Wenn Sie keinen Standort angeben, ist us-central1 der Standardwert. Sie können diesen Standort bei der Initialisierung festlegen oder optional Firebase Remote Config verwenden, um den Standort dynamisch anhand des Nutzerstandorts zu ändern.