Unterhaltungen über mehrere Themen (Chat) mit der Gemini API erstellen


Mit der Gemini API können Sie Konversationen im freien Stil über mehrere Gesprächsrunden hinweg erstellen. Das Vertex AI in Firebase SDK vereinfacht den Prozess, da der Status der Unterhaltung verwaltet wird. Anders als bei generateContentStream() oder generateContent() müssen Sie den Unterhaltungsverlauf also nicht selbst speichern.

Hinweis

Lesen Sie den Einstiegsleitfaden für die Vertex AI in Firebase SDKs, falls Sie dies noch nicht getan haben. Achten Sie darauf, dass Sie Folgendes getan haben:

  1. Richten Sie ein neues oder vorhandenes Firebase-Projekt ein. Verwenden Sie dabei den Blaze-Preisplan und aktivieren Sie die erforderlichen APIs.

  2. Verbinden Sie Ihre App mit Firebase. Dazu müssen Sie Ihre App registrieren und die Firebase-Konfiguration hinzufügen.

  3. Fügen Sie das SDK hinzu und initialisieren Sie den Vertex AI-Dienst und das generative Modell in Ihrer App.

Nachdem Sie Ihre App mit Firebase verbunden, das SDK hinzugefügt und den Vertex AI-Dienst und das generative Modell initialisiert haben, können Sie Gemini API aufrufen.

Chat-Prompt-Anfrage senden

Wenn Sie eine Unterhaltung mit mehreren Antworten (z. B. einen Chat) erstellen möchten, müssen Sie zuerst den Chat initialisieren, indem Sie startChat() aufrufen. Verwenden Sie dann sendMessageStream() (oder sendMessage()), um eine neue Nutzernachricht zu senden. Dadurch werden die Nachricht und die Antwort an den Chatverlauf angehängt.

Es gibt zwei mögliche Optionen für role, die mit den Inhalten in einer Unterhaltung verknüpft sind:

  • user: die Rolle, die die Prompts bereitstellt. Dieser Wert ist der Standardwert für Aufrufe von sendMessageStream() (oder sendMessage()). Die Funktion wirft eine Ausnahme, wenn eine andere Rolle übergeben wird.

  • model: die Rolle, die die Antworten liefert. Diese Rolle kann verwendet werden, wenn startChat() mit vorhandenen history aufgerufen wird.

Wählen Sie aus, ob Sie die Antwort streamen (sendMessageStream) oder bis zur vollständigen Generierung des Ergebnisses warten möchten (sendMessage).

Streaming

Sie können schnellere Interaktionen erzielen, wenn Sie nicht auf das vollständige Ergebnis der Modellgenerierung warten, sondern stattdessen Streaming zum Verarbeiten von Teilergebnissen verwenden.

Ohne Streaming

Alternativ können Sie auf das vollständige Ergebnis warten, anstatt es zu streamen. Das Ergebnis wird erst zurückgegeben, wenn das Modell den gesamten Generierungsprozess abgeschlossen hat.

Hier erfahren Sie, wie Sie ein Gemini-Modell und optional einen Standort auswählen, der für Ihren Anwendungsfall und Ihre App geeignet ist.

Was können Sie sonst noch tun?

Weitere Funktionen des Gemini API ausprobieren

Inhaltserstellung steuern

Mit Vertex AI Studio können Sie auch mit Prompts und Modellkonfigurationen experimentieren.

Weitere Informationen zu den Gemini-Modellen

Hier finden Sie Informationen zu den Modellen, die für verschiedene Anwendungsfälle verfügbar sind, sowie zu ihren Kontingenten und Preisen.


Feedback zu Vertex AI in Firebase geben