Mit der Gemini API können Sie Freiform-Unterhaltungen in
mehrere Runden. Das Vertex AI in Firebase SDK vereinfacht den Prozess, da der Status der Unterhaltung verwaltet wird. Anders als bei generateContentStream()
oder generateContent()
müssen Sie den Unterhaltungsverlauf also nicht selbst speichern.
Hinweis
Lesen Sie den Einstiegsleitfaden für die Vertex AI in Firebase SDKs, falls Sie dies noch nicht getan haben. Achten Sie darauf, dass Sie Folgendes getan haben:
Richten Sie ein neues oder vorhandenes Firebase-Projekt ein. Verwenden Sie dabei den Blaze-Preisplan und aktivieren Sie die erforderlichen APIs.
Verbinden Sie Ihre App mit Firebase, einschließlich der Registrierung der App und der Firebase-Konfiguration zu Ihrer App hinzu.
Fügen Sie das SDK hinzu und initialisieren Sie den Vertex AI-Dienst und das generative Modell in Ihrer App.
Nachdem Sie Ihre App mit Firebase verbunden, das SDK hinzugefügt und die Vertex AI-Dienst und das generative Modell, können Sie die Gemini API aufrufen.
Chat-Prompt-Anfrage senden
Wenn Sie eine Unterhaltung mit mehreren Antworten (z. B. einen Chat) erstellen möchten, müssen Sie zuerst den Chat mit startChat()
initialisieren. Verwenden Sie dann sendMessageStream()
(oder sendMessage()
), um eine neue Nutzernachricht zu senden. Dadurch werden die Nachricht und die Antwort an den Chatverlauf angehängt.
Es gibt zwei mögliche Optionen für role
, die mit den Inhalten in einer
Gespräch:
user
: die Rolle, die die Prompts bereitstellt. Dieser Wert ist der Standardwert fürsendMessageStream()
(odersendMessage()
) aufruft und die Funktion wenn eine andere Rolle übergeben wird.model
: Die Rolle, die die Antworten bereitstellt. Diese Rolle kann verwendet werden, wennstartChat()
mit vorhandenenhistory
aufgerufen wird.
Wählen Sie aus, ob Sie die Antwort streamen (sendMessageStream
) oder warten möchten
bis das gesamte Ergebnis generiert ist (sendMessage
).
Streaming
Sie können schnellere Interaktionen erzielen, wenn Sie nicht auf das vollständige Ergebnis der Modellgenerierung warten, sondern stattdessen Streaming zum Verarbeiten von Teilergebnissen verwenden.
Ohne Streaming
Alternativ können Sie auf das gesamte Ergebnis warten, anstatt auf das Streaming zu warten. die Ergebnis wird erst zurückgegeben, nachdem das Modell die gesamte Generierung abgeschlossen hat. .
Hier erfahren Sie, wie Sie ein Gemini-Modell und optional einen Standort für Ihren Anwendungsfall und Ihre App auswählen.
Was kannst du noch tun?
- Informationen zum Zählen von Tokens, bevor lange Prompts an das Modell gesendet werden
- Richten Sie Cloud Storage for Firebase so ein, dass Sie große Dateien mithilfe von Cloud Storage-URLs in Ihre multimodalen Anfragen aufnehmen können. Dateien können Bilder, PDFs, Videos und Audiodateien enthalten.
- Überlegen Sie, wie Sie sich auf die Produktion vorbereiten können, einschließlich der Einrichtung von Firebase App Check, um die Gemini API vor Missbrauch durch nicht autorisierte Clients zu schützen.
Weitere Funktionen des Gemini API ausprobieren
- Text aus nur-Text-Prompts generieren
- Text generieren aus Multimodale Prompts Dies betrifft unter anderem Text, Bilder, PDFs, Videos und Audiodateien.
- Verwenden Sie Funktionsaufrufe, um eine Verbindung herzustellen generativen Modellen auf externe Systeme und Informationen.
Inhaltserstellung steuern
- Machen Sie sich mit dem Prompt-Entwurf vertraut, einschließlich Best Practices, Strategien und Beispielaufforderungen.
- Konfigurieren Sie Modellparameter wie und maximale Anzahl von Ausgabetokens.
- Verwenden Sie die Sicherheitseinstellungen, um die Wahrscheinlichkeit von Antworten erhalten, die als schädlich eingestuft werden können.
Weitere Informationen zu den Gemini-Modellen
Weitere Informationen für verschiedene Anwendungsfälle und ihre Kontingente und Preise.Feedback zu Vertex AI in Firebase geben