Mit der Gemini API können Sie Konversationen im freien Stil über mehrere Gesprächsrunden hinweg erstellen. Das Vertex AI in Firebase-SDK vereinfacht den Vorgang, da es den Status der Unterhaltung verwaltet. Im Gegensatz zu generateContentStream()
oder generateContent()
müssen Sie den Unterhaltungsverlauf also nicht selbst speichern.
Hinweis
Falls noch nicht geschehen, folgen Sie der Anleitung im Startleitfaden für die Vertex AI in Firebase-SDKs. Achten Sie darauf, dass Sie Folgendes getan haben:
Ein neues oder vorhandenes Firebase-Projekt einrichten, einschließlich des Blaze-Preismodells und der Aktivierung der erforderlichen APIs.
Verbinden Sie Ihre App mit Firebase. Dazu müssen Sie Ihre App registrieren und die Firebase-Konfiguration hinzufügen.
Fügen Sie das SDK hinzu und initialisieren Sie den Vertex AI-Dienst sowie das generative Modell in Ihrer App.
Nachdem Sie Ihre App mit Firebase verbunden, das SDK hinzugefügt und den Vertex AI-Dienst und das generative Modell initialisiert haben, können Sie Gemini API aufrufen.
Chat-Prompt-Anfrage senden
Wenn Sie eine Unterhaltung mit mehreren Antworten (z. B. einen Chat) erstellen möchten, müssen Sie zuerst den Chat initialisieren, indem Sie startChat()
aufrufen. Verwenden Sie dann sendMessageStream()
(oder sendMessage()
), um eine neue Nutzernachricht zu senden. Dadurch werden auch die Nachricht und die Antwort an das Chatprotokoll angehängt.
Es gibt zwei mögliche Optionen für role
, die mit den Inhalten in einer Unterhaltung verknüpft sind:
user
: Die Rolle, die die Aufforderungen bereitstellt. Dieser Wert ist der Standardwert für Aufrufe vonsendMessageStream()
(odersendMessage()
). Die Funktion löst eine Ausnahme aus, wenn eine andere Rolle übergeben wird.model
: Die Rolle, die die Antworten bereitstellt. Diese Rolle kann verwendet werden, wennstartChat()
mit vorhandenenhistory
aufgerufen wird.
Wählen Sie aus, ob Sie die Antwort streamen (sendMessageStream
) oder bis zur vollständigen Generierung des Ergebnisses warten möchten (sendMessage
).
Streaming
Sie können schnellere Interaktionen erzielen, wenn Sie nicht auf das gesamte Ergebnis der Modellgenerierung warten und stattdessen Streaming verwenden, um Teilergebnisse zu verarbeiten.
Ohne Streaming
Alternativ können Sie auf das vollständige Ergebnis warten, anstatt es zu streamen. Das Ergebnis wird erst zurückgegeben, wenn das Modell den gesamten Generierungsprozess abgeschlossen hat.
Informationen zum Auswählen eines Gemini-Modells und optional eines für Ihren Anwendungsfall und Ihre App geeigneten Standorts
Was können Sie sonst noch tun?
- Token zählen, bevor lange Aufforderungen an das Modell gesendet werden
- Richte Cloud Storage for Firebase ein, damit du große Dateien in deine multimodalen Anfragen über Cloud Storage-URLs aufnehmen kannst. Dateien können Bilder, PDFs, Videos und Audiodateien enthalten.
- Denken Sie an die Vorbereitung auf die Produktion, einschließlich der Einrichtung von Firebase App Check, um die Gemini API vor Missbrauch durch nicht autorisierte Clients zu schützen.
Weitere Gemini API-Funktionen ausprobieren
- Text aus nur-Text-Prompts generieren
- Text aus multimodalen Prompts generieren (einschließlich Text, Bildern, PDFs, Videos und Audio).
- Sie können sowohl aus Text- als auch aus multimodalen Prompts strukturierte Ausgabe (z. B. JSON) generieren.
- Verwenden Sie Funktionsaufrufe, um generative Modelle mit externen Systemen und Informationen zu verbinden.
Informationen zum Steuern der Inhaltsgenerierung
- Machen Sie sich mit dem Prompt-Entwurf vertraut, einschließlich Best Practices, Strategien und Beispielaufforderungen.
- Konfigurieren Sie Modellparameter wie Temperatur und maximale Ausgabetokens.
- Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten.
Weitere Informationen zu den Gemini-Modellen
Informationen zu den verfügbaren Modellen für verschiedene Anwendungsfälle sowie zu den zugehörigen Kontingenten und PreisenFeedback zu Vertex AI in Firebase geben