In diesem Leitfaden erfahren Sie, wie Sie mit dem Vertex AI in Firebase SDK für die von Ihnen ausgewählte Plattform direkt über Ihre App Aufrufe an Vertex AI Gemini API senden.
Vorbereitung
In diesem Leitfaden wird davon ausgegangen, dass Sie mit der Entwicklung von Apps mit Flutter vertraut sind.
Achten Sie darauf, dass Ihre Entwicklungsumgebung und Flutter-Anwendung die folgenden Anforderungen erfüllen:
- Dart 3.2.0 oder höher
Optional: Sehen Sie sich die Beispiel-App an.
Beispielanwendung herunterladen
Sie können das SDK schnell ausprobieren, sich eine vollständige Implementierung verschiedener Anwendungsfälle ansehen oder die Beispiel-App verwenden, wenn Sie keine eigene Flutter-App haben. Um die Beispiel-App zu verwenden, müssen Sie sie mit einem Firebase-Projekt verknüpfen.
Schritt 1: Firebase-Projekt einrichten und App mit Firebase verknüpfen
Wenn Sie bereits ein Firebase-Projekt und eine App mit Firebase verknüpft haben
Rufen Sie in der Firebase Console die Seite Mit Gemini erstellen auf.
Klicken Sie auf die Karte Vertex AI in Firebase, um einen Workflow zu starten, mit dem Sie die folgenden Aufgaben erledigen können:
Führen Sie ein Upgrade für Ihr Projekt durch, um den Pay-as-you-go-Preisplan für Blaze zu verwenden.
Aktivieren Sie die erforderlichen APIs in Ihrem Projekt (Vertex AI API und Vertex AI in Firebase API).
Fahren Sie mit dem nächsten Schritt in dieser Anleitung fort, um das SDK Ihrer App hinzuzufügen.
Wenn noch kein Firebase-Projekt und keine App mit Firebase verbunden ist
Schritt 2: SDK hinzufügen
Nachdem Sie Ihr Firebase-Projekt eingerichtet und Ihre App mit Firebase verbunden haben (siehe vorheriger Schritt), können Sie Ihrer App jetzt das Vertex AI in Firebase SDK hinzufügen.
Das Vertex AI in Firebase-Plug-in für Flutter (firebase_vertexai
) bietet Zugriff auf die Vertex AI Gemini API.
Führen Sie im Flutter-Projektverzeichnis den folgenden Befehl aus, um das Core-Plug-in zu installieren:
flutter pub add firebase_core
Importieren Sie das Firebase-Kern-Plug-in und die zuvor generierte Konfigurationsdatei in Ihre
lib/main.dart
-Datei:import 'package:firebase_core/firebase_core.dart'; import 'firebase_options.dart';
Initialisieren Sie Firebase in der Datei
lib/main.dart
mit demDefaultFirebaseOptions
-Objekt, das von der Konfigurationsdatei exportiert wurde:await Firebase.initializeApp( options: DefaultFirebaseOptions.currentPlatform, );
Erstellen Sie Ihre Flutter-Anwendung neu:
flutter run
Führen Sie im Flutter-Projektverzeichnis den folgenden Befehl aus:
flutter pub add firebase_vertexai
Erstellen Sie anschließend Ihr Flutter-Projekt neu:
flutter run
Schritt 3: Vertex AI-Dienst und generatives Modell initialisieren
Bevor Sie API-Aufrufe ausführen können, müssen Sie den Vertex AI-Dienst und das generative Modell initialisieren.
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
// Initialize FirebaseApp
await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
Nachdem Sie die Anleitung zum Einstieg durchgearbeitet haben, erfahren Sie, wie Sie ein Gemini-Modell und (optional) einen Standort auswählen, der für Ihren Anwendungsfall und Ihre App geeignet ist.
Schritt 4: Vertex AI Gemini API anrufen
Nachdem Sie die App mit Firebase verbunden, das SDK hinzugefügt und den Vertex AI-Dienst sowie das generative Modell initialisiert haben, können Sie Vertex AI Gemini API aufrufen.
Mit generateContent()
können Sie Text aus einer Promptanfrage mit reinem Text generieren:
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);
Was können Sie sonst noch tun?
Weitere Informationen zu den Gemini-Modellen
Informationen zu den verfügbaren Modellen für verschiedene Anwendungsfälle sowie zu den zugehörigen Kontingenten und Preisen
Weitere Gemini API-Funktionen ausprobieren
- Weitere Informationen zum Generieren von Text aus Prompts, die nur aus Text bestehen, einschließlich der Möglichkeit, die Antwort zu streamen
- Text aus multimodalen Prompts generieren (einschließlich Text, Bildern, PDFs, Videos und Audio).
- Unterhaltungen in mehreren Runden (Chat) erstellen
- Sie können sowohl aus Text- als auch aus multimodalen Prompts strukturierte Ausgabe (z. B. JSON) generieren.
- Verwenden Sie Funktionsaufrufe, um generative Modelle mit externen Systemen und Informationen zu verbinden.
Inhaltserstellung steuern
- Informationen zum Prompt-Design, einschließlich Best Practices, Strategien und Beispiel-Prompts.
- Konfigurieren Sie Modellparameter wie Temperatur und maximale Ausgabetokens.
- Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten.
Feedback zu Vertex AI in Firebase geben