In diesem Leitfaden erfahren Sie, wie Sie mit dem Vertex AI in Firebase SDK für die von Ihnen ausgewählte Plattform direkt über Ihre App Aufrufe an Vertex AI Gemini API senden.
Vorbereitung
In diesem Leitfaden wird davon ausgegangen, dass Sie mit der Entwicklung von Apps mit Flutter vertraut sind.
Ihre Entwicklungsumgebung und Ihre Flutter-App müssen die folgenden Anforderungen erfüllen:
- Dart 3.2.0 oder höher
Optional: Sehen Sie sich die Beispiel-App an.
Beispielanwendung herunterladen
Sie können das SDK schnell ausprobieren, sich eine vollständige Implementierung verschiedener Anwendungsfälle ansehen oder die Beispiel-App verwenden, wenn Sie keine eigene Flutter-App haben. Um die Beispiel-App zu verwenden, müssen Sie sie mit einem Firebase-Projekt verknüpfen.
Schritt 1: Firebase-Projekt einrichten und App mit Firebase verknüpfen
Wenn Sie bereits ein Firebase-Projekt und eine mit Firebase verbundene App haben
Rufen Sie in der Firebase Console die Seite Mit Gemini erstellen auf.
Klicken Sie auf die Karte Vertex AI in Firebase, um einen Workflow zu starten, mit dem Sie die folgenden Aufgaben erledigen können:
Aktualisieren Sie Ihr Projekt, um den Blaze-Tarif (Pay as you go) zu verwenden.
Aktivieren Sie die erforderlichen APIs in Ihrem Projekt (Vertex AI API und Vertex AI in Firebase API).
Fahren Sie mit dem nächsten Schritt in dieser Anleitung fort, um das SDK Ihrer App hinzuzufügen.
Wenn Sie noch kein Firebase-Projekt und keine mit Firebase verbundene App haben
Schritt 2: SDK hinzufügen
Nachdem Sie Ihr Firebase-Projekt eingerichtet und Ihre App mit Firebase verbunden haben (siehe vorheriger Schritt), können Sie Ihrer App jetzt das Vertex AI in Firebase SDK hinzufügen.
Das Vertex AI in Firebase-Plug-in für Flutter (firebase_vertexai
) bietet Zugriff auf die Vertex AI Gemini API.
Führen Sie im Verzeichnis Ihres Flutter-Projekts den folgenden Befehl aus, um das Kern-Plug-in und das Vertex AI in Firebase-Plug-in zu installieren:
flutter pub add firebase_core && flutter pub add firebase_vertexai
Importieren Sie in die Datei
lib/main.dart
das Firebase-Kern-Plug-in, das Vertex AI in Firebase-Plug-in und die zuvor generierte Konfigurationsdatei:import 'package:firebase_core/firebase_core.dart'; import 'package:firebase_vertexai/firebase_vertexai.dart'; import 'firebase_options.dart';
Initialisieren Sie Firebase in der Datei
lib/main.dart
mit demDefaultFirebaseOptions
-Objekt, das von der Konfigurationsdatei exportiert wurde:await Firebase.initializeApp( options: DefaultFirebaseOptions.currentPlatform, );
Erstellen Sie Ihre Flutter-Anwendung neu:
flutter run
Schritt 3: Vertex AI-Dienst und generatives Modell initialisieren
Bevor Sie API-Aufrufe ausführen können, müssen Sie den Vertex AI-Dienst und das generative Modell initialisieren.
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
Nachdem Sie die Anleitung zum Einstieg durchgearbeitet haben, erfahren Sie, wie Sie ein Gemini-Modell und (optional) einen Standort auswählen, der für Ihren Anwendungsfall und Ihre App geeignet ist.
Schritt 4: Vertex AI Gemini API anrufen
Nachdem Sie Ihre App mit Firebase verbunden, das SDK hinzugefügt und den Vertex AI-Dienst und das generative Modell initialisiert haben, können Sie Vertex AI Gemini API aufrufen.
Mit generateContent()
können Sie Text aus einer Promptanfrage mit reinem Text generieren:
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);
Was können Sie sonst noch tun?
Weitere Informationen zu den Gemini-Modellen
Hier finden Sie Informationen zu den Modellen, die für verschiedene Anwendungsfälle verfügbar sind, sowie zu ihren Kontingenten und Preisen.
Weitere Funktionen des Gemini API ausprobieren
- Weitere Informationen zum Generieren von Text aus nur-Text-Prompts, einschließlich der Möglichkeit, die Antwort zu streamen.
- Text aus multimodalen Prompts generieren (einschließlich Text, Bildern, PDFs, Videos und Audio).
- Unterhaltungen in mehreren Runden (Chat) erstellen
- Sie können sowohl aus Text- als auch aus multimodalen Prompts strukturierte Ausgabe (z. B. JSON) generieren.
- Verwenden Sie Funktionsaufrufe, um generative Modelle mit externen Systemen und Informationen zu verbinden.
Inhaltserstellung steuern
- Informationen zum Prompt-Design, einschließlich Best Practices, Strategien und Beispiel-Prompts.
- Konfigurieren Sie Modellparameter wie Temperatur und maximale Ausgabetokens.
- Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten.
Feedback zu Vertex AI in Firebase geben