Ce guide vous explique comment commencer à effectuer des appels à Vertex AI Gemini API directement à partir de votre application à l'aide du SDK Vertex AI in Firebase pour la plate-forme de votre choix.
Prérequis
Ce guide part du principe que vous savez développer des applications avec Flutter.
Assurez-vous que votre environnement de développement et votre application Flutter répondent aux exigences suivantes:
- Dart 3.2.0 et versions ultérieures
(Facultatif) Découvrez l'application exemple.
Téléchargez l'exemple d'application
Vous pouvez tester rapidement le SDK, voir une implémentation complète de différents cas d'utilisation ou utiliser l'application exemple si vous ne disposez pas de votre propre application Flutter. Pour utiliser l'application exemple, vous devez l'associer à un projet Firebase.
Étape 1: Configurer un projet Firebase et associer votre application à Firebase
Si vous disposez déjà d'un projet Firebase et d'une application connectée à Firebase
Dans la console Firebase, accédez à la page Compiler avec Gemini.
Cliquez sur la fiche Vertex AI in Firebase pour lancer un workflow qui vous aide à effectuer les tâches suivantes:
Passez à la formule Blaze avec paiement à l'usage.
Activez les API requises dans votre projet (API Vertex AI et API Vertex AI in Firebase).
Passez à l'étape suivante de ce guide pour ajouter le SDK à votre application.
Si vous ne disposez pas encore d'un projet Firebase et d'une application connectée à Firebase
Étape 2: Ajouter le SDK
Une fois votre projet Firebase configuré et votre application connectée à Firebase (voir l'étape précédente), vous pouvez ajouter le SDK Vertex AI in Firebase à votre application.
Le plug-in Vertex AI in Firebase pour Flutter (firebase_vertexai
) permet d'accéder à Vertex AI Gemini API.
À partir du répertoire de votre projet Flutter, exécutez la commande suivante pour installer le plug-in principal et le plug-in Vertex AI in Firebase:
flutter pub add firebase_core && flutter pub add firebase_vertexai
Dans votre fichier
lib/main.dart
, importez le plug-in principal Firebase, le plug-in Vertex AI in Firebase et le fichier de configuration que vous avez généré précédemment:import 'package:firebase_core/firebase_core.dart'; import 'package:firebase_vertexai/firebase_vertexai.dart'; import 'firebase_options.dart';
Dans votre fichier
lib/main.dart
, initialisez également Firebase à l'aide de l'objetDefaultFirebaseOptions
exporté par le fichier de configuration:await Firebase.initializeApp( options: DefaultFirebaseOptions.currentPlatform, );
Recompilez votre application Flutter:
flutter run
Étape 3: Initialisez le service Vertex AI et le modèle génératif
Avant de pouvoir effectuer des appels d'API, vous devez initialiser le service Vertex AI et le modèle génératif.
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
Une fois que vous avez terminé le guide de démarrage, découvrez comment choisir un modèle Gemini et (facultatif) une position adaptée à votre cas d'utilisation et à votre application.
Étape 4: Appeler Vertex AI Gemini API
Maintenant que vous avez connecté votre application à Firebase, ajouté le SDK et initialisé le service Vertex AI et le modèle génératif, vous êtes prêt à appeler Vertex AI Gemini API.
Vous pouvez utiliser generateContent()
pour générer du texte à partir d'une requête d'invite textuelle uniquement:
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);
Qu'est-ce que tu sais faire d'autre ?
En savoir plus sur les modèles Gemini
Découvrez les modèles disponibles pour différents cas d'utilisation, ainsi que leurs quotas et tarifs.
Essayer d'autres fonctionnalités de Gemini API
- Découvrez comment générer du texte à partir de requêtes textuelles uniquement, y compris comment diffuser la réponse.
- Générer du texte à partir de requêtes multimodales (y compris du texte, des images, des PDF, des vidéos et de l'audio)
- Créez des conversations multitours (chat).
- Générez une sortie structurée (comme JSON) à partir d'invites textuelles et multimodales.
- Utilisez l'appel de fonction pour connecter des modèles génératifs à des systèmes et des informations externes.
Découvrez comment contrôler la génération de contenu.
- Comprendre la conception des requêtes, y compris les bonnes pratiques, les stratégies et les exemples de requêtes.
- Configurez les paramètres du modèle, comme la température et le nombre maximal de jetons de sortie.
- Utilisez les paramètres de sécurité pour ajuster la probabilité d'obtenir des réponses pouvant être considérées comme dangereuses.
Envoyer des commentaires sur votre expérience avec Vertex AI in Firebase