Questa guida illustra come iniziare a effettuare chiamate a Vertex AI Gemini API direttamente dalla tua app utilizzando l'SDK Vertex AI in Firebase per la piattaforma scelta.
Tieni presente che puoi utilizzare questa guida anche per iniziare ad accedere ai modelli Imagen utilizzando gli SDK Vertex AI in Firebase.
Prerequisiti
Questa guida presuppone che tu abbia familiarità con lo sviluppo di app con Flutter.
Assicurati che l'ambiente di sviluppo e l'app Flutter soddisfino i seguenti requisiti:
- Dart 3.2.0 e versioni successive
(Facoltativo) Dai un'occhiata all'app di esempio.
Puoi provare rapidamente l'SDK, visualizzare un'implementazione completa di vari casi d'uso o utilizzare l'app di esempio se non hai una tua app Flutter. Per utilizzare l'app di esempio, dovrai collegarla a un progetto Firebase.
Passaggio 1: configura un progetto Firebase e collega la tua app a Firebase
Se hai già un progetto Firebase e un'app collegata a Firebase
Nella console Firebase, vai alla pagina Esegui il build con Gemini.
Fai clic sulla scheda Vertex AI in Firebase per avviare un flusso di lavoro che ti aiuta a completare le seguenti attività:
Esegui l'upgrade del tuo progetto per utilizzare il piano tariffario Blaze con pagamento a consumo.
Abilita le API richieste nel tuo progetto (API Vertex AI e Vertex AI in Firebase).
Vai al passaggio successivo di questa guida per aggiungere l'SDK alla tua app.
Se non hai già un progetto Firebase e un'app collegata a Firebase
Passaggio 2: aggiungi l'SDK
Dopo aver configurato il progetto Firebase e collegato l'app a Firebase (vedi il passaggio precedente), ora puoi aggiungere l'SDK Vertex AI in Firebase alla tua app.
Il plug-in Vertex AI in Firebase per Flutter (firebase_vertexai
) fornisce accesso alle API per interagire con i modelli Gemini e Imagen.
Dalla directory del progetto Flutter, esegui il seguente comando per installare il plug-in di base e il plug-in Vertex AI in Firebase:
flutter pub add firebase_core && flutter pub add firebase_vertexai
Nel file
lib/main.dart
, importa il plug-in Firebase Core, il plug-in Vertex AI in Firebase e il file di configurazione generato in precedenza:import 'package:firebase_core/firebase_core.dart'; import 'package:firebase_vertexai/firebase_vertexai.dart'; import 'firebase_options.dart';
Nel file
lib/main.dart
, inizializza Firebase utilizzando l'oggettoDefaultFirebaseOptions
esportato dal file di configurazione:await Firebase.initializeApp( options: DefaultFirebaseOptions.currentPlatform, );
Ricostruisci l'applicazione Flutter:
flutter run
Passaggio 3: inizializza il servizio Vertex AI e il modello generativo
Prima di poter effettuare chiamate API e richiedere un modello Gemini, devi inizializzare il servizio Gemini e il modello generativo.Vertex AI
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-2.0-flash');
Dopo aver letto questa guida introduttiva, scopri come scegliere un modello e, facoltativamente, una località appropriata per il tuo caso d'uso e la tua app.
Passaggio 4: invia una richiesta di prompt a un modello
Ora che hai collegato la tua app a Firebase, aggiunto l'SDK e inizializzato il servizio Vertex AI e il modello generativo, puoi inviare una richiesta di prompt a un modello Vertex AI.Gemini
Puoi utilizzare generateContent()
per generare testo da una richiesta di prompt di solo testo:
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-2.0-flash');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);
Cos'altro puoi fare?
Scopri di più sui modelli supportati
Scopri i modelli disponibili per vari casi d'uso e le relative quote e prezzi.
Provare altre funzionalità di Gemini API
- Scopri di più sulla generazione di testo da prompt di solo testo, incluso come riprodurre in streaming la risposta.
- Genera testo da prompt multimodali (inclusi testo, immagini, PDF, video e audio).
- Crea conversazioni a più turni (chat).
- Genera output strutturato (come JSON) da prompt di testo e multimodali.
- Utilizza le chiamate di funzione per collegare i modelli generativi a sistemi e informazioni esterni.
Scopri come controllare la generazione di contenuti
- Comprendi la progettazione dei prompt, tra cui best practice, strategie e prompt di esempio.
- Configura i parametri del modello, ad esempio la temperatura e il numero massimo di token di output (per Gemini) o le proporzioni e la generazione di persone (per Imagen).
- Utilizza le impostazioni di sicurezza per regolare la probabilità di ricevere risposte che potrebbero essere considerate dannose.
Inviare un feedback sulla tua esperienza con Vertex AI in Firebase