Questa guida spiega come iniziare a effettuare chiamate al Vertex AI Gemini API direttamente dalla tua app utilizzando SDK Vertex AI in Firebase per la piattaforma scelta.
Prerequisiti
Questa guida presuppone che tu abbia familiarità con l'utilizzo di Android Studio per sviluppare app per Android.
Assicurati che l'ambiente di sviluppo e l'app per Android soddisfino i seguenti requisiti:
- Android Studio (versione più recente)
- La tua app per Android deve avere il livello API target 21 o versioni successive.
(Facoltativo) Dai un'occhiata all'app di esempio.
Puoi provare rapidamente l'SDK, visualizzare un'implementazione completa dei vari utilizzi o usare l'app di esempio se non hai una tua app per Android. Per utilizzare l'app di esempio, devi la colleghi a un progetto Firebase.
Passaggio 1: configura un progetto Firebase e collega la tua app a Firebase
Se disponi già di un progetto Firebase e di un'app collegata a Firebase
Nella console Firebase, vai a Pagina Crea con Gemini.
Fai clic sulla scheda Vertex AI in Firebase per avviare un flusso di lavoro che ti aiuta a completare le seguenti attività. Tieni presente che se nella console è presente una scheda perVertex AI, queste attività sono state completate.
Esegui l'upgrade del progetto per utilizzare il piano tariffario Blaze a pagamento a consumo.
Abilita le due API seguenti per il tuo progetto:
aiplatform.googleapis.com
efirebaseml.googleapis.com
.
Vai al passaggio successivo di questa guida per aggiungere l'SDK alla tua app.
Se non hai già un progetto Firebase e un'app collegata a Firebase
Passaggio 2: aggiungi l'SDK
Dopo aver configurato il progetto Firebase e aver collegato l'app a Firebase (vedi il passaggio precedente), ora puoi aggiungere l'SDK Vertex AI in Firebase alla tua app.
L'SDK Vertex AI in Firebase per Android (firebase-vertexai
) fornisce
per accedere al Vertex AI Gemini API.
Nel file di configurazione Gradle del modulo (a livello di app) (ad esempio <project>/<app-module>/build.gradle.kts
), aggiungi la dipendenza per l'SDK Vertex AI in Firebase per Android:
Kotlin+KTX
dependencies {
// ... other androidx dependencies
// add the dependency for the Vertex AI in Firebase SDK for Android
implementation("com.google.firebase:firebase-vertexai:16.0.0-beta06")
}
Java
Per Java, devi aggiungere altre due librerie.
dependencies {
// ... other androidx dependencies
// add the dependency for the Vertex AI in Firebase SDK for Android
implementation("com.google.firebase:firebase-vertexai:16.0.0-beta06")
// Required for one-shot operations (to use `ListenableFuture` from Guava Android)
implementation("com.google.guava:guava:31.0.1-android")
// Required for streaming operations (to use `Publisher` from Reactive Streams)
implementation("org.reactivestreams:reactive-streams:1.0.4")
}
Passaggio 3: inizializza il servizio Vertex AI e il modello generativo
Prima di poter effettuare chiamate API, devi inizializzare Vertex AI e il modello generativo.
Kotlin+KTX
Per Kotlin, i metodi in questo SDK sono funzioni sospese e devono essere chiamati da un ambito coroutine.// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash")
Java
Per Java, i metodi di streaming in questo SDK restituiscono un tipoPublisher
della libreria Reactive Streams.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-1.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Al termine della guida introduttiva, scopri come scegliere un modello Gemini e, facoltativamente, un luogo appropriato per il tuo caso d'uso e la tua app.
Passaggio 4: chiama il numero Vertex AI Gemini API
Ora che hai collegato la tua app a Firebase, aggiunto l'SDK e inizializzato il servizio Vertex AI e il modello generativo, puoi chiamare Vertex AI Gemini API.
Puoi utilizzare generateContent()
per generare testo da un prompt di solo testo
richiesta:
Kotlin+KTX
Per Kotlin, i metodi in questo SDK sono funzioni sospese e devono essere chiamati da un ambito coroutine.// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash")
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = generativeModel.generateContent(prompt)
print(response.text)
Java
Per Java, i metodi in questo SDK restituiscono unListenableFuture
.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-1.5-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Cos'altro puoi fare?
Scopri di più sui modelli Gemini
Scopri i modelli disponibili per vari casi d'uso e le relative quote e prezzi.
Prova altre funzionalità di Gemini API
- Scopri di più sulla generazione di testo da prompt di solo testo, incluse le istruzioni su come la risposta in un flusso di dati.
- Genera testo da prompt multimodali (inclusi testo, immagini, PDF, video e audio).
- Crea conversazioni a più turni (chat).
- Usa le chiamate di funzione per connetterti di modelli generativi a sistemi e informazioni esterni.
Scopri come controllare la generazione di contenuti
- Comprendere la progettazione dei prompt, ad esempio: best practice, strategie e prompt di esempio.
- Configura parametri del modello come della temperatura e del numero massimo di token di output.
- Utilizza le impostazioni di sicurezza per regolare la probabilità di ricevere risposte che potrebbero essere considerate dannose.
Fornisci feedback la tua esperienza con Vertex AI in Firebase