Este guia mostra como começar a fazer chamadas para o Vertex AI Gemini API diretamente do seu app usando o SDK Vertex AI in Firebase para a plataforma escolhida.
Outras opções para trabalhar com o Gemini API
Opcionalmente, teste uma versão alternativa "Google AI" do Gemini API
para ter acesso sem custo financeiro (dentro dos limites e onde disponível) usando Google AI Studio e SDKs de cliente Google AI. Esses SDKs devem ser usados somente para prototipagem em apps para dispositivos móveis e da Web.Depois de entender como um Gemini API funciona, migre para nossos SDKs Vertex AI in Firebase (esta documentação), que têm muitos outros recursos importantes para apps para dispositivos móveis e da Web, como a proteção da API contra abuso usando Firebase App Check e suporte para arquivos de mídia grandes em solicitações.
Chame opcionalmente o Vertex AI Gemini API do lado do servidor (como com Python, Node.js ou Go)
Use os SDKs Vertex AI do lado do servidor, Firebase Genkit ou Firebase Extensions para o Gemini API.
Você também pode usar este guia para acessar modelos Imagen usando os SDKs Vertex AI in Firebase.
Pré-requisitos
Neste guia, pressupomos que você já sabe usar o Android Studio para desenvolver apps para Android.
Verifique se o ambiente de desenvolvimento e o app Android atendem aos seguintes requisitos:
- Android Studio (versão mais recente)
- O app Android precisa ser destinado ao nível 21 da API ou mais recente.
(Opcional) Confira o app de exemplo.
Fazer o download do app de exemplo
Você pode testar o SDK rapidamente, conferir uma implementação completa de vários casos de uso ou usar o app de exemplo se não tiver um próprio app Android. Para usar o app de exemplo, é necessário conectar a um projeto do Firebase.
Etapa 1: configurar um projeto do Firebase e conectar o app ao Firebase
Se você já tem um projeto e um app conectados ao Firebase
No console do Firebase, acesse a página Criar com o Gemini.
Clique no card Vertex AI in Firebase para iniciar um fluxo de trabalho que ajuda você a concluir as seguintes tarefas:
Faça upgrade do seu projeto para usar o plano de preços Blaze de pagamento por uso.
Ative as APIs necessárias no seu projeto (API Vertex AI e Vertex AI in Firebase).
Siga para a próxima etapa deste guia para adicionar o SDK ao app.
Se você ainda não tem um projeto do Firebase e um app conectado a ele
Configurar um projeto do Firebase
Faça login no console do Firebase.
Clique em Criar projeto e use uma das seguintes opções:
Opção 1: crie um projeto do Firebase totalmente novo (e o projeto Google Cloud associado a ele automaticamente) ao inserir um novo nome na primeira etapa do fluxo de trabalho "Criar projeto".
Opção 2: "Adicionar o Firebase" a um projeto Google Cloud existente selecionando o nome do projeto Google Cloud no menu suspenso da primeira etapa do fluxo de trabalho "Criar projeto".
Quando solicitado, você não precisa configurar o Google Analytics para usar os SDKs Vertex AI in Firebase.
No console do Firebase, acesse a página Criar com o Gemini.
Clique no card Vertex AI in Firebase para iniciar um fluxo de trabalho que ajuda a concluir as seguintes tarefas:
Faça upgrade do seu projeto para usar o plano de preços Blaze de pagamento por uso.
Ative as APIs necessárias no seu projeto (API Vertex AI e Vertex AI in Firebase).
Conectar seu app ao Firebase
Continue no fluxo de trabalho de IA generativa do console para conectar seu app ao Firebase, o que inclui estas tarefas:
Registrar o app no projeto do Firebase.
Adicionar o arquivo de configuração do Firebase (
) e o plug-in do Gradlegoogle-services.json
ao app.google-services
Nas próximas etapas deste guia, você vai adicionar o SDK Vertex AI in Firebase ao app e concluir a inicialização necessária para usar o SDK e a Gemini API.
Etapa 2: adicionar o SDK
Com o projeto do Firebase configurado e o app conectado ao Firebase (consulte a etapa anterior), agora você pode adicionar o SDK Vertex AI in Firebase ao app.
O SDK Vertex AI in Firebase para Android (firebase-vertexai
) oferece acesso às APIs para interagir com os modelos Gemini e Imagen.
No arquivo Gradle do módulo (nível do app)
(como <project>/<app-module>/build.gradle.kts
),
adicione a dependência da biblioteca Vertex AI in Firebase para Android.
Recomendamos o uso do
Firebase Android BoM
para controlar o controle de versões da biblioteca.
dependencies { // ... other androidx dependencies // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.10.0")) // Add the dependency for the Vertex AI in Firebase library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai") }
Para Java, é necessário adicionar duas bibliotecas.
dependencies { // ... other androidx dependencies // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.10.0")) // Add the dependency for the Vertex AI in Firebase library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai") // Required for one-shot operations (to use `ListenableFuture` from Guava Android) implementation("com.google.guava:guava:31.0.1-android") // Required for streaming operations (to use `Publisher` from Reactive Streams) implementation("org.reactivestreams:reactive-streams:1.0.4") }
Com o Firebase Android BoM, seu app sempre vai usar versões compatíveis das bibliotecas do Firebase para Android.
(Alternativa) Adicionar dependências das bibliotecas do Firebase sem usar o BoM
Se você preferir não usar o Firebase BoM, especifique cada versão das bibliotecas do Firebase na linha de dependência correspondente.
Se você usa várias bibliotecas do Firebase no app, recomendamos usar o BoM para gerenciar as versões delas, o que garante que todas as versões sejam compatíveis.
dependencies { // Add the dependency for the Vertex AI in Firebase library // When NOT using the BoM, you must specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai:16.2.0") }
Etapa 3: inicializar o serviço Vertex AI e o modelo generativo
Antes de fazer chamadas de API e solicitar um modelo Gemini, é necessário inicializar o serviço Vertex AI e o modelo generativo.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
val generativeModel = Firebase.vertexAI.generativeModel("gemini-2.0-flash")
Publisher
da biblioteca Reative Streams.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Depois de concluir este guia de início, aprenda a escolher um modelo e (opcionalmente) um local adequado para seu caso de uso e app.
Etapa 4: enviar uma solicitação de comando para um modelo
Agora que você conectou seu app ao Firebase, adicionou o SDK e inicializou o serviço Vertex AI e o modelo generativo, já pode enviar uma solicitação de solicitação para um modelo Gemini.
Você pode usar generateContent()
para gerar texto de uma solicitação de comando de texto
exclusivo:
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
val generativeModel = Firebase.vertexAI.generativeModel("gemini-2.0-flash")
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = generativeModel.generateContent(prompt)
print(response.text)
ListenableFuture
.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-2.0-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
O que mais você pode fazer?
Saiba mais sobre os modelos compatíveis
Saiba mais sobre os modelos disponíveis para vários casos de uso e as cotas e o preço.
Testar outros recursos do Gemini API
- Saiba mais sobre como gerar texto de solicitações somente de texto, incluindo como transmitir a resposta.
- Gerar texto a partir de comandos multimodais (incluindo texto, imagens, PDFs, vídeo e áudio).
- Crie conversas com vários turnos (chat).
- Gere saída estruturada (como JSON) com comandos de texto e multimodais.
- Use a chamada de função para conectar modelos generativos a sistemas e informações externas.
Saiba como controlar a geração de conteúdo
- Entenda o design de comandos, incluindo práticas recomendadas, estratégias e exemplos de comandos.
- Configure os parâmetros do modelo, como temperatura e máximo de tokens de saída (para Gemini) ou proporção e geração de pessoas (para Imagen).
- Use as configurações de segurança para ajustar a probabilidade de receber respostas que podem ser consideradas nocivas.
Enviar feedback sobre sua experiência com o Vertex AI in Firebase