Ao chamar o Gemini API do seu app usando um SDK Vertex AI in Firebase, é possível solicitar que o modelo Gemini gere texto com base em uma entrada somente de texto.
Outras opções para trabalhar com o Gemini API
Opcionalmente, teste uma versão alternativa "Google AI" do Gemini API
para ter acesso sem custo financeiro (dentro dos limites e onde disponível) usando Google AI Studio e SDKs de cliente Google AI. Esses SDKs devem ser usados somente para prototipagem em apps para dispositivos móveis e da Web.Depois de entender como um Gemini API funciona, migre para nossos SDKs Vertex AI in Firebase (esta documentação), que têm muitos outros recursos importantes para apps para dispositivos móveis e da Web, como a proteção da API contra abuso usando Firebase App Check e suporte para arquivos de mídia grandes em solicitações.
Chame opcionalmente o Vertex AI Gemini API do lado do servidor (como com Python, Node.js ou Go)
Use os SDKs Vertex AI do lado do servidor, Genkit ou Firebase Extensions para o Gemini API.
Antes de começar
Se ainda não tiver feito isso, conclua o
guia de início, que descreve como
configurar seu projeto do Firebase, conectar seu app ao Firebase, adicionar o SDK,
inicializar o serviço Vertex AI e criar uma instância GenerativeModel
.
Gerar texto com base em uma entrada somente de texto
É possível chamar o Gemini API com uma entrada que inclui apenas texto. Para essas chamadas, é necessário usar um modelo compatível com comandos somente de texto (como Gemini 2.0 Flash).
Escolha se você quer transmitir a resposta (generateContentStream
) ou esperar
pela resposta até que todo o resultado seja gerado (generateContent
).
É possível ter interações mais rápidas sem esperar pelo resultado completo da geração do modelo e, em vez disso, usar o streaming para processar resultados parciais.
Este exemplo mostra como usar
generateContentStream
para transmitir o texto gerado de uma solicitação de comando que inclui apenas texto:
import FirebaseVertexAI
// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()
// Create a `GenerativeModel` instance with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")
// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."
// To stream generated text output, call generateContentStream with the text input
let contentStream = try model.generateContentStream(prompt)
for try await chunk in contentStream {
if let text = chunk.text {
print(text)
}
}
Como alternativa, aguarde o resultado completo em vez de streaming. O resultado só é retornado depois que o modelo conclui todo o processo de geração.
Este exemplo mostra como usar
generateContent
para gerar texto de uma solicitação de comando que inclui apenas texto:
import FirebaseVertexAI
// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()
// Create a `GenerativeModel` instance with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")
// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
let response = try await model.generateContent(prompt)
print(response.text ?? "No text in response.")
Saiba como escolher um modelo e, opcionalmente, um local adequado para seu caso de uso e app.
O que mais você pode fazer?
- Saiba como contar tokens antes de enviar comandos longos para o modelo.
- Comece a pensar na preparação para a produção, incluindo a configuração de Firebase App Check para proteger o Gemini API contra abusos de clientes não autorizados. Além disso, consulte a lista de verificação de produção.
Testar outros recursos
- Crie conversas com vários turnos (chat).
- Gerar texto a partir de comandos multimodais (incluindo texto, imagens, PDFs, vídeo e áudio).
- Gere saída estruturada (como JSON) com comandos de texto e multimodais.
- Gerar imagens com base em comandos de texto.
- Use a chamada de função para conectar modelos generativos a sistemas e informações externas.
Saiba como controlar a geração de conteúdo
- Entenda o design de comandos, incluindo práticas recomendadas, estratégias e exemplos de comandos.
- Configure os parâmetros do modelo, como temperatura e máximo de tokens de saída (para Gemini) ou proporção e geração de pessoas (para Imagen).
- Use as configurações de segurança para ajustar a probabilidade de receber respostas que podem ser consideradas nocivas.
Saiba mais sobre os modelos compatíveis
Saiba mais sobre os modelos disponíveis para vários casos de uso e as cotas e o preço.Enviar feedback sobre sua experiência com o Vertex AI in Firebase