Com o Gemini API, é possível criar conversas em formato livre em
várias curvas. O SDK do Vertex AI in Firebase simplifica o processo ao gerenciar
o estado da conversa, ao contrário de generateContentStream()
ou
generateContent()
, não é necessário armazenar o histórico de conversas.
Antes de começar
Conclua as guia para iniciantes para SDKs do Vertex AI in Firebase. Verifique se você fez o seguinte:
Configure um projeto novo ou existente do Firebase, incluindo o uso do Plano de preços Blaze e ativação das APIs necessárias.
Conecte seu app ao Firebase, incluindo o registro dele e a adição do configuração do Firebase ao seu app.
Adicionar o SDK e inicializar o serviço Vertex AI e o modelo generativo no seu app.
Depois de conectar seu aplicativo ao Firebase, adicionar o SDK e inicializar o Vertex AI e o modelo generativo, está tudo pronto para chamar Gemini API.
Enviar uma solicitação de comando de chat
Para criar uma conversa de várias interações (como um chat), comece inicializando o
chame startChat()
. Em seguida, use
sendMessageStream()
(ou sendMessage()
) para enviar uma nova mensagem de usuário, que
também anexa a mensagem e a resposta ao histórico de chat.
Há duas opções possíveis para role
associadas ao conteúdo em um
conversa:
user
: o papel que fornece os comandos. Esse valor é o padrão para chamadas parasendMessageStream()
(ousendMessage()
), e a função gera uma exceção caso um papel diferente seja transmitido.model
: o papel que fornece as respostas. Esse papel pode ser usado chamandostartChat()
com ashistory
existentes.
Escolha se você quer transmitir a resposta (sendMessageStream
) ou esperar
pela resposta até que todo o resultado seja gerado (sendMessage
).
Streaming
Você pode ter interações mais rápidas sem esperar pelo resultado inteiro a geração do modelo e, em vez disso, usar streaming para lidar com resultados parciais.
Sem streaming
Outra opção é aguardar o resultado inteiro em vez de fazer streaming. as o resultado só é retornado depois que o modelo conclui toda a geração de desenvolvimento de software.
Aprenda a escolher um modelo do Gemini e, opcionalmente, um local de acordo com seu caso de uso e app.
O que mais você pode fazer?
- Saiba como contar tokens. antes de enviar comandos longos ao modelo.
- Configurar o Cloud Storage for Firebase para que você possa incluir arquivos grandes em suas solicitações multimodais usando Cloud Storage. Os arquivos podem incluir imagens, PDFs, vídeo e áudio.
- Comece a se preparar para a produção, incluindo configurando o Firebase App Check para proteger o Gemini API contra abusos de clientes não autorizados.
Teste outros recursos do Gemini API
- Gerar texto com base comandos somente de texto.
- Gerar texto com base comandos multimodais (incluindo texto, imagens, PDFs, vídeo e áudio).
- Use chamadas de função para se conectar modelos generativos a sistemas e informações externos.
Saiba como controlar a geração de conteúdo
- Entender o design de comandos, incluindo práticas recomendadas, estratégias e exemplos de comandos.
- Configure os parâmetros do modelo, como temperatura e máximo de tokens de saída.
- Use as configurações de segurança para ajustar o probabilidade de receber respostas que podem ser consideradas prejudiciais.
Saiba mais sobre os modelos do Gemini
Saiba mais sobre o modelos disponíveis para diversos casos de uso e as cotas e preços.Envie feedback sobre sua experiência com Vertex AI in Firebase