Crie conversas em vários turnos (chat) com a API Gemini


Usando o Gemini API, você pode criar conversas de formato livre em várias rodadas. O SDK Vertex AI in Firebase simplifica o processo gerenciando o estado da conversa. Portanto, ao contrário do generateContentStream() ou generateContent(), você não precisa armazenar o histórico de conversas.

Antes de começar

Conclua o guia para iniciantes dos SDKs do Vertex AI in Firebase, se ainda não tiver feito isso. Verifique se você fez o seguinte:

  1. Configurou um projeto novo ou existente do Firebase, incluindo o uso do plano de preços Blaze e a ativação das APIs necessárias.

  2. Conectou seu app ao Firebase, incluindo o registro e a adição da configuração do Firebase.

  3. Adicione o SDK e inicialize o serviço do Vertex AI e o modelo generativo no seu app.

Depois de conectar seu app ao Firebase, adicionar o SDK e inicializar o serviço Vertex AI e o modelo generativo, você poderá chamar o Gemini API.

Enviar uma solicitação de comando de chat

Para criar uma conversa com várias mensagens (como um chat), comece inicializando o chat chamando startChat(). Em seguida, use sendMessageStream() (ou sendMessage()) para enviar uma nova mensagem do usuário, que também anexa a mensagem e a resposta ao histórico de chat.

Há duas opções possíveis para role associado ao conteúdo de uma conversa:

  • user: o papel que fornece as instruções. Esse valor é o padrão para chamadas para sendMessageStream() (ou sendMessage()), e a função gera uma exceção se uma função diferente for transmitida.

  • model: o papel que fornece as respostas. Esse papel pode ser usado ao chamar startChat() com history existente.

Escolha se você quer transmitir a resposta (sendMessageStream) ou esperar pela resposta até que todo o resultado seja gerado (sendMessage).

Streaming

É possível conseguir interações mais rápidas sem esperar pelo resultado completo da geração do modelo e, em vez disso, usar o streaming para processar resultados parciais.

Sem streaming

Como alternativa, aguarde o resultado completo em vez de streaming. O resultado só é retornado depois que o modelo conclui todo o processo de geração.

Saiba como escolher um modelo do Gemini e, opcionalmente, um local adequado para seu caso de uso e app.

O que mais você pode fazer?

  • Saiba como contar tokens antes de enviar comandos longos para o modelo.
  • Configure Cloud Storage for Firebase para incluir arquivos grandes nas solicitações multimodais e ter uma solução mais gerenciada para fornecer arquivos em comandos. Os arquivos podem incluir imagens, PDFs, vídeos e áudio.
  • Comece a pensar na preparação para a produção, incluindo a configuração de Firebase App Check para proteger o Gemini API contra abusos de clientes não autorizados.

Testar outros recursos do Gemini API

Saiba como controlar a geração de conteúdo

Também é possível testar comandos e configurações de modelo usando Vertex AI Studio.

Saiba mais sobre os modelos do Gemini

Saiba mais sobre os modelos disponíveis para vários casos de uso e as cotas e os preços.


Enviar feedback sobre sua experiência com o Vertex AI in Firebase