Crie conversas de vários turnos (chat) com a API Gemini


Com o Gemini API, é possível criar conversas em formato livre em várias curvas. O SDK do Vertex AI in Firebase simplifica o processo ao gerenciar o estado da conversa, ao contrário de generateContentStream() ou generateContent(), não é necessário armazenar o histórico de conversas.

Antes de começar

Conclua as guia para iniciantes para SDKs do Vertex AI in Firebase. Verifique se você fez o seguinte:

  1. Configure um projeto novo ou existente do Firebase, incluindo o uso do Plano de preços Blaze e ativação das APIs necessárias.

  2. Conecte seu app ao Firebase, incluindo o registro dele e a adição do configuração do Firebase ao seu app.

  3. Adicionar o SDK e inicializar o serviço Vertex AI e o modelo generativo no seu app.

Depois de conectar seu aplicativo ao Firebase, adicionar o SDK e inicializar o Vertex AI e o modelo generativo, está tudo pronto para chamar Gemini API.

Enviar uma solicitação de comando de chat

Para criar uma conversa de várias interações (como um chat), comece inicializando o chame startChat(). Em seguida, use sendMessageStream() (ou sendMessage()) para enviar uma nova mensagem de usuário, que também anexa a mensagem e a resposta ao histórico de chat.

Há duas opções possíveis para role associadas ao conteúdo em um conversa:

  • user: o papel que fornece os comandos. Esse valor é o padrão para chamadas para sendMessageStream() (ou sendMessage()), e a função gera uma exceção caso um papel diferente seja transmitido.

  • model: o papel que fornece as respostas. Esse papel pode ser usado chamando startChat() com as history existentes.

.

Escolha se você quer transmitir a resposta (sendMessageStream) ou esperar pela resposta até que todo o resultado seja gerado (sendMessage).

Streaming

Você pode ter interações mais rápidas sem esperar pelo resultado inteiro a geração do modelo e, em vez disso, usar streaming para lidar com resultados parciais.

Sem streaming

Outra opção é aguardar o resultado inteiro em vez de fazer streaming. as o resultado só é retornado depois que o modelo conclui toda a geração de desenvolvimento de software.

Aprenda a escolher um modelo do Gemini e, opcionalmente, um local de acordo com seu caso de uso e app.

O que mais você pode fazer?

  • Saiba como contar tokens. antes de enviar comandos longos ao modelo.
  • Configurar o Cloud Storage for Firebase para que você possa incluir arquivos grandes em suas solicitações multimodais usando Cloud Storage. Os arquivos podem incluir imagens, PDFs, vídeo e áudio.
  • Comece a se preparar para a produção, incluindo configurando o Firebase App Check para proteger o Gemini API contra abusos de clientes não autorizados.

Teste outros recursos do Gemini API

Saiba como controlar a geração de conteúdo

. Também é possível testar comandos e configurações de modelo usando Vertex AI Studio.

Saiba mais sobre os modelos do Gemini

Saiba mais sobre o modelos disponíveis para diversos casos de uso e as cotas e preços.


Envie feedback sobre sua experiência com Vertex AI in Firebase