Creare conversazioni in più passaggi (chat) con l'API Gemini


Con Gemini API puoi creare conversazioni in formato libero su più turni. L'SDK Vertex AI in Firebase semplifica la procedura gestendo lo stato della conversazione, quindi, a differenza di generateContentStream() o generateContent(), non devi memorizzare autonomamente la cronologia delle conversazioni.

Prima di iniziare

Se non l'hai ancora fatto, completa la guida introduttiva agli SDK Vertex AI in Firebase. Assicurati di aver eseguito tutte le seguenti operazioni:

  1. Configura un progetto Firebase nuovo o esistente, ad esempio utilizzando il piano di prezzi Blaze e attivando le API richieste.

  2. Collega la tua app a Firebase, inclusa la registrazione e l'aggiunta della configurazione Firebase.

  3. Aggiungi l'SDK e inizializza il servizio Vertex AI e il modello generativo nella tua app.

Dopo aver collegato l'app a Firebase, aggiunto l'SDK e inizializzato il servizio Vertex AI e il modello generativo, puoi chiamare Gemini API.

Inviare una richiesta di prompt di chat

Per creare una conversazione con più turni (ad esempio una chat), inizia con l'inizializzazione della chat chiamando startChat(). Quindi, utilizza sendMessageStream() (o sendMessage()) per inviare un nuovo messaggio dell'utente, che aggiungerà anche il messaggio e la risposta alla cronologia della chat.

Esistono due possibili opzioni per role associate ai contenuti di una conversazione:

  • user: il ruolo che fornisce i prompt. Questo valore è predefinito per le chiamate a sendMessageStream() (o sendMessage()) e la funzione genera un'eccezione se viene passato un ruolo diverso.

  • model: il ruolo che fornisce le risposte. Questo ruolo può essere utilizzato quando si chiama startChat() con history esistente.

Scegli se vuoi riprodurre la risposta in streaming (sendMessageStream) o attendere la risposta finché non viene generato l'intero risultato (sendMessage).

Streaming

Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.

Senza streaming

In alternativa, puoi attendere l'intero risultato anziché lo streaming. Il risultato viene restituito solo dopo che il modello ha completato l'intero processo di generazione.

Scopri come scegliere un modello Gemini e, facoltativamente, una posizione appropriata per il tuo caso d'uso e la tua app.

Cos'altro puoi fare?

  • Scopri come contare i token prima di inviare prompt lunghi al modello.
  • Configura Cloud Storage for Firebase in modo da poter includere file di grandi dimensioni nelle richieste multimodali e avere una soluzione più gestita per fornire file nei prompt. I file possono includere immagini, PDF, video e audio.
  • Inizia a pensare alla preparazione per la produzione, inclusa la configurazione di Firebase App Check per proteggere il Gemini API da abusi da parte di clienti non autorizzati.

Provare altre funzionalità di Gemini API

Scopri come controllare la generazione di contenuti

Puoi anche sperimentare con i prompt e le configurazioni del modello utilizzando Vertex AI Studio.

Scopri di più sui modelli Gemini

Scopri i modelli disponibili per vari casi d'uso e le relative quote e prezzi.


Inviare un feedback sulla tua esperienza con Vertex AI in Firebase