Con Gemini API puoi creare conversazioni in formato libero
in più turni. L'SDK Vertex AI in Firebase semplifica la procedura gestendo
lo stato della conversazione, quindi, a differenza di generateContentStream()
o
generateContent()
, non devi memorizzare autonomamente la cronologia delle conversazioni.
Prima di iniziare
Se non l'hai ancora fatto, completa la guida introduttiva agli SDK Vertex AI in Firebase. Assicurati di avere eseguito tutte le seguenti operazioni:
Imposta un progetto Firebase nuovo o esistente, incluso l'utilizzo del piano tariffario Blaze e l'abilitazione delle API richieste.
Collega la tua app a Firebase, inclusa la registrazione e l'aggiunta della configurazione Firebase.
Aggiungi l'SDK e inizializza il servizio Vertex AI e il modello generativo nella tua app.
Dopo aver connesso la tua app a Firebase, aggiunto l'SDK e inizializzato il servizio Vertex AI e il modello generativo, puoi chiamare Gemini API.
Invia una richiesta di prompt di chat
Per creare una conversazione in più passaggi (come la chat), inizia inizializzando la chat chiamando startChat()
. Quindi, utilizza
sendMessageStream()
(o sendMessage()
) per inviare un nuovo messaggio dell'utente, che
aggiungerà anche il messaggio e la risposta alla cronologia della chat.
Esistono due possibili opzioni per role
associate ai contenuti di una conversazione:
user
: il ruolo che fornisce i prompt. Questo valore è il valore predefinito per le chiamate asendMessageStream()
(osendMessage()
) e la funzione genera un'eccezione se viene passato un ruolo diverso.model
: il ruolo che fornisce le risposte. Questo ruolo può essere utilizzato durante la chiamata astartChat()
conhistory
esistente.
Scegli se vuoi riprodurre la risposta in streaming (sendMessageStream
) o attendere la risposta fino a quando non viene generato l'intero risultato (sendMessage
).
Streaming
Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.
Senza streaming
In alternativa, puoi attendere l'intero risultato anziché lo streaming. Il risultato viene restituito solo dopo che il modello ha completato l'intero processo di generazione.
Scopri come scegliere un modello Gemini e, facoltativamente, una posizione appropriata per il tuo caso d'uso e la tua app.
Cos'altro puoi fare?
- Scopri come contare i token prima di inviare prompt lunghi al modello.
- Configura Cloud Storage for Firebase per includere file di grandi dimensioni nelle richieste multimodali utilizzando Cloud Storage URL. I file possono includere immagini, PDF, video e audio.
- Inizia a pensare alla preparazione per la produzione, inclusa la configurazione di Firebase App Check per proteggere Gemini API da comportamenti illeciti da parte di clienti non autorizzati.
Provare altre funzionalità di Gemini API
- Genera testo da prompt di solo testo.
- Genera testo da prompt multimodali (inclusi testo, immagini, PDF, video e audio).
- Genera output strutturato (come JSON) da prompt di testo e multimodali.
- Utilizza le chiamate di funzione per collegare i modelli generativi a sistemi e informazioni esterni.
Scopri come controllare la generazione di contenuti
- Comprendi la progettazione dei prompt, tra cui best practice, strategie e prompt di esempio.
- Configura i parametri del modello, come la temperatura e i token di output massimi.
- Utilizza le impostazioni di sicurezza per regolare la probabilità di ricevere risposte che potrebbero essere considerate dannose.
Scopri di più sui modelli Gemini
Scopri i modelli disponibili per vari casi d'uso e le relative quote e prezzi.Fornisci un feedback sulla tua esperienza con Vertex AI in Firebase