Quando chiami Gemini API dalla tua app utilizzando un SDK Vertex AI in Firebase, puoi richiedere al modello Gemini di generare testo in base a un input di solo testo.
Prima di iniziare
Se non l'hai ancora fatto, consulta la Guida introduttiva agli SDK Vertex AI in Firebase. Assicurati di avere eseguito tutte le seguenti operazioni:
Configura un progetto Firebase nuovo o esistente, ad esempio utilizzando il piano di prezzi Blaze e attivando le API richieste.
Collega la tua app a Firebase, inclusa la registrazione e l'aggiunta della configurazione Firebase.
Aggiungi l'SDK e inizializza il servizio Vertex AI e il modello generativo nella tua app.
Dopo aver collegato l'app a Firebase, aggiunto l'SDK e inizializzato il servizio Vertex AI e il modello generativo, puoi chiamare Gemini API.
Generare testo da input di solo testo
Puoi chiamare Gemini API con un input che include solo testo. Per queste chiamate, devi utilizzare un modello che supporti i prompt di solo testo (come Gemini 1.5 Pro).
Scegli se vuoi trasmettere in streaming la risposta (generateContentStream
) o attendi la risposta fino a quando non viene generato l'intero risultato (generateContent
).
Streaming
Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.
Senza streaming
In alternativa, puoi attendere l'intero risultato anziché il flusso di dati. Il risultato viene restituito solo dopo che il modello ha completato l'intero processo di generazione.
Scopri come scegliere un modello Gemini e, facoltativamente, una località appropriata per il caso d'uso e l'app.
Cos'altro puoi fare?
- Scopri come conteggiare i token prima di inviare prompt lunghi al modello.
- Inizia a pensare alla preparazione per la produzione, inclusa la configurazione di Firebase App Check per proteggere Gemini API da comportamenti illeciti da parte di clienti non autorizzati.
Prova altre funzionalità di Gemini API
- Creare conversazioni multi-turno (chat).
- Genera testo da prompt multimodali (inclusi testo, immagini, PDF, video e audio).
- Genera output strutturato (come JSON) da prompt di testo e multimodali.
- Utilizza le chiamate di funzione per collegare i modelli generativi a sistemi e informazioni esterni.
Scopri come controllare la generazione di contenuti
- Comprendi la progettazione dei prompt, tra cui best practice, strategie e prompt di esempio.
- Configura i parametri del modello, come la temperatura e i token di output massimi.
- Utilizza le impostazioni di sicurezza per modificare la probabilità di ricevere risposte che potrebbero essere considerate dannose.
Scopri di più sui modelli Gemini
Scopri i modelli disponibili per vari casi d'uso e le relative quote e prezzi.Inviare un feedback sulla tua esperienza con Vertex AI in Firebase