Quando chiami Gemini API dalla tua app utilizzando un SDK Vertex AI in Firebase, puoi chiedere al modello Gemini di generare del testo in base a un input multimodale. I prompt multimodali possono includere più modalità (o tipi di input), come testo, immagini, PDF, video e audio.
Per testare e eseguire l'iterazione sui prompt multimodali, ti consigliamo di utilizzare Vertex AI Studio.
Prima di iniziare
Se non l'hai ancora fatto, completa la guida introduttiva agli SDK Vertex AI in Firebase. Assicurati di aver eseguito tutte le seguenti operazioni:
Configura un progetto Firebase nuovo o esistente, ad esempio utilizzando il piano di prezzi Blaze e attivando le API richieste.
Collega la tua app a Firebase, inclusa la registrazione e l'aggiunta della configurazione Firebase.
Aggiungi l'SDK e inizializza il servizio Vertex AI e il modello generativo nella tua app.
Dopo aver collegato l'app a Firebase, aggiunto l'SDK e inizializzato il servizio Vertex AI e il modello generativo, puoi chiamare Gemini API.
- Generare testo da testo e una singola immagine
- Generare testo da testo e più immagini
- Generare testo da testo e un video
Genera testo da testo e una singola immagine
Prima di provare questo esempio, assicurati di aver completato la sezione Prima di iniziare di questa guida.
Puoi chiamare Gemini API con prompt multimodali che includono sia il testo sia un singolo file (ad esempio un'immagine, come mostrato in questo esempio). Per queste chiamate, devi utilizzare un modello che supporti i prompt multimodali (come Gemini 1.5 Pro).
I file supportati includono immagini, PDF, video, audio e altro ancora. Assicurati di rivedere i requisiti e i consigli per i file di input.
Scegli se vuoi riprodurre la risposta in streaming (generateContentStream
) o attendere
la risposta finché non viene generato l'intero risultato (generateContent
).
Streaming
Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.
Senza streaming
In alternativa, puoi attendere l'intero risultato anziché lo streaming. Il risultato viene restituito solo dopo che il modello ha completato l'intero processo di generazione.
Scopri come scegliere un modello Gemini e, facoltativamente, una posizione appropriata per il tuo caso d'uso e la tua app.
Genera testo da testo e più immagini
Prima di provare questo esempio, assicurati di aver completato la sezione Prima di iniziare di questa guida.
Puoi chiamare Gemini API con prompt multimodali che includono sia testo che più file (come le immagini, come mostrato in questo esempio). Per queste chiamate, devi utilizzare un modello che supporti i prompt multimodali (come Gemini 1.5 Pro).
I file supportati includono immagini, PDF, video, audio e altro ancora. Assicurati di rivedere i requisiti e i consigli per i file di input.
Scegli se vuoi riprodurre la risposta in streaming (generateContentStream
) o attendere la risposta finché non viene generato l'intero risultato (generateContent
).
Streaming
Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.
Senza streaming
In alternativa, puoi attendere l'intero risultato anziché lo streaming. Il risultato viene restituito solo al termine dell'intera procedura di generazione del modello.
Scopri come scegliere un modello Gemini e, facoltativamente, una posizione appropriata per il tuo caso d'uso e la tua app.
Genera testo da testo e un video
Prima di provare questo esempio, assicurati di aver completato la sezione Prima di iniziare di questa guida.
Puoi chiamare Gemini API con prompt multimodali che includono sia testo che un singolo video (come mostrato in questo esempio). Per queste chiamate, devi utilizzare un modello che supporti i prompt multimodali (come Gemini 1.5 Pro).
Assicurati di rivedere i requisiti e i consigli per i file di input.
Scegli se vuoi riprodurre la risposta in streaming (generateContentStream
) o attendere
la risposta finché non viene generato l'intero risultato (generateContent
).
Streaming
Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.
Senza streaming
In alternativa, puoi attendere l'intero risultato anziché lo streaming. Il risultato viene restituito solo dopo che il modello ha completato l'intero processo di generazione.
Scopri come scegliere un modello Gemini e, facoltativamente, una posizione appropriata per il tuo caso d'uso e la tua app.
Requisiti e consigli per i file di input
Per informazioni sui tipi di file supportati, su come specificare il tipo MIME e su come assicurarti che i file e le richieste multimodali soddisfino i requisiti e seguano le best practice, consulta File di input supportati e requisiti per Vertex AI Gemini API.
Cos'altro puoi fare?
- Scopri come contare i token prima di inviare prompt lunghi al modello.
- Configura Cloud Storage for Firebase in modo da poter includere file di grandi dimensioni nelle richieste multimodali utilizzando gli URL Cloud Storage. I file possono includere immagini, PDF, video e audio.
- Inizia a pensare alla preparazione per la produzione, inclusa la configurazione di Firebase App Check per proteggere il Gemini API da abusi da parte di clienti non autorizzati.
Provare altre funzionalità di Gemini API
- Crea conversazioni a più turni (chat).
- Genera testo da prompt di solo testo.
- Genera output strutturato (come JSON) da prompt di testo e multimodali.
- Utilizza le chiamate di funzione per collegare i modelli generativi a sistemi e informazioni esterni.
Scopri come controllare la generazione di contenuti
- Comprendi la progettazione dei prompt, tra cui best practice, strategie e prompt di esempio.
- Configura i parametri del modello, come la temperatura e i token di output massimi.
- Utilizza le impostazioni di sicurezza per regolare la probabilità di ricevere risposte che potrebbero essere considerate dannose.
Scopri di più sui modelli Gemini
Scopri i modelli disponibili per vari casi d'uso e le relative quote e prezzi.Inviare un feedback sulla tua esperienza con Vertex AI in Firebase