Comprendere e configurare i parametri del modello

Ogni chiamata inviata a un modello include valori parametro che controllano il modo in cui il modello genera una risposta. Il modello può generare risultati diversi per valori parametro diversi. Sperimenta diversi valori parametro per ottenere i valori migliori per l'attività. I parametri disponibili per i vari modelli possono essere diversi.

Vai ai parametri Gemini Vai ai parametri Imagen

Parametri per i modelli Gemini

Scopri i parametri disponibili per l'utilizzo con i modelli Gemini, incluso come configurarli.

La configurazione viene mantenuta per tutta la durata del servizio e dell'istanza del modello Vertex AI inizializzati. Per aggiornare la configurazione del modello, l'istanza del modello deve essere reinizializzata.

Descrizione di ogni parametro

I parametri più comuni sono:

Scopri di più su ciascuno di questi parametri nelle sezioni seguenti di questa pagina.

Token di output massimi

Numero massimo di token che possono essere generati nella risposta. Un token equivale a circa quattro caratteri. 100 token corrispondono a circa 20 parole.

Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe.

Temperatura

La temperatura viene utilizzata per il campionamento durante la generazione della risposta, che si verifica quando vengono applicati topP e topK. La temperatura controlla il grado di casualità nella selezione dei token. Le temperature più basse sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre le temperature più alte possono portare a risultati più diversificati o creativi. Una temperatura pari a 0 è deterministica, il che significa che viene sempre selezionata la risposta con la probabilità più alta.

Per la maggior parte dei casi d'uso, prova a iniziare con una temperatura di 0.2. Se il modello restituisce una risposta troppo generica, troppo breve o fornisce una risposta di riserva, prova ad aumentare la temperatura.

Top-K

Top-K cambia il modo in cui il modello seleziona i token per l'output. Un top-K pari a 1 indica che il token successivo selezionato è il più probabile tra tutti i token nel vocabolario del modello (chiamato anche decodifica greedy). Un top-K pari a 3 indica invece che il token successivo viene selezionato tra i tre token più probabili utilizzando la temperatura.

Per ogni fase di selezione dei token, vengono campionati i token Top-K con le probabilità più elevate. Quindi i token vengono ulteriormente filtrati in base a Top-P e il token finale viene selezionato utilizzando il campionamento con temperatura.

Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito di top-K è 40.

Top-P

Top-P cambia il modo in cui il modello seleziona i token per l'output. I token vengono selezionati dal più probabile (vedi Top-K) al meno probabile finché la somma delle loro probabilità non corrisponde al valore di Top-P. Ad esempio, se i token A, B e C hanno una probabilità di 0,3, 0,2 e 0,1 e il valore di top-P è 0.5, il modello seleziona A o B come token successivo utilizzando la temperatura ed esclude C come candidato.

Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito di top-P è 0.95.

Configurare i parametri del modello per i modelli Gemini

Parametri per i modelli Imagen

Scopri i parametri disponibili per l'utilizzo con i modelli Imagen, incluso come configurarli.

La configurazione viene mantenuta per tutta la durata del servizio e dell'istanza del modello Vertex AI inizializzati. Per aggiornare la configurazione del modello, l'istanza del modello deve essere reinizializzata.

Descrizione di ogni parametro

Puoi trovare un elenco completo dei parametri e dei relativi valori nella documentazione di Google Cloud, ma di seguito è riportata una panoramica generale dei parametri disponibili e dei relativi valori predefiniti, se applicabili.

Parametro Descrizione Valore predefinito
Prompt negativo
negativePrompt
Una descrizione di ciò che vuoi omettere nelle immagini generate

Questo parametro non è ancora supportato da imagen-3.0-generate-002.

---
Numero di risultati
numberOfImages
Il numero di immagini generate restituite per ogni richiesta Il valore predefinito è un'immagine per i modelli Imagen 3
Proporzioni
aspectRatio
Il rapporto tra larghezza e altezza delle immagini generate Il valore predefinito è quadrato 1:1
Formato immagine
imageFormat
Le opzioni di output, ad esempio il formato dell'immagine (tipo MIME) e il livello di compressione delle immagini generate il tipo MIME predefinito è PNG
la compressione predefinita è 75 (se il tipo MIME è impostato su JPEG)
Filigrana
addWatermark
Se aggiungere o meno una filigrana digitale non visibile (chiamata SynthID) alle immagini generate Il valore predefinito è true per i modelli Imagen 3
Generare persone
personGeneration
Se consentire la generazione di persone dal modello il valore predefinito dipende dal modello

Configurare i parametri del modello per i modelli Imagen

Altre opzioni per controllare la generazione di contenuti

  • Scopri di più sul design dei prompt per poter influenzare il modello in modo che generi output specifici per le tue esigenze.
  • Utilizza le impostazioni di sicurezza per regolare la probabilità di ricevere risposte che potrebbero essere considerate dannose, tra cui incitamento all'odio e contenuti sessualmente espliciti.
  • Imposta le istruzioni di sistema per indirizzare il comportamento del modello. Questa funzionalità è simile a un "preambolo" che viene aggiunto prima che il modello venga esposto ad ulteriori istruzioni da parte dell'utente finale.
  • Passa un schema di risposta insieme al prompt per specificare uno schema di output specifico. Questa funzionalità viene solitamente utilizzata per generare output JSON, ma può essere utilizzata anche per attività di classificazione (ad esempio quando vuoi che il modello utilizzi etichette o tag specifici).