Comprendere e utilizzare le impostazioni di sicurezza


Puoi utilizzare le impostazioni di sicurezza per regolare la probabilità di ricevere risposte che potrebbero essere considerate dannose. Per impostazione predefinita, le impostazioni di sicurezza bloccano i contenuti con probabilità media e/o alta di non essere sicuri in tutte le dimensioni.

Vai alle impostazioni di sicurezza Gemini Vai alle impostazioni di sicurezza Imagen

Scopri di più sulle impostazioni di sicurezza nella documentazione di Google Cloud.

Configura SafetySettings durante l'inizializzazione del modello. Ecco alcuni esempi di base.

Ecco come impostare un'impostazione di sicurezza:

// ...

let model = vertex.generativeModel(
  modelName: "GEMINI_MODEL_NAME",
  safetySettings: [
    SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
  ]
)

// ...

Puoi anche impostare più di un'impostazione di sicurezza:

// ...

let harassmentSafety = SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
let hateSpeechSafety = SafetySetting(harmCategory: .hateSpeech, threshold: .blockMediumAndAbove)

let model = vertex.generativeModel(
  modelName: "GEMINI_MODEL_NAME",
  safetySettings: [harassmentSafety, hateSpeechSafety]
)

// ...

Impostazioni di sicurezza per i modelli Imagen

Scopri tutte le impostazioni di sicurezza supportate e i relativi valori disponibili per i modelli Imagen.

// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()

// Initialize with an Imagen 3 model that supports your use case
let model = vertex.imagenModel(
  modelName: "IMAGEN_MODEL_NAME",
  // Configure image generation safety settings for the model
  safetySettings: ImagenSafetySettings(
    safetyFilterLevel: .blockLowAndAbove,
    personFilterLevel: .allowAdult
  )
)

// ...

Altre opzioni per controllare la generazione di contenuti

  • Scopri di più sul design dei prompt per poter influenzare il modello in modo che generi output specifici per le tue esigenze.
  • Configura i parametri del modello per controllare il modo in cui il modello genera una risposta. Per i modelli Gemini, questi parametri includono token di output massimi, temperatura, topK e topP. Per i modelli Imagen, sono inclusi formato, generazione di persone, watermarking e così via.
  • Imposta le istruzioni di sistema per indirizzare il comportamento del modello. Questa funzionalità è simile a un "preambolo" che viene aggiunto prima che il modello venga esposto ad ulteriori istruzioni da parte dell'utente finale.
  • Passa un schema di risposta insieme al prompt per specificare uno schema di output specifico. Questa funzionalità viene solitamente utilizzata per generare output JSON, ma può essere utilizzata anche per attività di classificazione (ad esempio quando vuoi che il modello utilizzi etichette o tag specifici).