Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten. Standardmäßig blockieren die Sicherheitseinstellungen Inhalte mit mittlerer und/oder hoher Wahrscheinlichkeit für unsichere Inhalte in allen Dimensionen.
Weitere Informationen zu den Sicherheitseinstellungen finden Sie in der Google Cloud-Dokumentation.
Sie konfigurieren SafetySettings
während der Initialisierung des Modells. Hier einige einfache Beispiele.
So legen Sie eine Sicherheitseinstellung fest:
// ...
let model = vertex.generativeModel(
modelName: "MODEL_NAME",
safetySettings: [
SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
]
)
// ...
Sie können auch mehrere Sicherheitseinstellungen festlegen:
// ...
let harassmentSafety = SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
let hateSpeechSafety = SafetySetting(harmCategory: .hateSpeech, threshold: .blockMediumAndAbove)
let model = vertex.generativeModel(
modelName: "MODEL_NAME",
safetySettings: [harassmentSafety, hateSpeechSafety]
)
// ...
Weitere Optionen zur Steuerung der Inhaltsgenerierung
- Weitere Informationen zum Design von Prompts, damit Sie das Modell beeinflussen können, um eine Ausgabe zu generieren, die Ihren Anforderungen entspricht.
- Konfigurieren Sie Modellparameter, um zu steuern, wie das Modell eine Antwort generiert. Dazu gehören die Parameter „max. Ausgabetokens“, „Temperatur“, „TopK“ und „TopP“.
- Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine „Präambel“, die Sie hinzufügen, bevor das Modell weiteren Anweisungen des Endnutzers ausgesetzt wird.
- Geben Sie ein Antwortschema zusammen mit dem Prompt an, um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten beim Generieren von JSON-Ausgabe verwendet, kann aber auch für Klassifizierungsaufgaben verwendet werden, z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll.