Modellparameter verstehen und konfigurieren

Jeder Aufruf, den Sie an ein Modell senden, enthält Parameterwerte, die steuern, wie das Modell eine Antwort generiert. Das Modell kann für verschiedene Parameterwerte unterschiedliche Ergebnisse generieren. Experimentieren Sie mit verschiedenen Parameterwerten, um die besten Werte für die Aufgabe zu erhalten. Die für verschiedene Modelle verfügbaren Parameter können unterschiedlich sein.

 Zu den Gemini-Parametern  Zu den Imagen-Parametern

Parameter für Gemini-Modelle

Hier finden Sie Informationen zu den Parametern, die für Gemini-Modelle verfügbar sind, einschließlich einer Anleitung zur Konfiguration.

Die Konfiguration wird für die gesamte Lebensdauer des initialisierten Vertex AI-Dienstes und der Modellinstanz beibehalten. Um die Modellkonfiguration zu aktualisieren, muss die Modellinstanz neu initialisiert werden.

Beschreibung der einzelnen Parameter

Die häufigsten Parameter sind:

In den folgenden Abschnitten dieser Seite erfahren Sie mehr über die einzelnen Parameter.

Max. Ausgabetokens

Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 20 Wörtern.

Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.

Temperatur

Die Temperatur wird für die Probenahme während der Antwortgenerierung verwendet. Dies passiert, wenn topP und topK angewendet werden. Die Temperatur bestimmt den Grad der Zufälligkeit bei der Tokenauswahl. Niedrigere Temperaturen eignen sich für Aufforderungen, die deterministischere und weniger offene oder kreative Reaktionen erfordern, während höhere Temperaturen zu vielfältigeren oder kreativen Ergebnissen führen können. Eine Temperatur von 0 ist deterministisch, d. h., die Antwort mit der höchsten Wahrscheinlichkeit wird immer ausgewählt.

Für die meisten Anwendungsfälle empfiehlt es sich, mit einer Temperatur von 0.2 zu beginnen. Wenn das Modell eine zu allgemeine oder zu kurze Antwort zurückgibt, oder wenn das Modell eine Fallback-Antwort ausgibt, versuchen Sie, die Temperatur zu erhöhen.

Top-K

Der Wert „Top-K“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Ein „Top-K“ von 1 bedeutet, dass das nächste ausgewählte Token unter den Tokens im Modell-Vokabular (auch als gierige Decodierung bezeichnet) am wahrscheinlichsten ist, während ein „Top-K“ von 3 bedeutet, dass das nächste Token mithilfe der Temperatur aus den drei wahrscheinlichsten Tokens ausgewählt wird.

Für jeden Tokenauswahlschritt werden die „Top-K“-Tokens mit den höchsten Wahrscheinlichkeiten abgetastet. Anschließend werden Tokens weiter auf der Grundlage von „Top-P“ gefiltert, wobei das endgültige Token mithilfe von Temperaturproben ausgewählt wird.

Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Der standardmäßige „Top-K“ ist 40.

Top-P

Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht. Beispiel: Wenn die Tokens A, B und C eine Wahrscheinlichkeit von 0,3, 0,2 und 0,1 haben und der „Top-P“-Wert 0.5 ist, wählt das Modell anhand der Temperatur entweder A oder B als das nächste Token und C als Kandidaten ausschließen.

Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Die Standardeinstellung von „Top-P“ ist 0.95.

Modellparameter für Gemini-Modelle konfigurieren

Parameter für Imagen-Modelle

Hier finden Sie Informationen zu den Parametern, die für Imagen-Modelle verfügbar sind, und dazu, wie Sie sie konfigurieren.

Die Konfiguration wird für die gesamte Lebensdauer des initialisierten Vertex AI-Dienstes und der Modellinstanz beibehalten. Um die Modellkonfiguration zu aktualisieren, muss die Modellinstanz neu initialisiert werden.

Beschreibung der einzelnen Parameter

Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation. Im Folgenden finden Sie einen allgemeinen Überblick über die verfügbaren Parameter und ihre Standardwerte.

Parameter Beschreibung Standardwert
Negativ-Prompt
negativePrompt
Eine Beschreibung dessen, was Sie in generierten Bildern auslassen möchten

Dieser Parameter wird von imagen-3.0-generate-002 noch nicht unterstützt.

---
Anzahl der Ergebnisse
numberOfImages
Die Anzahl der generierten Bilder, die pro Anfrage zurückgegeben werden Standard ist ein Bild für Imagen 3-Modelle.
Seitenverhältnis
aspectRatio
Das Verhältnis zwischen Breite und Höhe der generierten Bilder Standard ist Quadrat (1:1)
Bildformat
imageFormat
Die Ausgabeoptionen, z. B. das Bildformat (MIME-Typ) und die Komprimierungsstufe der generierten Bilder Standard-MIME-Typ ist PNG
Standardkomprimierung ist 75 (wenn der MIME-Typ auf JPEG festgelegt ist)
Wasserzeichen
addWatermark
Ob generierten Bildern ein unsichtbares digitales Wasserzeichen (SynthID) hinzugefügt werden soll Standardwert ist true für Imagen 3-Modelle
Personengenerierung
personGeneration
Ob die Generierung von Personen durch das Modell zulässig ist Standardeinstellung hängt vom Modell ab

Modellparameter für Imagen-Modelle konfigurieren

Weitere Optionen zur Steuerung der Inhaltserzeugung

  • Weitere Informationen zum Design von Prompts, damit Sie das Modell beeinflussen können, um eine Ausgabe zu generieren, die Ihren Anforderungen entspricht.
  • Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten, einschließlich Hassrede und sexuell expliziter Inhalte.
  • Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine „Präambel“, die Sie hinzufügen, bevor das Modell weiteren Anweisungen des Endnutzers ausgesetzt wird.
  • Geben Sie ein Antwortschema zusammen mit dem Prompt an, um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten beim Generieren von JSON-Ausgabe verwendet, kann aber auch für Klassifizierungsaufgaben verwendet werden, z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll.