Setiap panggilan yang Anda kirim ke model menyertakan parameter value yang mengontrol cara model menghasilkan respons. Model ini dapat memberikan hasil yang berbeda untuk parameter value yang berbeda. Bereksperimenlah dengan parameter value yang berbeda untuk mendapatkan nilai terbaik untuk tugas. Parameter yang tersedia untuk model yang berbeda mungkin berbeda.
Gemini Langsung ke parameter Imagen Langsung ke parameter
Parameter untuk model Gemini
Pelajari parameter yang tersedia untuk digunakan dengan model Gemini, termasuk cara mengonfigurasinya.
Konfigurasi dipertahankan selama masa aktif instance layanan dan model Vertex AI yang diinisialisasi. Untuk memperbarui konfigurasi model, instance model harus diinisialisasi ulang.
Deskripsi setiap parameter
Parameter yang paling umum adalah sebagai berikut:
Pelajari setiap parameter ini di bagian berikut di halaman ini.
Token output maks
Jumlah maksimum token yang dapat dibuat dalam respons. Token terdiri dari sekitar empat karakter. 100 token setara dengan sekitar 20 kata.
Tentukan nilai yang lebih rendah untuk respons yang lebih singkat dan nilai yang lebih tinggi untuk respons yang lebih panjang.
Suhu
Suhu digunakan untuk pengambilan sampel selama pembuatan respons, yang terjadi
saat topP
dan topK
diterapkan. Suhu mengontrol tingkat keacakan dalam pemilihan token. Suhu yang lebih rendah cocok untuk perintah yang memerlukan respons yang lebih deterministik dan kurang terbuka atau kreatif, sedangkan suhu yang lebih tinggi dapat memberikan hasil yang lebih beragam atau kreatif. Suhu 0
bersifat deterministik, yang berarti bahwa
respons probabilitas tertinggi selalu dipilih.
Untuk sebagian besar kasus penggunaan, coba mulai dengan suhu 0.2
. Jika model menampilkan respons yang terlalu umum, terlalu pendek, atau model memberikan respons fallback, coba tingkatkan suhunya.
Top-K
Top-K mengubah cara model memilih token untuk output. Top-K
1
berarti token yang dipilih berikutnya adalah yang paling mungkin di antara semua
token dalam kosakata model (juga disebut decoding greedy), sedangkan top-K
3
berarti token berikutnya dipilih di antara tiga token yang paling
mungkin dengan menggunakan suhu.
Untuk setiap langkah pemilihan token, token top-K dengan probabilitas tertinggi akan diambil sampelnya. Kemudian token akan difilter lebih lanjut berdasarkan top-P dengan token akhir yang dipilih menggunakan pengambilan sampel suhu.
Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak
yang lebih banyak. Top-K default adalah 40
.
Top-P
Top-P mengubah cara model memilih token untuk output. Token dipilih
dari yang paling mungkin (lihat top-K) hingga yang paling tidak mungkin sampai jumlah probabilitasnya
sama dengan nilai top-P. Misalnya, jika token A, B, dan C memiliki probabilitas
0,3, 0,2, dan 0,1 dengan nilai top-P 0.5
, model akan
memilih A atau B sebagai token berikutnya dengan menggunakan suhu dan mengecualikan
C sebagai kandidat.
Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak
yang lebih banyak. Top-P default adalah 0.95
.
Mengonfigurasi parameter model untuk model Gemini
Anda mengonfigurasi parameter model di
generationConfig
selama inisialisasi model. Berikut adalah contoh dasarnya:
Kotlin
// ...
val config = generationConfig {
maxOutputTokens = 200
stopSequences = listOf("red")
temperature = 0.9f
topK = 16
topP = 0.1f
}
val generativeModel = Firebase.vertexAI.generativeModel(
modelName = "GEMINI_MODEL_NAME",
generationConfig = config
)
// ...
Java
// ...
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = List.of("red");
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;
GenerationConfig generationConfig = configBuilder.build();
GenerativeModel gm = FirebaseVertexAI.getInstance().generativeModel(
"GEMINI_MODEL_NAME",
generationConfig
);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// ...
Parameter untuk model Imagen
Pelajari parameter yang tersedia untuk digunakan dengan model Imagen, termasuk cara mengonfigurasinya.
Konfigurasi dipertahankan selama masa aktif instance layanan dan model Vertex AI yang diinisialisasi. Untuk memperbarui konfigurasi model, instance model harus diinisialisasi ulang.
Deskripsi setiap parameter
Anda dapat menemukan daftar lengkap parameter dan nilainya dalam dokumentasi Google Cloud, tetapi berikut adalah ringkasan umum tentang parameter yang tersedia dan nilai defaultnya, sebagaimana berlaku.
Parameter | Deskripsi | Nilai default |
---|---|---|
Perintah negatif
negativePrompt
|
Deskripsi tentang hal yang ingin Anda hapus dalam gambar yang dibuat
Parameter ini belum didukung oleh
|
--- |
Jumlah hasil
numberOfImages
|
Jumlah gambar yang dibuat dan ditampilkan untuk setiap permintaan | default adalah satu gambar untuk model Imagen 3 |
Rasio aspek
aspectRatio
|
Rasio lebar tinggi gambar yang dihasilkan | default adalah persegi 1:1 |
Format gambar
imageFormat
|
Opsi output, seperti format gambar (jenis MIME) dan tingkat kompresi gambar yang dihasilkan | jenis MIME default adalah PNG kompresi default adalah 75 (jika jenis MIME disetel ke JPEG) |
Watermark
addWatermark
|
Apakah akan menambahkan watermark digital yang tidak terlihat (disebut SynthID) ke gambar yang dihasilkan | default-nya adalah true untuk model Imagen 3
|
Pembuatan orang
personGeneration
|
Apakah akan mengizinkan pembuatan orang berdasarkan model | default bergantung pada model |
Mengonfigurasi parameter model untuk model Imagen
Kotlin
// ...
val config = ImagenGenerationConfig(
negativePrompt = "frogs",
numberOfImages = 2,
aspectRatio = ImagenAspectRatio.LANDSCAPE_16x9,
imageFormat = ImagenImageFormat.jpeg(compressionQuality = 100),
addWatermark = false
)
val imagenModel = Firebase.vertexAI.imagenModel(
modelName = "IMAGEN_MODEL_NAME",
generationConfig = config
)
// ...
Java
// ...
ImagenGenerationConfig config = new ImagenGenerationConfig.Builder()
.setNegativePrompt("frogs")
.setNumberOfImages(2)
.setAspectRatio(ImagenAspectRatio.LANDSCAPE_16x9)
.setImageFormat(ImagenImageFormat.jpeg(100))
.setAddWatermark(false)
.build();
ImagenModel m = FirebaseVertexAI.getInstance().imagenModel(
"IMAGEN_MODEL_NAME",
config
);
ImagenModelFutures model = ImagenModelFutures.from(m);
// ...
Opsi lain untuk mengontrol pembuatan konten
- Pelajari lebih lanjut desain perintah agar Anda dapat memengaruhi model untuk menghasilkan output yang spesifik untuk kebutuhan Anda.
- Gunakan setelan keamanan untuk menyesuaikan kemungkinan mendapatkan respons yang mungkin dianggap berbahaya, termasuk ujaran kebencian dan konten seksual vulgar.
- Tetapkan petunjuk sistem untuk mengarahkan perilaku model. Fitur ini seperti "preamble" yang Anda tambahkan sebelum model diekspos ke petunjuk lebih lanjut dari pengguna akhir.
- Teruskan skema respons bersama dengan perintah untuk menentukan skema output tertentu. Fitur ini paling sering digunakan saat membuat output JSON, tetapi juga dapat digunakan untuk tugas klasifikasi (seperti saat Anda ingin model menggunakan label atau tag tertentu).