می توانید از تنظیمات ایمنی برای تنظیم احتمال دریافت پاسخ هایی که ممکن است مضر تلقی شوند استفاده کنید. بهطور پیشفرض، تنظیمات ایمنی محتوایی را با احتمال متوسط و/یا زیاد ناامن بودن محتوا در همه ابعاد مسدود میکند.
درباره تنظیمات ایمنی در اسناد Google Cloud بیشتر بدانید.
شما SafetySettings
را در طول مقداردهی اولیه مدل پیکربندی می کنید. در اینجا چند نمونه اساسی آورده شده است.
در اینجا نحوه تنظیم یک تنظیم ایمنی آورده شده است:
// ...
let model = vertex.generativeModel(
modelName: "MODEL_NAME",
safetySettings: [
SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
]
)
// ...
همچنین می توانید بیش از یک تنظیم ایمنی را تنظیم کنید:
// ...
let harassmentSafety = SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
let hateSpeechSafety = SafetySetting(harmCategory: .hateSpeech, threshold: .blockMediumAndAbove)
let model = vertex.generativeModel(
modelName: "MODEL_NAME",
safetySettings: [harassmentSafety, hateSpeechSafety]
)
// ...
گزینه های دیگر برای کنترل تولید محتوا
- در مورد طراحی سریع بیشتر بیاموزید تا بتوانید مدل را تحت تأثیر قرار دهید تا خروجی خاصی برای نیازهای شما ایجاد کند.
- پارامترهای مدل را برای کنترل نحوه ایجاد پاسخ توسط مدل پیکربندی کنید. این پارامترها شامل حداکثر توکن های خروجی، دما، topK و topP هستند.
- دستورالعمل های سیستم را برای هدایت رفتار مدل تنظیم کنید. این ویژگی مانند یک «مقدمه» است که قبل از اینکه مدل در معرض هر دستورالعمل دیگری از کاربر نهایی قرار گیرد، اضافه میکنید.
- یک طرح پاسخ را همراه با اعلان برای تعیین یک طرح خروجی خاص ارسال کنید. این ویژگی بیشتر هنگام تولید خروجی JSON استفاده میشود، اما میتوان از آن برای کارهای طبقهبندی نیز استفاده کرد (مانند زمانی که میخواهید مدل از برچسبها یا برچسبهای خاصی استفاده کند).