ক্ষতিকারক বলে বিবেচিত প্রতিক্রিয়া পাওয়ার সম্ভাবনা সামঞ্জস্য করতে আপনি নিরাপত্তা সেটিংস ব্যবহার করতে পারেন। ডিফল্টরূপে, নিরাপত্তা সেটিংস মাঝারি এবং/অথবা সমস্ত মাত্রা জুড়ে অনিরাপদ বিষয়বস্তু হওয়ার উচ্চ সম্ভাবনা সহ সামগ্রীকে ব্লক করে।
মিথুন নিরাপত্তা সেটিংসে যান Imagen নিরাপত্তা সেটিংসে যান
মিথুন মডেলের জন্য নিরাপত্তা সেটিংস
এই পৃষ্ঠায় প্রদানকারী-নির্দিষ্ট সামগ্রী এবং কোড দেখতে আপনার Gemini API প্রদানকারীতে ক্লিক করুন। |
সুইফট
আপনি যখন একটি GenerativeModel
উদাহরণ তৈরি করেন তখন আপনি SafetySettings
কনফিগার করেন।
একটি নিরাপত্তা সেটিং সহ উদাহরণ:
import FirebaseAI
// Specify the safety settings as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
modelName: "GEMINI_MODEL_NAME",
safetySettings: [
SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
]
)
// ...
একাধিক নিরাপত্তা সেটিংস সহ উদাহরণ:
import FirebaseAI
let harassmentSafety = SafetySetting(harmCategory: .harassment, threshold: .blockOnlyHigh)
let hateSpeechSafety = SafetySetting(harmCategory: .hateSpeech, threshold: .blockMediumAndAbove)
// Specify the safety settings as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
modelName: "GEMINI_MODEL_NAME",
safetySettings: [harassmentSafety, hateSpeechSafety]
)
// ...
Kotlin
আপনি যখন একটি GenerativeModel
উদাহরণ তৈরি করেন তখন আপনি SafetySettings
কনফিগার করেন।
একটি নিরাপত্তা সেটিং সহ উদাহরণ:
import com.google.firebase.vertexai.type.HarmBlockThreshold
import com.google.firebase.vertexai.type.HarmCategory
import com.google.firebase.vertexai.type.SafetySetting
// Specify the safety settings as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
modelName = "GEMINI_MODEL_NAME",
safetySettings = listOf(
SafetySetting(HarmCategory.HARASSMENT, HarmBlockThreshold.ONLY_HIGH)
)
)
// ...
একাধিক নিরাপত্তা সেটিংস সহ উদাহরণ:
import com.google.firebase.vertexai.type.HarmBlockThreshold
import com.google.firebase.vertexai.type.HarmCategory
import com.google.firebase.vertexai.type.SafetySetting
val harassmentSafety = SafetySetting(HarmCategory.HARASSMENT, HarmBlockThreshold.ONLY_HIGH)
val hateSpeechSafety = SafetySetting(HarmCategory.HATE_SPEECH, HarmBlockThreshold.MEDIUM_AND_ABOVE)
// Specify the safety settings as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
modelName = "GEMINI_MODEL_NAME",
safetySettings = listOf(harassmentSafety, hateSpeechSafety)
)
// ...
Java
আপনি যখন একটি GenerativeModel
উদাহরণ তৈরি করেন তখন আপনি SafetySettings
কনফিগার করেন।
SafetySetting harassmentSafety = new SafetySetting(HarmCategory.HARASSMENT,
HarmBlockThreshold.ONLY_HIGH);
// Specify the safety settings as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
/* modelName */ "IMAGEN_MODEL_NAME",
/* generationConfig is optional */ null,
Collections.singletonList(harassmentSafety)
);
);
// ...
একাধিক নিরাপত্তা সেটিংস সহ উদাহরণ:
SafetySetting harassmentSafety = new SafetySetting(HarmCategory.HARASSMENT,
HarmBlockThreshold.ONLY_HIGH);
SafetySetting hateSpeechSafety = new SafetySetting(HarmCategory.HATE_SPEECH,
HarmBlockThreshold.MEDIUM_AND_ABOVE);
// Specify the safety settings as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
/* modelName */ "IMAGEN_MODEL_NAME",
/* generationConfig is optional */ null,
List.of(harassmentSafety, hateSpeechSafety)
);
);
// ...
Web
আপনি যখন একটি GenerativeModel
উদাহরণ তৈরি করেন তখন আপনি SafetySettings
কনফিগার করেন।
একটি নিরাপত্তা সেটিং সহ উদাহরণ:
import { HarmBlockThreshold, HarmCategory, getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// ...
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
const safetySettings = [
{
category: HarmCategory.HARM_CATEGORY_HARASSMENT,
threshold: HarmBlockThreshold.BLOCK_ONLY_HIGH,
},
];
// Specify the safety settings as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME", safetySettings });
// ...
একাধিক নিরাপত্তা সেটিংস সহ উদাহরণ:
import { HarmBlockThreshold, HarmCategory, getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// ...
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
const safetySettings = [
{
category: HarmCategory.HARM_CATEGORY_HARASSMENT,
threshold: HarmBlockThreshold.BLOCK_ONLY_HIGH,
},
{
category: HarmCategory.HARM_CATEGORY_HATE_SPEECH,
threshold: HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
},
];
// Specify the safety settings as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME", safetySettings });
// ...
Dart
আপনি যখন একটি GenerativeModel
উদাহরণ তৈরি করেন তখন আপনি SafetySettings
কনফিগার করেন।
একটি নিরাপত্তা সেটিং সহ উদাহরণ:
// ...
final safetySettings = [
SafetySetting(HarmCategory.harassment, HarmBlockThreshold.high)
];
// Specify the safety settings as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
model: 'GEMINI_MODEL_NAME',
safetySettings: safetySettings,
);
// ...
একাধিক নিরাপত্তা সেটিংস সহ উদাহরণ:
// ...
final safetySettings = [
SafetySetting(HarmCategory.harassment, HarmBlockThreshold.high),
SafetySetting(HarmCategory.hateSpeech, HarmBlockThreshold.high),
];
// Specify the safety settings as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
model: 'GEMINI_MODEL_NAME',
safetySettings: safetySettings,
);
// ...
ঐক্য
আপনি যখন একটি GenerativeModel
উদাহরণ তৈরি করেন তখন আপনি SafetySettings
কনফিগার করেন।
একটি নিরাপত্তা সেটিং সহ উদাহরণ:
// ...
// Specify the safety settings as part of creating the `GenerativeModel` instance
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
var model = ai.GetGenerativeModel(
modelName: "GEMINI_MODEL_NAME",
safetySettings: new SafetySetting[] {
new SafetySetting(HarmCategory.Harassment, SafetySetting.HarmBlockThreshold.OnlyHigh)
}
);
// ...
একাধিক নিরাপত্তা সেটিংস সহ উদাহরণ:
// ...
var harassmentSafety = new SafetySetting(HarmCategory.Harassment, SafetySetting.HarmBlockThreshold.OnlyHigh);
var hateSpeechSafety = new SafetySetting(HarmCategory.HateSpeech, SafetySetting.HarmBlockThreshold.MediumAndAbove);
// Specify the safety settings as part of creating the `GenerativeModel` instance
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
var model = ai.GetGenerativeModel(
modelName: "GEMINI_MODEL_NAME",
safetySettings: new SafetySetting[] { harassmentSafety, hateSpeechSafety }
);
// ...
ইমেজেন মডেলের জন্য নিরাপত্তা সেটিংস
এই পৃষ্ঠায় প্রদানকারী-নির্দিষ্ট সামগ্রী এবং কোড দেখতে আপনার Gemini API প্রদানকারীতে ক্লিক করুন। |
Google Cloud ডকুমেন্টেশনে ইমেজেন মডেলের জন্য সমস্ত সমর্থিত নিরাপত্তা সেটিংস এবং তাদের উপলব্ধ মান সম্পর্কে জানুন।
সুইফট
আপনি যখন একটি ImagenModel
উদাহরণ তৈরি করেন তখন আপনি ImagenSafetySettings
কনফিগার করেন।
import FirebaseAI
// Specify the safety settings as part of creating the `ImagenModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).imagenModel(
modelName: "IMAGEN_MODEL_NAME",
safetySettings: ImagenSafetySettings(
safetyFilterLevel: .blockLowAndAbove,
personFilterLevel: .allowAdult
)
)
// ...
Kotlin
আপনি যখন একটি ImagenModel
উদাহরণ তৈরি করেন তখন আপনি ImagenSafetySettings
কনফিগার করেন।
// Specify the safety settings as part of creating the `ImagenModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).imagenModel(
modelName = "IMAGEN_MODEL_NAME",
safetySettings = ImagenSafetySettings(
safetyFilterLevel = ImagenSafetyFilterLevel.BLOCK_LOW_AND_ABOVE,
personFilterLevel = ImagenPersonFilterLevel.BLOCK_ALL
)
)
// ...
Java
আপনি যখন একটি ImagenModel
উদাহরণ তৈরি করেন তখন আপনি ImagenSafetySettings
কনফিগার করেন।
// Specify the safety settings as part of creating the `ImagenModel` instance
ImagenModelFutures model = ImagenModelFutures.from(
FirebaseAI.getInstance(GenerativeBackend.googleAI())
.imagenModel(
/* modelName */ "IMAGEN_MODEL_NAME",
/* imageGenerationConfig */ null);
);
// ...
Web
আপনি যখন একটি ImagenModel
উদাহরণ তৈরি করেন তখন আপনি ImagenSafetySettings
কনফিগার করেন।
// ...
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Specify the safety settings as part of creating the `ImagenModel` instance
const model = getImagenModel(
ai,
{
model: "IMAGEN_MODEL_NAME",
safetySettings: {
safetyFilterLevel: ImagenSafetyFilterLevel.BLOCK_LOW_AND_ABOVE,
personFilterLevel: ImagenPersonFilterLevel.ALLOW_ADULT,
}
}
);
// ...
Dart
আপনি যখন একটি ImagenModel
উদাহরণ তৈরি করেন তখন আপনি ImagenSafetySettings
কনফিগার করেন।
// ...
// Specify the safety settings as part of creating the `ImagenModel` instance
final model = FirebaseAI.googleAI().imagenModel(
model: 'IMAGEN_MODEL_NAME',
safetySettings: ImagenSafetySettings(
ImagenSafetyFilterLevel.blockLowAndAbove,
ImagenPersonFilterLevel.allowAdult,
),
);
// ...
ঐক্য
ইমেজেন ব্যবহার করা এখনও ইউনিটির জন্য সমর্থিত নয়, তবে শীঘ্রই আবার চেক করুন!
কন্টেন্ট জেনারেশন নিয়ন্ত্রণ করার জন্য অন্যান্য বিকল্প
- প্রম্পট ডিজাইন সম্পর্কে আরও জানুন যাতে আপনি আপনার প্রয়োজনের জন্য নির্দিষ্ট আউটপুট তৈরি করতে মডেলটিকে প্রভাবিত করতে পারেন।
- মডেলটি কীভাবে প্রতিক্রিয়া তৈরি করে তা নিয়ন্ত্রণ করতে মডেল প্যারামিটারগুলি কনফিগার করুন। মিথুন মডেলের জন্য, এই পরামিতিগুলির মধ্যে সর্বাধিক আউটপুট টোকেন, তাপমাত্রা, topK এবং topP অন্তর্ভুক্ত রয়েছে। ইমেজেন মডেলের জন্য, এর মধ্যে রয়েছে আকৃতির অনুপাত, ব্যক্তি তৈরি, ওয়াটারমার্কিং ইত্যাদি।
- মডেলের আচরণ পরিচালনা করতে সিস্টেম নির্দেশাবলী সেট করুন। এই বৈশিষ্ট্যটি একটি প্রস্তাবনার মত যা আপনি মডেলটি শেষ ব্যবহারকারীর কাছ থেকে আরও নির্দেশাবলীর সামনে আসার আগে যোগ করেন।
- একটি নির্দিষ্ট আউটপুট স্কিমা নির্দিষ্ট করতে প্রম্পটের সাথে একটি প্রতিক্রিয়া স্কিমা পাস করুন। এই বৈশিষ্ট্যটি সাধারণত JSON আউটপুট তৈরি করার সময় ব্যবহৃত হয়, তবে এটি শ্রেণীবিভাগের কাজের জন্যও ব্যবহার করা যেতে পারে (যেমন আপনি যখন মডেলটিকে নির্দিষ্ট লেবেল বা ট্যাগ ব্যবহার করতে চান)।