Gemini API ব্যবহার করে শুধুমাত্র পাঠ্য-প্রম্পট থেকে পাঠ্য তৈরি করুন, Gemini API ব্যবহার করে শুধুমাত্র পাঠ্য-প্রম্পট থেকে পাঠ্য তৈরি করুন


Firebase SDK-তে Vertex AI ব্যবহার করে আপনার অ্যাপ থেকে Gemini API-কে কল করার সময়, আপনি শুধুমাত্র টেক্সট-ইনপুটের ভিত্তিতে টেক্সট তৈরি করতে জেমিনি মডেলকে অনুরোধ করতে পারেন।

আপনি শুরু করার আগে

আপনি যদি ইতিমধ্যেই না করে থাকেন, Firebase SDK-তে Vertex AI-এর জন্য শুরু করার নির্দেশিকাটি সম্পূর্ণ করুন। নিশ্চিত করুন যে আপনি নিম্নলিখিত সমস্ত কাজ করেছেন:

  1. ব্লেজ প্রাইসিং প্ল্যান ব্যবহার করা এবং প্রয়োজনীয় এপিআই সক্ষম করা সহ একটি নতুন বা বিদ্যমান ফায়ারবেস প্রকল্প সেট আপ করুন৷

  2. আপনার অ্যাপটি রেজিস্টার করা এবং আপনার অ্যাপে আপনার Firebase কনফিগার যোগ করা সহ আপনার অ্যাপটিকে Firebase-এ সংযুক্ত করুন।

  3. SDK যোগ করুন এবং আপনার অ্যাপে Vertex AI পরিষেবা এবং জেনারেটিভ মডেল শুরু করুন।

আপনি আপনার অ্যাপটিকে Firebase-এ সংযুক্ত করার পরে, SDK যোগ করার পরে এবং Vertex AI পরিষেবা এবং জেনারেটিভ মডেল শুরু করার পরে, আপনি Gemini API কল করতে প্রস্তুত৷

শুধুমাত্র পাঠ্য ইনপুট থেকে পাঠ্য তৈরি করুন

আপনি ইনপুট সহ Gemini API কল করতে পারেন যাতে শুধুমাত্র পাঠ্য থাকে। এই কলগুলির জন্য, আপনাকে এমন একটি মডেল ব্যবহার করতে হবে যা শুধুমাত্র পাঠ্য প্রম্পট সমর্থন করে (যেমন Gemini 2.0 Flash )।

আপনি প্রতিক্রিয়াটি স্ট্রিম করতে চান কিনা তা চয়ন করুন ( generateContentStream ) বা সম্পূর্ণ ফলাফল তৈরি না হওয়া পর্যন্ত প্রতিক্রিয়াটির জন্য অপেক্ষা করুন ( generateContent )৷

স্ট্রিমিং

আপনি মডেল জেনারেশন থেকে সম্পূর্ণ ফলাফলের জন্য অপেক্ষা না করে দ্রুত মিথস্ক্রিয়া অর্জন করতে পারেন এবং পরিবর্তে আংশিক ফলাফল পরিচালনা করতে স্ট্রিমিং ব্যবহার করতে পারেন।

এই উদাহরণটি দেখায় কিভাবে generateContentStream ব্যবহার করে একটি প্রম্পট অনুরোধ থেকে জেনারেট করা টেক্সট স্ট্রিম করতে হয় যাতে শুধুমাত্র টেক্সট থাকে:

import FirebaseVertexAI

// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()

// Initialize the generative model with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")

// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."

// To stream generated text output, call generateContentStream with the text input
let contentStream = try model.generateContentStream(prompt)
for try await chunk in contentStream {
  if let text = chunk.text {
    print(text)
  }
}

স্ট্রিমিং ছাড়াই

বিকল্পভাবে, আপনি স্ট্রিমিংয়ের পরিবর্তে সম্পূর্ণ ফলাফলের জন্য অপেক্ষা করতে পারেন; মডেলটি পুরো প্রজন্মের প্রক্রিয়াটি সম্পূর্ণ করার পরেই ফলাফলটি ফিরে আসে।

এই উদাহরণটি দেখায় কিভাবে generateContent ব্যবহার করে একটি প্রম্পট অনুরোধ থেকে পাঠ্য তৈরি করতে হয় যাতে শুধুমাত্র পাঠ্য থাকে:

import FirebaseVertexAI

// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()

// Initialize the generative model with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")

// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."

// To generate text output, call generateContent with the text input
let response = try await model.generateContent(prompt)
print(response.text ?? "No text in response.")

কীভাবে একটি মিথুন মডেল এবং ঐচ্ছিকভাবে আপনার ব্যবহারের ক্ষেত্রে এবং অ্যাপের জন্য উপযুক্ত একটি অবস্থান চয়ন করবেন তা জানুন।

আপনি আর কি করতে পারেন?

  • মডেলে দীর্ঘ প্রম্পট পাঠানোর আগে কীভাবে টোকেন গণনা করবেন তা শিখুন।
  • জেমিনি API কে অননুমোদিত ক্লায়েন্টদের অপব্যবহার থেকে রক্ষা করতে Firebase App Check সেট আপ সহ উত্পাদনের জন্য প্রস্তুতির বিষয়ে চিন্তা করা শুরু করুন৷

Gemini API- এর অন্যান্য ক্ষমতা ব্যবহার করে দেখুন

বিষয়বস্তু তৈরি নিয়ন্ত্রণ কিভাবে শিখুন

আপনি Vertex AI Studio ব্যবহার করে প্রম্পট এবং মডেল কনফিগারেশন নিয়ে পরীক্ষা করতে পারেন।

মিথুন মডেল সম্পর্কে আরও জানুন

বিভিন্ন ব্যবহারের ক্ষেত্রে উপলব্ধ মডেল এবং তাদের কোটা এবং মূল্য সম্পর্কে জানুন।


Firebase-এ Vertex AI-এর সাথে আপনার অভিজ্ঞতা সম্পর্কে মতামত দিন