Vertex AI প্লাগইন বেশ কিছু AI পরিষেবাতে ইন্টারফেস প্রদান করে:
- গুগল জেনারেটিভ এআই মডেল :
- মিথুন টেক্সট প্রজন্ম
- Imagen2 এবং Imagen3 ইমেজ জেনারেশন
- পাঠ্য এমবেডিং প্রজন্ম
- Vertex AI দ্রুত মূল্যায়ন API এর মাধ্যমে মূল্যায়ন মেট্রিক্সের একটি উপসেট:
- ভেক্টর অনুসন্ধান
ইনস্টলেশন
npm i --save @genkit-ai/vertexai
আপনি যদি স্থানীয়ভাবে এই প্লাগইনটি ব্যবহার করে এমন ফ্লো চালাতে চান, তাহলে আপনাকে Google Cloud CLI টুল ইনস্টল করতে হবে।
কনফিগারেশন
এই প্লাগইনটি ব্যবহার করতে, আপনি যখন Genkit শুরু করবেন তখন এটি নির্দিষ্ট করুন:
import { genkit } from 'genkit';
import { vertexAI } from '@genkit-ai/vertexai';
const ai = genkit({
plugins: [
vertexAI({ location: 'us-central1' }),
],
});
প্লাগইনটির জন্য আপনাকে আপনার Google ক্লাউড প্রকল্পের আইডি, যে অঞ্চলে আপনি Vertex API অনুরোধ করতে চান এবং আপনার Google ক্লাউড প্রকল্পের শংসাপত্রগুলি নির্দিষ্ট করতে হবে৷
- আপনি
vertexAI()
কনফিগারেশনেprojectId
সেট করে অথবাGCLOUD_PROJECT
এনভায়রনমেন্ট ভেরিয়েবল সেট করে আপনার Google ক্লাউড প্রজেক্ট আইডি নির্দিষ্ট করতে পারেন। আপনি যদি Google ক্লাউড পরিবেশ (ক্লাউড ফাংশন, ক্লাউড রান ইত্যাদি) থেকে আপনার প্রবাহ চালাচ্ছেন, তাহলেGCLOUD_PROJECT
স্বয়ংক্রিয়ভাবে পরিবেশের প্রকল্প আইডিতে সেট হয়ে যাবে। - আপনি
vertexAI()
কনফিগারেশনেlocation
সেট করে বাGCLOUD_LOCATION
পরিবেশ পরিবর্তনশীল সেট করে API অবস্থান নির্দিষ্ট করতে পারেন। API শংসাপত্রগুলি প্রদান করতে, আপনাকে Google ক্লাউড অ্যাপ্লিকেশন ডিফল্ট শংসাপত্রগুলি সেট আপ করতে হবে৷
আপনার শংসাপত্রগুলি নির্দিষ্ট করতে:
- আপনি যদি Google ক্লাউড পরিবেশ (ক্লাউড ফাংশন, ক্লাউড রান ইত্যাদি) থেকে আপনার প্রবাহ চালাচ্ছেন তবে এটি স্বয়ংক্রিয়ভাবে সেট হয়ে যায়।
আপনার স্থানীয় ডেভ পরিবেশে, চালিয়ে এটি করুন:
gcloud auth application-default login
অন্যান্য পরিবেশের জন্য, অ্যাপ্লিকেশন ডিফল্ট শংসাপত্র ডক্স দেখুন।
উপরন্তু, নিশ্চিত করুন যে অ্যাকাউন্টটি Vertex AI ব্যবহারকারী IAM ভূমিকা (
roles/aiplatform.user
) মঞ্জুর করেছে। Vertex AI অ্যাক্সেস কন্ট্রোল ডক্স দেখুন।
ব্যবহার
জেনারেটিভ এআই মডেল
এই প্লাগইনটি স্ট্যাটিকভাবে এর সমর্থিত জেনারেটিভ এআই মডেলের রেফারেন্স রপ্তানি করে:
import { gemini15Flash, gemini15Pro, imagen3 } from '@genkit-ai/vertexai';
কোন মডেল ai.generate()
ব্যবহার করে তা নির্দিষ্ট করতে আপনি এই রেফারেন্সগুলি ব্যবহার করতে পারেন:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const llmResponse = await ai.generate({
model: gemini15Flash,
prompt: 'What should I do when I visit Melbourne?',
});
এই প্লাগইনটি Google অনুসন্ধান বা আপনার নিজস্ব ডেটা ব্যবহার করে গ্রাউন্ডিং মিথুন পাঠ্য প্রতিক্রিয়া সমর্থন করে৷
উদাহরণ:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
await ai.generate({
model: gemini15Flash,
prompt: '...',
config: {
googleSearchRetrieval: {
disableAttribution: true,
}
vertexRetrieval: {
datastore: {
projectId: 'your-cloud-project',
location: 'us-central1',
collection: 'your-collection',
},
disableAttribution: true,
}
}
})
এই প্লাগইনটি স্থিরভাবে গেকো টেক্সট এমবেডিং মডেলের একটি রেফারেন্সও রপ্তানি করে:
import { textEmbedding004 } from '@genkit-ai/vertexai';
একটি সূচক বা পুনরুদ্ধারকারী কোন এমবেডার ব্যবহার করে তা নির্দিষ্ট করতে আপনি এই রেফারেন্সটি ব্যবহার করতে পারেন। উদাহরণস্বরূপ, আপনি যদি Chroma DB ব্যবহার করেন:
const ai = genkit({
plugins: [
chroma([
{
embedder: textEmbedding004,
collectionName: 'my-collection',
},
]),
],
});
অথবা আপনি সরাসরি একটি এম্বেডিং তৈরি করতে পারেন:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const embedding = await ai.embed({
embedder: textEmbedding004,
content: 'How many widgets do you have in stock?',
});
Imagen3 মডেল ব্যবহারকারীর প্রম্পট থেকে ছবি তৈরি করার অনুমতি দেয়:
import { imagen3 } from '@genkit-ai/vertexai';
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const response = await ai.generate({
model: imagen3,
output: { format: 'media' },
prompt: 'a banana riding a bicycle',
});
return response.media();
এবং এমনকি বিদ্যমান চিত্রগুলির উন্নত সম্পাদনা:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const baseImg = fs.readFileSync('base.png', { encoding: 'base64' });
const maskImg = fs.readFileSync('mask.png', { encoding: 'base64' });
const response = await ai.generate({
model: imagen3,
output: { format: 'media' },
prompt: [
{ media: { url: `data:image/png;base64,${baseImg}` }},
{
media: { url: `data:image/png;base64,${maskImg}` },
metadata: { type: 'mask' },
},
{ text: 'replace the background with foo bar baz' },
],
config: {
editConfig: {
editMode: 'outpainting',
},
},
});
return response.media();
আরও বিস্তারিত বিকল্পের জন্য ইমেজেন মডেল ডকুমেন্টেশন পড়ুন।
ভার্টেক্স এআই মডেল গার্ডেনে নৃতাত্ত্বিক ক্লড 3
আপনার যদি Vertex AI মডেল গার্ডেনে Claude 3 মডেল ( হাইকু , সনেট বা ওপাস ) অ্যাক্সেস থাকে তবে আপনি সেগুলি Genkit এর সাথে ব্যবহার করতে পারেন।
ভার্টেক্স এআই মডেল গার্ডেন মডেলগুলি সক্ষম করার জন্য এখানে নমুনা কনফিগারেশন রয়েছে:
import { genkit } from 'genkit';
import {
claude3Haiku,
claude3Sonnet,
claude3Opus,
vertexAIModelGarden,
} from '@genkit-ai/vertexai/modelgarden';
const ai = genkit({
plugins: [
vertexAIModelGarden({
location: 'us-central1',
models: [claude3Haiku, claude3Sonnet, claude3Opus],
}),
],
});
তারপরে তাদের নিয়মিত মডেল হিসাবে ব্যবহার করুন:
const llmResponse = await ai.generate({
model: claude3Sonnet,
prompt: 'What should I do when I visit Melbourne?',
});
ভার্টেক্স এআই মডেল গার্ডেনে লামা 3.1 405b
প্রথমে আপনাকে Vertex AI মডেল গার্ডেনে Llama 3.1 API পরিষেবা সক্ষম করতে হবে।
Vertex AI প্লাগইনে Llama 3.1 405b-এর নমুনা কনফিগারেশন এখানে দেওয়া হল:
import { genkit } from 'genkit';
import { llama31, vertexAIModelGarden } from '@genkit-ai/vertexai/modelgarden';
const ai = genkit({
plugins: [
vertexAIModelGarden({
location: 'us-central1',
models: [llama31],
}),
],
});
তারপর এটি নিয়মিত মডেল হিসাবে ব্যবহার করুন:
const llmResponse = await ai.generate({
model: llama31,
prompt: 'Write a function that adds two numbers together',
});
ভার্টেক্স এআই মডেল গার্ডেনে মিস্ট্রাল মডেল
ভার্টেক্স এআই মডেল গার্ডেনে আপনার যদি মিস্ট্রাল মডেল ( মিস্ট্রাল লার্জ , মিস্ট্রাল নিমো বা কোডস্ট্রাল ) অ্যাক্সেস থাকে তবে আপনি সেগুলিকে জেনকিটের সাথে ব্যবহার করতে পারেন।
ভার্টেক্স এআই মডেল গার্ডেন মডেলগুলি সক্ষম করার জন্য এখানে নমুনা কনফিগারেশন রয়েছে:
import { genkit } from 'genkit';
import {
mistralLarge,
mistralNemo,
codestral,
vertexAIModelGarden,
} from '@genkit-ai/vertexai/modelgarden';
const ai = genkit({
plugins: [
vertexAIModelGarden({
location: 'us-central1',
models: [mistralLarge, mistralNemo, codestral],
}),
],
});
তারপরে তাদের নিয়মিত মডেল হিসাবে ব্যবহার করুন:
const llmResponse = await ai.generate({
model: mistralLarge,
prompt: 'Write a function that adds two numbers together',
config: {
version: 'mistral-large-2411', // Optional: specify model version
temperature: 0.7, // Optional: control randomness (0-1)
maxOutputTokens: 1024, // Optional: limit response length
topP: 0.9, // Optional: nucleus sampling parameter
stopSequences: ['###'], // Optional: stop generation at sequences
}
});
মডেল সমর্থন করে: - mistralLarge
: ফাংশন কলিং ক্ষমতা সহ সর্বশেষ মিস্ট্রাল বড় মডেল - mistralNemo
: দক্ষতা এবং গতির জন্য অপ্টিমাইজ করা - codestral
: কোড তৈরির কাজের জন্য বিশেষায়িত
প্রতিটি মডেল স্ট্রিমিং প্রতিক্রিয়া এবং ফাংশন কলিং সমর্থন করে:
const response = await ai.generateStream({
model: mistralLarge,
prompt: 'What should I cook tonight?',
tools: ['recipe-finder'],
config: {
version: 'mistral-large-2411',
temperature: 1,
},
});
for await (const chunk of response.stream) {
console.log(chunk.text);
}
মূল্যায়নকারী
Vertex AI দ্রুত মূল্যায়ন থেকে মূল্যায়নকারীদের ব্যবহার করতে, আপনার vertexAI
প্লাগইন কনফিগারেশনে একটি evaluation
ব্লক যোগ করুন।
import { genkit } from 'genkit';
import {
vertexAIEvaluation,
VertexAIEvaluationMetricType,
} from '@genkit-ai/vertexai/evaluation';
const ai = genkit({
plugins: [
vertexAIEvaluation({
location: 'us-central1',
metrics: [
VertexAIEvaluationMetricType.SAFETY,
{
type: VertexAIEvaluationMetricType.ROUGE,
metricSpec: {
rougeType: 'rougeLsum',
},
},
],
}),
],
});
উপরের কনফিগারেশন Safety
এবং ROUGE
মেট্রিক্সের জন্য মূল্যায়নকারীদের যোগ করে। উদাহরণটি দুটি পন্থা দেখায়- Safety
মেট্রিক ডিফল্ট স্পেসিফিকেশন ব্যবহার করে, যেখানে ROUGE
মেট্রিক একটি কাস্টমাইজড স্পেসিফিকেশন প্রদান করে যা রুজ টাইপকে rougeLsum
এ সেট করে।
উভয় মূল্যায়নকারীকে একটি সামঞ্জস্যপূর্ণ ডেটাসেটের সাথে genkit eval:run
কমান্ড ব্যবহার করে চালানো যেতে পারে: অর্থাৎ, output
এবং reference
ক্ষেত্র সহ একটি ডেটাসেট। Safety
মূল্যায়নকারীকে genkit eval:flow -e vertexai/safety
কমান্ড ব্যবহার করেও চালানো যেতে পারে কারণ এটির জন্য শুধুমাত্র একটি output
প্রয়োজন।
সূচক এবং উদ্ধারকারী
Genkit Vertex AI প্লাগইনে ভারটেক্স এআই ভেক্টর অনুসন্ধান পরিষেবা দ্বারা সমর্থিত সূচক এবং পুনরুদ্ধার বাস্তবায়ন অন্তর্ভুক্ত রয়েছে।
(আরএজি বাস্তবায়নে কীভাবে সূচক এবং পুনরুদ্ধারকারী ব্যবহার করা হয় তা জানতে পুনরুদ্ধার-বর্ধিত প্রজন্মের পৃষ্ঠা দেখুন।)
Vertex AI ভেক্টর অনুসন্ধান পরিষেবা হল একটি নথি সূচক যা আপনার পছন্দের নথির দোকানের পাশাপাশি কাজ করে: নথির দোকানে নথির বিষয়বস্তু থাকে এবং Vertex AI ভেক্টর অনুসন্ধান সূচকে প্রতিটি নথির জন্য, এর ভেক্টর এম্বেডিং এবং একটি রেফারেন্স থাকে নথির দোকানে নথি। আপনার নথিগুলি Vertex AI ভেক্টর অনুসন্ধান পরিষেবা দ্বারা সূচিবদ্ধ হওয়ার পরে, এটি অনুসন্ধানের প্রশ্নের উত্তর দিতে পারে, আপনার নথির দোকানে সূচীগুলির তালিকা তৈরি করে৷
Vertex AI প্লাগইন দ্বারা প্রদত্ত সূচক এবং পুনরুদ্ধার বাস্তবায়ন নথির দোকান হিসাবে Cloud Firestore বা BigQuery ব্যবহার করে। প্লাগইনটিতে এমন ইন্টারফেসগুলিও রয়েছে যা আপনি অন্যান্য নথির দোকানগুলিকে সমর্থন করার জন্য প্রয়োগ করতে পারেন৷
Vertex AI ভেক্টর অনুসন্ধান ব্যবহার করতে:
- একটি এমবেডিং মডেল চয়ন করুন। এই মডেলটি পাঠ্য থেকে ভেক্টর এম্বেডিং তৈরি করার জন্য দায়ী। উন্নত ব্যবহারকারীরা তাদের নির্দিষ্ট ডেটা সেটের জন্য অপ্টিমাইজ করা একটি এমবেডিং মডেল ব্যবহার করতে পারে, কিন্তু বেশিরভাগ ব্যবহারকারীর জন্য, Vertex AI এর
text-embedding-004
মডেলটি ইংরেজি টেক্সটের জন্য একটি ভাল পছন্দ এবংtext-multilingual-embedding-002
মডেলটি বহুভাষিক টেক্সটের জন্য ভাল। Google ক্লাউড কনসোলের ভেক্টর অনুসন্ধান বিভাগে, একটি নতুন সূচক তৈরি করুন। সবচেয়ে গুরুত্বপূর্ণ সেটিংস হল:
- মাত্রা: আপনার নির্বাচিত এমবেডিং মডেল দ্বারা উত্পাদিত ভেক্টরের মাত্রিকতা নির্দিষ্ট করুন।
text-embedding-004
এবংtext-multilingual-embedding-002
মডেল 768 মাত্রার ভেক্টর তৈরি করে। - আপডেট পদ্ধতি: স্ট্রিমিং আপডেট নির্বাচন করুন।
আপনি সূচী তৈরি করার পরে, এটি একটি আদর্শ (সর্বজনীন) এন্ডপয়েন্টে স্থাপন করুন।
- মাত্রা: আপনার নির্বাচিত এমবেডিং মডেল দ্বারা উত্পাদিত ভেক্টরের মাত্রিকতা নির্দিষ্ট করুন।
আপনি যে ডকুমেন্ট স্টোরটি ব্যবহার করতে চান তার জন্য একটি ডকুমেন্ট ইনডেক্সার এবং পুনরুদ্ধার পান:
ক্লাউড ফায়ারস্টোর
import { getFirestoreDocumentIndexer, getFirestoreDocumentRetriever } from '@genkit-ai/vertexai/vectorsearch'; import { initializeApp } from 'firebase-admin/app'; import { getFirestore } from 'firebase-admin/firestore'; initializeApp({ projectId: PROJECT_ID }); const db = getFirestore(); const firestoreDocumentRetriever = getFirestoreDocumentRetriever(db, FIRESTORE_COLLECTION); const firestoreDocumentIndexer = getFirestoreDocumentIndexer(db, FIRESTORE_COLLECTION);
BigQuery
import { getBigQueryDocumentIndexer, getBigQueryDocumentRetriever } from '@genkit-ai/vertexai/vectorsearch'; import { BigQuery } from '@google-cloud/bigquery'; const bq = new BigQuery({ projectId: PROJECT_ID }); const bigQueryDocumentRetriever = getBigQueryDocumentRetriever(bq, BIGQUERY_TABLE, BIGQUERY_DATASET); const bigQueryDocumentIndexer = getBigQueryDocumentIndexer(bq, BIGQUERY_TABLE, BIGQUERY_DATASET);
অন্যান্য
অন্যান্য নথির দোকানগুলিকে সমর্থন করার জন্য আপনি
DocumentRetriever
এবংDocumentIndexer
এর নিজস্ব বাস্তবায়ন প্রদান করতে পারেন:const myDocumentRetriever = async (neighbors) => { // Return the documents referenced by `neighbors`. // ... } const myDocumentIndexer = async (documents) => { // Add `documents` to storage. // ... }
উদাহরণের জন্য, নমুনা ভার্টেক্স এআই প্লাগইন পুনরুদ্ধারকারী এবং স্থানীয় ফাইল সহ সূচক দেখুন।
আপনার
vertexAI
প্লাগইন কনফিগারেশনে একটিvectorSearchOptions
ব্লক যোগ করুন:import { genkit } from 'genkit'; import { textEmbedding004 } from '@genkit-ai/vertexai'; import { vertexAIVectorSearch } from '@genkit-ai/vertexai/vectorsearch'; const ai = genkit({ plugins: [ vertexAIVectorSearch({ projectId: PROJECT_ID, location: LOCATION, vectorSearchOptions: [ { indexId: VECTOR_SEARCH_INDEX_ID, indexEndpointId: VECTOR_SEARCH_INDEX_ENDPOINT_ID, deployedIndexId: VECTOR_SEARCH_DEPLOYED_INDEX_ID, publicDomainName: VECTOR_SEARCH_PUBLIC_DOMAIN_NAME, documentRetriever: firestoreDocumentRetriever, documentIndexer: firestoreDocumentIndexer, embedder: textEmbedding004, }, ], }), ], });
প্রথম ধাপে আপনার বেছে নেওয়া এমবেডার এবং আগের ধাপে আপনার তৈরি করা ডকুমেন্ট ইনডেক্সার এবং রিট্রিভার প্রদান করুন।
আপনার আগে তৈরি করা ভেক্টর অনুসন্ধান সূচকটি ব্যবহার করার জন্য প্লাগইনটি কনফিগার করতে, আপনাকে বেশ কয়েকটি মান প্রদান করতে হবে, যা আপনি Google ক্লাউড কনসোলের ভেক্টর অনুসন্ধান বিভাগে খুঁজে পেতে পারেন:
-
indexId
: ইনডেক্স ট্যাবে তালিকাভুক্ত -
indexEndpointId
: ইনডেক্স এন্ডপয়েন্ট ট্যাবে তালিকাভুক্ত -
deployedIndexId
এবংpublicDomainName
: "ডিপ্লোয়েড ইনডেক্স ইনফো" পৃষ্ঠায় তালিকাভুক্ত, যেটি আপনি আগে উল্লিখিত ট্যাবগুলির যেকোনো একটিতে স্থাপন করা সূচির নামে ক্লিক করে খুলতে পারেন
-
এখন সবকিছু কনফিগার করা হয়েছে, আপনি আপনার Genkit অ্যাপ্লিকেশনে সূচক এবং পুনরুদ্ধার ব্যবহার করতে পারেন:
import { vertexAiIndexerRef, vertexAiRetrieverRef, } from '@genkit-ai/vertexai/vectorsearch'; // ... inside your flow function: await ai.index({ indexer: vertexAiIndexerRef({ indexId: VECTOR_SEARCH_INDEX_ID, }), documents, }); const res = await ai.retrieve({ retriever: vertexAiRetrieverRef({ indexId: VECTOR_SEARCH_INDEX_ID, }), query: queryDocument, });
এর জন্য কোড নমুনা দেখুন:
- ভার্টেক্স ভেক্টর অনুসন্ধান + BigQuery
- ভার্টেক্স ভেক্টর অনুসন্ধান + ফায়ারস্টোর
- ভার্টেক্স ভেক্টর অনুসন্ধান + একটি কাস্টম ডিবি
প্রসঙ্গ ক্যাশিং
Vertex AI Genkit প্লাগইন কনটেক্সট ক্যাশিং সমর্থন করে, যা মডেলগুলিকে টোকেন ব্যবহার অপ্টিমাইজ করার জন্য পূর্বে ক্যাশে করা বিষয়বস্তু পুনরায় ব্যবহার করার অনুমতি দেয় যখন কন্টেন্টের বড় অংশের সাথে কাজ করে। এই বৈশিষ্ট্যটি কথোপকথনের প্রবাহ বা পরিস্থিতিগুলির জন্য বিশেষভাবে উপযোগী যেখানে মডেলটি একাধিক অনুরোধে ধারাবাহিকভাবে একটি বড় সামগ্রীর উল্লেখ করে৷
প্রসঙ্গ ক্যাশিং কিভাবে ব্যবহার করবেন
প্রসঙ্গ ক্যাশে সক্ষম করতে, আপনার মডেল এটি সমর্থন করে তা নিশ্চিত করুন। উদাহরণস্বরূপ, gemini15Flash
এবং gemini15Pro
হল মডেল যা কনটেক্সট ক্যাশিং সমর্থন করে এবং আপনাকে সংস্করণ নম্বর 001
উল্লেখ করতে হবে।
আপনি এইভাবে আপনার অ্যাপ্লিকেশনে একটি ক্যাশিং প্রক্রিয়া সংজ্ঞায়িত করতে পারেন:
const ai = genkit({
plugins: [googleAI()],
});
const llmResponse = await ai.generate({
messages: [
{
role: 'user',
content: [{ text: 'Here is the relevant text from War and Peace.' }],
},
{
role: 'model',
content: [
{
text: 'Based on War and Peace, here is some analysis of Pierre Bezukhov’s character.',
},
],
metadata: {
cache: {
ttlSeconds: 300, // Cache this message for 5 minutes
},
},
},
],
model: gemini15Flash,
prompt: 'Describe Pierre’s transformation throughout the novel.',
});
এই সেটআপে: - messages
: আপনাকে কথোপকথনের ইতিহাস পাস করতে দেয়। - metadata.cache.ttlSeconds
: একটি নির্দিষ্ট প্রতিক্রিয়া ক্যাশে করার জন্য সময়-টু-লাইভ (TTL) নির্দিষ্ট করে।
উদাহরণ: প্রসঙ্গ সহ বড় টেক্সট ব্যবহার করা
ওয়ার অ্যান্ড পিস বা লর্ড অফ দ্য রিংসের মতো দীর্ঘ নথির উল্লেখ করা অ্যাপ্লিকেশনগুলির জন্য, আপনি ক্যাশে করা প্রসঙ্গগুলি পুনরায় ব্যবহার করার জন্য আপনার প্রশ্নগুলি গঠন করতে পারেন:
const textContent = await fs.readFile('path/to/war_and_peace.txt', 'utf-8');
const llmResponse = await ai.generate({
messages: [
{
role: 'user',
content: [{ text: textContent }], // Include the large text as context
},
{
role: 'model',
content: [
{
text: 'This analysis is based on the provided text from War and Peace.',
},
],
metadata: {
cache: {
ttlSeconds: 300, // Cache the response to avoid reloading the full text
},
},
},
],
model: gemini15Flash,
prompt: 'Analyze the relationship between Pierre and Natasha.',
});
কনটেক্সট ক্যাশিং এর সুবিধা
- উন্নত কর্মক্ষমতা : বড় ইনপুটগুলির পুনরাবৃত্তি প্রক্রিয়াকরণের প্রয়োজনীয়তা হ্রাস করে।
- খরচ দক্ষতা : অপ্রয়োজনীয় ডেটার জন্য API ব্যবহার হ্রাস করে, টোকেন খরচ অপ্টিমাইজ করে।
- আরও ভাল লেটেন্সি : বারবার বা সম্পর্কিত প্রশ্নের জন্য প্রতিক্রিয়ার সময় ত্বরান্বিত করে।
প্রসঙ্গ ক্যাশিংয়ের জন্য সমর্থিত মডেল
শুধুমাত্র নির্দিষ্ট মডেল, যেমন gemini15Flash
এবং gemini15Pro
, কনটেক্সট ক্যাশিং সমর্থন করে এবং বর্তমানে শুধুমাত্র সংস্করণ সংখ্যা 001
এ। যদি একটি অসমর্থিত মডেল ব্যবহার করা হয়, একটি ত্রুটি উত্থাপিত হবে, যা নির্দেশ করে যে ক্যাশিং প্রয়োগ করা যাবে না।
আরও পড়া
তাদের ডকুমেন্টেশনে Vertex AI-তে প্রসঙ্গ ক্যাশিং সংক্রান্ত আরও তথ্য দেখুন।