Vertex AI प्लग इन, एआई की कई सेवाओं के लिए इंटरफ़ेस उपलब्ध कराता है:
- Google के जनरेटिव एआई मॉडल:
- Gemini की टेक्स्ट जनरेशन सुविधा
- Imagen2 इमेज जनरेशन
- टेक्स्ट एम्बेड करने की सुविधा
- Vertex AI Rapid Evaluation API की मदद से, आकलन मेट्रिक का सबसेट:
- वेक्टर सर्च
इंस्टॉल करना
npm i --save @genkit-ai/vertexai
अगर आपको इस प्लग इन का इस्तेमाल करके, फ़्लो को स्थानीय तौर पर चलाना है, तो आपको Google Cloud CLI टूल भी इंस्टॉल करना होगा.
कॉन्फ़िगरेशन
इस प्लग इन का इस्तेमाल करने के लिए, Genkit को शुरू करते समय इसकी जानकारी दें:
import { genkit } from 'genkit';
import { vertexAI } from '@genkit-ai/vertexai';
const ai = genkit({
plugins: [
vertexAI({ location: 'us-central1' }),
],
});
प्लग इन के लिए, आपको अपना Google Cloud प्रोजेक्ट आईडी, वह इलाका बताना होगा जहां आपको Vertex API के अनुरोध करने हैं. साथ ही, आपको अपने Google Cloud प्रोजेक्ट के क्रेडेंशियल भी देने होंगे.
vertexAI()
कॉन्फ़िगरेशन मेंprojectId
सेट करके याGCLOUD_PROJECT
एनवायरमेंट वैरिएबल सेट करके, Google Cloud प्रोजेक्ट आईडी की जानकारी दी जा सकती है. अगर Google Cloud के किसी एनवायरमेंट (Cloud Functions, Cloud Run वगैरह) से फ़्लो चलाया जा रहा है, तोGCLOUD_PROJECT
अपने-आप एनवायरमेंट के प्रोजेक्ट आईडी पर सेट हो जाता है.- एपीआई की जगह की जानकारी देने के लिए,
vertexAI()
कॉन्फ़िगरेशन मेंlocation
सेट करें याGCLOUD_LOCATION
एनवायरमेंट वैरिएबल सेट करें. एपीआई क्रेडेंशियल देने के लिए, आपको Google Cloud ऐप्लिकेशन के डिफ़ॉल्ट क्रेडेंशियल सेट अप करने होंगे.
अपने क्रेडेंशियल डालने के लिए:
- अगर आपका फ़्लो, Google Cloud के किसी एनवायरमेंट (Cloud Functions, Cloud Run वगैरह) से चलाया जा रहा है, तो यह अपने-आप सेट हो जाता है.
अपने स्थानीय डेवलपर एनवायरमेंट में, यह करने के लिए:
gcloud auth application-default login
अन्य एनवायरमेंट के लिए, ऐप्लिकेशन के डिफ़ॉल्ट क्रेडेंशियल दस्तावेज़ देखें.
इसके अलावा, पक्का करें कि खाते को Vertex AI उपयोगकर्ता आईएएम भूमिका (
roles/aiplatform.user
) दी गई हो. Vertex AI के ऐक्सेस कंट्रोल दस्तावेज़ देखें.
इस्तेमाल
जनरेटिव एआई मॉडल
यह प्लग इन, काम करने वाले जनरेटिव एआई मॉडल के रेफ़रंस को स्टैटिक तौर पर एक्सपोर्ट करता है:
import { gemini15Flash, gemini15Pro, imagen3 } from '@genkit-ai/vertexai';
इन रेफ़रंस का इस्तेमाल करके, यह बताया जा सकता है कि ai.generate()
किस मॉडल का इस्तेमाल करता है:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const llmResponse = await ai.generate({
model: gemini15Flash,
prompt: 'What should I do when I visit Melbourne?',
});
यह प्लग इन, Google Search या आपके डेटा का इस्तेमाल करके, Gemini के टेक्स्ट जवाबों को बेहतर बनाने में भी मदद करता है.
उदाहरण:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
await ai.generate({
model: gemini15Flash,
prompt: '...',
config: {
googleSearchRetrieval: {
disableAttribution: true,
}
vertexRetrieval: {
datastore: {
projectId: 'your-cloud-project',
location: 'us-central1',
collection: 'your-collection',
},
disableAttribution: true,
}
}
})
यह प्लग इन, Gecko टेक्स्ट एम्बेडिंग मॉडल का रेफ़रंस भी स्टैटिक तौर पर एक्सपोर्ट करता है:
import { textEmbedding004 } from '@genkit-ai/vertexai';
इस रेफ़रंस का इस्तेमाल करके, यह बताया जा सकता है कि इंडेक्सर या रीट्रिवर किस एम्बेडर का इस्तेमाल करता है. उदाहरण के लिए, अगर Chroma DB का इस्तेमाल किया जाता है, तो:
const ai = genkit({
plugins: [
chroma([
{
embedder: textEmbedding004,
collectionName: 'my-collection',
},
]),
],
});
इसके अलावा, सीधे तौर पर एम्बेड करने के लिए:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const embedding = await ai.embed({
embedder: textEmbedding004,
content: 'How many widgets do you have in stock?',
});
Imagen3 मॉडल की मदद से, उपयोगकर्ता के प्रॉम्प्ट से इमेज जनरेट की जा सकती हैं:
import { imagen3 } from '@genkit-ai/vertexai';
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const response = await ai.generate({
model: imagen3,
output: { format: 'media' },
prompt: 'a banana riding a bicycle',
});
return response.media();
साथ ही, मौजूदा इमेज में बेहतर तरीके से बदलाव किया जा सकता है:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const baseImg = fs.readFileSync('base.png', { encoding: 'base64' });
const maskImg = fs.readFileSync('mask.png', { encoding: 'base64' });
const response = await ai.generate({
model: imagen3,
output: { format: 'media' },
prompt: [
{ media: { url: `data:image/png;base64,${baseImg}` }},
{
media: { url: `data:image/png;base64,${maskImg}` },
metadata: { type: 'mask' },
},
{ text: 'replace the background with foo bar baz' },
],
config: {
editConfig: {
editMode: 'outpainting',
},
},
});
return response.media();
ज़्यादा विकल्पों के बारे में जानने के लिए, Imagen मॉडल का दस्तावेज़ देखें.
Vertex AI Model Garden पर Anthropic Claude 3
अगर आपके पास Vertex AI Model Garden में Claude 3 मॉडल (haiku, sonnet या opus) का ऐक्सेस है, तो उनका इस्तेमाल Genkit के साथ किया जा सकता है.
Vertex AI Model Garden मॉडल चालू करने के लिए, यहां सैंपल कॉन्फ़िगरेशन दिया गया है:
import { genkit } from 'genkit';
import {
claude3Haiku,
claude3Sonnet,
claude3Opus,
vertexAIModelGarden,
} from '@genkit-ai/vertexai/modelgarden';
const ai = genkit({
plugins: [
vertexAIModelGarden({
location: 'us-central1',
models: [claude3Haiku, claude3Sonnet, claude3Opus],
}),
],
});
इसके बाद, उन्हें रेगुलर मॉडल के तौर पर इस्तेमाल करें:
const llmResponse = await ai.generate({
model: claude3Sonnet,
prompt: 'What should I do when I visit Melbourne?',
});
Vertex AI Model Garden पर Llama 3.1 405b
सबसे पहले, आपको Vertex AI मॉडल गार्डन में Llama 3.1 API सेवा चालू करनी होगी.
Vertex AI प्लग इन में Llama 3.1 405b के लिए कॉन्फ़िगरेशन का सैंपल यहां दिया गया है:
import { genkit } from 'genkit';
import { llama31, vertexAIModelGarden } from '@genkit-ai/vertexai/modelgarden';
const ai = genkit({
plugins: [
vertexAIModelGarden({
location: 'us-central1',
models: [llama31],
}),
],
});
इसके बाद, इसे सामान्य मॉडल के तौर पर इस्तेमाल करें:
const llmResponse = await ai.generate({
model: llama31,
prompt: 'Write a function that adds two numbers together',
});
मूल्यांकन करने वाले
Vertex AI के रैपिड इवैल्यूएशन टूल से एवैल्यूएटर का इस्तेमाल करने के लिए, अपने vertexAI
प्लग इन कॉन्फ़िगरेशन में evaluation
ब्लॉक जोड़ें.
import { genkit } from 'genkit';
import {
vertexAIEvaluation,
VertexAIEvaluationMetricType,
} from '@genkit-ai/vertexai/evaluation';
const ai = genkit({
plugins: [
vertexAIEvaluation({
location: 'us-central1',
metrics: [
VertexAIEvaluationMetricType.SAFETY,
{
type: VertexAIEvaluationMetricType.ROUGE,
metricSpec: {
rougeType: 'rougeLsum',
},
},
],
}),
],
});
ऊपर दिए गए कॉन्फ़िगरेशन में, Safety
और ROUGE
मेट्रिक के लिए, मेट्रिक का आकलन करने वाले लोगों की जानकारी जोड़ी गई है. उदाहरण में दो तरीके दिखाए गए हैं- Safety
मेट्रिक, डिफ़ॉल्ट स्पेसिफ़िकेशन का इस्तेमाल करती है, जबकि ROUGE
मेट्रिक, पसंद के मुताबिक स्पेसिफ़िकेशन उपलब्ध कराती है. यह स्पेसिफ़िकेशन, गड़बड़ी के टाइप को rougeLsum
पर सेट करता है.
दोनों एवैल्यूएटर को, काम करने वाले डेटासेट के साथ genkit eval:run
कमांड का इस्तेमाल करके चलाया जा सकता है. इसका मतलब है कि output
और reference
फ़ील्ड वाला डेटासेट. Safety
एवैल्यूएटर को genkit eval:flow -e vertexai/safety
कमांड का इस्तेमाल करके भी चलाया जा सकता है, क्योंकि इसके लिए सिर्फ़ output
की ज़रूरत होती है.
इंडेक्स करने वाले और डेटा वापस लाने वाले टूल
Genkit Vertex AI प्लग इन में, इंडेक्सर और रीट्रिवर लागू करने की सुविधा शामिल है. यह सुविधा, Vertex AI की वेक्टर सर्च सेवा के साथ काम करती है.
(RAG लागू करने में इंडेक्सर और रीट्रिवर का इस्तेमाल कैसे किया जाता है, यह जानने के लिए Retrieval-augmented generation पेज देखें.)
Vertex AI वेक्टर सर्च सेवा, एक दस्तावेज़ इंडेक्स है. यह आपकी पसंद के दस्तावेज़ स्टोर के साथ काम करती है: दस्तावेज़ स्टोर में दस्तावेज़ों का कॉन्टेंट होता है और Vertex AI वेक्टर सर्च इंडेक्स में, हर दस्तावेज़ के लिए उसका वेक्टर एम्बेडिंग और दस्तावेज़ स्टोर में मौजूद दस्तावेज़ का रेफ़रंस होता है. Vertex AI की वेक्टर सर्च सेवा की मदद से, आपके दस्तावेज़ों को इंडेक्स करने के बाद, यह खोज क्वेरी का जवाब दे सकती है. साथ ही, आपके दस्तावेज़ स्टोर में इंडेक्स की सूचियां बना सकती है.
Vertex AI प्लग इन की मदद से, दस्तावेज़ों को इंडेक्स करने और उन्हें वापस पाने की सुविधा, दस्तावेज़ों को स्टोर करने के लिए Cloud Firestore या BigQuery का इस्तेमाल करती है. इस प्लग इन में ऐसे इंटरफ़ेस भी शामिल हैं जिन्हें अन्य दस्तावेज़ स्टोर के साथ काम करने के लिए लागू किया जा सकता है.
Vertex AI वेक्टर सर्च का इस्तेमाल करने के लिए:
- एम्बेड करने का कोई मॉडल चुनें. यह मॉडल, टेक्स्ट से वेक्टर एम्बेड बनाने के लिए ज़िम्मेदार होता है. बेहतर उपयोगकर्ता, अपने खास डेटा सेट के लिए ऑप्टिमाइज़ किए गए एम्बेडिंग मॉडल का इस्तेमाल कर सकते हैं. हालांकि, ज़्यादातर उपयोगकर्ताओं के लिए, अंग्रेज़ी टेक्स्ट के लिए Vertex AI का
text-embedding-004
मॉडल और कई भाषाओं के टेक्स्ट के लिएtext-multilingual-embedding-002
मॉडल एक अच्छा विकल्प है. Google Cloud Console के वेक्टर सर्च सेक्शन में, एक नया इंडेक्स बनाएं. सबसे ज़रूरी सेटिंग ये हैं:
- डाइमेंशन: चुने गए एम्बेडिंग मॉडल से जनरेट किए गए वेक्टर के डाइमेंशन की जानकारी दें.
text-embedding-004
औरtext-multilingual-embedding-002
मॉडल, 768 डाइमेंशन के वेक्टर बनाते हैं. - अपडेट करने का तरीका: स्ट्रीमिंग से जुड़े अपडेट चुनें.
इंडेक्स बनाने के बाद, उसे स्टैंडर्ड (सार्वजनिक) एंडपॉइंट पर डिप्लॉय करें.
- डाइमेंशन: चुने गए एम्बेडिंग मॉडल से जनरेट किए गए वेक्टर के डाइमेंशन की जानकारी दें.
आपको जिस दस्तावेज़ स्टोर का इस्तेमाल करना है उसके लिए दस्तावेज़ का इंडेक्स बनाने और उसे वापस पाने वाला टूल पाएं:
Cloud Firestore
import { getFirestoreDocumentIndexer, getFirestoreDocumentRetriever } from '@genkit-ai/vertexai/vectorsearch'; import { initializeApp } from 'firebase-admin/app'; import { getFirestore } from 'firebase-admin/firestore'; initializeApp({ projectId: PROJECT_ID }); const db = getFirestore(); const firestoreDocumentRetriever = getFirestoreDocumentRetriever(db, FIRESTORE_COLLECTION); const firestoreDocumentIndexer = getFirestoreDocumentIndexer(db, FIRESTORE_COLLECTION);
BigQuery
import { getBigQueryDocumentIndexer, getBigQueryDocumentRetriever } from '@genkit-ai/vertexai/vectorsearch'; import { BigQuery } from '@google-cloud/bigquery'; const bq = new BigQuery({ projectId: PROJECT_ID }); const bigQueryDocumentRetriever = getBigQueryDocumentRetriever(bq, BIGQUERY_TABLE, BIGQUERY_DATASET); const bigQueryDocumentIndexer = getBigQueryDocumentIndexer(bq, BIGQUERY_TABLE, BIGQUERY_DATASET);
अन्य
दस्तावेज़ों के अन्य स्टोर के साथ काम करने के लिए,
DocumentRetriever
औरDocumentIndexer
को लागू करने के तरीके खुद तय किए जा सकते हैं:const myDocumentRetriever = async (neighbors) => { // Return the documents referenced by `neighbors`. // ... } const myDocumentIndexer = async (documents) => { // Add `documents` to storage. // ... }
उदाहरण के लिए, स्थानीय फ़ाइल के साथ Vertex AI प्लग इन रीट्रिवर और इंडेक्सर का सैंपल देखें.
अपने
vertexAI
प्लग इन कॉन्फ़िगरेशन मेंvectorSearchOptions
ब्लॉक जोड़ें:import { genkit } from 'genkit'; import { textEmbedding004 } from '@genkit-ai/vertexai'; import { vertexAIVectorSearch } from '@genkit-ai/vertexai/vectorsearch'; const ai = genkit({ plugins: [ vertexAIVectorSearch({ projectId: PROJECT_ID, location: LOCATION, vectorSearchOptions: [ { indexId: VECTOR_SEARCH_INDEX_ID, indexEndpointId: VECTOR_SEARCH_INDEX_ENDPOINT_ID, deployedIndexId: VECTOR_SEARCH_DEPLOYED_INDEX_ID, publicDomainName: VECTOR_SEARCH_PUBLIC_DOMAIN_NAME, documentRetriever: firestoreDocumentRetriever, documentIndexer: firestoreDocumentIndexer, embedder: textEmbedding004, }, ], }), ], });
पहले चरण में चुना गया एम्बेडर और पिछले चरण में बनाया गया दस्तावेज़ इंडेक्सर और रीट्रिवर दें.
पहले से बनाए गए वेक्टर सर्च इंडेक्स का इस्तेमाल करने के लिए, प्लग इन को कॉन्फ़िगर करने के लिए आपको कई वैल्यू देनी होंगी. ये वैल्यू, Google Cloud Console के वेक्टर सर्च सेक्शन में मिल सकती हैं:
indexId
: इंडेक्स टैब में दिखता हैindexEndpointId
: इंडेक्स एंडपॉइंट टैब में मौजूद हैdeployedIndexId
औरpublicDomainName
: ये "डिप्लॉय किए गए इंडेक्स की जानकारी" पेज पर मौजूद हैं. इसे खोलने के लिए, पहले बताए गए किसी भी टैब पर, डिप्लॉय किए गए इंडेक्स के नाम पर क्लिक करें
अब जब सब कुछ कॉन्फ़िगर हो गया है, तो अपने Genkit ऐप्लिकेशन में इंडेक्सर और रीट्रिवर का इस्तेमाल किया जा सकता है:
import { vertexAiIndexerRef, vertexAiRetrieverRef, } from '@genkit-ai/vertexai/vectorsearch'; // ... inside your flow function: await ai.index({ indexer: vertexAiIndexerRef({ indexId: VECTOR_SEARCH_INDEX_ID, }), documents, }); const res = await ai.retrieve({ retriever: vertexAiRetrieverRef({ indexId: VECTOR_SEARCH_INDEX_ID, }), query: queryDocument, });
इनके लिए कोड सैंपल देखें: