डिवाइस पर मौजूद और क्लाउड पर होस्ट किए गए मॉडल की मदद से, हाइब्रिड अनुभव बनाएं


Firebase AI Logic का इस्तेमाल करके, हाइब्रिड इन्फ़्रेंस की मदद से एआई की सुविधाओं वाले ऐप्लिकेशन और सुविधाएं बनाएं. हाइब्रिड इन्फ़रेंस की सुविधा, डिवाइस पर मौजूद मॉडल का इस्तेमाल करके इन्फ़रेंस चलाने की सुविधा देती है. अगर डिवाइस पर मॉडल उपलब्ध नहीं हैं, तो यह सुविधा क्लाउड पर होस्ट किए गए मॉडल पर अपने-आप स्विच हो जाती है.

इस रिलीज़ के साथ, हाइब्रिड इन्फ़रेंस की सुविधा उपलब्ध है. इसके लिए, Firebase AI Logic वेब के लिए क्लाइंट एसडीके का इस्तेमाल किया जा सकता है. साथ ही, डेस्कटॉप पर Chrome के लिए, डिवाइस पर इन्फ़रेंस की सुविधा का इस्तेमाल किया जा सकता है.

कोड के उदाहरणों पर जाएं

इस्तेमाल के सुझाए गए उदाहरण और काम करने की सुविधाएं

इस्तेमाल के सुझाए गए उदाहरण:

  • डिवाइस पर मौजूद मॉडल का इस्तेमाल करके, अनुमान लगाने की सुविधा उपलब्ध कराई जाती है:

    • बेहतर निजता
    • लोकल कॉन्टेक्स्ट
    • बिना किसी शुल्क के अनुमान लगाना
    • ऑफ़लाइन मोड में काम करने की सुविधा
  • हाइब्रिड फ़ंक्शन की सुविधा देने वाले ऑफ़र का इस्तेमाल करके:

    • डिवाइस मॉडल की उपलब्धता की परवाह किए बिना, अपनी 100% ऑडियंस तक पहुंचें

डिवाइस पर मौजूद डेटा का इस्तेमाल करके अनुमान लगाने की सुविधा के लिए, ये क्षमताएं और सुविधाएं उपलब्ध हैं:

  • एक बार में कॉन्टेंट जनरेट करना, स्ट्रीमिंग और नॉन-स्ट्रीमिंग
  • सिर्फ़ टेक्स्ट वाले इनपुट से टेक्स्ट जनरेट करना
  • टेक्स्ट और इमेज वाले इनपुट से टेक्स्ट जनरेट करना. खास तौर पर, JPEG और PNG फ़ॉर्मैट वाली इमेज से टेक्स्ट जनरेट करना
  • स्ट्रक्चर्ड आउटपुट जनरेट करना. इसमें JSON और enum शामिल हैं

शुरू करें

इस गाइड में, हाइब्रिड इन्फ़रेंस करने के लिए, Firebase AI Logic SDK for Web का इस्तेमाल शुरू करने का तरीका बताया गया है.

डिवाइस पर मौजूद मॉडल का इस्तेमाल करके अनुमान लगाने के लिए, Chrome के प्रॉम्प्ट एपीआई का इस्तेमाल किया जाता है. वहीं, क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल करके अनुमान लगाने के लिए, आपकी चुनी गई Gemini API सेवा देने वाली कंपनी (Gemini Developer API या Vertex AI Gemini API) का इस्तेमाल किया जाता है.

पहला चरण: डिवाइस पर इन्फ़रेंस के लिए, Chrome और Prompt API सेट अप करना

  1. Chrome Beta का नया बिल्ड डाउनलोड करें.

    डिवाइस पर मौजूद डेटा का इस्तेमाल करके अनुमान लगाने की सुविधा, Chrome v138 और इसके बाद के वर्शन में उपलब्ध है.

  2. अपने Chrome इंस्टेंस के लिए, प्रॉम्प्ट एपीआई चालू करें. इसके लिए, यहां दिए गए फ़्लैग सेट करें:

    • chrome://flags/#optimization-guide-on-device-model: इसे चालू है पर सेट करें.
    • chrome://flags/#prompt-api-for-gemini-nano: इसे चालू है पर सेट करें.

    Chrome के दस्तावेज़ में, लोकल होस्ट पर एपीआई इस्तेमाल करने के बारे में ज़्यादा जानें. इसके अलावा, सुझाव/राय देने या शिकायत करने के लिए, Chrome के Early Preview Program (EPP) में शामिल हों.

  3. इस फ़्लैग को सेट करके, डिवाइस पर मल्टीमॉडल मॉडल को चालू करें:

    • chrome://flags/#prompt-api-for-gemini-nano-multimodal-input: इसे चालू है पर सेट करें.
  4. एपीआई की पुष्टि स्थानीय तौर पर करें:

    1. Chrome को रीस्टार्ट करें.

    2. डेवलपर टूल > कंसोल खोलें.

    3. यह कमांड चलाएं:

      await LanguageModel.availability();
      
    4. पक्का करें कि आउटपुट available, downloading या downloadable हो. .

    5. अगर आउटपुट downloadable है, तो await LanguageModel.create(); चलाकर मॉडल डाउनलोड करना शुरू किया जा सकता है. ऐसा न करने पर, डिवाइस पर मौजूद डेटा के आधार पर अनुमान लगाने के लिए किए गए पहले अनुरोध पर, बैकग्राउंड में मॉडल डाउनलोड होना शुरू हो जाएगा. इसमें कुछ मिनट लग सकते हैं.

दूसरा चरण: Firebase प्रोजेक्ट सेट अप करना और अपने ऐप्लिकेशन को Firebase से कनेक्ट करना

  1. Firebase कंसोल में साइन इन करें. इसके बाद, अपना Firebase प्रोजेक्ट चुनें.

  2. Firebase कंसोल में, Firebase AI Logic पेज पर जाएं.

  3. शुरू करें पर क्लिक करके, निर्देशों के साथ वर्कफ़्लो लॉन्च करें. इससे आपको अपने प्रोजेक्ट के लिए ज़रूरी एपीआई और संसाधन सेट अप करने में मदद मिलेगी.

  4. "Gemini API" सेवा देने वाली उस कंपनी को चुनें जिसका आपको Firebase AI Logic एसडीके के साथ इस्तेमाल करना है. Gemini Developer API का सुझाव, पहली बार इस्तेमाल करने वाले लोगों के लिए दिया जाता है. अगर आपको बाद में बिलिंग की जानकारी जोड़नी है या Vertex AI Gemini API सेट अप करना है, तो ऐसा किया जा सकता है.

    • Gemini Developer APIbilling optional (available on the no-cost Spark pricing plan, and you can upgrade later if desired)
      The console will enable the required APIs and create a Gemini API key in your project.
      इस Gemini एपीआई कुंजी को अपने ऐप्लिकेशन के कोडबेस में जोड़ें. ज़्यादा जानें.

    • Vertex AI Gemini APIबिलिंग ज़रूरी है (इसके लिए, पे-एज़-यू-गो Blaze प्लान की ज़रूरत होती है)
      कंसोल की मदद से, बिलिंग सेट अप की जा सकती है. साथ ही, अपने प्रोजेक्ट में ज़रूरी एपीआई चालू किए जा सकते हैं.

  5. अगर कंसोल के वर्कफ़्लो में आपसे कहा जाता है, तो स्क्रीन पर दिए गए निर्देशों का पालन करके, अपने ऐप्लिकेशन को रजिस्टर करें और उसे Firebase से कनेक्ट करें.

  6. अपने ऐप्लिकेशन में एसडीके जोड़ने के लिए, इस गाइड में दिए गए अगले चरण पर जाएं.

तीसरा चरण: एसडीके जोड़ना

Firebase लाइब्रेरी, जनरेटिव मॉडल के साथ इंटरैक्ट करने के लिए एपीआई का ऐक्सेस देती है. यह लाइब्रेरी, वेब के लिए Firebase JavaScript SDK टूल का हिस्सा है.

  1. npm का इस्तेमाल करके, वेब के लिए Firebase JS SDK इंस्टॉल करें:

    npm install --save-exact firebase@eap-ai-hybridinference
    

    हाइब्रिड सुविधा को किसी दूसरे npm टैग के तहत रिलीज़ किया गया है. इसलिए, पक्का करें कि आपने इसे इंस्टॉलेशन कमांड में शामिल किया हो.

    टैग को पैच वर्शन के तौर पर लागू किया जाता है. इसलिए, --save-exact फ़्लैग, NPM को यह बताता है कि जब कोई नया वर्शन उपलब्ध हो, तो उसे अपने-आप अपग्रेड न करें.

  2. अपने ऐप्लिकेशन में Firebase को शुरू करें:

    import { initializeApp } from "firebase/app";
    
    // TODO(developer) Replace the following with your app's Firebase configuration
    // See: https://firebase.google.com/docs/web/learn-more#config-object
    const firebaseConfig = {
      // ...
    };
    
    // Initialize FirebaseApp
    const firebaseApp = initializeApp(firebaseConfig);
    

चौथा चरण: सेवा को शुरू करना और मॉडल इंस्टेंस बनाना

इस पेज पर, Gemini API उपलब्ध कराने वाली कंपनी के हिसाब से कॉन्टेंट और कोड देखने के लिए, उस कंपनी पर क्लिक करें.

Gemini मॉडल को कोई प्रॉम्प्ट भेजने से पहले, चुने गए एपीआई उपलब्ध कराने वाली कंपनी की सेवा को शुरू करें और GenerativeModel इंस्टेंस बनाएं.

mode एट्रिब्यूट की वैल्यू इनमें से किसी एक पर सेट करें:

  • prefer_on_device: यह SDK टूल को डिवाइस पर मौजूद मॉडल का इस्तेमाल करने के लिए कॉन्फ़िगर करता है. अगर यह मॉडल उपलब्ध नहीं है, तो क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल किया जाता है.

  • only_on_device: यह एसडीके को डिवाइस पर मौजूद मॉडल का इस्तेमाल करने या अपवाद दिखाने के लिए कॉन्फ़िगर करता है.

  • only_in_cloud: यह एसडीके को कॉन्फ़िगर करता है, ताकि वह कभी भी डिवाइस पर मौजूद मॉडल का इस्तेमाल न करे.

prefer_on_device या only_in_cloud का इस्तेमाल करने पर, क्लाउड पर होस्ट किया गया मॉडल डिफ़ॉल्ट रूप से gemini-2.0-flash-lite होता है. हालांकि, डिफ़ॉल्ट सेटिंग को बदला जा सकता है.

import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";

// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
  // ...
};

// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Create a `GenerativeModel` instance
// Set the mode, for example to use on-device model when possible
const model = getGenerativeModel(ai, { mode: "prefer_on_device" });

किसी मॉडल को प्रॉम्प्ट भेजने का अनुरोध करना

इस सेक्शन में, अलग-अलग तरह के आउटपुट जनरेट करने के लिए, अलग-अलग तरह के इनपुट भेजने के उदाहरण दिए गए हैं:

अगर आपको स्ट्रक्चर्ड आउटपुट (जैसे, JSON या enum) जनरेट करना है, तो "टेक्स्ट जनरेट करें" के इन उदाहरणों में से किसी एक का इस्तेमाल करें. साथ ही, मॉडल को दिए गए स्कीमा के हिसाब से जवाब देने के लिए कॉन्फ़िगर करें.

सिर्फ़ टेक्स्ट वाले इनपुट से टेक्स्ट जनरेट करना

इस सैंपल को आज़माने से पहले, पक्का करें कि आपने इस गाइड का शुरू करें सेक्शन पूरा कर लिया हो.

टेक्स्ट वाले प्रॉम्प्ट से टेक्स्ट जनरेट करने के लिए, generateContent() का इस्तेमाल किया जा सकता है:

// Imports + initialization of FirebaseApp and backend service + creation of model instance

// Wrap in an async function so you can use await
async function run() {
  // Provide a prompt that contains text
  const prompt = "Write a story about a magic backpack."

  // To generate text output, call `generateContent` with the text input
  const result = await model.generateContent(prompt);

  const response = result.response;
  const text = response.text();
  console.log(text);
}

run();

टेक्स्ट और इमेज (टेक्स्ट, इमेज, और वीडियो वगैरह का इस्तेमाल करके) वाले इनपुट से टेक्स्ट जनरेट करना

इस सैंपल को आज़माने से पहले, पक्का करें कि आपने इस गाइड का शुरू करें सेक्शन पूरा कर लिया हो.

generateContent() का इस्तेमाल करके, टेक्स्ट और इमेज फ़ाइलों वाले प्रॉम्प्ट से टेक्स्ट जनरेट किया जा सकता है. इसके लिए, हर इनपुट फ़ाइल का mimeType और फ़ाइल खुद दें.

डिवाइस पर मौजूद एआई की मदद से अनुमान लगाने की सुविधा के लिए, इनपुट इमेज के तौर पर PNG और JPEG फ़ाइल टाइप का इस्तेमाल किया जा सकता है.

// Imports + initialization of FirebaseApp and backend service + creation of model instance

// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
  const base64EncodedDataPromise = new Promise((resolve) => {
    const reader = new FileReader();
    reader.onloadend = () => resolve(reader.result.split(',')[1]);
    reader.readAsDataURL(file);
  });
  return {
    inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
  };
}

async function run() {
  // Provide a text prompt to include with the image
  const prompt = "Write a poem about this picture:";

  const fileInputEl = document.querySelector("input[type=file]");
  const imagePart = await fileToGenerativePart(fileInputEl.files[0]);

  // To generate text output, call `generateContent` with the text and image
  const result = await model.generateContent([prompt, imagePart]);

  const response = result.response;
  const text = response.text();
  console.log(text);
}

run();

तुम और क्या कर सकती हो?

ऊपर दिए गए उदाहरणों के अलावा, ये काम भी किए जा सकते हैं: अनुमान लगाने के अन्य मोड का इस्तेमाल करना, डिफ़ॉल्ट फ़ॉलबैक मॉडल को बदलना, और जवाबों को कंट्रोल करने के लिए मॉडल कॉन्फ़िगरेशन का इस्तेमाल करना.

अनुमान लगाने के अन्य मोड का इस्तेमाल करना

ऊपर दिए गए उदाहरणों में, एसडीके को कॉन्फ़िगर करने के लिए prefer_on_device मोड का इस्तेमाल किया गया है. इससे एसडीके, डिवाइस पर मौजूद मॉडल का इस्तेमाल कर पाता है. अगर डिवाइस पर मॉडल उपलब्ध नहीं है, तो एसडीके क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल करता है. एसडीके, दो अन्य अनुमान मोड उपलब्ध कराता है: only_on_device और only_in_cloud.

  • only_on_device मोड का इस्तेमाल करें, ताकि एसडीके सिर्फ़ डिवाइस पर मौजूद मॉडल का इस्तेमाल कर सके. इस कॉन्फ़िगरेशन में, अगर डिवाइस पर मौजूद मॉडल उपलब्ध नहीं है, तो एपीआई एक गड़बड़ी दिखाएगा.

    const model = getGenerativeModel(ai, { mode: "only_on_device" });
    
  • only_in_cloud मोड का इस्तेमाल करें, ताकि एसडीके सिर्फ़ क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल कर सके.

    const model = getGenerativeModel(ai, { mode: "only_in_cloud" });
    

डिफ़ॉल्ट फ़ॉलबैक मॉडल को बदलना

prefer_on_device मोड का इस्तेमाल करने पर, अगर डिवाइस पर मौजूद मॉडल उपलब्ध नहीं है, तो एसडीके क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल करेगा. क्लाउड पर होस्ट किए गए मॉडल का डिफ़ॉल्ट फ़ॉलबैक gemini-2.0-flash-lite है. क्लाउड पर होस्ट किया गया यह मॉडल, only_in_cloud मोड का इस्तेमाल करने पर भी डिफ़ॉल्ट होता है.

डिफ़ॉल्ट रूप से क्लाउड पर होस्ट किए गए किसी दूसरे मॉडल को तय करने के लिए, inCloudParams कॉन्फ़िगरेशन विकल्प का इस्तेमाल किया जा सकता है:

const model = getGenerativeModel(ai, {
  mode: 'prefer_on_device',
  inCloudParams: {
    model: "gemini-2.5-flash"
  }
});

Gemini के साथ काम करने वाले सभी मॉडल के नाम देखें.

जवाबों को कंट्रोल करने के लिए, मॉडल कॉन्फ़िगरेशन का इस्तेमाल करना

मॉडल को किए गए हर अनुरोध में, मॉडल कॉन्फ़िगरेशन भेजा जा सकता है. इससे यह कंट्रोल किया जा सकता है कि मॉडल जवाब कैसे जनरेट करे. क्लाउड पर होस्ट किए गए मॉडल और डिवाइस पर मौजूद मॉडल में, कॉन्फ़िगरेशन के अलग-अलग विकल्प मिलते हैं.

कॉन्फ़िगरेशन को इंस्टेंस के लाइफ़टाइम के लिए बनाए रखा जाता है. अगर आपको किसी दूसरे कॉन्फ़िगरेशन का इस्तेमाल करना है, तो उस कॉन्फ़िगरेशन के साथ एक नया GenerativeModel इंस्टेंस बनाएं.

क्लाउड पर होस्ट किए गए मॉडल के लिए कॉन्फ़िगरेशन सेट करना

क्लाउड पर होस्ट किए गए Gemini मॉडल को कॉन्फ़िगर करने के लिए, inCloudParams विकल्प का इस्तेमाल करें. उपलब्ध पैरामीटर के बारे में जानें.

const model = getGenerativeModel(ai, {
  mode: 'prefer_on_device',
  inCloudParams: {
    model: "gemini-2.5-flash"
    temperature: 0.8,
    topK: 10
  }
});

डिवाइस पर मौजूद मॉडल के लिए कॉन्फ़िगरेशन सेट करना

ध्यान दें कि डिवाइस पर मौजूद मॉडल का इस्तेमाल करके अनुमान लगाने के लिए, Chrome के Prompt API का इस्तेमाल किया जाता है.

डिवाइस पर मौजूद मॉडल को कॉन्फ़िगर करने के लिए, onDeviceParams विकल्प का इस्तेमाल करें. उपलब्ध पैरामीटर के बारे में जानें.

const model = getGenerativeModel(ai, {
  mode: 'prefer_on_device',
  onDeviceParams: {
    createOptions: {
      temperature: 0.8,
      topK: 8
    }
  }
});

स्ट्रक्चर्ड आउटपुट के लिए कॉन्फ़िगरेशन सेट करना

स्ट्रक्चर्ड आउटपुट (जैसे, JSON और enum) जनरेट करने की सुविधा, क्लाउड पर होस्ट किए गए और डिवाइस पर मौजूद, दोनों तरह के मॉडल के साथ काम करती है.

हाइब्रिड इन्फ़रेंस के लिए, inCloudParams और onDeviceParams, दोनों का इस्तेमाल करें. इससे मॉडल को स्ट्रक्चर्ड आउटपुट के साथ जवाब देने के लिए कॉन्फ़िगर किया जा सकेगा. अन्य मोड के लिए, सिर्फ़ लागू होने वाले कॉन्फ़िगरेशन का इस्तेमाल करें.

  • inCloudParams के लिए: सही responseMimeType (इस उदाहरण में, application/json) के साथ-साथ वह responseSchema भी बताएं जिसका इस्तेमाल मॉडल को करना है.

  • onDeviceParams के लिए: वह responseConstraint तय करें जिसका इस्तेमाल मॉडल को करना है.

JSON आउटपुट

यहां दिए गए उदाहरण में, हाइब्रिड इन्फ़रेंस के लिए सामान्य JSON आउटपुट के उदाहरण को अडैप्ट किया गया है:

import {
  getAI,
  getGenerativeModel,
  Schema
} from "firebase/ai";

const jsonSchema = Schema.object({
 properties: {
    characters: Schema.array({
      items: Schema.object({
        properties: {
          name: Schema.string(),
          accessory: Schema.string(),
          age: Schema.number(),
          species: Schema.string(),
        },
        optionalProperties: ["accessory"],
      }),
    }),
  }
});

const model = getGenerativeModel(ai, {
  mode: 'prefer_on_device',
  inCloudParams: {
    model: "gemini-2.5-flash"
    generationConfig: {
      responseMimeType: "application/json",
      responseSchema: jsonSchema
    },
  }
  onDeviceParams: {
    promptOptions: {
      responseConstraint: jsonSchema
    }
  }
});
Enum आउटपुट

ऊपर दिए गए उदाहरण की तरह ही, हाइब्रिड इन्फ़रेंस के लिए एनम आउटपुट के बारे में जानकारी देने वाले दस्तावेज़ का इस्तेमाल करें:

// ...

const enumSchema = Schema.enumString({
  enum: ["drama", "comedy", "documentary"],
});

const model = getGenerativeModel(ai, {

// ...

    generationConfig: {
      responseMimeType: "text/x.enum",
      responseSchema: enumSchema
    },

// ...

डिवाइस पर मौजूद डेटा के आधार पर अनुमान लगाने की सुविधा के लिए, अभी ये सुविधाएं उपलब्ध नहीं हैं

Web SDK को एक्सपेरिमेंट के तौर पर रिलीज़ किया गया है. इसलिए, इसकी सभी सुविधाएं डिवाइस पर मौजूद डेटा के आधार पर अनुमान लगाने के लिए उपलब्ध नहीं हैं. फ़िलहाल, डिवाइस पर मौजूद डेटा के आधार पर अनुमान लगाने की सुविधा के लिए, ये सुविधाएं उपलब्ध नहीं हैं. हालांकि, ये सुविधाएं आम तौर पर क्लाउड पर मौजूद डेटा के आधार पर अनुमान लगाने की सुविधा के लिए उपलब्ध होती हैं.

  • JPEG और PNG के अलावा, इमेज फ़ाइल के अन्य टाइप से टेक्स्ट जनरेट करना

    • क्लाउड पर होस्ट किए गए मॉडल पर वापस आ सकता है; हालांकि, only_on_device मोड में गड़बड़ी होगी.
  • ऑडियो, वीडियो, और दस्तावेज़ों (जैसे कि PDF) से मिले इनपुट के आधार पर टेक्स्ट जनरेट करना

    • क्लाउड पर होस्ट किए गए मॉडल पर वापस आ सकता है; हालांकि, only_on_device मोड में गड़बड़ी होगी.
  • Gemini या Imagen मॉडल का इस्तेमाल करके इमेज जनरेट करना

    • क्लाउड पर होस्ट किए गए मॉडल पर वापस आ सकता है; हालांकि, only_on_device मोड में गड़बड़ी होगी.
  • मल्टीमॉडल अनुरोधों में यूआरएल का इस्तेमाल करके फ़ाइलें उपलब्ध कराना. आपको डिवाइस पर मौजूद मॉडल को फ़ाइलें, इनलाइन डेटा के तौर पर देनी होंगी.

  • एक से ज़्यादा बार की गई बातचीत

    • क्लाउड पर होस्ट किए गए मॉडल पर वापस आ सकता है; हालांकि, only_on_device मोड में गड़बड़ी होगी.
  • Gemini Live API के साथ दोनों तरफ़ से स्ट्रीमिंग

    • ध्यान दें कि यह सुविधा, Firebase AI Logic क्लाइंट SDK टूल for Web के साथ काम नहीं करती है. यह क्लाउड पर होस्ट किए गए मॉडल के लिए भी काम नहीं करती है.
  • "टूल" का इस्तेमाल करना. इनमें फ़ंक्शन कॉलिंग और Google Search के साथ ग्राउंडिंग शामिल है

    • जल्द आ रहा है!
  • टोकन गिनना

    • इससे हमेशा गड़बड़ी होती है. क्लाउड पर होस्ट किए गए मॉडल और डिवाइस पर मौजूद मॉडल के बीच गिनती अलग-अलग होगी. इसलिए, कोई भी फ़ॉलबैक उपलब्ध नहीं है.
  • डिवाइस पर एआई की निगरानी करने के लिए, Firebase कंसोल में एआई मॉनिटरिंग की सुविधा.

    • ध्यान दें कि क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल करके किए गए किसी भी अनुमान को मॉनिटर किया जा सकता है. ठीक उसी तरह जैसे Firebase AI Logic client SDK for Web का इस्तेमाल करके किए गए अन्य अनुमानों को मॉनिटर किया जाता है.


Firebase AI Logic के साथ अपने अनुभव के बारे में सुझाव/राय दें या शिकायत करें