एआई की सुविधाओं के इस्तेमाल से जुड़ी लागत, इस्तेमाल, और अन्य मेट्रिक पर नज़र रखना, प्रोडक्शन ट्रैक पर उपलब्ध ऐप्लिकेशन को चलाने का एक अहम हिस्सा है. आपको यह पता होना चाहिए कि आपके ऐप्लिकेशन के लिए, इस्तेमाल के सामान्य पैटर्न कैसे दिखते हैं. साथ ही, यह पक्का करना होगा कि आप उन थ्रेशोल्ड के अंदर रहें जो आपके लिए ज़रूरी हैं.
इस पेज पर, Firebase Console और Google Cloud Console, दोनों में लागत, इस्तेमाल, और अन्य मेट्रिक को मॉनिटर करने के लिए, कुछ सुझाए गए विकल्पों के बारे में बताया गया है.
लागतों पर नज़र रखना
Firebase कंसोल के इस्तेमाल और बिलिंग डैशबोर्ड में जाकर, Vertex AI Gemini API और Gemini Developer API को कॉल करने के लिए, अपने प्रोजेक्ट की लागत देखी जा सकती है. हालांकि, ऐसा सिर्फ़ तब किया जा सकता है, जब आपने ब्लेज़ प्राइसिंग प्लान चुना हो.
डैशबोर्ड पर दिखाई गई लागत, ज़रूरी नहीं कि Firebase AI Logic क्लाइंट एसडीके का इस्तेमाल करके की गई कॉल के लिए हो. दिखाए गए शुल्क, "Gemini API" के किसी भी कॉल से जुड़े हैं. भले ही, वे Firebase AI Logic क्लाइंट SDK, Google GenAI सर्वर SDK, Genkit, Firebase Extensions for the Gemini API, REST कॉल, AI Studio में से किसी एक या अन्य एपीआई क्लाइंट का इस्तेमाल कर रहे हों.
Firebase AI Logic का इस्तेमाल करके दिखाए जाने वाले प्रॉडक्ट के लिए, कीमत के बारे में ज़्यादा जानें.
सूचनाएं पाने की सुविधा सेट अप करना
अचानक मिलने वाले बिल से बचने के लिए, पक्का करें कि आपने ब्लेज़ प्राइसिंग प्लान इस्तेमाल करते समय, बजट से जुड़ी सूचनाएं सेट अप की हों.
ध्यान दें कि बजट खत्म होने के बारे में चेतावनी, बजट की सीमानहीं होती है. जब आपने कॉन्फ़िगर की गई थ्रेशोल्ड वैल्यू को पार कर लिया हो या उसके आस-पास पहुंच गए हों, तब आपको सूचनाएं भेजी जाएंगी. इससे आपको अपने ऐप्लिकेशन या प्रोजेक्ट में कार्रवाई करने में मदद मिलेगी.
Firebase console में जाकर, एआई की सुविधाओं के इस्तेमाल पर नज़र रखना
यह सुविधा सिर्फ़ तब उपलब्ध होती है, जब Vertex AI Gemini API को एपीआई उपलब्ध कराने वाली कंपनी के तौर पर इस्तेमाल किया जा रहा हो. |
Firebase कंसोल के Firebase AI Logic पेज में जाकर, एआई मॉनिटरिंग की सुविधा चालू की जा सकती है. इससे आपको ऐप्लिकेशन लेवल की अलग-अलग मेट्रिक और इस्तेमाल की जानकारी मिल सकती है. साथ ही, Firebase AI Logic क्लाइंट एसडीके से मिले अनुरोधों के बारे में पूरी जानकारी मिल सकती है. ये डैशबोर्ड, Count Tokens API को कॉल करने पर मिलने वाले टोकन की बुनियादी संख्या से ज़्यादा जानकारी देते हैं.
Firebase कंसोल में एआई मॉनिटरिंग की मुख्य क्षमताओं में ये शामिल हैं:
मात्रात्मक मेट्रिक देखना. जैसे, अनुरोधों की संख्या, लेटेन्सी, गड़बड़ियां, और आपके हर ऐप्लिकेशन के लिए हर मोडैलिटी के हिसाब से टोकन का इस्तेमाल.
अपने अनुरोधों के एट्रिब्यूट, इनपुट, और आउटपुट देखने के लिए, ट्रेस की जांच करना. इससे डीबग करने और क्वालिटी को बेहतर बनाने में मदद मिल सकती है.
डाइमेंशन के हिसाब से डेटा को स्लाइस करना. जैसे, अनुरोध की स्थिति, कम से कम लेटेन्सी, मॉडल का नाम वगैरह.
इन सभी सुविधाओं को Google Cloud Observability Suite का इस्तेमाल करके बनाया गया है. इसके बारे में ज़्यादा जानने के लिए, यहां प्रॉडक्ट की पूरी जानकारी देखें.
एआई मॉनिटरिंग की सुविधा चालू करना
Firebase कंसोल में एआई मॉनिटरिंग की सुविधा चालू करने के तरीके यहां दिए गए हैं:
Firebase AI Logic पेज से, शुरुआती सेटअप के लिए दिए गए निर्देशों का पालन करने पर
Firebase AI Logic सेटिंग टैब में जाकर कभी भी
एआई मॉनिटरिंग की सुविधा चालू करने और इस्तेमाल करने से जुड़ी ज़रूरी शर्तें:
आपके पास प्रोजेक्ट के मालिक, एडिटर या Firebase Vertex AI एडमिन की भूमिका होनी चाहिए.
आपका Firebase प्रोजेक्ट, इस्तेमाल के हिसाब से पेमेंट करने वाले Blaze प्लान पर होना चाहिए. प्रॉडक्ट के बारे में ज़्यादा जानकारी यहां दी गई है.
आपको एपीआई सेवा देने वाली कंपनी के तौर पर Vertex AI Gemini API का इस्तेमाल करना होगा (Gemini Developer API के लिए सहायता जल्द ही उपलब्ध होगी!).
आपके ऐप्लिकेशन में, Firebase लाइब्रेरी के कम से कम ये वर्शन इस्तेमाल होने चाहिए:
iOS+: v11.13.0+ | Android: v16.0.0+ (BoM: v33.14.0+) | Web: v11.8.0+ | Flutter: v2.0.0+ (BoM: v3.11.0+) | Unity: v12.9.0+आपके ऐप्लिकेशन में, ऑप्ट-इन डेटा कलेक्शन की सुविधा चालू होनी चाहिए. यह सुविधा डिफ़ॉल्ट रूप से चालू होती है.
जब आपका ऐप्लिकेशन इन ज़रूरी शर्तों को पूरा कर लेता है और आपने Console में एआई मॉनिटरिंग की सुविधा चालू कर दी है, तो आपको अपने ऐप्लिकेशन या Console में कुछ और करने की ज़रूरत नहीं है. इसके बाद, आपको Firebase AI Logic एआई मॉनिटरिंग टैब में डैशबोर्ड पर डेटा दिखने लगेगा. अनुरोध से मिले टेलीमेट्री डेटा को Firebase कंसोल में दिखने में थोड़ा समय लग सकता है. कभी-कभी इसमें पांच मिनट तक लग सकते हैं.
ऐडवांस इस्तेमाल
इस सेक्शन में, सैंपलिंग रेट कॉन्फ़िगरेशन के बारे में बताया गया है. साथ ही, अपने डेटा को देखने और उसके साथ काम करने के अलग-अलग विकल्पों के बारे में भी बताया गया है.
सैंपलिंग रेट
अगर आपको बड़ी संख्या में अनुरोध करने हैं, तो हमारा सुझाव है कि आप सैंपलिंग रेट कॉन्फ़िगरेशन का इस्तेमाल करें. सैंपलिंग रेट से पता चलता है कि कितने अनुरोधों के लिए ट्रेस की जानकारी इकट्ठा की गई है.
Firebase कंसोल के Firebase AI Logic सेटिंग टैब में जाकर, अपने प्रोजेक्ट के लिए सैंपलिंग रेट को कॉन्फ़िगर किया जा सकता है. इसके लिए, 1 से 100% तक की वैल्यू सेट की जा सकती है. 100% का मतलब है कि एआई मॉनिटरिंग, आपके सभी ट्रैफ़िक से ट्रेस इकट्ठा करेगी. डिफ़ॉल्ट रूप से, यह 100% पर सेट होता है. कम ट्रेस इकट्ठा करने से, लागत कम हो जाएगी. हालांकि, इससे उन ट्रेस की संख्या भी कम हो जाएगी जिन्हें मॉनिटर किया जा सकता है. ध्यान दें कि सैंपलिंग रेट कुछ भी हो, मॉनिटरिंग डैशबोर्ड में दिखाए गए ग्राफ़ हमेशा ट्रैफ़िक की सही मात्रा दिखाएंगे.
Firebase कंसोल के बाहर उपलब्ध अन्य विकल्प
Firebase कंसोल में उपलब्ध एआई मॉनिटरिंग के अलावा, इन विकल्पों पर भी विचार करें:
Vertex AI Model Garden एक्सप्लोर करें.
इन डैशबोर्ड से, मैनेज किए गए मॉडल के लिए लेटेन्सी और थ्रूपुट के बारे में ट्रेंड की ज़्यादा अहम जानकारी मिलती है. इससे आपको Firebase कंसोल में एआई मॉनिटरिंग से मिली अहम जानकारी को बेहतर बनाने में मदद मिलती है.Google Cloud Observability Suite
की मदद से, अपने डेटा को एक्सप्लोर करें और उसका इस्तेमाल करें एआई मॉनिटरिंग के लिए टेलीमेट्री डेटा, आपके प्रोजेक्ट से जुड़े Google Cloud Observability Suite में सेव किया जाता है. इसलिए, इसके डैशबोर्ड में अपने डेटा को एक्सप्लोर किया जा सकता है. इसमें Trace Explorer और Logs Explorer शामिल हैं. ये Firebase कंसोल में आपके अलग-अलग ट्रेस की जांच करने के समय से जुड़े होते हैं. अपने डेटा का इस्तेमाल करके, कस्टम डैशबोर्ड बनाए जा सकते हैं. साथ ही, सूचनाएं सेट अप की जा सकती हैं और अन्य काम किए जा सकते हैं.
एआई मॉनिटरिंग के लिए इस्तेमाल किए गए प्रॉडक्ट के बारे में पूरी जानकारी
एआई मॉनिटरिंग, आपके टेलीमेट्री डेटा को Google Cloud Observability Suite में उपलब्ध अलग-अलग प्रॉडक्ट में सेव करती है. इनमें Cloud Monitoring, Cloud Trace, और Cloud Logging शामिल हैं.
Cloud Monitoring: यह कुकी, मेट्रिक सेव करती है. इनमें अनुरोधों की संख्या, अनुरोध पूरा होने की दर, और अनुरोध में लगने वाला समय शामिल है.
Cloud Trace: यह आपके हर अनुरोध को ट्रैक करता है, ताकि आपको सभी अनुरोधों की जानकारी एक साथ देखने के बजाय, अलग-अलग अनुरोधों की जानकारी देखने का विकल्प मिल सके. ट्रेस आम तौर पर लॉग से जुड़ा होता है, ताकि हर इंटरैक्शन के कॉन्टेंट और समय की जांच की जा सके.
Cloud Logging: यह इनपुट, आउटपुट, और कॉन्फ़िगरेशन मेटाडेटा को कैप्चर करता है, ताकि एआई से किए गए आपके अनुरोध के हर हिस्से के बारे में ज़्यादा जानकारी दी जा सके.
टेलीमेट्री डेटा इन प्रॉडक्ट में सेव किया जाता है. इसलिए, हर प्रॉडक्ट में डेटा को बनाए रखने और ऐक्सेस करने की सेटिंग तय की जा सकती है. इसके बारे में ज़्यादा जानने के लिए, Cloud Monitoring, Cloud Trace, और Cloud Logging के दस्तावेज़ पढ़ें. ध्यान दें कि हर सैंपल किए गए अनुरोध से मिले प्रॉम्प्ट और जनरेट किए गए आउटपुट को मेट्रिक के साथ सेव किया जाता है.
कीमत
Google Cloud Observability Suite एक पेड सेवा है. इसलिए, आपका Firebase प्रोजेक्ट, इस्तेमाल के हिसाब से पैसे चुकाने वाले ब्लेज़ प्लान पर होना चाहिए. हालांकि, हर प्रॉडक्ट के लिए बिना किसी शुल्क के कई टियर उपलब्ध हैं. ज़्यादा जानने के लिए, Google Cloud Observability Suite कीमत से जुड़ा दस्तावेज़ पढ़ें.
Google Cloud कंसोल में प्रोजेक्ट-लेवल की एपीआई मेट्रिक देखना
हर एपीआई के लिए, प्रोजेक्ट-लेवल की मेट्रिक देखी जा सकती हैं. जैसे, इस्तेमाल की जानकारी. इसके लिए, Google Cloud कंसोल पर जाएं.
ध्यान दें कि इस सेक्शन में बताए गए Google Cloud कंसोल पेजों में, अनुरोध और जवाब के कॉन्टेंट और टोकन की संख्या जैसी जानकारी शामिल नहीं होती है. इस तरह की जानकारी को मॉनिटर करने के लिए, Firebase कंसोल में एआई मॉनिटरिंग का इस्तेमाल करें (पिछला सेक्शन देखें).
Google Cloud कंसोल में, उस एपीआई के मेट्रिक पेज पर जाएं जिसकी आपको जानकारी देखनी है:
Vertex AI एपीआई: Vertex AI Gemini API को किए गए किसी भी अनुरोध से जुड़ा इस्तेमाल देखें.
- इसमें Firebase AI Logic क्लाइंट SDK टूल, Google GenAI सर्वर SDK टूल, Genkit, Firebase Extensions, Gemini API, REST API, Vertex AI Studio वगैरह का इस्तेमाल करके किए गए अनुरोध शामिल हैं.
Gemini Developer API: Gemini Developer API को किए गए किसी भी अनुरोध से जुड़े इस्तेमाल की जानकारी देखें.
- इसमें Firebase AI Logic क्लाइंट SDK टूल, Google GenAI सर्वर SDK टूल, Genkit, Firebase Extensions, Gemini API, REST API, Google AI Studio वगैरह का इस्तेमाल करके किए गए अनुरोध शामिल हैं.
- Google Cloud कंसोल में इस एपीआई का डिसप्ले नेम "Generative Language API" है.
अगर आपको एपीआई का "खास जानकारी वाला पेज" दिखता है, तो मैनेज करें पर क्लिक करें. इसके बाद, मेट्रिक टैब पर क्लिक करें.
ड्रॉप-डाउन मेन्यू का इस्तेमाल करके, अपनी पसंद की मेट्रिक देखें. जैसे, रिस्पॉन्स कोड के हिसाब से ट्रैफ़िक, एपीआई के तरीके के हिसाब से गड़बड़ियां, कुल लेटेन्सी, और एपीआई के तरीके के हिसाब से लेटेन्सी.