कस्टम मॉडल

यदि आप एक अनुभवी एमएल डेवलपर हैं और एमएल किट के पूर्व-निर्मित मॉडल आपकी आवश्यकताओं को पूरा नहीं करते हैं, तो आप एमएल किट के साथ एक कस्टम टेन्सरफ्लो लाइट मॉडल का उपयोग कर सकते हैं।

अपने TensorFlow Lite मॉडल को Firebase का उपयोग करके होस्ट करें या उन्हें अपने ऐप के साथ पैकेज करें। फिर, अपने कस्टम मॉडल के सर्वोत्तम-उपलब्ध संस्करण का उपयोग करके अनुमान लगाने के लिए एमएल किट एसडीके का उपयोग करें। यदि आप अपने मॉडल को फायरबेस के साथ होस्ट करते हैं, तो एमएल किट स्वचालित रूप से आपके उपयोगकर्ताओं को नवीनतम संस्करण के साथ अपडेट करता है।

आईओएस एंड्रॉइड

प्रमुख क्षमताएं

TensorFlow लाइट मॉडल होस्टिंग अपने ऐप के बाइनरी आकार को कम करने के लिए और यह सुनिश्चित करने के लिए कि आपका ऐप हमेशा आपके मॉडल के नवीनतम उपलब्ध संस्करण का उपयोग कर रहा है, फायरबेस का उपयोग करके अपने मॉडल होस्ट करें
ऑन-डिवाइस एमएल अनुमान अपने कस्टम टेन्सरफ्लो लाइट मॉडल को चलाने के लिए एमएल किट एसडीके का उपयोग करके आईओएस या एंड्रॉइड ऐप में अनुमान लगाएं। मॉडल को ऐप के साथ बंडल किया जा सकता है, क्लाउड में होस्ट किया जा सकता है, या दोनों।
स्वचालित मॉडल फ़ॉलबैक एकाधिक मॉडल स्रोत निर्दिष्ट करें; क्लाउड-होस्टेड मॉडल अनुपलब्ध होने पर स्थानीय रूप से संग्रहीत मॉडल का उपयोग करें
स्वचालित मॉडल अद्यतन उन शर्तों को कॉन्फ़िगर करें जिनके तहत आपका ऐप स्वचालित रूप से आपके मॉडल के नए संस्करण डाउनलोड करता है: जब उपयोगकर्ता का डिवाइस निष्क्रिय हो, चार्ज हो रहा हो, या वाई-फाई कनेक्शन हो

कार्यान्वयन पथ

अपने TensorFlow मॉडल को प्रशिक्षित करें TensorFlow का उपयोग करके एक कस्टम मॉडल बनाएं और प्रशिक्षित करें। या, किसी मौजूदा मॉडल को फिर से प्रशिक्षित करें जो उस समस्या को हल करता है जो आप हासिल करना चाहते हैं। TensorFlow Lite डेवलपर गाइड देखें।
मॉडल को TensorFlow Lite में कनवर्ट करें ग्राफ़ को फ़्रीज़ करके और फिर TensorFlow ऑप्टिमाइज़िंग कनवर्टर (TOCO) का उपयोग करके अपने मॉडल को मानक TensorFlow प्रारूप से TensorFlow Lite में परिवर्तित करें। TensorFlow Lite डेवलपर गाइड देखें।
अपने TensorFlow Lite मॉडल को Firebase के साथ होस्ट करें वैकल्पिक: जब आप अपने टेन्सरफ्लो लाइट मॉडल को फायरबेस के साथ होस्ट करते हैं और अपने ऐप में एमएल किट एसडीके शामिल करते हैं, तो एमएल किट आपके उपयोगकर्ताओं को आपके मॉडल के नवीनतम संस्करण के साथ अपडेट रखता है। जब उपयोगकर्ता का डिवाइस निष्क्रिय हो या चार्ज हो रहा हो, या उसमें वाई-फाई कनेक्शन हो, तो आप मॉडल अपडेट को स्वचालित रूप से डाउनलोड करने के लिए एमएल किट को कॉन्फ़िगर कर सकते हैं।
अनुमान के लिए TensorFlow Lite मॉडल का उपयोग करें अपने फायरबेस-होस्टेड या ऐप-बंडल मॉडल के साथ अनुमान लगाने के लिए अपने आईओएस या एंड्रॉइड ऐप में एमएल किट के कस्टम मॉडल एपीआई का उपयोग करें।