تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
الطُرُز المخصّصة
plat_iosplat_android
إذا كنت من مطوّري تعلُّم الآلة ذوي الخبرة، ولا تفعل النماذج المُعدة مسبقًا
تلبي احتياجاتك، يمكنك استخدام
TensorFlow Lite مع
حزمة تعلُّم الآلة.
يمكنك استضافة نماذج TensorFlow Lite باستخدام Firebase أو إضافتها إلى تطبيقك.
وبعد ذلك، يمكنك استخدام حزمة تطوير البرامج (SDK) لحزمة تعلّم الآلة لإجراء الاستنتاج باستخدام الأدوات الأكثر
من نموذجك المخصص.
في حال استضافة نموذجك باستخدام Firebase، ستعدّل أداة ML Kit تلقائيًا المستخدمين.
باستخدام أحدث إصدار.
يمكنك استضافة نماذجك باستخدام Firebase لتقليل حجم البرنامج الثنائي لتطبيقك وكذلك
التأكّد من أنّ تطبيقك يستخدم دائمًا أحدث إصدار متاح من
نموذجك
استنتاج تعلُّم الآلة على الجهاز
يمكنك إجراء الاستنتاج في تطبيق iOS أو Android باستخدام حزمة تطوير البرامج (SDK) لحزمة تعلّم الآلة من أجل
تشغيل نموذج TensorFlow Lite المخصّص يمكن إرفاق النموذج مع
أو تطبيق مستضاف في السحابة الإلكترونية أو كليهما.
النموذج الاحتياطي التلقائي
تحديد مصادر نماذج متعددة استخدام نموذج مخزن محليًا عند
النموذج المستضاف على السحابة الإلكترونية غير متاح
التحديثات التلقائية للطُرز
ضبط الشروط التي يتم بموجبها تنزيل تطبيقك تلقائيًا
الإصدارات الجديدة من نموذجك: عندما يكون جهاز المستخدم غير نشِط لفترة قصيرة أو أثناء شحنه
أو يتوفّر به اتصال Wi-Fi
مسار التنفيذ
تدريب نموذج TensorFlow
يمكنك إنشاء نموذج مخصّص وتدريبه باستخدام TensorFlow. أو أعد تدريب
نموذج حالي يحل مشكلة مشابهة لما تريد تحقيقه.
راجِع
دليل المطوِّر في TensorFlow Lite.
تحويل النموذج إلى TensorFlow Lite
يمكنك تحويل النموذج من تنسيق TensorFlow العادي إلى TensorFlow Lite من خلال
وتجميد الرسم البياني، ثم استخدام محول تحسين TensorFlow
(TOCO). الاطّلاع على TensorFlow Lite
دليل المطوِّر:
استضافة نموذج TensorFlow Lite مع Firebase
اختياري: عند استضافة نموذج TensorFlow Lite باستخدام Firebase
وتضمين حزمة تطوير البرامج (SDK) لـ ML Kit في تطبيقك، تُبقي ML Kit المستخدمين على اطّلاع
بآخر إصدار من النموذج. يمكنك ضبط أدوات تعلُّم الآلة
تنزيل تحديثات الطراز تلقائيًا عندما يكون جهاز المستخدم غير نشِط لفترة قصيرة أو
جارٍ شحنه أو اتصاله بشبكة Wi-Fi.
استخدام نموذج TensorFlow Lite للاستنتاج
استخدِم واجهات برمجة التطبيقات للنماذج المخصّصة لأداة تعلُّم الآلة في تطبيق iOS أو Android لتحقيق الأداء
من خلال نموذجك المستضاف على Firebase أو المجمّع من خلال التطبيق.
تاريخ التعديل الأخير: 2025-07-25 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-07-25 (حسب التوقيت العالمي المتفَّق عليه)"],[],[],null,["# Custom Models\n=============\n\nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n----------------\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n-------------------\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]