קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
מודלים מותאמים אישית
plat_iosplat_android
אם אתם מפתחים מנוסים של למידת מכונה והמודלים המוכנים מראש של ML Kit
עונה על הצרכים שלכם, אפשר להשתמש
מודל TensorFlow Lite עם
ערכת למידת מכונה.
אירוח מודלים של TensorFlow Lite באמצעות Firebase או הוספה שלהם לאפליקציה.
לאחר מכן, השתמשו ב-ML Kit SDK כדי לבצע הסקת מסקנות בעזרת
של המודל המותאם אישית.
אם אתם מארחים את המודל ב-Firebase, ML Kit מעדכן את המשתמשים בגרסה העדכנית באופן אוטומטי.
אירוח המודלים שלכם באמצעות Firebase כדי להקטין את הגודל הבינארי של האפליקציה
עליך לוודא שהאפליקציה שלך תמיד משתמשת בגרסה העדכנית ביותר של
המודל שלך
הסקת מסקנות מלמידת מכונה במכשיר
ביצוע הסקת מסקנות באפליקציה ל-iOS או ל-Android באמצעות ML Kit SDK
להריץ את מודל TensorFlow Lite בהתאמה אישית. אפשר לצרף את המודל לאפליקציה, לארח אותו בענן או לשלב את שניהם.
חלופה אוטומטית למודל
לציין כמה מקורות למודל. להשתמש במודל שמאוחסן באופן מקומי,
מודל שמתארח בענן לא זמין
עדכוני מודל אוטומטיים
הגדרת התנאים שבהם האפליקציה תוריד באופן אוטומטי
גרסאות חדשות של המודל שלך: כשהמכשיר של המשתמש לא פעיל, בטעינה,
או שיש לו חיבור Wi-Fi
נתיב ההטמעה
אימון של מודל TensorFlow
לפתח ולאמן מודל מותאם אישית באמצעות TensorFlow. או לאמן מחדש
למודל קיים שפותר בעיה שדומה למה שרוצים להשיג.
לצפייה ב-TensorFlow Lite
המדריך למפתחים
המרת המודל ל-TensorFlow Lite
המרת המודל מפורמט TensorFlow סטנדרטי ל-TensorFlow Lite:
להקפיא את התרשים ואז להשתמש ב-TensorFlow Optimizing Converter
(TOCO). לצפייה ב-TensorFlow Lite
המדריך למפתחים
אירוח מודל TensorFlow Lite ב-Firebase
אופציונלי: כשמארחים את מודל TensorFlow Lite באמצעות Firebase
כוללים את ML Kit SDK באפליקציה, ML Kit עוזר למשתמשים
עם הגרסה העדכנית ביותר של המודל. אתם יכולים להגדיר ל-ML Kit להוריד עדכוני מודלים באופן אוטומטי כשהמכשיר של המשתמש לא פעיל או בטעינה, או כשיש לו חיבור Wi-Fi.
שימוש במודל TensorFlow Lite לצורך הסקת מסקנות
להשתמש בממשקי ה-API של המודלים בהתאמה אישית של ML Kit באפליקציה ל-iOS או ל-Android כדי לבצע
מסקנות על סמך המודל הזה, שמתארח ב-Firebase או באפליקציה בחבילה.
[null,null,["עדכון אחרון: 2025-07-25 (שעון UTC)."],[],[],null,["# Custom Models\n=============\n\nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n----------------\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n-------------------\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]