Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
Пользовательские модели
plat_iosplat_android
Если вы опытный разработчик машинного обучения и готовые модели ML Kit не соответствуют вашим потребностям, вы можете использовать собственную модель TensorFlow Lite с ML Kit.
Разместите свои модели TensorFlow Lite с помощью Firebase или упакуйте их в свое приложение. Затем используйте SDK ML Kit, чтобы выполнить логический вывод, используя лучшую доступную версию вашей пользовательской модели. Если вы размещаете свою модель с помощью Firebase, ML Kit автоматически обновляет ваших пользователей до последней версии.
Разместите свои модели с помощью Firebase, чтобы уменьшить размер двоичного файла вашего приложения и убедиться, что ваше приложение всегда использует самую последнюю доступную версию вашей модели.
Выводы машинного обучения на устройстве
Выполните логический вывод в приложении iOS или Android с помощью SDK ML Kit для запуска собственной модели TensorFlow Lite. Модель может быть связана с приложением, размещена в облаке или и то, и другое.
Автоматический возврат модели
Укажите несколько источников модели; используйте локально сохраненную модель, если модель, размещенная в облаке, недоступна
Автоматические обновления моделей
Настройте условия, при которых ваше приложение автоматически загружает новые версии вашей модели: когда устройство пользователя находится в режиме ожидания, заряжается или имеет подключение к Wi-Fi.
Путь реализации
Обучите свою модель TensorFlow
Создайте и обучите собственную модель с помощью TensorFlow. Или переобучите существующую модель, которая решает проблему, аналогичную той, которую вы хотите достичь. См. Руководство разработчика TensorFlow Lite.
Преобразуйте модель в TensorFlow Lite.
Преобразуйте свою модель из стандартного формата TensorFlow в TensorFlow Lite, заморозив график, а затем используя оптимизирующий конвертер TensorFlow (TOCO). См. Руководство разработчика TensorFlow Lite.
Разместите свою модель TensorFlow Lite с помощью Firebase
Необязательно: когда вы размещаете свою модель TensorFlow Lite в Firebase и включаете SDK ML Kit в свое приложение, ML Kit держит ваших пользователей в курсе последней версии вашей модели. Вы можете настроить ML Kit для автоматической загрузки обновлений модели, когда устройство пользователя находится в режиме ожидания, заряжается или имеет подключение к Wi-Fi.
Используйте модель TensorFlow Lite для вывода
Используйте API пользовательских моделей ML Kit в своем приложении для iOS или Android, чтобы выполнять логические выводы на основе модели, размещенной в Firebase или связанной с приложением.
[null,null,["Последнее обновление: 2025-07-25 UTC."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]