Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
Пользовательские модели
plat_iosplat_android
Если вы используете пользовательские модели TensorFlow Lite , Firebase ML может помочь вам гарантировать, что ваши пользователи всегда используют лучшую доступную версию вашей пользовательской модели. Когда вы развертываете свою модель с помощью Firebase, Firebase ML загружает модель только тогда, когда это необходимо, и автоматически обновляет ваших пользователей до последней версии.
Разверните свои модели с помощью Firebase, чтобы уменьшить размер двоичного файла вашего приложения и убедиться, что ваше приложение всегда использует самую последнюю доступную версию вашей модели.
Выводы машинного обучения на устройстве
Выполните вывод в приложении Apple или Android, используя интерпретатор TensorFlow Lite с вашей моделью.
Автоматические обновления моделей
Настройте условия, при которых ваше приложение автоматически загружает новые версии вашей модели: когда устройство пользователя находится в режиме ожидания, заряжается или имеет подключение к Wi-Fi.
Путь реализации
Обучите свою модель TensorFlow
Создайте и обучите собственную модель с помощью TensorFlow. Или переобучите существующую модель, которая решает проблему, аналогичную той, которую вы хотите достичь.
Преобразуйте модель в TensorFlow Lite.
Преобразуйте свою модель из формата HDF5 или замороженного графика в TensorFlow Lite с помощью конвертера TensorFlow Lite .
Разверните свою модель TensorFlow Lite в Firebase
Необязательно: когда вы развертываете свою модель TensorFlow Lite в Firebase и включаете Firebase ML SDK в свое приложение, Firebase ML держит ваших пользователей в курсе последней версии вашей модели. Вы можете настроить его на автоматическую загрузку обновлений модели, когда устройство пользователя находится в режиме ожидания, заряжается или имеет подключение к Wi-Fi.
Используйте модель TensorFlow Lite для вывода.
Используйте интерпретатор TensorFlow Lite в своем приложении Apple или Android, чтобы выполнять логические выводы на основе моделей, развернутых с помощью Firebase.
Кодлабы
Попробуйте несколько лабораторий кода , чтобы на практике узнать, как Firebase может помочь вам более легко и эффективно использовать модели TensorFlow Lite.
[null,null,["Последнее обновление: 2025-07-25 UTC."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]