Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Modèles personnalisés
plat_iosplat_android
Si vous utilisez des
modèles TensorFlow Lite,
Firebase ML peut vous aider à faire en sorte que vos utilisateurs se servent toujours
la meilleure version disponible
de votre modèle personnalisé. Lorsque vous déployez votre modèle avec
Firebase, Firebase ML ne télécharge le modèle que lorsque cela est nécessaire.
met automatiquement à jour vos utilisateurs avec la dernière version.
Prêt à vous lancer ? Choisissez votre plate-forme:
Déployez vos modèles à l'aide de Firebase pour réduire la taille binaire de votre application et :
assurez-vous que votre application utilise toujours la version la plus récente
votre modèle
Inférence ML sur l'appareil
Effectuer des inférences dans une application Apple ou Android à l'aide de TensorFlow Lite
interpréteur avec votre modèle.
Mises à jour automatiques des modèles
Configurez les conditions de téléchargement automatique de votre application
Nouvelles versions de votre modèle: lorsque l'appareil de l'utilisateur est inactif, en charge
ou dispose d'une connexion Wi-Fi
Chemin d'accès de l'exécution
Entraîner votre modèle TensorFlow
Créer et entraîner un modèle personnalisé à l'aide de TensorFlow Vous pouvez aussi réentraîner un
un modèle existant qui résout un problème
similaire à ce que vous souhaitez obtenir.
Déployer votre modèle TensorFlow Lite sur Firebase
Facultatif: Lorsque vous déployez votre modèle TensorFlow Lite sur Firebase et
incluez le SDK Firebase ML dans votre
l'application, Firebase ML permet à vos utilisateurs
par la dernière version de votre modèle. Vous pouvez le configurer pour qu'il télécharge automatiquement les mises à jour du modèle lorsque l'appareil de l'utilisateur est inactif ou en charge, ou lorsqu'il est connecté au réseau Wi-Fi.
Utiliser le modèle TensorFlow Lite pour l'inférence
Utilisez l'interpréteur TensorFlow Lite dans votre application Apple ou Android pour effectuer des inférences avec des modèles déployés à l'aide de Firebase.
Ateliers de programmation
Essayez quelques ateliers de programmation pour découvrir comment Firebase peut vous aider à utiliser les modèles TensorFlow Lite plus facilement et plus efficacement.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/25 (UTC).
[null,null,["Dernière mise à jour le 2025/07/25 (UTC)."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]