Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Modèles personnalisés
plat_iosplat_android
Si vous êtes un développeur ML expérimenté et que les modèles prédéfinis de ML Kit ne répondent pas à vos besoins, vous pouvez utiliser un modèle TensorFlow Lite personnalisé avec ML Kit.
Hébergez vos modèles TensorFlow Lite à l'aide de Firebase ou empaquetez-les avec votre application. Ensuite, utilisez le SDK ML Kit pour effectuer une inférence à l'aide de la meilleure version disponible de votre modèle personnalisé.
Si vous hébergez votre modèle avec Firebase, ML Kit met automatiquement à jour vos utilisateurs
avec la dernière version.
Hébergez vos modèles à l'aide de Firebase pour réduire la taille binaire de votre application et
assurez-vous que votre application utilise toujours la version la plus récente
votre modèle
Inférence ML sur l'appareil
Effectuer des inférences dans une application iOS ou Android à l'aide du SDK ML Kit
exécuter votre modèle TensorFlow Lite personnalisé. Le modèle peut être associé
de votre application, hébergée dans le cloud, ou les deux.
Création de remplacement automatique du modèle
spécifier plusieurs sources de modèle ; d'utiliser un modèle stocké localement lorsque
Le modèle hébergé dans le cloud n'est pas disponible
Mises à jour automatiques du modèle
Configurez les conditions de téléchargement automatique de votre application
Nouvelles versions de votre modèle: lorsque l'appareil de l'utilisateur est inactif, en charge
ou dispose d'une connexion Wi-Fi
Chemin d'accès de l'exécution
Entraîner le modèle TensorFlow
Créer et entraîner un modèle personnalisé à l'aide de TensorFlow Vous pouvez aussi réentraîner un
un modèle existant qui résout un problème
similaire à ce que vous souhaitez obtenir.
Découvrir TensorFlow Lite
Guide du développeur.
Convertir le modèle au format TensorFlow Lite
Convertissez votre modèle du format TensorFlow standard au format TensorFlow Lite en congelant le graphique, puis en utilisant le convertisseur d'optimisation TensorFlow (TOCO). Découvrir TensorFlow Lite
Guide du développeur.
Héberger votre modèle TensorFlow Lite avec Firebase
Facultatif: Lorsque vous hébergez votre modèle TensorFlow Lite avec Firebase et
incluent le SDK ML Kit dans votre application, il permet à vos utilisateurs
par la dernière version de votre modèle. Vous pouvez configurer ML Kit pour
télécharger automatiquement les mises à jour du modèle lorsque l'appareil de l'utilisateur est inactif ou
ou qu'il est connecté au Wi-Fi.
Utiliser le modèle TensorFlow Lite pour l'inférence
Utilisez les API de modèles personnalisés de ML Kit dans votre application iOS ou Android pour effectuer
avec votre modèle hébergé sur Firebase ou intégré à l'application.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/25 (UTC).
[null,null,["Dernière mise à jour le 2025/07/25 (UTC)."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]