Modèles personnalisés
Si vous êtes un développeur ML expérimenté et que les modèles prédéfinis de ML Kit ne répondent pas à vos besoins, vous pouvez utiliser un modèle TensorFlow Lite personnalisé avec ML Kit.
Hébergez vos modèles TensorFlow Lite à l'aide de Firebase ou empaquetez-les avec votre application. Ensuite, utilisez le SDK ML Kit pour effectuer une inférence à l'aide de la meilleure version disponible de votre modèle personnalisé. Si vous hébergez votre modèle avec Firebase, ML Kit met automatiquement à jour vos utilisateurs avec la dernière version.
Capacités clés
Hébergement de modèles TensorFlow Lite | Hébergez vos modèles à l'aide de Firebase pour réduire la taille binaire de votre application et assurez-vous que votre application utilise toujours la version la plus récente votre modèle |
Inférence ML sur l'appareil | Effectuer des inférences dans une application iOS ou Android à l'aide du SDK ML Kit exécuter votre modèle TensorFlow Lite personnalisé. Le modèle peut être associé de votre application, hébergée dans le cloud, ou les deux. |
Création de remplacement automatique du modèle | spécifier plusieurs sources de modèle ; d'utiliser un modèle stocké localement lorsque Le modèle hébergé dans le cloud n'est pas disponible |
Mises à jour automatiques du modèle | Configurez les conditions de téléchargement automatique de votre application Nouvelles versions de votre modèle: lorsque l'appareil de l'utilisateur est inactif, en charge ou dispose d'une connexion Wi-Fi |
Chemin d'accès de l'exécution
Entraîner le modèle TensorFlow | Créer et entraîner un modèle personnalisé à l'aide de TensorFlow Vous pouvez aussi réentraîner un un modèle existant qui résout un problème similaire à ce que vous souhaitez obtenir. Découvrir TensorFlow Lite Guide du développeur. | |
Convertir le modèle au format TensorFlow Lite | Convertissez votre modèle du format TensorFlow standard au format TensorFlow Lite en congelant le graphique, puis en utilisant le convertisseur d'optimisation TensorFlow (TOCO). Découvrir TensorFlow Lite Guide du développeur. | |
Héberger votre modèle TensorFlow Lite avec Firebase | Facultatif: Lorsque vous hébergez votre modèle TensorFlow Lite avec Firebase et incluent le SDK ML Kit dans votre application, il permet à vos utilisateurs par la dernière version de votre modèle. Vous pouvez configurer ML Kit pour télécharger automatiquement les mises à jour du modèle lorsque l'appareil de l'utilisateur est inactif ou ou qu'il est connecté au Wi-Fi. | |
Utiliser le modèle TensorFlow Lite pour l'inférence | Utilisez les API de modèles personnalisés de ML Kit dans votre application iOS ou Android pour effectuer avec votre modèle hébergé sur Firebase ou intégré à l'application. |