Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Modelos personalizados
plat_iosplat_android
Se você usa modelos personalizados do
TensorFlow Lite,
o Firebase ML pode ajudar a garantir que seus usuários usem sempre a melhor
versão disponível do seu modelo personalizado. Ao implantar o modelo com o
Firebase, o Firebase ML só faz o download do modelo quando necessário e
atualiza automaticamente os usuários com a versão mais recente.
Implante seus modelos usando o Firebase para reduzir o tamanho binário do seu app e para
garantir que ele esteja sempre usando a versão mais recente disponível do
seu modelo.
Inferência de ML no dispositivo
Faça inferência em um app Apple ou app Android usando o intérprete do
TensorFlow Lite com seu modelo.
Atualizações automáticas de modelos
Configure as condições do app para download automático de
novas versões do seu modelo: quando o dispositivo do usuário estiver inativo, sendo carregado
ou conectado a uma rede Wi-Fi
Caminho de implementação
Treine seu modelo TensorFlow
Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um
modelo existente que solucione um problema semelhante ao que você quer alcançar.
Converta o modelo para o TensorFlow Lite
Converta seu modelo do formato HDF5 ou gráfico congelado para o TensorFlow Lite
usando o
Conversor do TensorFlow Lite.
Implantar seu modelo do TensorFlow Lite no Firebase
Opcional: quando você implanta seu modelo do TensorFlow Lite no Firebase e
inclui o SDK do Firebase ML no seu
app, o Firebase ML mantém seus usuários atualizados
com a versão mais recente do modelo. Você pode configurá-lo para
fazer o download automático das atualizações do modelo quando o dispositivo do usuário estiver ocioso ou
carregando ou tiver uma conexão Wi-Fi.
Use o modelo TensorFlow Lite para inferência
Use o intérprete do TensorFlow Lite no seu app Apple ou app Android para fazer
inferências com os modelos implantados usando o Firebase.
Codelabs
Confira codelabs para saber mais sobre como o Firebase pode ajudar a usar
os modelos do TensorFlow Lite com mais facilidade e eficiência.
[null,null,["Última atualização 2025-08-04 UTC."],[],[],null,["# Custom Models\n=============\n\nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n----------------\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n-------------------\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n--------\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]