Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Modelos personalizados
plat_iosplat_android
Se você é um desenvolvedor experiente de ML e os modelos pré-criados do kit não
atendem às suas necessidades, é possível usar um modelo personalizado do
TensorFlow Lite com o
kit de ML.
Hospede seus modelos do TensorFlow Lite usando o Firebase ou empacote-os com seu aplicativo.
Em seguida, use o SDK do kit de ML para realizar a inferência usando a melhor versão
disponível do seu modelo personalizado.
Se você hospedar seu modelo no Firebase, o kit de ML atualizará automaticamente seus usuários
para a versão mais recente.
Hospede seus modelos usando o Firebase para reduzir o tamanho binário do seu app e para
garantir que ele esteja sempre usando a versão mais recente disponível do
seu modelo.
Inferência de ML no dispositivo
Realize inferências em um app para iOS ou Android usando o SDK do kit de ML para
executar seu modelo personalizado do TensorFlow Lite. O modelo pode ser fornecido com o
app, hospedado na nuvem ou ambos.
Contingência automática de modelos
Especifique várias fontes. Use um modelo armazenado localmente quando o
hospedado na nuvem estiver indisponível.
Atualizações automáticas de modelos
Configure as condições do app para download automático de
novas versões do seu modelo: quando o dispositivo do usuário estiver inativo, sendo carregado
ou conectado a uma rede Wi-Fi
Caminho de implementação
Treine seu modelo TensorFlow
Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um
modelo existente que solucione um problema semelhante ao que você quer alcançar.
Veja o
Guia do desenvolvedor do TensorFlow Lite.
Converta o modelo para o TensorFlow Lite
Converta seu modelo do formato TensorFlow padrão para o TensorFlow Lite.
Para isso, congele o gráfico e use o TensorFlow Optimizing Converter
(TOCO). Veja o
Guia do desenvolvedor do TensorFlow Lite.
Hospede seu modelo do TensorFlow Lite no Firebase
Opcional: quando você hospeda seu modelo do TensorFlow Lite no Firebase e
inclui o SDK do kit de ML no seu app, o kit mantém seus usuários atualizados com a versão mais recente do seu modelo. Você pode configurar o kit de ML para fazer o
download automático das atualizações do modelo quando o dispositivo do usuário estiver inativo,
carregando ou conectado a uma rede Wi-Fi.
Use o modelo TensorFlow Lite para inferência
Use as APIs do modelo personalizado do kit de ML no seu app para iOS ou Android para realizar
inferências no modelo hospedado no Firebase ou no modelo incluído em um app.
[null,null,["Última atualização 2025-08-04 UTC."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]