Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Modelli personalizzati
plat_iosplat_android
Se sei uno sviluppatore ML esperto, i modelli predefiniti di ML Kit non
che soddisfano le tue esigenze, puoi utilizzare
Modello TensorFlow Lite con
ML Kit.
Ospita i tuoi modelli TensorFlow Lite utilizzando Firebase o pacchettizzali nella tua app.
Quindi, utilizza l'SDK ML Kit per eseguire l'inferenza utilizzando
del modello personalizzato.
Se ospiti il tuo modello con Firebase, ML Kit aggiorna automaticamente gli utenti con la versione più recente.
Ospita i tuoi modelli utilizzando Firebase per ridurre le dimensioni del file binario dell'app e
assicurati che la tua app utilizzi sempre la versione più recente disponibile di
il tuo modello
Inferenza ML on-device
Esegui l'inferenza in un'app per iOS o Android utilizzando l'SDK ML Kit per
il tuo modello TensorFlow Lite personalizzato. Il modello può essere fornito in bundle con l'app, ospitato nel cloud o entrambi.
Failover automatico del modello
Specifica più origini modello; utilizza un modello archiviato localmente quando il
modello ospitato su cloud non è disponibile
Aggiornamenti automatici del modello
Configura le condizioni in base alle quali la tua app viene scaricata automaticamente
nuove versioni del modello: quando il dispositivo dell'utente è inattivo, è in carica,
o dispone di una connessione Wi-Fi
Percorso di implementazione
Addestra il tuo modello TensorFlow
Creare e addestrare un modello personalizzato con TensorFlow. In alternativa, addestra nuovamente un
un modello esistente che risolve un problema simile a quello che si vuole ottenere.
Consulta la
Guida per gli sviluppatori di TensorFlow Lite.
Converti il modello in TensorFlow Lite
Converti il modello dal formato TensorFlow standard a TensorFlow Lite bloccando il grafo e poi utilizzando il convertitore di ottimizzazione di TensorFlow (TOCO). Visualizza TensorFlow Lite
Guida per gli sviluppatori.
Ospitare il modello TensorFlow Lite con Firebase
(Facoltativo) Quando ospiti il tuo modello TensorFlow Lite con Firebase
includere l'SDK ML Kit nella tua app, ML Kit consente agli utenti di
aggiornato all'ultima versione del modello. Puoi configurare ML Kit
scarica automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o
è in carica o è connesso al Wi-Fi.
Utilizzare il modello TensorFlow Lite per l'inferenza
Usa le API del modello personalizzato di ML Kit nella tua app per iOS o Android per eseguire
di inferenza con il tuo modello ospitato da Firebase o in bundle di app.
[null,null,["Ultimo aggiornamento 2025-07-25 UTC."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]