Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Modelli personalizzati
plat_iosplat_android
Se utilizzi le applicazioni
TensorFlow Lite,
Firebase ML può aiutarti a garantire che i tuoi utenti utilizzino sempre
la versione migliore disponibile
del tuo modello personalizzato. Quando esegui il deployment del modello
Firebase, Firebase ML scarica il modello solo quando necessario e
aggiorna automaticamente gli utenti all'ultima versione.
Esegui il deployment dei tuoi modelli utilizzando Firebase per ridurre le dimensioni del programma binario dell'app e
assicurati che la tua app utilizzi sempre la versione più recente disponibile di
il tuo modello
Inferenza ML on-device
Eseguire l'inferenza in un'app Apple o Android utilizzando TensorFlow Lite
da interprete con il tuo modello.
Aggiornamenti automatici del modello
Configura le condizioni in base alle quali la tua app viene scaricata automaticamente
nuove versioni del modello: quando il dispositivo dell'utente è inattivo, è in carica,
o dispone di una connessione Wi-Fi
Percorso di implementazione
Addestra il tuo modello TensorFlow
Creare e addestrare un modello personalizzato con TensorFlow. In alternativa, addestra nuovamente un
un modello esistente che risolve un problema simile a quello che si vuole ottenere.
Converti il modello in TensorFlow Lite
Converti il tuo modello da HDF5 o formato grafico bloccato a TensorFlow Lite
utilizzando
Convertitore TensorFlow Lite.
Esegui il deployment del tuo modello TensorFlow Lite in Firebase
(Facoltativo) Quando esegui il deployment del modello TensorFlow Lite in Firebase
includi l'SDK Firebase ML nel tuo
app, Firebase ML consente agli utenti di
aggiornato all'ultima versione del modello. Puoi configurarla per
scarica automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o
è in carica o è connesso al Wi-Fi.
Utilizzare il modello TensorFlow Lite per l'inferenza
Utilizza l'interprete di TensorFlow Lite nella tua app Apple o Android per
eseguire l'inferenza con modelli di cui è stato eseguito
il deployment mediante Firebase.
Codelab
Prova alcuni codelab per scoprire in che modo Firebase può aiutarti a utilizzare
Modelli TensorFlow Lite in modo più semplice ed efficace.
[null,null,["Ultimo aggiornamento 2025-07-25 UTC."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]