Join us for Firebase Summit on November 10, 2021. Tune in to learn how Firebase can help you accelerate app development, release with confidence, and scale with ease. Register

Modelli personalizzati

Se si utilizza personalizzati tensorflow Lite modelli, Firebase ML può aiutare a garantire gli utenti sono sempre utilizzando la versione più disponibile del vostro modello personalizzato. Quando distribuisci il tuo modello con Firebase, Firebase ML scarica il modello solo quando è necessario e aggiorna automaticamente i tuoi utenti con la versione più recente.

iOS Android

Funzionalità chiave

Distribuzione del modello TensorFlow Lite Distribuisci i tuoi modelli utilizzando Firebase per ridurre le dimensioni binarie della tua app e assicurarti che la tua app utilizzi sempre la versione più recente disponibile del tuo modello
Inferenza ML su dispositivo Esegui l'inferenza in un'app iOS o Android utilizzando l'interprete TensorFlow Lite con il tuo modello.
Aggiornamenti automatici del modello Configura le condizioni in base alle quali la tua app scarica automaticamente le nuove versioni del tuo modello: quando il dispositivo dell'utente è inattivo, è in carica o ha una connessione Wi-Fi

Percorso di implementazione

Allena il tuo modello TensorFlow Crea e addestra un modello personalizzato utilizzando TensorFlow. Oppure, riaddestrare un modello esistente che risolve un problema simile a quello che si desidera ottenere.
Converti il ​​modello in TensorFlow Lite Convertire il vostro modello di formato grafico congelato per tensorflow Lite HDF5 o utilizzando il convertitore tensorflow Lite .
Distribuisci il tuo modello TensorFlow Lite su Firebase Facoltativo: quando distribuisci il tuo modello TensorFlow Lite su Firebase e includi l'SDK Firebase ML nella tua app, Firebase ML mantiene i tuoi utenti aggiornati con l'ultima versione del tuo modello. Puoi configurarlo per scaricare automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o in carica o dispone di una connessione Wi-Fi.
Usa il modello TensorFlow Lite per l'inferenza Usa l'interprete TensorFlow Lite nella tua app iOS o Android per eseguire l'inferenza con i modelli distribuiti tramite Firebase.

Codelabs

Provare alcuni codelabs imparare hands-on come Firebase consentono di utilizzare modelli tensorflow Lite più facilmente ed efficacemente.