Modelli personalizzati
Se sei uno sviluppatore ML esperto e i modelli predefiniti di ML Kit non soddisfano le tue esigenze, puoi utilizzare un modello TensorFlow Lite personalizzato con ML Kit.
Ospita i tuoi modelli TensorFlow Lite utilizzando Firebase o creane un pacchetto con la tua app. Utilizza quindi l'SDK ML Kit per eseguire l'inferenza utilizzando la migliore versione disponibile del tuo modello personalizzato. Se ospiti il tuo modello con Firebase, ML Kit aggiorna automaticamente i tuoi utenti con la versione più recente.
Funzionalità chiave
Hosting di modelli TensorFlow Lite | Ospita i tuoi modelli utilizzando Firebase per ridurre le dimensioni binarie della tua app e assicurarti che l'app utilizzi sempre la versione più recente disponibile del tuo modello |
Inferenza ML sul dispositivo | Esegui l'inferenza in un'app iOS o Android utilizzando l'SDK ML Kit per eseguire il tuo modello TensorFlow Lite personalizzato. Il modello può essere fornito in bundle con l'app, ospitato nel cloud o entrambi. |
Fallback automatico del modello | Specificare più origini del modello; utilizzare un modello archiviato localmente quando il modello ospitato sul cloud non è disponibile |
Aggiornamenti automatici del modello | Configura le condizioni in cui la tua app scarica automaticamente le nuove versioni del tuo modello: quando il dispositivo dell'utente è inattivo, è in carica o ha una connessione Wi-Fi |
Percorso di implementazione
Addestra il tuo modello TensorFlow | Costruisci e addestra un modello personalizzato utilizzando TensorFlow. Oppure, riqualifica un modello esistente che risolva un problema simile a quello che desideri ottenere. Consulta la Guida per sviluppatori di TensorFlow Lite. | |
Converti il modello in TensorFlow Lite | Converti il tuo modello dal formato TensorFlow standard a TensorFlow Lite congelando il grafico e quindi utilizzando TensorFlow Optimizing Converter (TOCO). Consulta la Guida per sviluppatori di TensorFlow Lite. | |
Ospita il tuo modello TensorFlow Lite con Firebase | Facoltativo: quando ospiti il tuo modello TensorFlow Lite con Firebase e includi l'SDK ML Kit nella tua app, ML Kit mantiene i tuoi utenti aggiornati con la versione più recente del tuo modello. È possibile configurare ML Kit per scaricare automaticamente gli aggiornamenti del modello quando il dispositivo dell'utente è inattivo o in carica oppure dispone di una connessione Wi-Fi. | |
Utilizza il modello TensorFlow Lite per l'inferenza | Utilizza le API del modello personalizzato di ML Kit nella tua app iOS o Android per eseguire l'inferenza con il tuo modello ospitato da Firebase o in bundle di app. |