Modelos personalizados
Se você usa modelos personalizados do TensorFlow Lite, o Firebase ML pode ajudar a garantir que seus usuários usem sempre a melhor versão disponível do seu modelo personalizado. Ao implantar o modelo com o Firebase, o Firebase ML só faz o download do modelo quando necessário e atualiza automaticamente os usuários com a versão mais recente.
Principais recursos
Implantação de modelos do TensorFlow Lite | Implante seus modelos usando o Firebase para reduzir o tamanho binário do seu app e para garantir que ele esteja sempre usando a versão mais recente disponível do seu modelo. |
Inferência de ML no dispositivo | Faça inferência em um app Apple ou app Android usando o intérprete do TensorFlow Lite com seu modelo. |
Atualizações automáticas de modelos | Configure as condições do app para download automático de novas versões do seu modelo: quando o dispositivo do usuário estiver inativo, sendo carregado ou conectado a uma rede Wi-Fi |
Caminho de implementação
Treine seu modelo TensorFlow | Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que solucione um problema semelhante ao que você quer alcançar. | |
Converta o modelo para o TensorFlow Lite | Converta seu modelo do formato HDF5 ou gráfico congelado para o TensorFlow Lite usando o Conversor do TensorFlow Lite. | |
Implantar seu modelo do TensorFlow Lite no Firebase | Opcional: quando você hospeda seu modelo do TensorFlow Lite no Firebase e inclui o SDK do Firebase ML no seu app, o Firebase ML mantém seus usuários atualizados com a versão mais recente do seu modelo. Você pode configurá-lo para fazer o download automático das atualizações do modelo quando o dispositivo do usuário estiver ocioso ou carregando ou tiver uma conexão Wi-Fi. | |
Use o modelo TensorFlow Lite para inferência | Use o intérprete do TensorFlow Lite no seu app Apple ou app Android para fazer inferências com os modelos implantados usando o Firebase. |
Codelabs
Confira alguns codelabs para saber mais sobre como o Firebase pode ajudar a usar os modelos do TensorFlow Lite com mais facilidade e eficiência.