Modelos personalizados
Se você é um desenvolvedor de ML experiente e os modelos pré-criados do ML Kit não atendem às suas necessidades, você pode usar um modelo personalizado do TensorFlow Lite com o ML Kit.
Hospede seus modelos do TensorFlow Lite usando o Firebase ou empacote-os com seu aplicativo. Em seguida, use o ML Kit SDK para realizar inferências usando a melhor versão disponível do seu modelo personalizado. Se você hospedar seu modelo com o Firebase, o ML Kit atualizará automaticamente seus usuários com a versão mais recente.
Principais recursos
Hospedagem de modelos do TensorFlow Lite | Hospede seus modelos usando o Firebase para reduzir o tamanho binário do seu aplicativo e garantir que seu aplicativo esteja sempre usando a versão mais recente disponível do seu modelo |
Inferência de ML no dispositivo | Faça a inferência em um aplicativo iOS ou Android usando o ML Kit SDK para executar seu modelo personalizado do TensorFlow Lite. O modelo pode ser empacotado com o aplicativo, hospedado na nuvem ou ambos. |
Fallback automático do modelo | Especifique várias origens de modelo; use um modelo armazenado localmente quando o modelo hospedado na nuvem não estiver disponível |
Atualizações automáticas de modelos | Configure as condições em que seu aplicativo baixa automaticamente novas versões do seu modelo: quando o dispositivo do usuário está ocioso, carregando ou tem uma conexão Wi-Fi |
Caminho de implementação
Treine seu modelo do TensorFlow | Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que resolva um problema semelhante ao que você deseja alcançar. Consulte o Guia do desenvolvedor do TensorFlow Lite. | |
Converter o modelo para TensorFlow Lite | Converta seu modelo do formato padrão do TensorFlow para o TensorFlow Lite congelando o gráfico e usando o TensorFlow Optimizing Converter (TOCO). Consulte o Guia do desenvolvedor do TensorFlow Lite. | |
Hospede seu modelo do TensorFlow Lite com o Firebase | Opcional: quando você hospeda seu modelo do TensorFlow Lite com o Firebase e inclui o SDK do kit de ML em seu aplicativo, o Kit de ML mantém seus usuários atualizados com a versão mais recente do seu modelo. Você pode configurar o ML Kit para baixar automaticamente as atualizações do modelo quando o dispositivo do usuário estiver ocioso ou carregando ou tiver uma conexão Wi-Fi. | |
Use o modelo do TensorFlow Lite para inferência | Use as APIs de modelo personalizado do ML Kit em seu aplicativo iOS ou Android para realizar inferências com seu modelo hospedado pelo Firebase ou em pacote de aplicativos. |