Modele niestandardowe
Jeśli używasz niestandardowych modeli TensorFlow Lite, Firebase ML pomoże Ci zadbać o to, by użytkownicy zawsze używali najlepszej dostępnej wersji Twojego modelu niestandardowego. Gdy wdrożysz model za pomocą Firebase, Firebase ML pobiera go tylko wtedy, gdy jest to konieczne, i automatycznie aktualizuje użytkowników do najnowszej wersji.
Najważniejsze funkcje
Wdrożenie modelu TensorFlow Lite | Wdróż modele za pomocą Firebase, aby zmniejszyć rozmiar pliku binarnego aplikacji i mieć pewność, że zawsze używa ona najnowszej dostępnej wersji modelu |
Wnioskowanie ML na urządzeniu | Przeprowadź wnioskowanie w aplikacji Apple lub na Androida za pomocą interpretera TensorFlow Lite z modelem. |
Automatyczne aktualizacje modeli | Skonfiguruj warunki, w których aplikacja automatycznie pobiera nowe wersje modelu: gdy urządzenie użytkownika jest bezczynne, ładuje się lub łączy się z Wi-Fi |
Ścieżka implementacji
Wytrenuj model TensorFlow | Utworzenie i wytrenowanie modelu niestandardowego za pomocą TensorFlow. Możesz też ponownie wytrenować istniejący model, który rozwiązuje problem podobny do tego, co chcesz osiągnąć. | |
Przekonwertuj model na TensorFlow Lite | Przekonwertuj model z HDF5 lub zablokowanego formatu wykresu na TensorFlow Lite za pomocą konwertera TensorFlow Lite. | |
Wdrażanie modelu TensorFlow Lite w Firebase | Opcjonalnie: gdy wdrożysz model TensorFlow Lite w Firebase i uwzględnisz pakiet SDK Firebase ML w aplikacji, Firebase ML będzie udostępniać użytkownikom najnowszą wersję Twojego modelu. Możesz je skonfigurować tak, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest bezczynne, ładuje się lub jest połączone przez Wi-Fi. | |
Używanie modelu TensorFlow Lite do wnioskowania | Użyj interpretera TensorFlow Lite w aplikacji na Apple lub Androida, aby wnioskować za pomocą modeli wdrożonych za pomocą Firebase. |
Codelabs
Wypróbuj kilka ćwiczeń z programowania, aby dowiedzieć się, jak Firebase może ułatwić i zwiększyć skuteczność modeli TensorFlow Lite.