Modele niestandardowe
Jeśli jesteś doświadczonym programistą ML, a gotowe modele ML Kit nie zgodnie z Twoimi potrzebami, możesz użyć Model TensorFlow Lite z ML Kit,
Hostuj modele TensorFlow Lite za pomocą Firebase lub spakuj je ze swoją aplikacją. Następnie użyj pakietu ML Kit SDK, aby wnioskować przy użyciu najlepszej dostępnej wersji modelu niestandardowego. Jeśli hostujesz swój model w Firebase, ML Kit automatycznie aktualizuje użytkowników z najnowszą wersją.
Najważniejsze funkcje
Hostowanie modeli TensorFlow Lite | Hostuj modele za pomocą Firebase, aby zmniejszyć rozmiar plików binarnych aplikacji oraz upewnij się, że aplikacja zawsze używa najnowszej dostępnej wersji Twój model |
Wnioskowanie ML na urządzeniu | Wykonywanie wnioskowania w aplikacji na iOS lub Androida za pomocą pakietu ML Kit SDK w celu uruchomienia niestandardowego modelu TensorFlow Lite. Model można połączyć w pakiet z aplikacji hostowanej w chmurze, albo w obu tych miejscach. |
Automatyczny model zastępczy | Podaj wiele źródeł modelu; użyj lokalnego modelu, gdy Model hostowany w chmurze jest niedostępny |
Automatyczne aktualizacje modeli | Skonfiguruj warunki automatycznego pobierania aplikacji nowe wersje Twojego modelu: gdy urządzenie użytkownika jest nieaktywne, się ładuje, lub urządzenie ma połączenie Wi-Fi. |
Ścieżka implementacji
Wytrenuj model TensorFlow | Utworzenie i wytrenowanie modelu niestandardowego za pomocą TensorFlow. Możesz też ponownie wytrenować istniejący model, który rozwiązuje problem podobny do tego, który chcesz rozwiązać. Zobacz TensorFlow Lite Przewodnik dla programistów. | |
Przekonwertuj model na TensorFlow Lite | Przekonwertuj model ze standardowego formatu TensorFlow na TensorFlow Lite za pomocą zablokowanie wykresu i użycie konwertera optymalizacyjnego TensorFlow, (TOCO). Zapoznaj się z przewodnikiem dla programistów TensorFlow Lite. | |
Hostowanie modelu TensorFlow Lite za pomocą Firebase | Opcjonalnie: gdy hostujesz model TensorFlow Lite za pomocą Firebase i Jeśli umieścisz w aplikacji pakiet ML Kit SDK, z najnowszą wersją modelu. Możesz skonfigurować ML Kit tak, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest nieaktywne lub ładowane albo gdy jest połączone z Wi-Fi. | |
Używanie modelu TensorFlow Lite do wnioskowania | Użyj interfejsów API modeli niestandardowych ML Kit w aplikacji na iOS lub Androida wnioskowania z wykorzystaniem modelu hostowanego w Firebase lub z pakietu aplikacji. |