Modele niestandardowe
Jeśli jesteś doświadczonym programistą ML, a gotowe modele ML Kit nie spełniają Twoich potrzeb, możesz użyć niestandardowego modelu TensorFlow Lite z ML Kit.
Hostuj swoje modele TensorFlow Lite za pomocą Firebase lub spakuj je w swojej aplikacji. Następnie użyj zestawu SDK ML Kit, aby przeprowadzić wnioskowanie przy użyciu najlepszej dostępnej wersji modelu niestandardowego. Jeśli hostujesz swój model w Firebase, ML Kit automatycznie aktualizuje użytkowników do najnowszej wersji.
Kluczowe możliwości
Hosting modelu TensorFlow Lite | Hostuj swoje modele za pomocą Firebase, aby zmniejszyć rozmiar binarny aplikacji i upewnić się, że aplikacja zawsze korzysta z najnowszej dostępnej wersji modelu |
Wnioskowanie ML na urządzeniu | Przeprowadź wnioskowanie w aplikacji na iOS lub Androida, używając zestawu SDK ML Kit do uruchomienia niestandardowego modelu TensorFlow Lite. Model może być powiązany z aplikacją, hostowany w chmurze lub w obu. |
Automatyczna awaria modelu | Określ wiele źródeł modelu; użyj modelu przechowywanego lokalnie, gdy model hostowany w chmurze jest niedostępny |
Automatyczne aktualizacje modeli | Skonfiguruj warunki, w jakich aplikacja automatycznie pobiera nowe wersje Twojego modelu: gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi |
Ścieżka wdrożenia
Trenuj swój model TensorFlow | Twórz i trenuj niestandardowy model za pomocą TensorFlow. Lub przeszkol ponownie istniejący model, który rozwiązuje problem podobny do tego, co chcesz osiągnąć. Zobacz Przewodnik dla programistów TensorFlow Lite . | |
Konwertuj model na TensorFlow Lite | Przekształć swój model ze standardowego formatu TensorFlow na TensorFlow Lite, zamrażając wykres, a następnie korzystając z narzędzia TensorFlow Optimizing Converter (TOCO). Zobacz Przewodnik dla programistów TensorFlow Lite . | |
Hostuj swój model TensorFlow Lite za pomocą Firebase | Opcjonalnie: gdy hostujesz swój model TensorFlow Lite w Firebase i dołączasz pakiet SDK ML Kit do swojej aplikacji, ML Kit zapewnia użytkownikom aktualne informacje o najnowszej wersji modelu. Możesz skonfigurować ML Kit, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi. | |
Użyj modelu TensorFlow Lite do wnioskowania | Użyj niestandardowych interfejsów API modeli ML Kit w aplikacji na iOS lub Androida, aby przeprowadzić wnioskowanie z modelem hostowanym w Firebase lub w pakiecie z aplikacją. |