Modele niestandardowe

Jeśli jesteś doświadczonym programistą ML i gotowe modele ML Kit nie spełniają Twoich potrzeb, możesz użyć niestandardowego modelu TensorFlow Lite z ML Kit.

Hostuj swoje modele TensorFlow Lite przy użyciu Firebase lub spakuj je ze swoją aplikacją. Następnie użyj zestawu SDK ML Kit, aby przeprowadzić wnioskowanie przy użyciu najlepszej dostępnej wersji modelu niestandardowego. Jeśli hostujesz swój model w Firebase, ML Kit automatycznie aktualizuje użytkowników do najnowszej wersji.

iOS -Android

Kluczowe możliwości

Hosting modeli TensorFlow Lite Hostuj swoje modele za pomocą Firebase, aby zmniejszyć rozmiar binarny aplikacji i mieć pewność, że aplikacja zawsze korzysta z najnowszej dostępnej wersji Twojego modelu
Wnioskowanie ML na urządzeniu Wykonuj wnioskowanie w aplikacji na iOS lub Androida, korzystając z zestawu SDK ML Kit, aby uruchomić niestandardowy model TensorFlow Lite. Model może być powiązany z aplikacją, hostowany w chmurze lub w obu przypadkach.
Automatyczne przywracanie modelu zastępczego Określ wiele źródeł modelu; korzystaj z modelu przechowywanego lokalnie, gdy model hostowany w chmurze jest niedostępny
Automatyczne aktualizacje modelu Skonfiguruj warunki, w jakich aplikacja automatycznie pobiera nowe wersje Twojego modelu: gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi

Ścieżka realizacji

Trenuj swój model TensorFlow Zbuduj i wytrenuj niestandardowy model za pomocą TensorFlow. Możesz też przeszkolić istniejący model, który rozwiązuje problem podobny do tego, co chcesz osiągnąć. Zobacz Przewodnik programisty TensorFlow Lite.
Konwertuj model na TensorFlow Lite Przekonwertuj model ze standardowego formatu TensorFlow na TensorFlow Lite, zamrażając wykres, a następnie używając konwertera optymalizującego TensorFlow (TOCO). Zobacz Przewodnik programisty TensorFlow Lite.
Hostuj swój model TensorFlow Lite w Firebase Opcjonalnie: jeśli hostujesz swój model TensorFlow Lite w Firebase i dołączasz zestaw SDK ML Kit do swojej aplikacji, ML Kit zapewnia użytkownikom aktualność z najnowszą wersją Twojego modelu. Możesz skonfigurować ML Kit tak, aby automatycznie pobierał aktualizacje modelu, gdy urządzenie użytkownika jest bezczynne, ładuje się lub ma połączenie Wi-Fi.
Do wnioskowania użyj modelu TensorFlow Lite Użyj interfejsów API modeli niestandardowych ML Kit w aplikacji na iOS lub Androida, aby przeprowadzić wnioskowanie na podstawie modelu hostowanego przez Firebase lub dołączonego do aplikacji.