Firebase Machine Learning
Wykorzystuj systemy uczące się w aplikacjach, aby rozwiązywać rzeczywiste problemy.
Firebase Machine Learning to mobilny pakiet SDK, który udostępnia w aplikacjach na Androida i iOS zaawansowane, ale łatwe w użyciu funkcje uczenia maszynowego Google. Niezależnie od tego, czy dopiero zaczynasz przygodę z uczeniem maszynowym, czy masz już doświadczenie w tej dziedzinie, możesz wdrożyć potrzebne funkcje za pomocą zaledwie kilku wierszy kodu. Aby zacząć, nie musisz mieć dogłębnej wiedzy o sieciach neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, Firebase ML udostępnia wygodne interfejsy API, które pomagają używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.
Najważniejsze funkcje
Hostowanie i wdrażanie modeli niestandardowych |
Używaj własnych modeli TensorFlow Lite do wnioskowania na urządzeniu. Wystarczy wdrożyć model w Firebase, a my zajmiemy się jego hostowaniem i udostępnianiem w Twojej aplikacji. Firebase będzie dynamicznie udostępniać użytkownikom najnowszą wersję modelu, co pozwoli Ci regularnie go aktualizować bez konieczności publikowania nowej wersji aplikacji. Gdy używasz Firebase ML z Remote Config, możesz wyświetlać różne modele w różnych segmentach użytkowników, a dzięki A/B Testing możesz przeprowadzać eksperymenty, aby znaleźć model o najlepszych wynikach (patrz przewodniki dotyczące Apple i Androida). |
Gotowe do użycia w typowych przypadkach |
Firebase ML zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań mobilnych: rozpoznawania tekstu, etykietowania obrazów i identyfikowania punktów orientacyjnych. Wystarczy przekazać dane do biblioteki Firebase ML, a ona dostarczy Ci potrzebne informacje. Te interfejsy API wykorzystują technologię uczenia maszynowego Google Cloud, aby zapewnić najwyższy poziom dokładności. |
Chmura a urządzenie
Firebase ML ma interfejsy API, które działają w chmurze lub na urządzeniu. Gdy opisujemy interfejs ML API jako interfejs API w chmurze lub interfejs API na urządzeniu, określamy, które urządzenie przeprowadza wnioskowanie, czyli które urządzenie używa modelu ML do odkrywania informacji o dostarczonych przez Ciebie danych. W Firebase ML dzieje się to na Google Cloud lub na urządzeniach mobilnych użytkowników.
Interfejsy API do rozpoznawania tekstu, etykietowania obrazów i rozpoznawania punktów orientacyjnych przeprowadzają wnioskowanie w chmurze. Modele te mają większą moc obliczeniową i więcej pamięci niż porównywalny model na urządzeniu, dzięki czemu mogą przeprowadzać wnioskowanie z większą dokładnością i precyzją niż model na urządzeniu. Z drugiej strony każde żądanie do tych interfejsów API wymaga podróży w obie strony w sieci, co sprawia, że nie nadają się one do aplikacji działających w czasie rzeczywistym i wymagających niskiego opóźnienia, takich jak przetwarzanie wideo.
Interfejsy API modeli niestandardowych obsługują modele uczenia maszynowego, które działają na urządzeniu. Modele używane i tworzone przez te funkcje to modele TensorFlow Lite, które są zoptymalizowane pod kątem działania na urządzeniach mobilnych. Największą zaletą tych modeli jest to, że nie wymagają połączenia sieciowego i mogą działać bardzo szybko – na przykład wystarczająco szybko, aby przetwarzać klatki wideo w czasie rzeczywistym.
Firebase ML umożliwia wdrażanie modeli niestandardowych na urządzeniach użytkowników przez przesyłanie ich na nasze serwery. Aplikacja z obsługą Firebase pobierze model na urządzenie na żądanie. Dzięki temu początkowy rozmiar instalacji aplikacji będzie niewielki, a modelu ML możesz używać zamiennie bez konieczności ponownego publikowania aplikacji.
ML Kit: gotowe do użycia modele na urządzeniu
Jeśli szukasz wstępnie wytrenowanych modeli, które działają na urządzeniu, zapoznaj się z ML Kit. ML Kit jest dostępny na iOS i Androida i ma interfejsy API do wielu zastosowań:
- Rozpoznawanie tekstu
- Dodawanie etykiet do obrazów
- Wykrywanie i śledzenie obiektów
- Wykrywanie twarzy i śledzenie konturów
- Skanowanie kodów kreskowych
- Identyfikacja języka
- Tłumaczenie
- Inteligentna odpowiedź
Dalsze kroki
- Poznaj gotowe interfejsy API: rozpoznawanie tekstu, etykietowanie obrazów i rozpoznawanie punktów orientacyjnych.
- Dowiedz się więcej o korzystaniu w aplikacji ze zoptymalizowanych pod kątem urządzeń mobilnych modeli niestandardowych.