Firebase Machine Learning

Wykorzystuj systemy uczące się w aplikacjach, aby rozwiązywać rzeczywiste problemy.

Firebase Machine Learning to mobilny pakiet SDK, który udostępnia w aplikacjach na Androida i iOS zaawansowane, ale łatwe w użyciu funkcje uczenia maszynowego Google. Niezależnie od tego, czy dopiero zaczynasz przygodę z uczeniem maszynowym, czy masz już doświadczenie w tej dziedzinie, możesz wdrożyć potrzebne funkcje za pomocą zaledwie kilku wierszy kodu. Aby zacząć, nie musisz mieć dogłębnej wiedzy o sieciach neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, Firebase ML udostępnia wygodne interfejsy API, które pomagają używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.

Najważniejsze funkcje

Hostowanie i wdrażanie modeli niestandardowych

Używaj własnych modeli TensorFlow Lite do wnioskowania na urządzeniu. Wystarczy wdrożyć model w Firebase, a my zajmiemy się jego hostowaniem i udostępnianiem w Twojej aplikacji. Firebase będzie dynamicznie udostępniać użytkownikom najnowszą wersję modelu, co pozwoli Ci regularnie go aktualizować bez konieczności publikowania nowej wersji aplikacji.

Gdy używasz Firebase ML Remote Config, możesz wyświetlać różne modele w różnych segmentach użytkowników, a dzięki A/B Testing możesz przeprowadzać eksperymenty, aby znaleźć model o najlepszych wynikach (patrz przewodniki dotyczące AppleAndroida).

Gotowe do użycia w typowych przypadkach

Firebase ML zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań mobilnych: rozpoznawania tekstu, etykietowania obrazów i identyfikowania punktów orientacyjnych. Wystarczy przekazać dane do biblioteki Firebase ML, a ona dostarczy Ci potrzebne informacje. Te interfejsy API wykorzystują technologię uczenia maszynowego Google Cloud, aby zapewnić najwyższy poziom dokładności.

Chmura a urządzenie

Firebase ML ma interfejsy API, które działają w chmurze lub na urządzeniu. Gdy opisujemy interfejs ML API jako interfejs API w chmurze lub interfejs API na urządzeniu, określamy, które urządzenie przeprowadza wnioskowanie, czyli które urządzenie używa modelu ML do odkrywania informacji o dostarczonych przez Ciebie danych. W Firebase ML dzieje się to na Google Cloud lub na urządzeniach mobilnych użytkowników.

Interfejsy API do rozpoznawania tekstu, etykietowania obrazów i rozpoznawania punktów orientacyjnych przeprowadzają wnioskowanie w chmurze. Modele te mają większą moc obliczeniową i więcej pamięci niż porównywalny model na urządzeniu, dzięki czemu mogą przeprowadzać wnioskowanie z większą dokładnością i precyzją niż model na urządzeniu. Z drugiej strony każde żądanie do tych interfejsów API wymaga podróży w obie strony w sieci, co sprawia, że nie nadają się one do aplikacji działających w czasie rzeczywistym i wymagających niskiego opóźnienia, takich jak przetwarzanie wideo.

Interfejsy API modeli niestandardowych obsługują modele uczenia maszynowego, które działają na urządzeniu. Modele używane i tworzone przez te funkcje to modele TensorFlow Lite, które są zoptymalizowane pod kątem działania na urządzeniach mobilnych. Największą zaletą tych modeli jest to, że nie wymagają połączenia sieciowego i mogą działać bardzo szybko – na przykład wystarczająco szybko, aby przetwarzać klatki wideo w czasie rzeczywistym.

Firebase ML umożliwia wdrażanie modeli niestandardowych na urządzeniach użytkowników przez przesyłanie ich na nasze serwery. Aplikacja z obsługą Firebase pobierze model na urządzenie na żądanie. Dzięki temu początkowy rozmiar instalacji aplikacji będzie niewielki, a modelu ML możesz używać zamiennie bez konieczności ponownego publikowania aplikacji.

ML Kit: gotowe do użycia modele na urządzeniu

Jeśli szukasz wstępnie wytrenowanych modeli, które działają na urządzeniu, zapoznaj się z ML Kit. ML Kit jest dostępny na iOS i Androida i ma interfejsy API do wielu zastosowań:

  • Rozpoznawanie tekstu
  • Dodawanie etykiet do obrazów
  • Wykrywanie i śledzenie obiektów
  • Wykrywanie twarzy i śledzenie konturów
  • Skanowanie kodów kreskowych
  • Identyfikacja języka
  • Tłumaczenie
  • Inteligentna odpowiedź

Dalsze kroki