Uczenie maszynowe Firebase

Korzystaj z uczenia maszynowego w swoich aplikacjach, aby rozwiązywać rzeczywiste problemy.

Firebase Machine Learning to mobilny pakiet SDK, który przenosi wiedzę Google dotyczącą uczenia maszynowego do aplikacji na Androida i Apple w potężnym, ale łatwym w użyciu pakiecie. Niezależnie od tego, czy jesteś nowy, czy masz doświadczenie w uczeniu maszynowym, możesz zaimplementować potrzebne funkcje w zaledwie kilku linijkach kodu. Aby rozpocząć, nie jest wymagana głęboka wiedza na temat sieci neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, Firebase ML zapewnia wygodne interfejsy API, które pomogą Ci używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.

Kluczowe możliwości

Hostuj i wdrażaj modele niestandardowe

Użyj własnych modeli TensorFlow Lite do wnioskowania na urządzeniu. Po prostu wdroż swój model w Firebase, a my zajmiemy się hostingiem i udostępnieniem go w Twojej aplikacji. Firebase będzie dynamicznie udostępniać użytkownikom najnowszą wersję modelu, umożliwiając ich regularne aktualizowanie bez konieczności przekazywania użytkownikom nowej wersji aplikacji.

Korzystając z Firebase ML ze zdalną konfiguracją , możesz udostępniać różne modele różnym segmentom użytkowników, a dzięki testom A/B możesz przeprowadzać eksperymenty, aby znaleźć najskuteczniejszy model (zobacz przewodniki dla Apple i Androida ).

Gotowy do produkcji dla typowych zastosowań

Firebase ML zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań mobilnych: rozpoznawania tekstu, oznaczania obrazów i identyfikowania punktów orientacyjnych. Po prostu przekaż dane do biblioteki Firebase ML, a otrzymasz potrzebne informacje. Te interfejsy API wykorzystują moc technologii uczenia maszynowego Google Cloud, aby zapewnić najwyższy poziom dokładności.

Chmura vs. na urządzeniu

Firebase ML ma interfejsy API, które działają w chmurze lub na urządzeniu. Kiedy opisujemy interfejs ML API jako interfejs API w chmurze lub interfejs API na urządzeniu, opisujemy , która maszyna wykonuje wnioskowanie , czyli która maszyna korzysta z modelu ML w celu uzyskania wglądu w dostarczane przez Ciebie dane. W Firebase ML dzieje się to albo w Google Cloud, albo na urządzeniach mobilnych użytkowników.

Interfejsy API rozpoznawania tekstu, etykietowania obrazów i rozpoznawania punktów orientacyjnych wykonują wnioskowanie w chmurze. Modele te mają większą moc obliczeniową i większą pamięć niż porównywalny model na urządzeniu, w wyniku czego mogą wnioskować z większą dokładnością i precyzją niż model na urządzeniu. Z drugiej strony każde żądanie kierowane do tych interfejsów API wymaga transmisji sieciowej w obie strony, co sprawia, że ​​nie nadają się one do zastosowań działających w czasie rzeczywistym i charakteryzujących się niskimi opóźnieniami, takich jak przetwarzanie wideo.

Interfejsy API modeli niestandardowych obsługują modele uczenia maszynowego działające na urządzeniu. Modele używane i produkowane przez te funkcje to modele TensorFlow Lite , które są zoptymalizowane do działania na urządzeniach mobilnych. Największą zaletą tych modeli jest to, że nie wymagają połączenia sieciowego i mogą działać bardzo szybko – na przykład wystarczająco szybko, aby przetwarzać klatki wideo w czasie rzeczywistym.

Firebase ML umożliwia wdrażanie niestandardowych modeli na urządzeniach użytkowników poprzez przesłanie ich na nasze serwery. Twoja aplikacja obsługująca Firebase pobierze model na urządzenie na żądanie. Dzięki temu możesz zachować niewielki rozmiar początkowej instalacji aplikacji i zmienić model ML bez konieczności ponownego publikowania aplikacji.

Zestaw ML: gotowe do użycia modele na urządzeniu

Jeśli szukasz wstępnie wytrenowanych modeli, które działają na urządzeniu, sprawdź ML Kit . ML Kit jest dostępny dla systemów iOS i Android i zawiera interfejsy API do wielu zastosowań:

  • Rozpoznawanie tekstu
  • Etykietowanie obrazu
  • Wykrywanie i śledzenie obiektów
  • Wykrywanie twarzy i śledzenie konturów
  • Skanowanie kodów kreskowych
  • Identyfikacja języka
  • Tłumaczenie
  • Inteligentna odpowiedź

Następne kroki