ML Kit dla Firebase

Używaj w swoich aplikacjach systemów uczących się, aby rozwiązywać rzeczywiste problemy.

ML Kit to mobilny pakiet SDK, który udostępnia doświadczenie Google w dziedzinie systemów uczących się w aplikacjach na Androida i iOS w zaawansowanym i łatwym w obsłudze pakiecie. Niezależnie od tego, czy masz doświadczenie z systemami uczącymi się, możesz wdrożyć potrzebne funkcje za pomocą kilku linijek kodu. Nie trzeba mieć dogłębnej wiedzy o sieciach neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, narzędzie ML Kit zapewnia wygodne interfejsy API, które pomagają używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.

Najważniejsze funkcje

Gotowość do wdrożenia w typowych przypadkach użycia

ML Kit zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań na urządzeniach mobilnych: rozpoznawania tekstu, rozpoznawania twarzy, rozpoznawania punktów orientacyjnych, skanowania kodów kreskowych, oznaczania obrazów etykietami i identyfikowania języka tekstu. Wystarczy, że prześlesz dane do biblioteki ML Kit, aby uzyskać potrzebne informacje.

Na urządzeniu lub w chmurze

Wybrane przez ML Kit interfejsy API, które działają na urządzeniu lub w chmurze. Nasze interfejsy API działające na urządzeniu mogą szybko przetwarzać dane i działać nawet bez połączenia sieciowego. Z kolei nasze interfejsy API działające w chmurze wykorzystują możliwości technologii systemów uczących się Google Cloud, aby zapewnić jeszcze wyższy poziom dokładności.

Wdrażanie modeli niestandardowych

Jeśli interfejsy API ML Kit nie obejmują Twoich przypadków użycia, zawsze możesz zastosować własne istniejące modele TensorFlow Lite. Wystarczy, że prześlesz model do Firebase, a my zajmiemy się jego hostingiem oraz udostępnianiem w Twojej aplikacji. ML Kit działa jak warstwa interfejsu API Twojego modelu niestandardowego, co ułatwia jego uruchamianie i używanie.

Jak to działa?

ML Kit ułatwia stosowanie technik ML w aplikacjach dzięki połączeniu technologii ML Google, takich jak Google Cloud Vision API, TensorFlow Lite i Android Neural Networks API w jednym pakiecie SDK. Niezależnie od tego, czy potrzebujesz mocy przetwarzania w chmurze, możliwości w czasie rzeczywistym w przypadku modeli zoptymalizowanych pod kątem urządzeń mobilnych czy elastyczności niestandardowych modeli TensorFlow Lite, ML Kit umożliwia Ci to za pomocą kilku linijek kodu.

Jakie funkcje są dostępne na urządzeniu lub w chmurze?

Cecha Na urządzeniu Google Cloud
Rozpoznawanie tekstu
Wykrywanie twarzy
Skanowanie kodów kreskowych
Oznaczanie obrazów etykietami
Wykrywanie i śledzenie obiektów
Rozpoznawanie punktów orientacyjnych
Identyfikacja języka
Tłumaczenie
Inteligentna odpowiedź
Wnioskowanie modelu AutoML
Wnioskowanie na podstawie modelu niestandardowego

Ścieżka implementacji

Integracja pakietu SDK Możesz szybko dodać pakiet SDK za pomocą Gradle lub CocoaPods.
Przygotowywanie danych wejściowych Jeśli na przykład korzystasz z funkcji rozpoznawania obrazów, zrób zdjęcie aparatem i wygeneruj niezbędne metadane, takie jak obrót obrazu, lub poproś użytkownika o wybranie zdjęcia ze swojej galerii.
Stosowanie modelu ML do danych Zastosowanie modelu ML do danych generuje obserwacje takie jak stan emocjonalny wykrytych twarzy lub obiekty i koncepcje rozpoznane na obrazie (w zależności od użytej funkcji). Wykorzystaj te statystyki do ulepszania funkcji aplikacji, takich jak ozdabianie zdjęć, automatyczne generowanie metadanych i wiele innych rzeczy.

Dalsze kroki