Zestaw ML dla Firebase
Wykorzystaj uczenie maszynowe w swoich aplikacjach do rozwiązywania rzeczywistych problemów.
ML Kit to mobilny pakiet SDK, który zapewnia wiedzę o uczeniu maszynowym firmy Google w aplikacjach na Androida i iOS w potężnym, ale łatwym w użyciu pakiecie. Niezależnie od tego, czy jesteś nowicjuszem, czy masz doświadczenie w uczeniu maszynowym, możesz zaimplementować potrzebne funkcje w zaledwie kilku wierszach kodu. Aby rozpocząć, nie trzeba mieć głębokiej wiedzy na temat sieci neuronowych ani optymalizacji modeli. Z drugiej strony, jeśli jesteś doświadczonym programistą ML, ML Kit zapewnia wygodne interfejsy API, które pomagają używać niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.
Kluczowe możliwości
Gotowy do produkcji dla typowych przypadków użycia | ML Kit zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań mobilnych: rozpoznawanie tekstu, wykrywanie twarzy, identyfikowanie punktów orientacyjnych, skanowanie kodów kreskowych, oznaczanie obrazów i identyfikowanie języka tekstu. Po prostu przekaż dane do biblioteki ML Kit, a otrzymasz potrzebne informacje. |
Na urządzeniu lub w chmurze | Wybór interfejsów API w ML Kit działa na urządzeniu lub w chmurze. Nasze interfejsy API na urządzeniu mogą szybko przetwarzać dane i działać nawet wtedy, gdy nie ma połączenia sieciowego. Z drugiej strony nasze interfejsy API oparte na chmurze wykorzystują moc technologii uczenia maszynowego Google Cloud, aby zapewnić jeszcze wyższy poziom dokładności. |
Wdróż niestandardowe modele | Jeśli interfejsy API ML Kit nie obejmują Twoich przypadków użycia, zawsze możesz przynieść własne istniejące modele TensorFlow Lite. Po prostu prześlij swój model do Firebase, a my zajmiemy się hostingiem i udostępnieniem go w Twojej aplikacji. ML Kit działa jako warstwa API dla Twojego niestandardowego modelu, ułatwiając jego uruchamianie i używanie. |
Jak to działa?
ML Kit ułatwia stosowanie technik ML w aplikacjach, łącząc w jednym pakiecie SDK technologie Google Cloud Vision API , TensorFlow Lite i Android Neural Networks API . Niezależnie od tego, czy potrzebujesz mocy przetwarzania w chmurze, możliwości działania w czasie rzeczywistym modeli na urządzeniu zoptymalizowanych pod kątem urządzeń mobilnych, czy elastyczności niestandardowych modeli TensorFlow Lite, ML Kit umożliwia to za pomocą zaledwie kilku linijek kodu.
Jakie funkcje są dostępne na urządzeniu lub w chmurze?
Ścieżka wdrożenia
Zintegruj pakiet SDK | Szybko dołącz SDK za pomocą Gradle lub CocoaPods. | |
Przygotuj dane wejściowe | Na przykład, jeśli korzystasz z funkcji wizyjnej, przechwyć obraz z aparatu i wygeneruj niezbędne metadane, takie jak obracanie obrazu, lub poproś użytkownika o wybranie zdjęcia z jego galerii. | |
Zastosuj model ML do swoich danych | Stosując model ML do swoich danych, generujesz spostrzeżenia, takie jak stan emocjonalny wykrytych twarzy lub obiekty i koncepcje rozpoznane na obrazie, w zależności od użytej funkcji. Skorzystaj z tych informacji, aby wzmocnić funkcje swojej aplikacji, takie jak upiększanie zdjęć, automatyczne generowanie metadanych lub cokolwiek innego, co możesz sobie wyobrazić. |
Następne kroki
- Poznaj gotowe do użycia interfejsy API: rozpoznawanie tekstu , wykrywanie twarzy , skanowanie kodów kreskowych , oznaczanie obrazów , wykrywanie i śledzenie obiektów , rozpoznawanie punktów orientacyjnych , inteligentna odpowiedź , tłumaczenie i identyfikacja języka .
- Wytrenuj własny model etykietowania obrazów za pomocą AutoML Vision Edge .
- Dowiedz się, jak używać w swojej aplikacji modeli niestandardowych zoptymalizowanych pod kątem urządzeń mobilnych.