Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
ML Kit dla Firebase
plat_iosplat_android
Używaj w swoich aplikacjach systemów uczących się, aby rozwiązywać rzeczywiste problemy.
ML Kit to mobilny pakiet SDK, dzięki któremu zasoby systemów uczących się opracowane przez Google
Aplikacje na Androida i iOS w wydajnym i łatwym w obsłudze pakiecie. Niezależnie od tego, czy dopiero zaczynasz swoją przygodę z systemami uczącymi się, czy też masz już w tej dziedzinie duże doświadczenie, możesz wdrożyć potrzebne funkcje za pomocą zaledwie kilku linii kodu. Nie potrzeba dogłębnej wiedzy
sieci neuronowe lub optymalizację modeli. Z drugiej strony, jeśli
to doświadczony programista ML, który zapewnia wygodne interfejsy API,
używasz niestandardowych modeli TensorFlow Lite w aplikacjach mobilnych.
Najważniejsze funkcje
Gotowość do wdrożenia w typowych przypadkach użycia
ML Kit zawiera zestaw gotowych do użycia interfejsów API do typowych zastosowań na urządzeniach mobilnych
przypadki: rozpoznawanie tekstu, wykrywanie twarzy, rozpoznawanie punktów orientacyjnych, skanowanie
dzięki kodom kreskowym, oznaczaniu obrazów
i identyfikacją języka tekstu. Po prostu
przekazują dane do biblioteki ML Kit, dzięki czemu masz dostęp do informacji
potrzeby.
Na urządzeniu lub w chmurze
Wybrane przez ML Kit interfejsy API, które działają na urządzeniu lub w chmurze. Nasze interfejsy API na urządzeniu mogą szybko przetwarzać dane i działać nawet wtedy, gdy nie ma połączenia z internetem. Z kolei nasze interfejsy API działające w chmurze
wykorzystaj możliwości technologii systemów uczących się, z których korzysta Google Cloud
aby uzyskać jeszcze większą dokładność.
Wdrażanie modeli niestandardowych
Jeśli interfejsy API ML Kit nie obsługują Twoich przypadków użycia, możesz zawsze użyć własnych istniejących modeli TensorFlow Lite. Po prostu prześlij swój model do
Firebase, a my zajmiemy się hostingiem i udostępnianiem jej w Twojej aplikacji.
ML Kit działa jak warstwa interfejsu API Twojego modelu niestandardowego, ułatwiając
do uruchamiania i używania.
Jak to działa?
Pakiet ML Kit ułatwia stosowanie technik uczenia maszynowego w aplikacjach, ponieważ łączy w jednym pakiecie SDK technologie uczenia maszynowego Google, takie jak interfejs Google Cloud Vision API, TensorFlow Lite i interfejs API Android Neural Networks. Niezależnie od tego, czy potrzebna jest moc przetwarzania
w chmurze,
możliwości w czasie rzeczywistym modeli zoptymalizowanych pod kątem urządzeń mobilnych lub
i elastycznych niestandardowych modeli TensorFlow Lite, co umożliwia korzystanie z ML Kit
za pomocą kilku linijek kodu.
Jakie funkcje są dostępne na urządzeniu lub w chmurze?
Możesz szybko dodać pakiet SDK za pomocą Gradle lub CocoaPods.
Przygotowywanie danych wejściowych
Jeśli na przykład korzystasz z funkcji rozpoznawania obrazów, zrób zdjęcie
Camera i generowania niezbędnych metadanych, takich jak obrót obrazu czy prompt
użytkownik wybiera zdjęcie ze swojej galerii.
Stosowanie modelu ML do danych
Stosując model ML do swoich danych, generujesz obserwacje takie jak:
stan emocjonalny wykrytych twarzy lub obiektów i koncepcji,
rozpoznane na zdjęciu w zależności od użytej funkcji. Użyj tych
statystyki dotyczące funkcji aplikacji, takich jak ozdabianie zdjęć, automatyczne
metadanych i wiele innych.
[null,null,["Ostatnia aktualizacja: 2025-07-25 UTC."],[],[],null,["ML Kit for Firebase \nplat_ios plat_android \nUse machine learning in your apps to solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's machine learning expertise to\nAndroid and iOS apps in a powerful yet easy-to-use package. Whether you're new\nor experienced in machine learning, you can implement the functionality\nyou need in just a few lines of code. There's no need to have deep knowledge of\nneural networks or model optimization to get started. On the other hand, if you\nare an experienced ML developer, ML Kit provides convenient APIs that help\nyou use your custom TensorFlow Lite models in your mobile apps.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Production-ready for common use cases | ML Kit comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, detecting faces, identifying landmarks, scanning barcodes, labeling images, and identifying the language of text. Simply pass in data to the ML Kit library and it gives you the information you need. |\n| On-device or in the cloud | ML Kit's selection of APIs run on-device or in the cloud. Our on-device APIs can process your data quickly and work even when there's no network connection. Our cloud-based APIs, on the other hand, leverage the power of Google Cloud's machine learning technology to give you an even higher level of accuracy. |\n| Deploy custom models | If ML Kit's APIs don't cover your use cases, you can always bring your own existing TensorFlow Lite models. Just upload your model to Firebase, and we'll take care of hosting and serving it to your app. ML Kit acts as an API layer to your custom model, making it simpler to run and use. |\n\nHow does it work?\n\nML Kit makes it easy to apply ML techniques in your apps by bringing Google's\nML technologies, such as the\n[Google Cloud Vision API](https://cloud.google.com/vision/),\n[TensorFlow Lite](https://www.tensorflow.org/mobile/tflite/), and the\n[Android Neural Networks API](https://developer.android.com/ndk/guides/neuralnetworks/)\ntogether in a single SDK. Whether you need the power of cloud-based processing,\nthe real-time capabilities of mobile-optimized on-device models, or the\nflexibility of custom TensorFlow Lite models, ML Kit makes it possible with\njust a few lines of code.\n\nWhat features are available on device or in the cloud?\n\n| Feature | On-device | Cloud |\n|---------------------------------------------------------------|-----------|-------|\n| [Text recognition](/docs/ml-kit/recognize-text) | | |\n| [Face detection](/docs/ml-kit/detect-faces) | | |\n| [Barcode scanning](/docs/ml-kit/read-barcodes) | | |\n| [Image labeling](/docs/ml-kit/label-images) | | |\n| [Object detection \\& tracking](/docs/ml-kit/object-detection) | | |\n| [Landmark recognition](/docs/ml-kit/recognize-landmarks) | | |\n| [Language identification](/docs/ml-kit/identify-languages) | | |\n| [Translation](/docs/ml-kit/translation) | | |\n| [Smart Reply](/docs/ml-kit/generate-smart-replies) | | |\n| [AutoML model inference](/docs/ml-kit/automl-image-labeling) | | |\n| [Custom model inference](/docs/ml-kit/use-custom-models) | | |\n\n| Use of ML Kit to access Cloud ML functionality is subject to the [Google Cloud Platform License\n| Agreement](https://cloud.google.com/terms/) and [Service\n| Specific Terms](https://cloud.google.com/terms/service-terms), and billed accordingly. For billing information, see the Firebase [Pricing](/pricing) page.\n\nImplementation path\n\n|---|---------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Integrate the SDK | Quickly include the SDK using Gradle or CocoaPods. |\n| | Prepare input data | For example, if you're using a vision feature, capture an image from the camera and generate the necessary metadata such as image rotation, or prompt the user to select a photo from their gallery. |\n| | Apply the ML model to your data | By applying the ML model to your data, you generate insights such as the emotional state of detected faces or the objects and concepts that were recognized in the image, depending on the feature you used. Use these insights to power features in your app like photo embellishment, automatic metadata generation, or whatever else you can imagine. |\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml-kit/recognize-text), [face detection](/docs/ml-kit/detect-faces), [barcode scanning](/docs/ml-kit/read-barcodes), [image labeling](/docs/ml-kit/label-images), [object detection \\& tracking](/docs/ml-kit/object-detection), [landmark recognition](/docs/ml-kit/recognize-landmarks), [Smart Reply](/docs/ml-kit/generate-smart-replies), [translation](/docs/ml-kit/translation), and [language identification](/docs/ml-kit/identify-languages).\n- Train your own image labeling model with [AutoML Vision Edge](/docs/ml-kit/automl-image-labeling).\n- Learn about using mobile-optimized [custom models](/docs/ml-kit/use-custom-models) in your app."]]