Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Bộ công cụ học máy cho Firebase
plat_iosplat_android
Sử dụng công nghệ học máy trong ứng dụng để giải quyết các vấn đề thực tế.
Bộ công cụ học máy là một SDK di động mang chuyên môn học máy của Google vào các ứng dụng Android và iOS trong một gói mạnh mẽ nhưng dễ sử dụng. Cho dù bạn là người mới
hoặc có kinh nghiệm về máy học, bạn có thể triển khai chức năng này
bạn cần chỉ trong vài dòng mã. Không cần phải có kiến thức chuyên sâu về
mạng nơron hoặc tối ưu hoá mô hình để bắt đầu. Mặt khác, nếu bạn
là nhà phát triển học máy giàu kinh nghiệm. Bộ công cụ học máy cung cấp các API thuận tiện giúp
bạn sử dụng các mô hình TensorFlow Lite tuỳ chỉnh trong ứng dụng di động của mình.
Các chức năng chính
Sẵn sàng phát hành công khai cho các trường hợp sử dụng phổ biến
Bộ công cụ học máy đi kèm một bộ API có thể sử dụng cho các trường hợp sử dụng phổ biến trên thiết bị di động
trường hợp: nhận dạng văn bản, phát hiện khuôn mặt, xác định địa danh, quét
mã vạch, gắn nhãn hình ảnh và xác định ngôn ngữ của văn bản. Bạn chỉ cần truyền dữ liệu vào thư viện Bộ công cụ học máy để nhận được thông tin cần thiết.
Trên thiết bị hoặc trên đám mây
Các API được lựa chọn của Bộ công cụ học máy chạy trên thiết bị hoặc trên đám mây. API trên thiết bị của chúng tôi có thể xử lý dữ liệu của bạn một cách nhanh chóng và hoạt động ngay cả khi không có kết nối mạng. Mặt khác, các API dựa trên đám mây của chúng tôi
tận dụng sức mạnh của công nghệ học máy của Google Cloud
để cung cấp cho bạn độ chính xác cao hơn nữa.
Triển khai các mô hình tuỳ chỉnh
Nếu các API của Bộ công cụ học máy không đáp ứng được các trường hợp sử dụng của bạn, bạn luôn có thể mang theo
sở hữu các mô hình TensorFlow Lite hiện có. Chỉ cần tải mô hình của bạn lên
Firebase, và chúng tôi sẽ đảm nhận việc lưu trữ và phân phối ứng dụng đó cho ứng dụng của bạn.
Bộ công cụ học máy hoạt động như một lớp API cho mô hình tuỳ chỉnh, giúp bạn dễ dàng
chạy và sử dụng.
Tính năng này hoạt động như thế nào?
Bộ công cụ học máy giúp bạn dễ dàng áp dụng các kỹ thuật học máy trong ứng dụng của mình bằng cách đưa các
công nghệ học máy, chẳng hạn như
API Google Cloud Vision,
TensorFlow Lite và
Android Neural Networks API
cùng nhau trong một SDK duy nhất. Cho dù bạn cần sức mạnh của
hoạt động xử lý trên đám mây,
các tính năng theo thời gian thực của các mô hình trên thiết bị
được tối ưu hoá cho thiết bị di động, hoặc
tính linh hoạt của các mô hình TensorFlow Lite tuỳ chỉnh, Bộ công cụ học máy giúp bạn có thể sử dụng
chỉ một vài dòng mã.
Những tính năng nào dùng được trên thiết bị hoặc trên đám mây?
Nhanh chóng đưa SDK vào bằng Gradle hoặc CocoaPods.
Chuẩn bị dữ liệu đầu vào
Ví dụ: nếu bạn đang sử dụng tính năng hiển thị, hãy chụp ảnh từ
camera và tạo siêu dữ liệu cần thiết, chẳng hạn như tính năng xoay hình ảnh hoặc câu lệnh
người dùng chọn một ảnh từ thư viện của họ.
Áp dụng mô hình học máy cho dữ liệu
Bằng cách áp dụng mô hình học máy cho dữ liệu, bạn có thể tạo thông tin chi tiết như trạng thái cảm xúc của khuôn mặt được phát hiện hoặc các đối tượng và khái niệm được nhận dạng trong hình ảnh, tuỳ thuộc vào tính năng bạn đã sử dụng. Sử dụng
thông tin chi tiết để hỗ trợ các tính năng trong ứng dụng của bạn như chỉnh sửa ảnh, tự động
tạo siêu dữ liệu hay bất cứ điều gì bạn có thể hình dung ra.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-25 UTC."],[],[],null,["ML Kit for Firebase \nplat_ios plat_android \nUse machine learning in your apps to solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's machine learning expertise to\nAndroid and iOS apps in a powerful yet easy-to-use package. Whether you're new\nor experienced in machine learning, you can implement the functionality\nyou need in just a few lines of code. There's no need to have deep knowledge of\nneural networks or model optimization to get started. On the other hand, if you\nare an experienced ML developer, ML Kit provides convenient APIs that help\nyou use your custom TensorFlow Lite models in your mobile apps.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Production-ready for common use cases | ML Kit comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, detecting faces, identifying landmarks, scanning barcodes, labeling images, and identifying the language of text. Simply pass in data to the ML Kit library and it gives you the information you need. |\n| On-device or in the cloud | ML Kit's selection of APIs run on-device or in the cloud. Our on-device APIs can process your data quickly and work even when there's no network connection. Our cloud-based APIs, on the other hand, leverage the power of Google Cloud's machine learning technology to give you an even higher level of accuracy. |\n| Deploy custom models | If ML Kit's APIs don't cover your use cases, you can always bring your own existing TensorFlow Lite models. Just upload your model to Firebase, and we'll take care of hosting and serving it to your app. ML Kit acts as an API layer to your custom model, making it simpler to run and use. |\n\nHow does it work?\n\nML Kit makes it easy to apply ML techniques in your apps by bringing Google's\nML technologies, such as the\n[Google Cloud Vision API](https://cloud.google.com/vision/),\n[TensorFlow Lite](https://www.tensorflow.org/mobile/tflite/), and the\n[Android Neural Networks API](https://developer.android.com/ndk/guides/neuralnetworks/)\ntogether in a single SDK. Whether you need the power of cloud-based processing,\nthe real-time capabilities of mobile-optimized on-device models, or the\nflexibility of custom TensorFlow Lite models, ML Kit makes it possible with\njust a few lines of code.\n\nWhat features are available on device or in the cloud?\n\n| Feature | On-device | Cloud |\n|---------------------------------------------------------------|-----------|-------|\n| [Text recognition](/docs/ml-kit/recognize-text) | | |\n| [Face detection](/docs/ml-kit/detect-faces) | | |\n| [Barcode scanning](/docs/ml-kit/read-barcodes) | | |\n| [Image labeling](/docs/ml-kit/label-images) | | |\n| [Object detection \\& tracking](/docs/ml-kit/object-detection) | | |\n| [Landmark recognition](/docs/ml-kit/recognize-landmarks) | | |\n| [Language identification](/docs/ml-kit/identify-languages) | | |\n| [Translation](/docs/ml-kit/translation) | | |\n| [Smart Reply](/docs/ml-kit/generate-smart-replies) | | |\n| [AutoML model inference](/docs/ml-kit/automl-image-labeling) | | |\n| [Custom model inference](/docs/ml-kit/use-custom-models) | | |\n\n| Use of ML Kit to access Cloud ML functionality is subject to the [Google Cloud Platform License\n| Agreement](https://cloud.google.com/terms/) and [Service\n| Specific Terms](https://cloud.google.com/terms/service-terms), and billed accordingly. For billing information, see the Firebase [Pricing](/pricing) page.\n\nImplementation path\n\n|---|---------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Integrate the SDK | Quickly include the SDK using Gradle or CocoaPods. |\n| | Prepare input data | For example, if you're using a vision feature, capture an image from the camera and generate the necessary metadata such as image rotation, or prompt the user to select a photo from their gallery. |\n| | Apply the ML model to your data | By applying the ML model to your data, you generate insights such as the emotional state of detected faces or the objects and concepts that were recognized in the image, depending on the feature you used. Use these insights to power features in your app like photo embellishment, automatic metadata generation, or whatever else you can imagine. |\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml-kit/recognize-text), [face detection](/docs/ml-kit/detect-faces), [barcode scanning](/docs/ml-kit/read-barcodes), [image labeling](/docs/ml-kit/label-images), [object detection \\& tracking](/docs/ml-kit/object-detection), [landmark recognition](/docs/ml-kit/recognize-landmarks), [Smart Reply](/docs/ml-kit/generate-smart-replies), [translation](/docs/ml-kit/translation), and [language identification](/docs/ml-kit/identify-languages).\n- Train your own image labeling model with [AutoML Vision Edge](/docs/ml-kit/automl-image-labeling).\n- Learn about using mobile-optimized [custom models](/docs/ml-kit/use-custom-models) in your app."]]