Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Mô hình tùy chỉnh
plat_iosplat_android
Nếu bạn sử dụng tuỳ chỉnh
các mô hình TensorFlow LiteFirebase ML có thể giúp bạn đảm bảo người dùng luôn sử dụng
phiên bản tốt nhất có sẵn của mô hình tuỳ chỉnh. Khi bạn triển khai mô hình bằng
Firebase, Firebase ML chỉ tải mô hình xuống khi cần và
tự động cập nhật phiên bản mới nhất cho người dùng của bạn.
Bạn đã sẵn sàng bắt đầu? Chọn nền tảng bạn sử dụng:
Triển khai các mô hình của bạn bằng Firebase để giảm kích thước nhị phân của ứng dụng và
đảm bảo ứng dụng của bạn luôn sử dụng phiên bản mới nhất có sẵn của
mô hình của bạn
Suy luận học máy trên thiết bị
Suy luận trong ứng dụng của Apple hoặc Android bằng TensorFlow Lite
bằng mô hình của bạn.
Tự động cập nhật mô hình
Định cấu hình những điều kiện mà ứng dụng của bạn tự động tải xuống
phiên bản mới của mô hình: khi thiết bị của người dùng ở trạng thái rảnh, đang sạc,
hoặc có kết nối Wi-Fi
Lộ trình triển khai
Đào tạo mô hình TensorFlow
Xây dựng và huấn luyện một mô hình tuỳ chỉnh bằng TensorFlow. Hoặc đào tạo lại
mô hình hiện tại giải quyết một vấn đề tương tự như những gì bạn muốn đạt được.
Không bắt buộc: Khi bạn triển khai mô hình TensorFlow Lite cho Firebase và
hãy đưa SDK Firebase ML vào
Firebase ML giúp người dùng của bạn luôn cập nhật
bằng phiên bản mới nhất của mô hình của bạn. Bạn có thể định cấu hình thẻ đó để
tự động tải bản cập nhật mô hình xuống khi thiết bị của người dùng không hoạt động hoặc
đang sạc hoặc có kết nối Wi-Fi.
Sử dụng mô hình TensorFlow Lite để suy luận
Sử dụng trình thông dịch TensorFlow Lite trong ứng dụng Apple hoặc Android của bạn để
tiến hành suy luận với các mô hình được triển khai bằng Firebase.
Phòng thí nghiệm lập trình
Hãy thử một số lớp học lập trình để tìm hiểu cách Firebase có thể giúp bạn sử dụng
TensorFlow Lite có mô hình dễ dàng và hiệu quả hơn.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-25 UTC."],[],[],null,["# Custom Models\n=============\n\nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n----------------\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n-------------------\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n--------\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]