Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Model Kustom
plat_iosplat_android
Jika Anda menggunakan model TensorFlow Lite kustom, Firebase ML dapat membantu memastikan bahwa pengguna Anda selalu menggunakan versi model kustom terbaik yang tersedia. Saat Anda men-deploy model dengan Firebase, Firebase ML hanya akan mendownload model saat diperlukan dan otomatis mengupdate model yang digunakan pengguna ke versi terbarunya.
Deploy model menggunakan Firebase untuk mengurangi ukuran file biner aplikasi dan memastikan aplikasi Anda selalu menggunakan versi terbaru yang tersedia dari model Anda.
Inferensi ML di perangkat
Jalankan inferensi di aplikasi Apple atau Android menggunakan penafsir TensorFlow Lite dengan model Anda.
Update model otomatis
Konfigurasikan kondisi sehingga aplikasi akan mendownload versi baru model Anda secara otomatis saat perangkat pengguna sedang idle, mengisi daya, atau tersambung ke koneksi Wi-Fi.
Alur implementasi
Melatih model TensorFlow
Buat dan latih model kustom menggunakan TensorFlow. Atau, latih ulang model yang ada agar mampu memecahkan masalah yang mirip dengan yang ingin Anda capai.
Mengonversi model ke TensorFlow Lite
Konversi model Anda dari HDF5 atau format grafik beku menjadi TensorFlow Lite menggunakan konverter TensorFlow Lite.
Men-deploy model TensorFlow Lite ke Firebase
Opsional: Saat Anda men-deploy model TensorFlow Lite ke Firebase dan menyertakan Firebase ML SDK dalam aplikasi, Firebase ML akan terus mengupdate pengguna dengan versi terbaru dari model Anda. Anda dapat mengonfigurasinya agar update model otomatis didownload saat perangkat pengguna tidak aktif, sedang mengisi daya, atau terhubung ke koneksi Wi-Fi.
Menggunakan model TensorFlow Lite untuk inferensi
Gunakan penafsir TensorFlow Lite di aplikasi Apple atau Android Anda untuk menjalankan inferensi dengan model yang di-deploy menggunakan Firebase.
Codelab
Coba beberapa codelabs untuk mempelajari secara langsung bagaimana Firebase dapat membantu Anda menggunakan model TensorFlow Lite dengan lebih mudah dan efektif.
[null,null,["Terakhir diperbarui pada 2025-08-08 UTC."],[],[],null,["# Custom Models\n=============\n\nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n----------------\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n-------------------\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n--------\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]