Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Modele niestandardowe
plat_iosplat_android
Jeśli używasz niestandardowego
modele TensorFlow Lite,
Dzięki Firebase ML możesz mieć pewność, że użytkownicy zawsze korzystają z
jaka jest najlepsza dostępna wersja Twojego niestandardowego modelu. Gdy wdrażasz model za pomocą:
Firebase, Firebase ML pobiera model tylko wtedy, gdy jest potrzebny.
automatycznie aktualizuje tę aplikację do najnowszej wersji.
Wdrażaj modele za pomocą Firebase, aby zmniejszyć rozmiar plików binarnych aplikacji oraz
upewnij się, że aplikacja zawsze używa najnowszej dostępnej wersji
Twój model
Wnioskowanie ML na urządzeniu
Przeprowadź wnioskowanie w aplikacji na urządzenia Apple lub na Androida za pomocą TensorFlow Lite
z modelem tłumacza.
Automatyczne aktualizacje modeli
Skonfiguruj warunki automatycznego pobierania aplikacji
nowe wersje Twojego modelu: gdy urządzenie użytkownika jest nieaktywne, się ładuje,
lub urządzenie ma połączenie Wi-Fi.
Ścieżka implementacji
Wytrenuj model TensorFlow
Utworzenie i wytrenowanie modelu niestandardowego za pomocą TensorFlow. Możesz też od nowa przeszkolić
który rozwiązuje problem podobny do tego, co chcesz osiągnąć.
Przekonwertuj model na TensorFlow Lite
Przekonwertuj model z HDF5 lub zablokowanego formatu wykresu na TensorFlow Lite
za pomocą
Konwerter TensorFlow Lite.
Wdrażanie modelu TensorFlow Lite w Firebase
Opcjonalnie: gdy wdrożysz model TensorFlow Lite w Firebase i
uwzględnij pakiet SDK Firebase ML w swoim
Firebase ML umożliwia użytkownikom
z najnowszą wersją modelu. Możesz go skonfigurować tak,
automatycznie pobiera aktualizacje modelu, gdy urządzenie użytkownika jest nieaktywne lub
jest ładowany lub ma połączenie Wi-Fi.
Używanie modelu TensorFlow Lite do wnioskowania
Użyj interpretera TensorFlow Lite w aplikacji na Apple lub Androida, aby
wnioskowania z modeli wdrożonych przy użyciu Firebase.
Codelabs
Wykonaj ćwiczenia z programowania, aby dowiedzieć się, jak Firebase może ułatwić Ci korzystanie
modele TensorFlow Lite – są łatwiejsze i skuteczniejsze.
[null,null,["Ostatnia aktualizacja: 2025-07-25 UTC."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]