Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Benutzerdefinierte Modelle
plat_iosplat_android
Wenn Sie benutzerdefinierte
TensorFlow Lite-Modelle,
Mit Firebase ML können Sie sicherstellen, dass Ihre Nutzer immer die
der besten verfügbaren Version
Ihres benutzerdefinierten Modells. Wenn Sie Ihr Modell mit Firebase bereitstellen, lädt Firebase ML das Modell nur herunter, wenn es benötigt wird, und aktualisiert die Nutzer automatisch auf die neueste Version.
Stellen Sie Ihre Modelle mit Firebase bereit, um die Binärgröße Ihrer App zu reduzieren
dass deine App immer die neueste Version der
Ihr Modell
ML-Inferenz auf dem Gerät
Mit TensorFlow Lite Inferenzen in einer Apple- oder Android-App durchführen
Interpreter mit Ihrem Modell.
Automatische Modellupdates
Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch heruntergeladen wird
neue Versionen Ihres Modells: wenn das Gerät des Nutzers inaktiv ist, aufgeladen wird,
oder verfügt über eine WLAN-Verbindung.
Vorgehensweise bei der Implementierung
TensorFlow-Modell trainieren
Ein benutzerdefiniertes Modell mit TensorFlow erstellen und trainieren Oder trainieren Sie ein
Modell, das ein ähnliches Problem löst wie Sie.
Modell in TensorFlow Lite konvertieren
Modell vom HDF5- oder eingefrorenen Graphen-Format in TensorFlow Lite konvertieren
mithilfe der
TensorFlow Lite-Konverter.
TensorFlow Lite-Modell in Firebase bereitstellen
Optional: Wenn Sie Ihr TensorFlow Lite-Modell in Firebase bereitstellen und
Fügen Sie das Firebase ML SDK in Ihr
App aktualisiert, hält Firebase ML Ihre Nutzer auf dem Laufenden
mit der neuesten Version Ihres Modells. Sie können sie so konfigurieren,
Modellaktualisierungen werden automatisch heruntergeladen, wenn das Gerät des Nutzers inaktiv ist oder
das Gerät lädt oder eine WLAN-Verbindung hat.
TensorFlow Lite-Modell für die Inferenz verwenden
Mit dem TensorFlow Lite-Interpreter in Ihrer Apple- oder Android-App können Sie
mit Modellen, die mit Firebase bereitgestellt wurden, Inferenzen auszuführen.
Codelabs
Probieren Sie einige Codelabs aus, um zu erfahren, wie Firebase Sie bei der Verwendung von Firebase unterstützen kann.
TensorFlow Lite-Modelle einfacher und effektiver.
[null,null,["Zuletzt aktualisiert: 2025-07-25 (UTC)."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]