Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Benutzerdefinierte Modelle
plat_iosplat_android
Wenn Sie ein erfahrener ML-Entwickler sind und die vorgefertigten Modelle von ML Kit nicht
Ihren Anforderungen entsprechen, können Sie ein benutzerdefiniertes
TensorFlow Lite-Modell mit
ML Kit.
Hosten Sie Ihre TensorFlow Lite-Modelle mit Firebase oder verpacken Sie sie mit Ihrer App.
Verwenden Sie dann das ML Kit SDK, um die Inferenz mithilfe der am besten
Version Ihres benutzerdefinierten Modells.
Wenn Sie Ihr Modell mit Firebase hosten, aktualisiert ML Kit Ihre Nutzer automatisch
mit der neuesten Version.
Hosten Sie Ihre Modelle mit Firebase, um die Binärgröße Ihrer App zu reduzieren
dass deine App immer die neueste Version der
Ihr Modell
ML-Inferenz auf dem Gerät
In einer iOS- oder Android-App Inferenzen mit dem ML Kit SDK durchführen,
ein benutzerdefiniertes TensorFlow Lite-Modell ausführen. Das Modell kann mit dem
in der Cloud gehostet werden oder beides.
Automatisches Modell-Fallback
Mehrere Modellquellen angeben und ein lokal gespeichertes Modell verwenden, wenn das in der Cloud gehostete Modell nicht verfügbar ist
Automatische Modellupdates
Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch heruntergeladen wird
neue Versionen Ihres Modells: wenn das Gerät des Nutzers inaktiv ist, aufgeladen wird,
oder verfügt über eine WLAN-Verbindung.
Vorgehensweise bei der Implementierung
TensorFlow-Modell trainieren
Ein benutzerdefiniertes Modell mit TensorFlow erstellen und trainieren Oder trainieren Sie ein
Modell, das ein ähnliches Problem löst wie Sie.
TensorFlow Lite ansehen
Entwicklerleitfaden.
Modell in TensorFlow Lite konvertieren
Konvertieren Sie Ihr Modell vom TensorFlow-Standardformat in TensorFlow Lite, indem Sie
den Graphen einfrieren und dann
den TensorFlow Optimize Converter verwenden.
(TOCO) TensorFlow Lite ansehen
Entwicklerleitfaden.
TensorFlow Lite-Modell mit Firebase hosten
Optional: Wenn Sie Ihr TensorFlow Lite-Modell bei Firebase hosten und das ML Kit SDK in Ihre App einbinden, hält ML Kit Ihre Nutzer mit der neuesten Version Ihres Modells auf dem Laufenden. Sie können ML Kit so konfigurieren,
Modellaktualisierungen werden automatisch heruntergeladen, wenn das Gerät des Nutzers inaktiv ist oder
das Gerät lädt oder eine WLAN-Verbindung hat.
TensorFlow Lite-Modell für die Inferenz verwenden
Verwenden Sie die benutzerdefinierten Modell-APIs von ML Kit in Ihrer iOS- oder Android-App, um
mit Ihrem von Firebase gehosteten oder App-Bundle-Modell abzuleiten.
[null,null,["Zuletzt aktualisiert: 2025-07-25 (UTC)."],[],[],null,["# Custom Models\n=============\n\nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n----------------\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n-------------------\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]