Benutzerdefinierte Modelle

Wenn Sie ein erfahrener ML-Entwickler sind und die vorgefertigten Modelle von ML Kit nicht Ihren Anforderungen entsprechen, können Sie ein benutzerdefiniertes TensorFlow Lite-Modell mit ML Kit.

Hosten Sie Ihre TensorFlow Lite-Modelle mit Firebase oder verpacken Sie sie mit Ihrer App. Verwenden Sie dann das ML Kit SDK, um die Inferenz mithilfe der am besten Version Ihres benutzerdefinierten Modells. Wenn Sie Ihr Modell mit Firebase hosten, aktualisiert ML Kit Ihre Nutzer automatisch mit der neuesten Version.

iOS Android

Hauptmerkmale

TensorFlow Lite-Modellhosting Hosten Sie Ihre Modelle mit Firebase, um die Binärgröße Ihrer App zu reduzieren dass deine App immer die neueste Version der Ihr Modell
ML-Inferenz auf dem Gerät In einer iOS- oder Android-App Inferenzen mit dem ML Kit SDK durchführen, ein benutzerdefiniertes TensorFlow Lite-Modell ausführen. Das Modell kann mit dem in der Cloud gehostet werden oder beides.
Automatisches Modell-Fallback Mehrere Modellquellen angeben und ein lokal gespeichertes Modell verwenden, wenn das in der Cloud gehostete Modell nicht verfügbar ist
Automatische Modellupdates Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch heruntergeladen wird neue Versionen Ihres Modells: wenn das Gerät des Nutzers inaktiv ist, aufgeladen wird, oder verfügt über eine WLAN-Verbindung.

Vorgehensweise bei der Implementierung

TensorFlow-Modell trainieren Ein benutzerdefiniertes Modell mit TensorFlow erstellen und trainieren Oder trainieren Sie ein Modell, das ein ähnliches Problem löst wie Sie. TensorFlow Lite ansehen Entwicklerleitfaden.
Modell in TensorFlow Lite konvertieren Konvertieren Sie Ihr Modell vom TensorFlow-Standardformat in TensorFlow Lite, indem Sie den Graphen einfrieren und dann den TensorFlow Optimize Converter verwenden. (TOCO) TensorFlow Lite ansehen Entwicklerleitfaden.
TensorFlow Lite-Modell mit Firebase hosten Optional: Wenn Sie Ihr TensorFlow Lite-Modell bei Firebase hosten und das ML Kit SDK in Ihre App einbinden, hält ML Kit Ihre Nutzer mit der neuesten Version Ihres Modells auf dem Laufenden. Sie können ML Kit so konfigurieren, Modellaktualisierungen werden automatisch heruntergeladen, wenn das Gerät des Nutzers inaktiv ist oder das Gerät lädt oder eine WLAN-Verbindung hat.
TensorFlow Lite-Modell für die Inferenz verwenden Verwenden Sie die benutzerdefinierten Modell-APIs von ML Kit in Ihrer iOS- oder Android-App, um mit Ihrem von Firebase gehosteten oder App-Bundle-Modell abzuleiten.