Benutzerdefinierte Modelle

Wenn Sie benutzerdefinierte TensorFlow Lite-Modelle, Mit Firebase ML können Sie sicherstellen, dass Ihre Nutzer immer die der besten verfügbaren Version Ihres benutzerdefinierten Modells. Wenn Sie Ihr Modell mit Firebase bereitstellen, lädt Firebase ML das Modell nur herunter, wenn es benötigt wird, und aktualisiert die Nutzer automatisch auf die neueste Version.


Startbereit? Wählen Sie Ihre Plattform aus:

iOS oder höher Android-Gerät


Hauptmerkmale

TensorFlow Lite-Modellbereitstellung Stellen Sie Ihre Modelle mit Firebase bereit, um die Binärgröße Ihrer App zu reduzieren dass deine App immer die neueste Version der Ihr Modell
ML-Inferenz auf dem Gerät Mit TensorFlow Lite Inferenzen in einer Apple- oder Android-App durchführen Interpreter mit Ihrem Modell.
Automatische Modellupdates Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch heruntergeladen wird neue Versionen Ihres Modells: wenn das Gerät des Nutzers inaktiv ist, aufgeladen wird, oder verfügt über eine WLAN-Verbindung.

Vorgehensweise bei der Implementierung

TensorFlow-Modell trainieren Ein benutzerdefiniertes Modell mit TensorFlow erstellen und trainieren Oder trainieren Sie ein Modell, das ein ähnliches Problem löst wie Sie.
Modell in TensorFlow Lite konvertieren Modell vom HDF5- oder eingefrorenen Graphen-Format in TensorFlow Lite konvertieren mithilfe der TensorFlow Lite-Konverter.
TensorFlow Lite-Modell in Firebase bereitstellen Optional: Wenn Sie Ihr TensorFlow Lite-Modell in Firebase bereitstellen und Fügen Sie das Firebase ML SDK in Ihr App aktualisiert, hält Firebase ML Ihre Nutzer auf dem Laufenden mit der neuesten Version Ihres Modells. Sie können sie so konfigurieren, Modellaktualisierungen werden automatisch heruntergeladen, wenn das Gerät des Nutzers inaktiv ist oder das Gerät lädt oder eine WLAN-Verbindung hat.
TensorFlow Lite-Modell für die Inferenz verwenden Mit dem TensorFlow Lite-Interpreter in Ihrer Apple- oder Android-App können Sie mit Modellen, die mit Firebase bereitgestellt wurden, Inferenzen auszuführen.

Codelabs

Probieren Sie einige Codelabs aus, um zu erfahren, wie Firebase Sie bei der Verwendung von Firebase unterstützen kann. TensorFlow Lite-Modelle einfacher und effektiver.