Benutzerdefinierte Modelle
Wenn Sie benutzerdefinierte TensorFlow Lite -Modelle verwenden, kann Ihnen Firebase ML dabei helfen sicherzustellen, dass Ihre Benutzer immer die beste verfügbare Version Ihres benutzerdefinierten Modells verwenden. Wenn Sie Ihr Modell mit Firebase bereitstellen, lädt Firebase ML das Modell nur herunter, wenn es benötigt wird, und aktualisiert Ihre Benutzer automatisch mit der neuesten Version.
Schlüsselfähigkeiten
TensorFlow Lite-Modellbereitstellung | Stellen Sie Ihre Modelle mit Firebase bereit, um die Binärgröße Ihrer App zu reduzieren und sicherzustellen, dass Ihre App immer die neueste verfügbare Version Ihres Modells verwendet |
ML-Inferenz auf dem Gerät | Führen Sie Inferenzen in einer Apple- oder Android-App mithilfe des TensorFlow Lite-Interpreters mit Ihrem Modell durch. |
Automatische Modellaktualisierungen | Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch neue Versionen Ihres Modells herunterlädt: wenn das Gerät des Benutzers inaktiv ist, aufgeladen wird oder eine Wi-Fi-Verbindung hat |
Implementierungspfad
Trainieren Sie Ihr TensorFlow-Modell | Erstellen und trainieren Sie ein benutzerdefiniertes Modell mit TensorFlow. Oder trainieren Sie ein vorhandenes Modell neu, das ein ähnliches Problem löst, wie Sie es erreichen möchten. | |
Konvertieren Sie das Modell in TensorFlow Lite | Konvertieren Sie Ihr Modell mit dem TensorFlow Lite-Konverter aus dem HDF5- oder eingefrorenen Diagrammformat in TensorFlow Lite. | |
Stellen Sie Ihr TensorFlow Lite-Modell in Firebase bereit | Optional: Wenn Sie Ihr TensorFlow Lite-Modell in Firebase bereitstellen und das Firebase ML SDK in Ihre App einbinden, hält Firebase ML Ihre Benutzer mit der neuesten Version Ihres Modells auf dem Laufenden. Sie können es so konfigurieren, dass Modellaktualisierungen automatisch heruntergeladen werden, wenn das Gerät des Benutzers im Leerlauf ist oder aufgeladen wird oder eine Wi-Fi-Verbindung besteht. | |
Verwenden Sie das TensorFlow Lite-Modell für die Inferenz | Verwenden Sie den TensorFlow Lite-Interpreter in Ihrer Apple- oder Android-App, um Inferenzen mit Modellen durchzuführen, die mit Firebase bereitgestellt werden. |
Codelabs
Probieren Sie einige Codelabs aus, um praktisch zu lernen, wie Firebase Ihnen helfen kann, TensorFlow Lite-Modelle einfacher und effektiver zu verwenden.