获取我们在 Firebase 峰会上发布的所有信息,了解 Firebase 可如何帮助您加快应用开发速度并满怀信心地运行应用。了解详情

Benutzerdefinierte Modelle

Wenn Sie benutzerdefinierte TensorFlow Lite -Modelle verwenden, kann Ihnen Firebase ML dabei helfen sicherzustellen, dass Ihre Benutzer immer die beste verfügbare Version Ihres benutzerdefinierten Modells verwenden. Wenn Sie Ihr Modell mit Firebase bereitstellen, lädt Firebase ML das Modell nur herunter, wenn es benötigt wird, und aktualisiert Ihre Benutzer automatisch mit der neuesten Version.

iOS+ Android

Schlüsselfähigkeiten

TensorFlow Lite-Modellbereitstellung Stellen Sie Ihre Modelle mit Firebase bereit, um die Binärgröße Ihrer App zu reduzieren und sicherzustellen, dass Ihre App immer die neueste verfügbare Version Ihres Modells verwendet
ML-Inferenz auf dem Gerät Führen Sie Inferenzen in einer Apple- oder Android-App mithilfe des TensorFlow Lite-Interpreters mit Ihrem Modell durch.
Automatische Modellaktualisierungen Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch neue Versionen Ihres Modells herunterlädt: wenn das Gerät des Benutzers inaktiv ist, aufgeladen wird oder eine Wi-Fi-Verbindung hat

Implementierungspfad

Trainieren Sie Ihr TensorFlow-Modell Erstellen und trainieren Sie ein benutzerdefiniertes Modell mit TensorFlow. Oder trainieren Sie ein vorhandenes Modell neu, das ein ähnliches Problem löst, wie Sie es erreichen möchten.
Konvertieren Sie das Modell in TensorFlow Lite Konvertieren Sie Ihr Modell mit dem TensorFlow Lite-Konverter aus dem HDF5- oder eingefrorenen Diagrammformat in TensorFlow Lite.
Stellen Sie Ihr TensorFlow Lite-Modell in Firebase bereit Optional: Wenn Sie Ihr TensorFlow Lite-Modell in Firebase bereitstellen und das Firebase ML SDK in Ihre App einbinden, hält Firebase ML Ihre Benutzer mit der neuesten Version Ihres Modells auf dem Laufenden. Sie können es so konfigurieren, dass Modellaktualisierungen automatisch heruntergeladen werden, wenn das Gerät des Benutzers im Leerlauf ist oder aufgeladen wird oder eine Wi-Fi-Verbindung besteht.
Verwenden Sie das TensorFlow Lite-Modell für die Inferenz Verwenden Sie den TensorFlow Lite-Interpreter in Ihrer Apple- oder Android-App, um Inferenzen mit Modellen durchzuführen, die mit Firebase bereitgestellt werden.

Codelabs

Probieren Sie einige Codelabs aus, um praktisch zu lernen, wie Firebase Ihnen helfen kann, TensorFlow Lite-Modelle einfacher und effektiver zu verwenden.