自訂模型

如果您是經驗豐富的機器學習開發人員 和 ML Kit 預先建構的模型 您可以運用自訂篩選條件 TensorFlow Lite 模型 機器學習套件

請使用 Firebase 代管 TensorFlow Lite 模型,或將模型與應用程式一併封裝。接著,請使用機器學習套件 SDK 執行推論,使用可用的最佳自訂模型版本。如果您使用 Firebase 託管模型,ML Kit 會自動更新使用者 最新版本。

iOS 版 Android

主要功能

TensorFlow Lite 模型託管 使用 Firebase 代管模型,以便縮減應用程式的二進位檔大小,並確保應用程式一律使用模型的最新版本
裝置端機器學習推論 使用 ML Kit SDK 在 iOS 或 Android 應用程式中執行推論: 執行自訂的 TensorFlow Lite 模型模型可與 託管於雲端或兩者皆是
自動模型備用機制 指定多個模型來源;使用儲存在本機的模型 無法使用雲端託管模型
自動更新模型 設定應用程式自動下載的條件 可能的新版本:當使用者的裝置處於閒置狀態、正在充電時 或是具備 Wi-Fi 連線

實作路徑

訓練 TensorFlow 模型 使用 TensorFlow 建構及訓練自訂模型。或者,重新訓練 解決類似問題 查看 TensorFlow Lite 開發人員指南
將模型轉換為 TensorFlow Lite 透過下列方式將模型從標準 TensorFlow 格式轉換為 TensorFlow Lite: 凍結圖形,然後使用 TensorFlow 最佳化轉換器 (TOCO)。查看 TensorFlow Lite 開發人員指南
使用 Firebase 代管 TensorFlow Lite 模型 選用:使用 Firebase 託管 TensorFlow Lite 模型時, 在應用程式中導入 ML Kit SDK ML Kit 可以確保使用者 最新的模型版本。您可以設定 ML Kit,在使用者裝置閒置、充電或連上 Wi-Fi 時,自動下載模型更新。
使用 TensorFlow Lite 模型進行推論 在 iOS 或 Android 應用程式中,使用 ML Kit 的自訂模型 API 來執行 透過 Firebase 託管或應用程式組合模型推論得出。