自訂模型

如果您是經驗豐富的機器學習開發人員,以及 ML Kit 預先建構的模型不符合您的需求,您可以使用具備 ML Kit 的自訂 TensorFlow Lite 模型。

請使用 Firebase 託管 TensorFlow Lite 模型,或是將模型封裝至應用程式。接著,使用 ML Kit SDK 透過最適合的自訂模型版本執行推論。如果您使用 Firebase 託管模型,ML Kit 會自動更新使用者為最新版本。

iOS Android

主要功能

TensorFlow Lite 模型託管 使用 Firebase 託管模型,縮減應用程式的二進位檔大小,並確保應用程式隨時使用模型的最新版本
裝置端機器學習推論 使用 ML Kit SDK 執行自訂 TensorFlow Lite 模型,在 iOS 或 Android 應用程式中執行推論。模型可以隨附於應用程式、託管於 Cloud,也可以同時採用兩者。
自動模型備用 指定多個模型來源。在無法使用 Cloud 託管模型時,使用儲存在本機的模型
自動更新模型 設定條件,讓應用程式自動下載模型的新版本:使用者裝置處於閒置狀態、正在充電或有 Wi-Fi 連線時

實作路徑

訓練 TensorFlow 模型 使用 TensorFlow 建構及訓練自訂模型。或者,您也可以重新訓練現有模型,以解決與預期類似的問題。查看 TensorFlow Lite 開發人員指南
將模型轉換為 TensorFlow Lite 凍結圖表,然後使用 TensorFlow 最佳化轉換器 (TOCO),將模型從標準 TensorFlow 格式轉換為 TensorFlow Lite。參閱 TensorFlow Lite 開發人員指南
使用 Firebase 託管 TensorFlow Lite 模型 選用:使用 Firebase 託管 TensorFlow Lite 模型,並在應用程式中加入 ML Kit SDK 時,ML Kit 會讓使用者即時將模型維持在最新狀態。您可以設定 ML Kit,在使用者裝置處於閒置狀態、充電或連上 Wi-Fi 時,自動下載模型更新。
使用 TensorFlow Lite 模型進行推論 在 iOS 或 Android 應用程式中,使用 ML Kit 的自訂模型 API,以 Firebase 託管或應用程式套件的模型執行推論。