自訂模型
如果您是經驗豐富的機器學習開發人員,以及 ML Kit 預先建構的模型不符合您的需求,您可以使用具備 ML Kit 的自訂 TensorFlow Lite 模型。
請使用 Firebase 託管 TensorFlow Lite 模型,或是將模型封裝至應用程式。接著,使用 ML Kit SDK 透過最適合的自訂模型版本執行推論。如果您使用 Firebase 託管模型,ML Kit 會自動更新使用者為最新版本。
主要功能
TensorFlow Lite 模型託管 | 使用 Firebase 託管模型,縮減應用程式的二進位檔大小,並確保應用程式隨時使用模型的最新版本 |
裝置端機器學習推論 | 使用 ML Kit SDK 執行自訂 TensorFlow Lite 模型,在 iOS 或 Android 應用程式中執行推論。模型可以隨附於應用程式、託管於 Cloud,也可以同時採用兩者。 |
自動模型備用 | 指定多個模型來源。在無法使用 Cloud 託管模型時,使用儲存在本機的模型 |
自動更新模型 | 設定條件,讓應用程式自動下載模型的新版本:使用者裝置處於閒置狀態、正在充電或有 Wi-Fi 連線時 |
實作路徑
訓練 TensorFlow 模型 | 使用 TensorFlow 建構及訓練自訂模型。或者,您也可以重新訓練現有模型,以解決與預期類似的問題。查看 TensorFlow Lite 開發人員指南。 | |
將模型轉換為 TensorFlow Lite | 凍結圖表,然後使用 TensorFlow 最佳化轉換器 (TOCO),將模型從標準 TensorFlow 格式轉換為 TensorFlow Lite。參閱 TensorFlow Lite 開發人員指南。 | |
使用 Firebase 託管 TensorFlow Lite 模型 | 選用:使用 Firebase 託管 TensorFlow Lite 模型,並在應用程式中加入 ML Kit SDK 時,ML Kit 會讓使用者即時將模型維持在最新狀態。您可以設定 ML Kit,在使用者裝置處於閒置狀態、充電或連上 Wi-Fi 時,自動下載模型更新。 | |
使用 TensorFlow Lite 模型進行推論 | 在 iOS 或 Android 應用程式中,使用 ML Kit 的自訂模型 API,以 Firebase 託管或應用程式套件的模型執行推論。 |