カスタムモデル
ML Kit の事前構築済みモデルではニーズを満たせない場合、ML デベロッパーとしての経験が豊富であれば、ML Kit で TensorFlow Lite のカスタムモデルを使用できます。
TensorFlow Lite モデルは、Firebase でホストするか、アプリとともにパッケージ化します。その後、ML Kit SDK を使用して、利用できる最適なバージョンのカスタムモデルで推論を行います。Firebase でモデルをホストする場合、ML Kit がユーザーを最新バージョンで自動更新します。
主な機能
TensorFlow Lite モデル ホスティング | Firebase を使用してモデルをホストします。アプリのバイナリサイズが減り、アプリが常に使用可能な最新バージョンのモデルを使用します。 |
端末上での ML 推論 | ML Kit SDK を使用して TensorFlow Lite のカスタムモデルを実行することで、iOS アプリまたは Android アプリで推論を行います。このモデルは、アプリにバンドルするか、クラウドでホストするか、あるいはその両方が可能です。 |
自動モデル フォールバック | 複数のモデルソースを指定します。クラウドにホストされているモデルを使用できない場合は、ローカルに保存されているモデルが使用されます。 |
自動モデル更新 | アプリが新しいバージョンのモデルを自動的にダウンロードする条件(ユーザーの端末がアイドル状態のとき、充電中のとき、または Wi-Fi 接続があるとき)を構成します。 |
実装パス
TensorFlow モデルをトレーニングする | TensorFlow を使用してカスタムモデルを構築し、トレーニングします。または、同様の問題を解決する既存のモデルを再トレーニングします。詳しくは、TensorFlow Lite のデベロッパー ガイドを参照してください。 | |
モデルを TensorFlow Lite に変換する | モデルを標準の TensorFlow 形式から TensorFlow Lite 形式に変換します。変換するには、グラフをフリーズし、TensorFlow 最適化コンバーター(TOCO)を使用します。詳しくは、TensorFlow Lite のデベロッパー ガイドを参照してください。 | |
Firebase で TensorFlow Lite モデルをホストする | オプション: Firebase を使用して TensorFlow Lite モデルをホストし、ML Kit SDK をアプリに組み込むと、ML Kit がユーザーのモデルを最新バージョンに保ちます。ユーザーのデバイスがアイドル状態、充電中、または Wi-Fi 接続がある場合にモデルの更新を自動的にダウンロードするよう ML Kit を構成できます。 | |
推論に TensorFlow Lite モデルを使用する | iOS アプリまたは Android アプリで ML Kit のカスタムモデル API を使用し、Firebase でホストされているモデルか、アプリにバンドルされているモデルで推論を行います。 |