カスタムモデル

カスタム TensorFlow Lite モデルを使用する場合、Firebase ML はユーザーが常に最適なバージョンのカスタムモデルを使用できるようにします。Firebase でモデルをデプロイすると、Firebase ML は必要なときにのみモデルをダウンロードし、自動的に最新バージョンに更新します。


Google Cloud のプラットフォームを選択します。

iOS+ Android


主な機能

TensorFlow Lite モデルのデプロイ Firebase を使用してモデルをデプロイします。アプリのバイナリサイズが減り、アプリが常に使用可能な最新バージョンのモデルを使用します。
デバイス上での ML 推論 TensorFlow Lite インタープリタをモデルで使用して、Apple アプリまたは Android アプリで推論を行います。
自動モデル更新 アプリが新しいバージョンのモデルを自動的にダウンロードする条件(ユーザーの端末がアイドル状態のとき、充電中のとき、または Wi-Fi 接続があるとき)を構成します。

実装パス

TensorFlow モデルをトレーニングする TensorFlow を使用してカスタムモデルを構築し、トレーニングします。または、同様の問題を解決する既存のモデルを再トレーニングします。
モデルを TensorFlow Lite に変換する TensorFlow Lite コンバータを使用して、モデルを HDF5 またはフリーズしたグラフ形式から TensorFlow Lite に変換します。
TensorFlow Lite モデルを Firebase にデプロイする 省略可: TensorFlow Lite モデルを Firebase にデプロイし、Firebase ML SDK をアプリに組み込むと、Firebase ML がユーザーのモデルを最新バージョンに保ちます。ユーザーのデバイスがアイドル状態、充電中、または Wi-Fi 接続がある場合にモデルの更新を自動的にダウンロードするように ML Kit を構成できます。
推論に TensorFlow Lite モデルを使用する Apple アプリまたは Android アプリで TensorFlow Lite インタープリタを使用して、Firebase でデプロイされたモデルで推論を行います。

Codelab

いくつかの codelabs をお試しいただくと、TensorFlow Lite モデルをより簡単かつ効果的に使用するのに Firebase がどう役立つかを実践的に学ぶことできます。