カスタムモデル
カスタムTensorFlowLiteモデルを使用している場合、Firebase MLは、ユーザーが常に利用可能な最高のバージョンのカスタムモデルを使用していることを確認するのに役立ちます。モデルをFirebaseでデプロイすると、Firebase MLは必要な場合にのみモデルをダウンロードし、ユーザーを最新バージョンに自動的に更新します。
主な機能
TensorFlowLiteモデルのデプロイ | Firebaseを使用してモデルをデプロイし、アプリのバイナリサイズを縮小し、アプリが常にモデルの利用可能な最新バージョンを使用していることを確認します |
デバイス上のML推論 | モデルでTensorFlowLiteインタープリターを使用して、AppleまたはAndroidアプリで推論を実行します。 |
モデルの自動更新 | アプリがモデルの新しいバージョンを自動的にダウンロードする条件を構成します:ユーザーのデバイスがアイドル状態、充電中、またはWi-Fi接続がある場合 |
実装パス
TensorFlowモデルをトレーニングする | TensorFlowを使用してカスタムモデルを構築およびトレーニングします。または、達成したい問題と同様の問題を解決する既存のモデルを再トレーニングします。 | |
モデルをTensorFlowLiteに変換します | TensorFlow Liteコンバーターを使用して、モデルをHDF5またはフリーズグラフ形式からTensorFlowLiteに変換します。 | |
TensorFlowLiteモデルをFirebaseにデプロイする | オプション:TensorFlow LiteモデルをFirebaseにデプロイし、アプリにFirebase ML SDKを含めると、FirebaseMLはユーザーにモデルの最新バージョンを最新の状態に保ちます。ユーザーのデバイスがアイドル状態または充電中の場合、またはWi-Fi接続がある場合に、モデルの更新を自動的にダウンロードするように構成できます。 | |
推論にTensorFlowLiteモデルを使用する | AppleまたはAndroidアプリでTensorFlowLiteインタープリターを使用して、Firebaseを使用してデプロイされたモデルで推論を実行します。 |
Codelabs
いくつかのコードラボを試して、FirebaseがTensorFlowLiteモデルをより簡単かつ効果的に使用するのにどのように役立つかを実践的に学びましょう。