Firebase 機械学習
アプリで機械学習を使用して、現実の問題を解決します。
Firebase Machine Learning は、Google の機械学習の専門知識を Android および Apple アプリに強力かつ使いやすいパッケージで提供するモバイル SDK です。機械学習の初心者でも経験者でも、必要な機能をわずか数行のコードで実装できます。始めるのに、ニューラル ネットワークやモデルの最適化に関する深い知識は必要ありません。一方、経験豊富な ML 開発者の場合、Firebase ML は、モバイルアプリでカスタム TensorFlow Lite モデルを使用するのに役立つ便利な API を提供します。
主な機能
カスタム モデルのホストとデプロイ | デバイス上での推論に独自の TensorFlow Lite モデルを使用します。モデルを Firebase にデプロイするだけで、モデルのホスティングとアプリへの提供は Google が行います。 Firebase はモデルの最新バージョンをユーザーに動的に提供するため、アプリの新しいバージョンをユーザーにプッシュすることなく、モデルを定期的に更新できます。 Remote Configで Firebase ML を使用すると、さまざまなモデルをさまざまなユーザー セグメントに提供できます。また、 A/B テストを使用すると、実験を実行して最高のパフォーマンスを発揮するモデルを見つけることができます ( AppleとAndroidのガイドを参照してください)。 |
一般的なユースケースの本番環境に対応 | Firebase ML には、テキストの認識、画像のラベル付け、ランドマークの識別など、一般的なモバイル ユースケース向けのすぐに使用できる一連の API が付属しています。データを Firebase ML ライブラリに渡すだけで、必要な情報が得られます。これらの API は、Google Cloud の機械学習テクノロジーの力を活用して、最高レベルの精度を提供します。 |
クラウド対オンデバイス
Firebase ML には、クラウドまたはデバイスで動作する API があります。 ML API をクラウド API またはオンデバイス API として説明するとき、どのマシンが推論を実行するかを説明しています。つまり、どのマシンが ML モデルを使用して、提供されたデータに関する洞察を発見するかを説明しています。 Firebase ML では、これは Google Cloud またはユーザーのモバイル デバイスで行われます。
テキスト認識、画像ラベル付け、およびランドマーク認識 API は、クラウドで推論を実行します。これらのモデルは、同等のオンデバイス モデルよりも多くの計算能力とメモリを利用できるため、オンデバイス モデルよりも高い精度と精度で推論を実行できます。一方、これらの API へのすべてのリクエストにはネットワーク ラウンドトリップが必要なため、ビデオ処理などのリアルタイムで低レイテンシのアプリケーションには適していません。
カスタム モデル API は、デバイス上で実行される ML モデルを扱います。これらの機能で使用および生成されるモデルはTensorFlow Liteモデルであり、モバイル デバイスでの実行に最適化されています。これらのモデルの最大の利点は、ネットワーク接続を必要とせず、非常に高速に実行できることです。たとえば、ビデオのフレームをリアルタイムで処理するのに十分な速さです。
Firebase ML は、カスタム モデルをサーバーにアップロードすることで、ユーザーのデバイスにデプロイする機能を提供します。 Firebase 対応アプリは、オンデマンドでモデルをデバイスにダウンロードします。これにより、アプリの初期インストール サイズを小さく保つことができ、アプリを再公開することなく ML モデルを交換できます。
ML Kit: すぐに使えるオンデバイス モデル
デバイスで実行される事前トレーニング済みのモデルを探している場合は、 ML Kitを確認してください。 ML Kit は iOS と Android で利用でき、多くのユースケースに対応する API を備えています。
- テキスト認識
- 画像のラベル付け
- 物体の検出と追跡
- 顔検出と輪郭追跡
- バーコードスキャン
- 言語識別
- 翻訳
- スマート リプライ