自定义模型

如果您使用自定义 TensorFlow Lite 模型,Firebase ML 可以帮助您确保用户始终使用自定义模型的最佳现有版本。使用 Firebase 部署模型时,Firebase ML 仅在需要时下载模型,并自动帮您的用户更新到最新版本。

iOS+ Android

主要功能

TensorFlow Lite 模型部署 使用 Firebase 部署您的模型,以缩减您应用的二进制文件的大小并确保您的应用始终使用模型的最新可用版本
设备端机器学习推理 将 TensorFlow Lite 解析器与您的模型配合使用,在 Apple 或 Android 应用中执行推理。
自动更新模型 配置您的应用自动下载新版本模型的条件:用户设备处于空闲状态时、正在充电时或有 WLAN 连接时

实现方法

训练您的 TensorFlow 模型 使用 TensorFlow 构建和训练自定义模型。或者,如果某个现有模型解决过与您期望达成的效果相类似的问题,您可以重新校准该模型。
将模型转换为 TensorFlow Lite 使用 TensorFlow Lite 转换器将模型从 HDF5 或冻结图 (frozen graph) 格式转换为 TensorFlow Lite。
将 TensorFlow Lite 模型部署到 Firebase 可选:如果您将 TensorFlow Lite 模型部署到 Firebase 并在应用中添加 Firebase ML SDK,则 Firebase ML 可让您的用户始终使用最新版本的模型。您可以配置 Firebase ML 在用户设备处于空闲状态、正在充电或具有 WLAN 连接时自动下载模型更新。
使用 TensorFlow Lite 模型进行推理 在 Apple 或 Android 应用中使用 TensorFlow Lite 解释器,通过使用 Firebase 部署的模型进行推理。

Codelab

试用一些 Codelab,获得实际上手经验,了解 Firebase 如何帮助您更轻松有效地使用 TensorFlow Lite 模型。