自定义模型plat_iosplat_android

如果您是一位经验丰富的机器学习开发者,并且机器学习套件的预建模型不能满足您的需求,您可以通过机器学习套件使用自定义 TensorFlow Lite 模型。

您可以使用 Firebase 托管您的 TensorFlow Lite 模型,也可以将模型与您的应用打包在一起。然后,您可以使用 ML Kit SDK,通过您现有的最好版本的自定义模型来进行推理。如果您使用 Firebase 托管您的模型,机器学习套件会自动帮您的用户更新到最新版本。

iOS Android

主要功能

TensorFlow Lite 模型托管 使用 Firebase 托管您的模型,以缩减您应用的二进制文件的大小并确保您的应用始终使用模型的最新可用版本
基于设备的机器学习推理 使用 ML Kit SDK 运行您的自定义 TensorFlow Lite 模型,从而在 iOS 或 Android 应用中执行推理。该模型可以与应用捆绑和/或托管在云端。
自动选择后备模型 指定多个模型来源;当托管在云端的模型无法使用时,使用本地存储的模型
自动更新模型 配置您的应用自动下载新版本模型的条件:用户设备处于空闲状态时、正在充电时或有 WLAN 连接时

实现方法

训练您的 TensorFlow 模型 使用 TensorFlow 构建和训练自定义模型。或者,如果某个现有模型解决过与您期望达成的效果相类似的问题,您可以重新校准该模型。请参阅 TensorFlow Lite 开发者指南
将模型转换为 TensorFlow Lite 先冻结图表,然后使用 TensorFlow 优化转换器 (TOCO) 将模型从标准的 TensorFlow 格式转换为 TensorFlow Lite。请参阅 TensorFlow Lite 开发者指南
使用 Firebase 托管您的 TensorFlow Lite 模型 可选:如果您使用 Firebase 托管您的 TensorFlow Lite 模型并在您的应用中添加 ML Kit SDK,则机器学习套件可让您的用户始终使用最新版本的模型。您可以配置机器学习套件在用户设备处于空闲状态、正在充电或具有 WLAN 连接时自动下载模型更新。
使用 TensorFlow Lite 模型进行推理 在 iOS 或 Android 应用中使用机器学习套件的自定义模型 API,通过 Firebase 上托管或与应用捆绑的模型进行推理。

发送以下问题的反馈:

此网页
需要帮助?请访问我们的支持页面