Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Modelos personalizados
plat_iosplat_android
Si usas modelos personalizados de TensorFlow Lite, Firebase ML puede servir para asegurarte de que tus usuarios usen siempre la mejor versión disponible de tu modelo personalizado. Cuando implementas tu modelo con Firebase,
Firebase ML solo lo descarga cuando es necesario y
actualiza automáticamente a los usuarios con la versión más reciente.
Implementa tus modelos con Firebase para reducir el tamaño binario de tu app y para asegurarte de que esta siempre utilice la versión disponible más reciente de tu modelo.
Inferencia de AA integrada en el dispositivo
Realiza inferencias en una app para Apple o Android usando el intérprete de TensorFlow Lite
con tu modelo.
Actualizaciones de modelo automáticas
Configura las condiciones según las cuales tu app debe descargar automáticamente nuevas versiones de tu modelo: cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi.
Ruta de implementación
Entrena tu modelo de TensorFlow
Crea y entrena un modelo personalizado con TensorFlow. O bien, vuelve a entrenar un modelo existente que solucione un problema similar a lo que quieres lograr.
Implementa tu modelo de TensorFlow Lite en Firebase
Opcional: Cuando implementas tu modelo de TensorFlow Lite en Firebase y, además, incluyes el SDK de Firebase ML en tu app, Firebase ML mantiene a tus usuarios actualizados con la última versión de tu modelo. Puedes configurar AA de Firebase a fin de que descargue actualizaciones para el modelo de manera automática cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi.
Usa el modelo de TensorFlow Lite para realizar inferencias
Utiliza el intérprete de TensorFlow Lite en tu app para Apple o Android a fin de
realizar inferencias con modelos implementados mediante Firebase.
Codelabs
Realiza algunos codelabs y descubre en la práctica cómo Firebase puede ayudarte a usar los modelos de TensorFlow Lite con más facilidad y eficacia.
[null,null,["Última actualización: 2025-08-04 (UTC)"],[],[],null,["# Custom Models\n=============\n\nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n----------------\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n-------------------\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n--------\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]