Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
ML Kit pour Firebase
plat_iosplat_android
Exploitez le machine learning dans vos applications pour résoudre des problèmes concrets.
ML Kit est un SDK pour mobile qui permet de bénéficier de l'expertise en machine learning de Google
Applications Android et iOS dans un package puissant et simple d'utilisation. Que vous soyez nouveau
ou expérimenté en machine learning, vous pouvez implémenter la fonctionnalité
dont vous avez besoin en quelques lignes de code. Il n'est pas nécessaire d'avoir une connaissance approfondie
les réseaux de neurones ou l'optimisation
de modèles pour commencer. En revanche, si vous êtes un développeur ML expérimenté, ML Kit fournit des API pratiques qui vous aident à utiliser vos modèles TensorFlow Lite personnalisés dans vos applications mobiles.
Capacités clés
Une solution prête pour la production pour les cas d'utilisation courants
ML Kit est fourni avec un ensemble d'API prêtes à l'emploi pour une utilisation mobile courante.
cas: reconnaissance de texte, détection de visages, identification de points de repère, numérisation
codes-barres, étiquetage d'images et identification de la langue du texte. Simplement
vous les transmettez à la bibliothèque ML Kit,
qui vous fournit les informations dont vous avez
besoin.
Sur l'appareil ou dans le cloud
La sélection d'API de ML Kit s'exécute sur l'appareil ou dans le cloud. Nos API intégrées au périphérique peuvent traiter vos données rapidement et fonctionner même en l'absence de connexion réseau. D'autre part, nos API dans le cloud
exploiter la puissance de la technologie de machine learning de Google Cloud
pour vous offrir un niveau
de précision encore plus élevé.
Déployer des modèles personnalisés
Si les API de ML Kit ne couvrent pas vos cas d'utilisation, vous pouvez toujours
de vos propres modèles TensorFlow Lite. Il vous suffit d'importer votre modèle dans
Firebase, et nous nous chargeons de l'héberger et de la diffuser dans votre application.
ML Kit agit comme une couche d'API pour votre modèle personnalisé, ce qui facilite
exécuter et utiliser.
Fonctionnement
ML Kit permet d'appliquer facilement des techniques de ML dans vos applications
les technologies de ML, comme
API Google Cloud VisionTensorFlow LiteAPI Android Neural Networks
dans un SDK unique. Que vous ayez besoin de la puissance
du traitement dans le cloud,
les fonctionnalités en temps réel des modèles sur appareil optimisés pour les mobiles, ou les
de modèles TensorFlow Lite personnalisés, ML Kit vous permet d'utiliser
que quelques lignes de code.
Quelles fonctionnalités sont disponibles sur l'appareil ou dans le cloud ?
Incluez rapidement le SDK à l'aide de Gradle ou CocoaPods.
Préparer les données d'entrée
Par exemple, si vous utilisez une fonctionnalité de vision, capturez une image du
et générer les métadonnées nécessaires,
comme la rotation de l'image,
à l'utilisateur de sélectionner
une photo dans sa galerie.
Appliquer le modèle de ML à vos données
En appliquant le modèle de ML à vos données, vous générez des insights :
l'état émotionnel des visages détectés ou des objets et concepts
reconnue dans l'image, selon
la fonctionnalité que vous avez utilisée. Utilisez ces
des insights pour optimiser les fonctionnalités
de votre appli comme embellissement photo,
pour générer des métadonnées, etc.
Entraînez votre propre modèle d'étiquetage d'images avec
AutoML Vision Edge.
Découvrez comment utiliser des modèles personnalisés optimisés pour les mobiles dans les
l'application.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/25 (UTC).
[null,null,["Dernière mise à jour le 2025/07/25 (UTC)."],[],[],null,["ML Kit for Firebase \nplat_ios plat_android \nUse machine learning in your apps to solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's machine learning expertise to\nAndroid and iOS apps in a powerful yet easy-to-use package. Whether you're new\nor experienced in machine learning, you can implement the functionality\nyou need in just a few lines of code. There's no need to have deep knowledge of\nneural networks or model optimization to get started. On the other hand, if you\nare an experienced ML developer, ML Kit provides convenient APIs that help\nyou use your custom TensorFlow Lite models in your mobile apps.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Production-ready for common use cases | ML Kit comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, detecting faces, identifying landmarks, scanning barcodes, labeling images, and identifying the language of text. Simply pass in data to the ML Kit library and it gives you the information you need. |\n| On-device or in the cloud | ML Kit's selection of APIs run on-device or in the cloud. Our on-device APIs can process your data quickly and work even when there's no network connection. Our cloud-based APIs, on the other hand, leverage the power of Google Cloud's machine learning technology to give you an even higher level of accuracy. |\n| Deploy custom models | If ML Kit's APIs don't cover your use cases, you can always bring your own existing TensorFlow Lite models. Just upload your model to Firebase, and we'll take care of hosting and serving it to your app. ML Kit acts as an API layer to your custom model, making it simpler to run and use. |\n\nHow does it work?\n\nML Kit makes it easy to apply ML techniques in your apps by bringing Google's\nML technologies, such as the\n[Google Cloud Vision API](https://cloud.google.com/vision/),\n[TensorFlow Lite](https://www.tensorflow.org/mobile/tflite/), and the\n[Android Neural Networks API](https://developer.android.com/ndk/guides/neuralnetworks/)\ntogether in a single SDK. Whether you need the power of cloud-based processing,\nthe real-time capabilities of mobile-optimized on-device models, or the\nflexibility of custom TensorFlow Lite models, ML Kit makes it possible with\njust a few lines of code.\n\nWhat features are available on device or in the cloud?\n\n| Feature | On-device | Cloud |\n|---------------------------------------------------------------|-----------|-------|\n| [Text recognition](/docs/ml-kit/recognize-text) | | |\n| [Face detection](/docs/ml-kit/detect-faces) | | |\n| [Barcode scanning](/docs/ml-kit/read-barcodes) | | |\n| [Image labeling](/docs/ml-kit/label-images) | | |\n| [Object detection \\& tracking](/docs/ml-kit/object-detection) | | |\n| [Landmark recognition](/docs/ml-kit/recognize-landmarks) | | |\n| [Language identification](/docs/ml-kit/identify-languages) | | |\n| [Translation](/docs/ml-kit/translation) | | |\n| [Smart Reply](/docs/ml-kit/generate-smart-replies) | | |\n| [AutoML model inference](/docs/ml-kit/automl-image-labeling) | | |\n| [Custom model inference](/docs/ml-kit/use-custom-models) | | |\n\n| Use of ML Kit to access Cloud ML functionality is subject to the [Google Cloud Platform License\n| Agreement](https://cloud.google.com/terms/) and [Service\n| Specific Terms](https://cloud.google.com/terms/service-terms), and billed accordingly. For billing information, see the Firebase [Pricing](/pricing) page.\n\nImplementation path\n\n|---|---------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Integrate the SDK | Quickly include the SDK using Gradle or CocoaPods. |\n| | Prepare input data | For example, if you're using a vision feature, capture an image from the camera and generate the necessary metadata such as image rotation, or prompt the user to select a photo from their gallery. |\n| | Apply the ML model to your data | By applying the ML model to your data, you generate insights such as the emotional state of detected faces or the objects and concepts that were recognized in the image, depending on the feature you used. Use these insights to power features in your app like photo embellishment, automatic metadata generation, or whatever else you can imagine. |\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml-kit/recognize-text), [face detection](/docs/ml-kit/detect-faces), [barcode scanning](/docs/ml-kit/read-barcodes), [image labeling](/docs/ml-kit/label-images), [object detection \\& tracking](/docs/ml-kit/object-detection), [landmark recognition](/docs/ml-kit/recognize-landmarks), [Smart Reply](/docs/ml-kit/generate-smart-replies), [translation](/docs/ml-kit/translation), and [language identification](/docs/ml-kit/identify-languages).\n- Train your own image labeling model with [AutoML Vision Edge](/docs/ml-kit/automl-image-labeling).\n- Learn about using mobile-optimized [custom models](/docs/ml-kit/use-custom-models) in your app."]]