Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Kit de ML para Firebase
plat_iosplat_android
Use o aprendizado de máquina nos seus aplicativos para resolver problemas do mundo real.
O Kit de ML é um SDK para dispositivos móveis que leva a experiência em machine learning do Google para aplicativos Android e iOS em um pacote eficiente e fácil de usar. Não importa se você é novo ou experiente em machine learning, é possível implementar a funcionalidade necessária com apenas algumas linhas de código. Não é preciso ter um conhecimento profundo de redes neurais ou otimização de modelos para começar. Por outro lado, se você é um desenvolvedor de ML experiente, o Kit de ML fornece APIs convenientes que ajudam você a usar seus modelos personalizados do TensorFlow Lite nos seus apps para dispositivos móveis.
Principais recursos
Pronto para produção em casos de uso comuns
O Kit de ML vem com um conjunto de APIs prontas para ser utilizadas em casos de uso comuns para dispositivos móveis: reconhecimento de texto, detecção facial, leitura de códigos de barras, identificação de imagens e reconhecimento de pontos de referência. Basta passar os dados para a biblioteca do Kit de ML e fornecer as informações necessárias.
No dispositivo ou na nuvem
A seleção de APIs do Kit de ML é executada no dispositivo ou na nuvem. Nossas APIs no dispositivo podem processar seus dados rapidamente e funcionar mesmo quando não há conexão de rede. Nossas APIs baseadas em nuvem, por outro lado,
aproveitam o poder da tecnologia de aprendizado de máquina do Google Cloud
para oferecer um nível de precisão ainda maior.
Implante modelos personalizados
Caso as APIs do kit de ML não atendam aos seus casos de uso, você poderá usar seus modelos atuais do TensorFlow Lite. Para isso, basta fazer upload do modelo para o Firebase: nós o hospedaremos e o disponibilizaremos no seu app. O Kit de ML funciona como uma camada de API no seu modelo personalizado, o que facilita a execução e o uso.
Como funciona?
Com o Kit de ML, é fácil aplicar as técnicas de ML nos seus aplicativos. Basta reunir em um
único SDK as tecnologias de ML do Google, como a
API Cloud Vision do Google,
o TensorFlow Lite e a
API Neural Networks do Android.
Se você precisa do poder do processamento com base em nuvem,
dos recursos em tempo real de modelos no dispositivo otimizados para dispositivos móveis ou da
flexibilidade dos modelos personalizados do TensorFlow Lite, o Kit de ML possibilita tudo isso com
apenas algumas linhas de código.
Quais recursos estão disponíveis no dispositivo e na nuvem?
Inclua rapidamente o SDK usando Gradle ou CocoaPods.
Prepare dados de entrada
Por exemplo, se você estiver usando um recurso de visão, capture uma imagem da câmera e gere os metadados necessários, como a rotação da imagem, ou solicite ao usuário que selecione uma foto da galeria.
Aplique o modelo de ML aos seus dados
Ao aplicar o modelo de ML aos seus dados, você gera insights, como o estado emocional de rostos detectados ou os objetos e conceitos que foram reconhecidos na imagem, dependendo do recurso usado. Use essas informações para potencializar recursos em seu aplicativo, como embelezamento de fotos, geração automática de metadados ou o que vier à sua imaginação.
[null,null,["Última atualização 2025-08-05 UTC."],[],[],null,["ML Kit for Firebase \nplat_ios plat_android \nUse machine learning in your apps to solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's machine learning expertise to\nAndroid and iOS apps in a powerful yet easy-to-use package. Whether you're new\nor experienced in machine learning, you can implement the functionality\nyou need in just a few lines of code. There's no need to have deep knowledge of\nneural networks or model optimization to get started. On the other hand, if you\nare an experienced ML developer, ML Kit provides convenient APIs that help\nyou use your custom TensorFlow Lite models in your mobile apps.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Production-ready for common use cases | ML Kit comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, detecting faces, identifying landmarks, scanning barcodes, labeling images, and identifying the language of text. Simply pass in data to the ML Kit library and it gives you the information you need. |\n| On-device or in the cloud | ML Kit's selection of APIs run on-device or in the cloud. Our on-device APIs can process your data quickly and work even when there's no network connection. Our cloud-based APIs, on the other hand, leverage the power of Google Cloud's machine learning technology to give you an even higher level of accuracy. |\n| Deploy custom models | If ML Kit's APIs don't cover your use cases, you can always bring your own existing TensorFlow Lite models. Just upload your model to Firebase, and we'll take care of hosting and serving it to your app. ML Kit acts as an API layer to your custom model, making it simpler to run and use. |\n\nHow does it work?\n\nML Kit makes it easy to apply ML techniques in your apps by bringing Google's\nML technologies, such as the\n[Google Cloud Vision API](https://cloud.google.com/vision/),\n[TensorFlow Lite](https://www.tensorflow.org/mobile/tflite/), and the\n[Android Neural Networks API](https://developer.android.com/ndk/guides/neuralnetworks/)\ntogether in a single SDK. Whether you need the power of cloud-based processing,\nthe real-time capabilities of mobile-optimized on-device models, or the\nflexibility of custom TensorFlow Lite models, ML Kit makes it possible with\njust a few lines of code.\n\nWhat features are available on device or in the cloud?\n\n| Feature | On-device | Cloud |\n|---------------------------------------------------------------|-----------|-------|\n| [Text recognition](/docs/ml-kit/recognize-text) | | |\n| [Face detection](/docs/ml-kit/detect-faces) | | |\n| [Barcode scanning](/docs/ml-kit/read-barcodes) | | |\n| [Image labeling](/docs/ml-kit/label-images) | | |\n| [Object detection \\& tracking](/docs/ml-kit/object-detection) | | |\n| [Landmark recognition](/docs/ml-kit/recognize-landmarks) | | |\n| [Language identification](/docs/ml-kit/identify-languages) | | |\n| [Translation](/docs/ml-kit/translation) | | |\n| [Smart Reply](/docs/ml-kit/generate-smart-replies) | | |\n| [AutoML model inference](/docs/ml-kit/automl-image-labeling) | | |\n| [Custom model inference](/docs/ml-kit/use-custom-models) | | |\n\n| Use of ML Kit to access Cloud ML functionality is subject to the [Google Cloud Platform License\n| Agreement](https://cloud.google.com/terms/) and [Service\n| Specific Terms](https://cloud.google.com/terms/service-terms), and billed accordingly. For billing information, see the Firebase [Pricing](/pricing) page.\n\nImplementation path\n\n|---|---------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Integrate the SDK | Quickly include the SDK using Gradle or CocoaPods. |\n| | Prepare input data | For example, if you're using a vision feature, capture an image from the camera and generate the necessary metadata such as image rotation, or prompt the user to select a photo from their gallery. |\n| | Apply the ML model to your data | By applying the ML model to your data, you generate insights such as the emotional state of detected faces or the objects and concepts that were recognized in the image, depending on the feature you used. Use these insights to power features in your app like photo embellishment, automatic metadata generation, or whatever else you can imagine. |\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml-kit/recognize-text), [face detection](/docs/ml-kit/detect-faces), [barcode scanning](/docs/ml-kit/read-barcodes), [image labeling](/docs/ml-kit/label-images), [object detection \\& tracking](/docs/ml-kit/object-detection), [landmark recognition](/docs/ml-kit/recognize-landmarks), [Smart Reply](/docs/ml-kit/generate-smart-replies), [translation](/docs/ml-kit/translation), and [language identification](/docs/ml-kit/identify-languages).\n- Train your own image labeling model with [AutoML Vision Edge](/docs/ml-kit/automl-image-labeling).\n- Learn about using mobile-optimized [custom models](/docs/ml-kit/use-custom-models) in your app."]]