Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
ML Kit per Firebase
plat_iosplat_android
Utilizza il machine learning nelle tue app per risolvere problemi reali.
ML Kit è un SDK mobile che porta l'esperienza di Google nel machine learning
App per Android e iOS in un pacchetto potente e facile da usare. Se sei un nuovo utente
o esperienza nel machine learning, puoi implementare la funzionalità
che ti servono con poche righe di codice. Non è necessario avere una conoscenza approfondita
neurali artificiali o l'ottimizzazione del modello per iniziare. D'altra parte, se
sei uno sviluppatore ML esperto, ML Kit offre pratiche API che aiutano
utilizzi modelli TensorFlow Lite personalizzati nelle tue app mobile.
Funzionalità chiave
Pronto per la produzione per i casi d'uso più comuni
ML Kit include una serie di API pronte all'uso per il comune utilizzo mobile
casi: riconoscimento di testo, rilevamento di volti, identificazione di punti di riferimento, scansione
codici a barre, etichettare le immagini e identificare la lingua del testo. Semplicemente
trasferire i dati alla libreria ML Kit, che ti fornisce le informazioni
necessaria.
On-device o nel cloud
La selezione di API di ML Kit viene eseguita sul dispositivo o nel cloud. Le nostre
le API on-device possono elaborare i dati rapidamente e funzionare anche quando
la connessione di rete non è disponibile. Le nostre API basate su cloud, invece,
sfrutta la potenza della tecnologia di machine learning di Google Cloud
per offrirti un livello di precisione ancora maggiore.
Esegui il deployment di modelli personalizzati
Se le API di ML Kit non coprono i tuoi casi d'uso, puoi sempre
i tuoi modelli TensorFlow Lite esistenti. Devi solo caricare il modello
Firebase e noi ci occuperemo di ospitarlo e pubblicarlo nella tua app.
ML Kit funge da livello API per il modello personalizzato, semplificando
per l'esecuzione e l'uso.
Come funziona?
ML Kit semplifica l'applicazione delle tecniche di ML nelle tue app grazie alla tecnologia
tecnologie di ML, come
API Google Cloud Vision,
TensorFlow Lite e
API Android Neural Networks
in un unico SDK. Se hai bisogno della potenza dell'elaborazione basata su cloud,
le funzionalità in tempo reale dei modelli on-device ottimizzati per i dispositivi mobili o
flessibilità dei modelli TensorFlow Lite personalizzati, ML Kit rende possibile
con poche righe di codice.
Quali funzionalità sono disponibili sul dispositivo o nel cloud?
Includi rapidamente l'SDK utilizzando Gradle o CocoaPods.
Prepara i dati di input
Ad esempio, se utilizzi una funzionalità di visione, acquisisci un'immagine dalla
fotocamera e genera i metadati necessari, come la rotazione dell'immagine, oppure invita
l'utente a selezionare una foto dalla galleria.
Applica il modello ML ai dati
Applicando il modello ML ai tuoi dati, generi insight come
lo stato emotivo dei volti rilevati o degli oggetti e concetti
riconosciuti nell'immagine, a seconda della funzionalità utilizzata. Utilizza questi
di dati per potenziare le funzionalità della tua app, come la decorazione delle foto,
la generazione di metadati o qualsiasi altra cosa ti venga in mente.
[null,null,["Ultimo aggiornamento 2025-07-25 UTC."],[],[],null,["ML Kit for Firebase \nplat_ios plat_android \nUse machine learning in your apps to solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's machine learning expertise to\nAndroid and iOS apps in a powerful yet easy-to-use package. Whether you're new\nor experienced in machine learning, you can implement the functionality\nyou need in just a few lines of code. There's no need to have deep knowledge of\nneural networks or model optimization to get started. On the other hand, if you\nare an experienced ML developer, ML Kit provides convenient APIs that help\nyou use your custom TensorFlow Lite models in your mobile apps.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Production-ready for common use cases | ML Kit comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, detecting faces, identifying landmarks, scanning barcodes, labeling images, and identifying the language of text. Simply pass in data to the ML Kit library and it gives you the information you need. |\n| On-device or in the cloud | ML Kit's selection of APIs run on-device or in the cloud. Our on-device APIs can process your data quickly and work even when there's no network connection. Our cloud-based APIs, on the other hand, leverage the power of Google Cloud's machine learning technology to give you an even higher level of accuracy. |\n| Deploy custom models | If ML Kit's APIs don't cover your use cases, you can always bring your own existing TensorFlow Lite models. Just upload your model to Firebase, and we'll take care of hosting and serving it to your app. ML Kit acts as an API layer to your custom model, making it simpler to run and use. |\n\nHow does it work?\n\nML Kit makes it easy to apply ML techniques in your apps by bringing Google's\nML technologies, such as the\n[Google Cloud Vision API](https://cloud.google.com/vision/),\n[TensorFlow Lite](https://www.tensorflow.org/mobile/tflite/), and the\n[Android Neural Networks API](https://developer.android.com/ndk/guides/neuralnetworks/)\ntogether in a single SDK. Whether you need the power of cloud-based processing,\nthe real-time capabilities of mobile-optimized on-device models, or the\nflexibility of custom TensorFlow Lite models, ML Kit makes it possible with\njust a few lines of code.\n\nWhat features are available on device or in the cloud?\n\n| Feature | On-device | Cloud |\n|---------------------------------------------------------------|-----------|-------|\n| [Text recognition](/docs/ml-kit/recognize-text) | | |\n| [Face detection](/docs/ml-kit/detect-faces) | | |\n| [Barcode scanning](/docs/ml-kit/read-barcodes) | | |\n| [Image labeling](/docs/ml-kit/label-images) | | |\n| [Object detection \\& tracking](/docs/ml-kit/object-detection) | | |\n| [Landmark recognition](/docs/ml-kit/recognize-landmarks) | | |\n| [Language identification](/docs/ml-kit/identify-languages) | | |\n| [Translation](/docs/ml-kit/translation) | | |\n| [Smart Reply](/docs/ml-kit/generate-smart-replies) | | |\n| [AutoML model inference](/docs/ml-kit/automl-image-labeling) | | |\n| [Custom model inference](/docs/ml-kit/use-custom-models) | | |\n\n| Use of ML Kit to access Cloud ML functionality is subject to the [Google Cloud Platform License\n| Agreement](https://cloud.google.com/terms/) and [Service\n| Specific Terms](https://cloud.google.com/terms/service-terms), and billed accordingly. For billing information, see the Firebase [Pricing](/pricing) page.\n\nImplementation path\n\n|---|---------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Integrate the SDK | Quickly include the SDK using Gradle or CocoaPods. |\n| | Prepare input data | For example, if you're using a vision feature, capture an image from the camera and generate the necessary metadata such as image rotation, or prompt the user to select a photo from their gallery. |\n| | Apply the ML model to your data | By applying the ML model to your data, you generate insights such as the emotional state of detected faces or the objects and concepts that were recognized in the image, depending on the feature you used. Use these insights to power features in your app like photo embellishment, automatic metadata generation, or whatever else you can imagine. |\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml-kit/recognize-text), [face detection](/docs/ml-kit/detect-faces), [barcode scanning](/docs/ml-kit/read-barcodes), [image labeling](/docs/ml-kit/label-images), [object detection \\& tracking](/docs/ml-kit/object-detection), [landmark recognition](/docs/ml-kit/recognize-landmarks), [Smart Reply](/docs/ml-kit/generate-smart-replies), [translation](/docs/ml-kit/translation), and [language identification](/docs/ml-kit/identify-languages).\n- Train your own image labeling model with [AutoML Vision Edge](/docs/ml-kit/automl-image-labeling).\n- Learn about using mobile-optimized [custom models](/docs/ml-kit/use-custom-models) in your app."]]