Kit ML per Firebase
Utilizza il machine learning nelle tue app per risolvere problemi del mondo reale.
ML Kit è un SDK mobile che porta l'esperienza di machine learning di Google nelle app Android e iOS in un pacchetto potente ma facile da usare. Che tu sia nuovo o esperto nel machine learning, puoi implementare le funzionalità di cui hai bisogno in poche righe di codice. Per iniziare non è necessario avere una conoscenza approfondita delle reti neurali o dell'ottimizzazione dei modelli. D'altro canto, se sei uno sviluppatore ML esperto, ML Kit fornisce comode API che ti aiutano a utilizzare i tuoi modelli TensorFlow Lite personalizzati nelle tue app mobili.
Funzionalità chiave
Pronto per la produzione per casi d'uso comuni | ML Kit viene fornito con una serie di API pronte all'uso per i comuni casi d'uso mobili: riconoscimento di testo, rilevamento di volti, identificazione di punti di riferimento, scansione di codici a barre, etichettatura di immagini e identificazione della lingua del testo. Passa semplicemente i dati alla libreria ML Kit e ti fornirà le informazioni di cui hai bisogno. |
Sul dispositivo o nel cloud | La selezione di API di ML Kit viene eseguita sul dispositivo o nel cloud. Le nostre API sul dispositivo possono elaborare rapidamente i tuoi dati e funzionare anche in assenza di connessione di rete. Le nostre API basate su cloud, invece, sfruttano la potenza della tecnologia di machine learning di Google Cloud per offrirti un livello di precisione ancora più elevato. |
Distribuisci modelli personalizzati | Se le API di ML Kit non coprono i tuoi casi d'uso, puoi sempre portare i tuoi modelli TensorFlow Lite esistenti. Carica semplicemente il tuo modello su Firebase e noi ci occuperemo dell'hosting e della pubblicazione nella tua app. ML Kit funge da livello API per il tuo modello personalizzato, semplificandone l'esecuzione e l'utilizzo. |
Come funziona?
ML Kit semplifica l'applicazione delle tecniche ML nelle tue app riunendo le tecnologie ML di Google, come l' API Google Cloud Vision , TensorFlow Lite e l' API Android Neural Networks in un unico SDK. Che tu abbia bisogno della potenza dell'elaborazione basata su cloud, delle funzionalità in tempo reale dei modelli su dispositivo ottimizzati per dispositivi mobili o della flessibilità dei modelli TensorFlow Lite personalizzati, ML Kit lo rende possibile con poche righe di codice.
Quali funzionalità sono disponibili sul dispositivo o nel cloud?
Percorso di implementazione
Integra l'SDK | Includi rapidamente l'SDK utilizzando Gradle o CocoaPods. | |
Preparare i dati di input | Ad esempio, se utilizzi una funzionalità di visione, acquisisci un'immagine dalla fotocamera e genera i metadati necessari come la rotazione dell'immagine oppure chiedi all'utente di selezionare una foto dalla propria galleria. | |
Applica il modello ML ai tuoi dati | Applicando il modello ML ai tuoi dati, generi approfondimenti come lo stato emotivo dei volti rilevati o gli oggetti e i concetti riconosciuti nell'immagine, a seconda della funzionalità utilizzata. Utilizza queste informazioni per potenziare funzionalità della tua app come l'abbellimento delle foto, la generazione automatica di metadati o qualsiasi altra cosa tu possa immaginare. |
Prossimi passi
- Esplora le API pronte all'uso: riconoscimento del testo , rilevamento dei volti , scansione dei codici a barre , etichettatura delle immagini , rilevamento e tracciamento degli oggetti , riconoscimento dei punti di riferimento , risposta intelligente , traduzione e identificazione della lingua .
- Addestra il tuo modello di etichettatura delle immagini con AutoML Vision Edge .
- Scopri come utilizzare modelli personalizzati ottimizzati per dispositivi mobili nella tua app.