Firebase Machine Learning

Utilizza il machine learning nelle tue app per risolvere problemi reali.

Firebase Machine Learning è un SDK per dispositivi mobili che porta l'esperienza di machine learning di Google nelle app Android e Apple in un pacchetto potente ma facile da usare. Che tu sia un principiante o un esperto di machine learning, puoi implementare la funzionalità di cui hai bisogno in poche righe di codice. Per iniziare, non è necessario avere una conoscenza approfondita delle reti neurali o dell'ottimizzazione dei modelli. D'altra parte, se sei uno sviluppatore ML esperto, Firebase ML fornisce API pratiche che ti aiutano a utilizzare i tuoi modelli TensorFlow Lite personalizzati nelle tue app mobile.

Funzionalità chiave

Ospitare ed eseguire il deployment di modelli personalizzati

Utilizza i tuoi modelli TensorFlow Lite per l'inferenza on-device. Ti basterà eseguire il deployment del modello su Firebase e noi ci occuperemo dell'hosting e della pubblicazione nell'app. Firebase pubblicherà dinamicamente l'ultima versione del modello per i tuoi utenti, consentendoti di aggiornarli regolarmente senza dover pubblicare una nuova versione dell'app.

Quando utilizzi Firebase ML con Remote Config, puoi pubblicare modelli diversi per segmenti di utenti diversi e, con A/B Testing, puoi eseguire esperimenti per trovare il modello con il rendimento migliore (consulta le guide per Apple e Android).

Pronto per la produzione per i casi d'uso comuni

Firebase ML include un insieme di API pronte all'uso per i casi d'uso comuni sui dispositivi mobili: riconoscimento del testo, etichettatura delle immagini e identificazione dei punti di riferimento. Basta passare i dati alla libreria Firebase ML e otterrai le informazioni che ti servono. Queste API sfruttano la potenza della tecnologia di machine learning di Google Cloud per offrirti il massimo livello di precisione.

Cloud e dispositivo

Firebase ML dispone di API che funzionano nel cloud o sul dispositivo. Quando descriviamo un'API ML come API cloud o API on-device, stiamo descrivendo quale macchina esegue l'inferenza, ovvero quale macchina utilizza il modello ML per scoprire approfondimenti sui dati che fornisci. In Firebase ML, questo avviene su Google Cloud o sui dispositivi mobili degli utenti.

Le API di riconoscimento del testo, etichettatura delle immagini e riconoscimento dei punti di riferimento eseguono l'inferenza nel cloud. Questi modelli hanno a disposizione più potenza di calcolo e memoria rispetto a un modello on-device comparabile e, di conseguenza, possono eseguire l'inferenza con maggiore accuratezza e precisione rispetto a un modello on-device. D'altra parte, ogni richiesta a queste API richiede un round trip di rete, il che le rende inadatte ad applicazioni in tempo reale e a bassa latenza come l'elaborazione video.

Le API per modelli personalizzati gestiscono i modelli di ML eseguiti sul dispositivo. I modelli utilizzati e prodotti da queste funzionalità sono modelli TensorFlow Lite, ottimizzati per essere eseguiti su dispositivi mobili. Il vantaggio principale di questi modelli è che non richiedono una connessione di rete e possono essere eseguiti molto rapidamente, abbastanza velocemente, ad esempio, da elaborare i fotogrammi video in tempo reale.

Firebase ML offre la possibilità di eseguire il deployment di modelli personalizzati sui dispositivi degli utenti caricandoli sui nostri server. La tua app abilitata per Firebase scaricherà il modello sul dispositivo su richiesta. In questo modo, puoi mantenere ridotte le dimensioni dell'installazione iniziale dell'app e scambiare il modello ML senza dover ripubblicare l'app.

ML Kit: modelli on-device pronti all'uso

Se stai cercando modelli preaddestrati che vengono eseguiti sul dispositivo, dai un'occhiata a ML Kit. ML Kit è disponibile per iOS e Android e dispone di API per molti casi d'uso:

  • Riconoscimento del testo
  • Etichettatura delle immagini
  • Rilevamento e monitoraggio degli oggetti
  • Rilevamento del volto e tracciamento dei contorni
  • Scansione dei codici a barre
  • Identificazione della lingua
  • Traduzione
  • Risposta rapida

Passaggi successivi