1. Panoramica
Benvenuto nel codelab di classificazione del testo con TensorFlow Lite e Firebase. In questo codelab imparerai come utilizzare TensorFlow Lite e Firebase per addestrare e distribuire un modello di classificazione del testo nella tua app. Questo codelab è basato su questo esempio di TensorFlow Lite.
La classificazione del testo è il processo di assegnazione di tag o categorie al testo in base al suo contenuto. È uno dei compiti fondamentali nell'elaborazione del linguaggio naturale (NLP) con ampie applicazioni come l'analisi del sentiment, l'etichettatura degli argomenti, il rilevamento dello spam e il rilevamento degli intenti.
L'analisi del sentiment è l'interpretazione e la classificazione delle emozioni (positive, negative e neutre) all'interno dei dati di testo utilizzando tecniche di analisi del testo. L'analisi del sentiment consente alle aziende di identificare il sentimento dei clienti nei confronti di prodotti, marchi o servizi nelle conversazioni e nei feedback online.
Questo tutorial mostra come costruire un modello di machine learning per l'analisi del sentiment, in particolare classificando il testo come positivo o negativo. Questo è un esempio di classificazione binaria, o a due classi, un tipo di problema di apprendimento automatico importante e ampiamente applicabile.
Cosa imparerai
- Addestra un modello di analisi del sentiment TF Lite con TF Lite Model Maker
- Distribuisci i modelli TF Lite su Firebase ML e accedi dalla tua app
- Tieni traccia del feedback degli utenti per misurare l'accuratezza del modello con Firebase Analytics
- Profilare le prestazioni del modello tramite Firebase Performance Monitoring
- Selezionare quale dei più modelli distribuiti viene caricato tramite Remote Config
- Sperimenta diversi modelli tramite Firebase A/B Testing
Di cosa avrai bisogno
- Xcode 11 (o successivo)
- CocoaPods 1.9.1 (o successiva)
Come utilizzerai questo tutorial?
Come valuteresti la tua esperienza con la creazione di app Android?
2. Crea un progetto della console Firebase
Aggiungi Firebase al progetto
- Vai alla console Firebase .
- Seleziona Crea nuovo progetto e dai un nome al tuo progetto "Firebase ML iOS Codelab".
3. Ottieni il progetto di esempio
Scarica il codice
Inizia clonando il progetto di esempio ed eseguendo pod update
nella directory del progetto:
git clone https://github.com/FirebaseExtended/codelab-textclassification-ios.git cd codelab-textclassification-ios pod install --repo-update
Se non hai git installato, puoi anche scaricare il progetto di esempio dalla sua pagina GitHub o facendo clic su questo collegamento . Una volta scaricato il progetto, eseguilo in Xcode e gioca con la classificazione del testo per avere un'idea di come funziona.
Configura Firebase
Segui la documentazione per creare un nuovo progetto Firebase. Una volta ottenuto il progetto, scarica il file GoogleService-Info.plist
del progetto dalla console Firebase e trascinalo nella radice del progetto Xcode.
Aggiungi Firebase al tuo Podfile ed esegui l'installazione pod.
pod 'FirebaseMLModelDownloader', '9.3.0-beta'
Nel metodo didFinishLaunchingWithOptions
di AppDelegate
, importa Firebase nella parte superiore del file
import FirebaseCore
E aggiungi una chiamata per configurare Firebase.
FirebaseApp.configure()
Esegui nuovamente il progetto per assicurarti che l'app sia configurata correttamente e non si blocchi all'avvio.
4. Addestrare un modello di analisi del sentiment
Utilizzeremo TensorFlow Lite Model Maker per addestrare un modello di classificazione del testo per prevedere il sentiment di un determinato testo.
Questo passaggio viene presentato come un notebook Python che puoi aprire in Google Colab.
Aperto in Colab
Dopo aver completato questo passaggio, avrai un modello di analisi del sentiment TensorFlow Lite pronto per la distribuzione su un'app mobile.
5. Distribuisci un modello su Firebase ML
La distribuzione di un modello su Firebase ML è utile per due motivi principali:
- Possiamo mantenere ridotte le dimensioni di installazione dell'app e scaricare il modello solo se necessario
- Il modello può essere aggiornato regolarmente e con un ciclo di rilascio diverso rispetto all'intera app
Il modello può essere distribuito tramite la console o a livello di programmazione utilizzando Firebase Admin SDK. In questo passaggio eseguiremo la distribuzione tramite la console.
Innanzitutto, apri la console Firebase e fai clic su Machine Learning nel pannello di navigazione a sinistra. Fai clic su "Inizia" se stai aprendo questa prima volta. Quindi vai su "Personalizzato" e fai clic sul pulsante "Aggiungi modello".
Quando richiesto, dai un nome al modello sentiment_analysis
e carica il file che hai scaricato da Colab nel passaggio precedente.
6. Scarica il modello da Firebase ML
Scegliere quando scaricare il modello remoto da Firebase nella tua app può essere complicato poiché i modelli TFLite possono diventare relativamente grandi. Idealmente vogliamo evitare di caricare il modello immediatamente all'avvio dell'app, poiché se il nostro modello viene utilizzato per una sola funzionalità e l'utente non utilizza mai quella funzionalità, avremo scaricato una quantità significativa di dati senza motivo. Possiamo anche impostare opzioni di download come il recupero dei modelli solo quando siamo connessi al Wi-Fi. Se vuoi essere sicuro che il modello sia disponibile anche senza connessione di rete, è importante includerlo anche senza l'app come backup.
Per motivi di semplicità, rimuoveremo il modello in bundle predefinito e scaricheremo sempre un modello da Firebase al primo avvio dell'app. In questo modo quando esegui l'analisi del sentiment puoi essere sicuro che l'inferenza viene eseguita con il modello fornito da Firebase.
Nella parte superiore di ModelLoader.swift
, importa il modulo Firebase.
import FirebaseCore import FirebaseMLModelDownloader
Quindi implementare i seguenti metodi.
static func downloadModel(named name: String, completion: @escaping (CustomModel?, DownloadError?) -> Void) { guard FirebaseApp.app() != nil else { completion(nil, .firebaseNotInitialized) return } guard success == nil && failure == nil else { completion(nil, .downloadInProgress) return } let conditions = ModelDownloadConditions(allowsCellularAccess: false) ModelDownloader.modelDownloader().getModel(name: name, downloadType: .localModelUpdateInBackground, conditions: conditions) { result in switch (result) { case .success(let customModel): // Download complete. // The CustomModel object contains the local path of the model file, // which you can use to instantiate a TensorFlow Lite classifier. return completion(customModel, nil) case .failure(let error): // Download was unsuccessful. Notify error message. completion(nil, .downloadFailed(underlyingError: error)) } } }
Nel viewDidLoad
di ViewController.swift
, sostituisci la chiamata a loadModel()
con il nostro nuovo metodo di download del modello.
// Download the model from Firebase print("Fetching model...") ModelLoader.downloadModel(named: "sentiment_analysis") { (customModel, error) in guard let customModel = customModel else { if let error = error { print(error) } return } print("Model download complete") // TODO: Initialize an NLClassifier from the downloaded model }
Esegui nuovamente l'app. Dopo alcuni secondi, dovresti vedere un registro in Xcode che indica che il modello remoto è stato scaricato con successo. Prova a digitare del testo e verifica che il comportamento dell'app non sia cambiato.
7. Integra il modello nella tua app
La libreria di attività Tensorflow Lite ti aiuta a integrare i modelli TensorFlow Lite nella tua app con solo poche righe di codice. Inizializzeremo un'istanza TFLNLClassifier
utilizzando il modello TensorFlow Lite scaricato da Firebase. Quindi lo utilizzeremo per classificare l'input di testo da parte degli utenti dell'app e mostrare il risultato sull'interfaccia utente.
Aggiungi la dipendenza
Vai al Podfile dell'app e aggiungi la libreria attività TensorFlow Lite (testo) nelle dipendenze dell'app. Assicurati di aggiungere la dipendenza sotto la dichiarazione target 'TextClassification'
.
pod 'TensorFlowLiteTaskText', '~> 0.2.0'
Esegui pod install
per installare la nuova dipendenza.
Inizializza un classificatore di testo
Quindi caricheremo il modello di analisi del sentiment scaricato da Firebase utilizzando NLClassifier
della Task Library.
ViewController.swift
Dichiariamo una variabile di istanza TFLNLClassifier. Nella parte superiore del file, importa la nuova dipendenza:
import TensorFlowLiteTaskText
Trova questo commento sopra il metodo che abbiamo modificato nell'ultimo passaggio:
// TODO: Add a TFLNLClassifier property.
Sostituisci TODO con il seguente codice:
private var classifier: TFLNLClassifier?
Inizializza la variabile textClassifier
con il modello di analisi del sentiment scaricato da Firebase. Trova questo commento che abbiamo aggiunto nell'ultimo passaggio:
// TODO: Initialize an NLClassifier from the downloaded model
Sostituisci TODO con il seguente codice:
let options = TFLNLClassifierOptions()
self.classifier = TFLNLClassifier.nlClassifier(modelPath: customModel.path, options: options)
Classificare il testo
Una volta configurata l'istanza classifier
, puoi eseguire l'analisi del sentiment con una singola chiamata al metodo.
ViewController.swift
Nel metodo classify(text:)
, trova il commento TODO:
// TODO: Run sentiment analysis on the input text
Sostituisci il commento con il seguente codice:
guard let classifier = self.classifier else { return }
// Classify the text
let classifierResults = classifier.classify(text: text)
// Append the results to the list of results
let result = ClassificationResult(text: text, results: classifierResults)
results.append(result)
8. Esegui l'app finale
Hai integrato il modello di analisi del sentiment nell'app, quindi testiamolo. Connetti il tuo dispositivo iOS e fai clic su Esegui ( ) nella barra degli strumenti di Xcode.
L'app dovrebbe essere in grado di prevedere correttamente il sentiment della recensione del film inserita.
9. Potenzia l'app con più funzionalità Firebase
Oltre a ospitare i tuoi modelli TFLite, Firebase offre molte altre funzionalità per potenziare i casi d'uso del machine learning:
- Monitoraggio delle prestazioni Firebase per misurare la velocità di inferenza del modello in esecuzione sul dispositivo degli utenti.
- Firebase Analytics per misurare il rendimento del tuo modello in produzione misurando la reazione dell'utente.
- Firebase A/B Testing per testare più versioni del tuo modello
- Ti ricordi che in precedenza abbiamo addestrato due versioni del nostro modello TFLite? Il test A/B è un buon modo per scoprire quale versione funziona meglio in produzione!
Per ulteriori informazioni su come sfruttare queste funzionalità nella tua app, consulta i codelab seguenti:
10. Congratulazioni!
In questo codelab hai imparato come addestrare un modello TFLite di analisi del sentiment e distribuirlo nella tua app mobile utilizzando Firebase. Per ulteriori informazioni su TFLite e Firebase, dai un'occhiata ad altri esempi di TFLite e alle guide introduttive di Firebase.
Di cosa abbiamo parlato
- TensorFlow Lite
- FirebaseML
Prossimi passi
- Misura la velocità di inferenza del tuo modello con Firebase Performance Monitoring.
- Distribuisci il modello da Colab direttamente a Firebase tramite l'API Firebase ML Model Management.
- Aggiungi un meccanismo per consentire agli utenti di fornire feedback sul risultato della previsione e utilizza Firebase Analytics per tenere traccia del feedback degli utenti.
- Testare A/B il modello Average Word Vector e il modello MobileBERT con il test A/B Firebase.
Saperne di più
- Documentazione di Machine Learning Firebase
- Documentazione di TensorFlow Lite
- Misura le prestazioni delle app con Firebase
- Modelli di test A/B con Firebase