Riconosci il testo nelle immagini in modo sicuro con Cloud Vision utilizzando Firebase Auth e Functions sulle piattaforme Apple

Per chiamare un'API Google Cloud dalla tua app, devi creare una API REST che gestisce l'autorizzazione e protegge i valori dei secret come le chiavi API. Devi quindi scrivere codice nella tua app mobile per autenticarti e comunicare con questo servizio intermedio.

Un modo per creare questa API REST è utilizzare Firebase Authentication and Functions, che offre un gateway serverless gestito per API Google Cloud che gestiscono l'autenticazione e possono essere chiamate dalla tua app mobile con con SDK predefiniti.

Questa guida mostra come utilizzare questa tecnica per chiamare l'API Cloud Vision dalla tua app. Questo metodo consentirà a tutti gli utenti autenticati di accedere ai servizi fatturati Cloud Vision tramite il tuo progetto Cloud, quindi valuta se questo meccanismo di autenticazione è sufficiente per il tuo caso d'uso prima di procedere.

di Gemini Advanced.

Prima di iniziare

Configura il progetto

Se non hai ancora aggiunto Firebase alla tua app, segui i passaggi descritti nella guida introduttiva.

Usa Swift Package Manager per installare e gestire le dipendenze di Firebase.

  1. In Xcode, con il progetto dell'app aperto, vai a File > Aggiungi pacchetti.
  2. Quando richiesto, aggiungi il repository dell'SDK delle piattaforme Apple di Firebase:
  3.   https://github.com/firebase/firebase-ios-sdk.git
  4. Scegli la raccolta Firebase ML.
  5. Aggiungi il flag -ObjC alla sezione Altri flag linker delle impostazioni di build del target.
  6. Al termine, Xcode inizierà automaticamente a risolvere e scaricare il le dipendenze in background.

A questo punto, esegui la configurazione in-app:

  1. Nell'app, importa Firebase:

    Swift

    import FirebaseMLModelDownloader

    Objective-C

    @import FirebaseMLModelDownloader;

Ancora qualche passaggio di configurazione e siamo pronti a partire:

  1. Se non hai già abilitato le API basate su cloud per il tuo progetto, procedi nel seguente modo: ora:

    1. Apri l'app Firebase ML API della console Firebase.
    2. Se non hai già eseguito l'upgrade del progetto al piano tariffario Blaze, fai clic su Per farlo, esegui l'upgrade. Ti verrà chiesto di eseguire l'upgrade solo se non è incluso nel piano Blaze.)

      Solo i progetti a livello Blaze possono utilizzare le API basate su cloud.

    3. Se le API basate su cloud non sono già abilitate, fai clic su Abilita API basate su cloud.
    di Gemini Advanced.
  2. Configura le chiavi API Firebase esistenti per non consentire l'accesso a Cloud API Vision:
    1. Apri la pagina Credenziali della console Cloud.
    2. Per ogni chiave API nell'elenco, apri la visualizzazione di modifica e, nella sezione Restrizioni chiave, aggiungi all'elenco tutte le API disponibili tranne l'API Cloud Vision.

Esegui il deployment della funzione richiamabile

Dopodiché esegui il deployment della funzione Cloud che utilizzerai per collegare l'app all'API Cloud Vision. Il repository functions-samples contiene un esempio che puoi utilizzare.

Per impostazione predefinita, l'accesso all'API Cloud Vision tramite questa funzione consentirà solo gli utenti autenticati della tua app accedono all'API Cloud Vision. Puoi modificare la funzione in base a requisiti diversi.

Per eseguire il deployment della funzione:

  1. Clonare o scaricare il reposito di Functions-samples e passa alla directory Node-1st-gen/vision-annotate-image:
    git clone https://github.com/firebase/functions-samples
    cd Node-1st-gen/vision-annotate-image
    
  2. Installa le dipendenze:
    cd functions
    npm install
    cd ..
  3. Se non hai l'interfaccia a riga di comando di Firebase, installala.
  4. Inizializza un progetto Firebase in vision-annotate-image . Quando richiesto, seleziona il progetto dall'elenco.
    firebase init
  5. Esegui il deployment della funzione:
    firebase deploy --only functions:annotateImage

Aggiungi Firebase Auth alla tua app

La funzione richiamabile di cui sopra rifiuterà qualsiasi richiesta da parte degli utenti non autenticati della tua app. Se non l'hai già fatto, dovrai aggiungere Firebase Auth alla tua app.

Aggiungi le dipendenze necessarie alla tua app

Utilizza Swift Package Manager per installare la libreria Cloud Functions for Firebase.

Ora puoi iniziare a riconoscere il testo nelle immagini.

1. Prepara l'immagine di input

Per chiamare Cloud Vision, l'immagine deve essere formattata come stringa codificata in base64. Per elaborare un UIImage:

Swift

guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return }
let base64encodedImage = imageData.base64EncodedString()

Objective-C

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. Richiama la funzione richiamabile per riconoscere il testo

Per riconoscere i punti di riferimento in un'immagine, invoca la funzione richiamabile passando una richiesta JSON Cloud Vision.

  1. Inizializza un'istanza di Cloud Functions:

    Swift

    lazy var functions = Functions.functions()
    

    Objective-C

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. Crea la richiesta. L'API Cloud Vision supporta due tipi di rilevamento del testo: TEXT_DETECTION e DOCUMENT_TEXT_DETECTION. Consulta la documentazione su OCR di Cloud Vision per scoprire la differenza tra i due casi d'uso.

    Swift

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["type": "TEXT_DETECTION"],
      "imageContext": ["languageHints": ["en"]]
    ]
    

    Objective-C

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"type": @"TEXT_DETECTION"},
      @"imageContext": @{@"languageHints": @[@"en"]}
    };
    
  3. Infine, richiama la funzione:

    Swift

    do {
      let result = try await functions.httpsCallable("annotateImage").call(requestData)
      print(result)
    } catch {
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
    }
    

    Objective-C

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if ([error.domain isEqualToString:@"com.firebase.functions"]) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[@"details"];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. Estrarre il testo da blocchi di testo riconosciuto

Se il riconoscimento del testo ha esito positivo, una risposta JSON di BatchAnnotateImagesResponse verrà restituito nel risultato dell'attività. Le annotazioni del testo sono disponibili nella fullTextAnnotation.

Puoi ottenere il testo riconosciuto come stringa nel campo text. Ad esempio:

Swift

let annotation = result.flatMap { $0.data as? [String: Any] }
    .flatMap { $0["fullTextAnnotation"] }
    .flatMap { $0 as? [String: Any] }
guard let annotation = annotation else { return }

if let text = annotation["text"] as? String {
  print("Complete annotation: \(text)")
}

Objective-C

NSDictionary *annotation = result.data[@"fullTextAnnotation"];
if (!annotation) { return; }
NSLog(@"\nComplete annotation:");
NSLog(@"\n%@", annotation[@"text"]);

Puoi anche ottenere informazioni specifiche per le aree dell'immagine. Per ogni block, paragraph, word e symbol, puoi ricevere il testo riconosciuto nella regione e le coordinate di delimitazione della regione. Ad esempio:

Swift

guard let pages = annotation["pages"] as? [[String: Any]] else { return }
for page in pages {
  var pageText = ""
  guard let blocks = page["blocks"] as? [[String: Any]] else { continue }
  for block in blocks {
    var blockText = ""
    guard let paragraphs = block["paragraphs"] as? [[String: Any]] else { continue }
    for paragraph in paragraphs {
      var paragraphText = ""
      guard let words = paragraph["words"] as? [[String: Any]] else { continue }
      for word in words {
        var wordText = ""
        guard let symbols = word["symbols"] as? [[String: Any]] else { continue }
        for symbol in symbols {
          let text = symbol["text"] as? String ?? ""
          let confidence = symbol["confidence"] as? Float ?? 0.0
          wordText += text
          print("Symbol text: \(text) (confidence: \(confidence)%n")
        }
        let confidence = word["confidence"] as? Float ?? 0.0
        print("Word text: \(wordText) (confidence: \(confidence)%n%n")
        let boundingBox = word["boundingBox"] as? [Float] ?? [0.0, 0.0, 0.0, 0.0]
        print("Word bounding box: \(boundingBox.description)%n")
        paragraphText += wordText
      }
      print("%nParagraph: %n\(paragraphText)%n")
      let boundingBox = paragraph["boundingBox"] as? [Float] ?? [0.0, 0.0, 0.0, 0.0]
      print("Paragraph bounding box: \(boundingBox)%n")
      let confidence = paragraph["confidence"] as? Float ?? 0.0
      print("Paragraph Confidence: \(confidence)%n")
      blockText += paragraphText
    }
    pageText += blockText
  }
}

Objective-C

for (NSDictionary *page in annotation[@"pages"]) {
  NSMutableString *pageText = [NSMutableString new];
  for (NSDictionary *block in page[@"blocks"]) {
    NSMutableString *blockText = [NSMutableString new];
    for (NSDictionary *paragraph in block[@"paragraphs"]) {
      NSMutableString *paragraphText = [NSMutableString new];
      for (NSDictionary *word in paragraph[@"words"]) {
        NSMutableString *wordText = [NSMutableString new];
        for (NSDictionary *symbol in word[@"symbols"]) {
          NSString *text = symbol[@"text"];
          [wordText appendString:text];
          NSLog(@"Symbol text: %@ (confidence: %@\n", text, symbol[@"confidence"]);
        }
        NSLog(@"Word text: %@ (confidence: %@\n\n", wordText, word[@"confidence"]);
        NSLog(@"Word bounding box: %@\n", word[@"boundingBox"]);
        [paragraphText appendString:wordText];
      }
      NSLog(@"\nParagraph: \n%@\n", paragraphText);
      NSLog(@"Paragraph bounding box: %@\n", paragraph[@"boundingBox"]);
      NSLog(@"Paragraph Confidence: %@\n", paragraph[@"confidence"]);
      [blockText appendString:paragraphText];
    }
    [pageText appendString:blockText];
  }
}