Bezpieczne rozpoznawanie punktów orientacyjnych dzięki Cloud Vision przy użyciu Uwierzytelniania i funkcji Firebase na platformach Apple

Aby wywoływać interfejs Google Cloud API z aplikacji, musisz utworzyć pośredni interfejs API REST, który obsługuje autoryzację i chroni wartości obiektów tajnych, takie jak klucze interfejsu API. Następnie musisz napisać kod w aplikacji mobilnej, aby uwierzytelnić się w tej usłudze pośredniej i komunikować się z nią.

Jednym ze sposobów utworzenia tego interfejsu API REST jest użycie uwierzytelniania i funkcji Firebase, które zapewniają zarządzaną, bezserwerową bramę do interfejsów API Google Cloud, która obsługuje uwierzytelnianie i którą można wywoływać z aplikacji mobilnej za pomocą gotowych pakietów SDK.

Z tego przewodnika dowiesz się, jak za pomocą tej metody wywoływać interfejs Cloud Vision API z poziomu aplikacji. Dzięki tej metodzie wszyscy uwierzytelnieni użytkownicy będą mieli dostęp do płatnych usług Cloud Vision za pomocą Twojego projektu Cloud. Zanim przejdziesz dalej, zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.

Zanim zaczniesz

Konfigurowanie projektu

Jeśli nie masz jeszcze dodanej usługi Firebase do swojej aplikacji, wykonaj czynności opisane we wprowadzeniu.

Użyj menedżera pakietów Swift, aby zainstalować zależności Firebase i nimi zarządzać.

  1. Po otwarciu projektu aplikacji przejdź w Xcode do File > Add Packages (Plik > Dodaj pakiety).
  2. Gdy pojawi się prośba, dodaj repozytorium SDK platform Apple Platform SDK Firebase:
  3.   https://github.com/firebase/firebase-ios-sdk.git
  4. Wybierz bibliotekę ML Firebase.
  5. Dodaj flagę -ObjC do sekcji Inne flagi łączące w ustawieniach kompilacji celu.
  6. Po zakończeniu Xcode automatycznie rozpocznie rozpoznawanie i pobieranie zależności w tle.

Następnie skonfiguruj w aplikacji:

  1. W aplikacji zaimportuj Firebase:

    Swift

    import FirebaseMLModelDownloader

    Objective-C

    @import FirebaseMLModelDownloader;

Jeszcze kilka kroków konfiguracyjnych i możemy zaczynać:

  1. Jeśli nie masz jeszcze włączonych w swoim projekcie interfejsów API działających w chmurze, zrób to teraz:

    1. Otwórz stronę interfejsów API Firebase ML w konsoli Firebase.
    2. Jeśli w swoim projekcie nie korzystasz jeszcze z abonamentu Blaze, kliknij Przejdź na wyższą wersję. Prośba o przejście na wyższą wersję pojawi się tylko wtedy, gdy Twój projekt nie jest objęty abonamentem Blaze.

      Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API działających w chmurze.

    3. Jeśli interfejsy API działające w chmurze nie są jeszcze włączone, kliknij Włącz interfejsy API działające w chmurze.
  2. Skonfiguruj istniejące klucze interfejsu Firebase API, aby zablokować dostęp do Cloud Vision API:
    1. Otwórz stronę Dane logowania w konsoli Cloud.
    2. W przypadku każdego klucza interfejsu API na liście otwórz widok edycji i w sekcji Ograniczenia kluczy dodaj do listy wszystkie dostępne interfejsy API z wyjątkiem Cloud Vision API.

Wdrażanie funkcji możliwej do wywołania

Następnie wdróż funkcję w Cloud Functions, której będziesz używać do mostu aplikacji i interfejsu Cloud Vision API. Repozytorium functions-samples zawiera przykład, którego możesz użyć.

Domyślnie dostęp do interfejsu Cloud Vision API za pomocą tej funkcji zezwala tylko uwierzytelnionym użytkownikom Twojej aplikacji na dostęp do Cloud Vision API. Możesz ją zmodyfikować pod kątem różnych wymagań.

Aby wdrożyć funkcję:

  1. Skopiuj lub pobierz repozytoriumfunctions-samples i przejdź do katalogu Node-1st-gen/vision-annotate-image:
    git clone https://github.com/firebase/functions-samples
    cd Node-1st-gen/vision-annotate-image
    
  2. Zainstaluj zależności:
    cd functions
    npm install
    cd ..
    
  3. Jeśli nie masz interfejsu wiersza poleceń Firebase, zainstaluj go.
  4. Zainicjuj projekt Firebase w katalogu vision-annotate-image. Gdy pojawi się prośba, wybierz projekt z listy.
    firebase init
  5. Wdróż funkcję:
    firebase deploy --only functions:annotateImage

Dodaj Uwierzytelnianie Firebase do swojej aplikacji

Wdrożona powyżej funkcja wywoływania odrzuca wszystkie żądania pochodzące od nieuwierzytelnionych użytkowników Twojej aplikacji. Jeśli nie zostało to jeszcze zrobione, musisz dodać do swojej aplikacji Uwierzytelnianie Firebase.

Dodaj niezbędne zależności do aplikacji

Użyj menedżera pakietów Swift, aby zainstalować bibliotekę Cloud Functions dla Firebase.

1. Przygotowywanie obrazu wejściowego

Aby można było wywołać Cloud Vision, obraz musi być sformatowany jako ciąg zakodowany w formacie base64. Aby przetworzyć UIImage:

Swift

guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return }
let base64encodedImage = imageData.base64EncodedString()

Objective-C

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. Wywołaj funkcję wywoływania do rozpoznawania punktów orientacyjnych

Aby rozpoznać punkty orientacyjne na obrazie, wywołaj funkcję wywołującą, która przekazuje żądanie JSON Cloud Vision.

  1. Najpierw zainicjuj instancję Cloud Functions:

    Swift

    lazy var functions = Functions.functions()
    

    Objective-C

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. Utwórz żądanie z typem ustawionym na LANDMARK_DETECTION:

    Swift

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["maxResults": 5, "type": "LANDMARK_DETECTION"]
    ]
    

    Objective-C

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"maxResults": @5, @"type": @"LANDMARK_DETECTION"}
    };
    
  3. Na koniec wywołaj funkcję:

    Swift

    do {
      let result = try await functions.httpsCallable("annotateImage").call(requestData)
      print(result)
    } catch {
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
    }
    

    Objective-C

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if ([error.domain isEqualToString:@"com.firebase.functions"]) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[@"details"];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. Uzyskiwanie informacji o znanych punktach orientacyjnych

Jeśli operacja rozpoznawania punktu orientacyjnego się powiedzie, w wyniku zadania zostanie zwrócona odpowiedź JSON BatchAnnotateImagesResponse. Każdy obiekt w tablicy landmarkAnnotations reprezentuje punkt orientacyjny, który został rozpoznany na obrazie. W przypadku każdego punktu orientacyjnego można znaleźć współrzędne ograniczające go na obrazie wejściowym, nazwie punktu orientacyjnego, długości i szerokości geograficznej, identyfikatorem jednostki Grafu wiedzy (jeśli jest dostępny) oraz wskaźnikiem ufności dopasowania. Przykład:

Swift

if let labelArray = (result?.data as? [String: Any])?["landmarkAnnotations"] as? [[String:Any]] {
  for labelObj in labelArray {
    let landmarkName = labelObj["description"]
    let entityId = labelObj["mid"]
    let score = labelObj["score"]
    let bounds = labelObj["boundingPoly"]
    // Multiple locations are possible, e.g., the location of the depicted
    // landmark and the location the picture was taken.
    guard let locations = labelObj["locations"] as? [[String: [String: Any]]] else { continue }
    for location in locations {
      let latitude = location["latLng"]?["latitude"]
      let longitude = location["latLng"]?["longitude"]
    }
  }
}

Objective-C

NSArray *labelArray = result.data[@"landmarkAnnotations"];
for (NSDictionary *labelObj in labelArray) {
  NSString *landmarkName = labelObj[@"description"];
  NSString *entityId = labelObj[@"mid"];
  NSNumber *score = labelObj[@"score"];
  NSArray *bounds = labelObj[@"boundingPoly"];
  // Multiple locations are possible, e.g., the location of the depicted
  // landmark and the location the picture was taken.
  NSArray *locations = labelObj[@"locations"];
  for (NSDictionary *location in locations) {
    NSNumber *latitude = location[@"latLng"][@"latitude"];
    NSNumber *longitude = location[@"latLng"][@"longitude"];
  }
}