Firebase 将于 5 月 10 日重返 Google I/O 大会!立即报名

Rozpoznawaj punkty orientacyjne za pomocą Firebase ML na iOS

Możesz użyć Firebase ML do rozpoznawania dobrze znanych punktów orientacyjnych na obrazie.

Zanim zaczniesz

    Jeśli jeszcze nie dodałeś Firebase do swojej aplikacji, zrób to, wykonując czynności opisane w przewodniku wprowadzającym .

    Użyj Menedżera pakietów Swift, aby zainstalować i zarządzać zależnościami Firebase.

    1. W Xcode przy otwartym projekcie aplikacji przejdź do File > Add Packages .
    2. Po wyświetleniu monitu dodaj repozytorium Firebase Apple platforms SDK:
    3.   https://github.com/firebase/firebase-ios-sdk
    4. Wybierz bibliotekę Firebase ML.
    5. Po zakończeniu Xcode automatycznie rozpocznie rozwiązywanie i pobieranie zależności w tle.

    Następnie wykonaj konfigurację w aplikacji:

    1. W swojej aplikacji zaimportuj Firebase:

      Szybki

      import FirebaseMLModelDownloader

      Cel C

      @import FirebaseMLModelDownloader;
  1. Jeśli jeszcze nie włączyłeś interfejsów API opartych na chmurze dla swojego projektu, zrób to teraz:

    1. Otwórz stronę Firebase ML APIs w konsoli Firebase.
    2. Jeśli jeszcze nie zaktualizowałeś swojego projektu do planu cenowego Blaze, kliknij Uaktualnij , aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze).

      Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.

    3. Jeśli interfejsy API oparte na chmurze nie są jeszcze włączone, kliknij opcję Włącz interfejsy API oparte na chmurze .

Skonfiguruj wykrywacz punktów orientacyjnych

Domyślnie wykrywacz chmur używa stabilnej wersji modelu i zwraca do 10 wyników. Jeśli chcesz zmienić któreś z tych ustawień, określ je za pomocą obiektu VisionCloudDetectorOptions , jak w poniższym przykładzie:

Szybki

let options = VisionCloudDetectorOptions()
options.modelType = .latest
options.maxResults = 20

Cel C

  FIRVisionCloudDetectorOptions *options =
      [[FIRVisionCloudDetectorOptions alloc] init];
  options.modelType = FIRVisionCloudModelTypeLatest;
  options.maxResults = 20;
  

W następnym kroku przekaż obiekt VisionCloudDetectorOptions podczas tworzenia obiektu detektora chmury.

Uruchom wykrywacz punktów orientacyjnych

Aby rozpoznać punkty orientacyjne na obrazie, przekaż obraz jako UIImage lub CMSampleBufferRef do metody detect(in:) obiektu VisionCloudLandmarkDetector :

  1. Uzyskaj instancję VisionCloudLandmarkDetector :

    Szybki

    lazy var vision = Vision.vision()
    
    let cloudDetector = vision.cloudLandmarkDetector(options: options)
    // Or, to use the default settings:
    // let cloudDetector = vision.cloudLandmarkDetector()
    

    Cel C

    FIRVision *vision = [FIRVision vision];
    FIRVisionCloudLandmarkDetector *landmarkDetector = [vision cloudLandmarkDetector];
    // Or, to change the default settings:
    // FIRVisionCloudLandmarkDetector *landmarkDetector =
    //     [vision cloudLandmarkDetectorWithOptions:options];
    
  2. Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg zakodowany w base64. Aby przetworzyć UIImage :

    Szybki

    guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return }
    let base64encodedImage = imageData.base64EncodedString()

    Cel C

    NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
    NSString *base64encodedImage =
      [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
  3. Następnie przekaż obraz do metody detect(in:) :

    Szybki

    cloudDetector.detect(in: visionImage) { landmarks, error in
      guard error == nil, let landmarks = landmarks, !landmarks.isEmpty else {
        // ...
        return
      }
    
      // Recognized landmarks
      // ...
    }
    

    Cel C

    [landmarkDetector detectInImage:image
                         completion:^(NSArray<FIRVisionCloudLandmark *> *landmarks,
                                      NSError *error) {
      if (error != nil) {
        return;
      } else if (landmarks != nil) {
        // Got landmarks
      }
    }];
    

Uzyskaj informacje o uznanych punktach orientacyjnych

Jeśli rozpoznanie punktu orientacyjnego powiedzie się, tablica obiektów VisionCloudLandmark zostanie przekazana do procedury obsługi uzupełniania. Z każdego obiektu można uzyskać informacje o rozpoznanym na obrazie punkcie orientacyjnym.

Na przykład:

Szybki

for landmark in landmarks {
  let landmarkDesc = landmark.landmark
  let boundingPoly = landmark.frame
  let entityId = landmark.entityId

  // A landmark can have multiple locations: for example, the location the image
  // was taken, and the location of the landmark depicted.
  for location in landmark.locations {
    let latitude = location.latitude
    let longitude = location.longitude
  }

  let confidence = landmark.confidence
}

Cel C

for (FIRVisionCloudLandmark *landmark in landmarks) {
   NSString *landmarkDesc = landmark.landmark;
   CGRect frame = landmark.frame;
   NSString *entityId = landmark.entityId;

   // A landmark can have multiple locations: for example, the location the image
   // was taken, and the location of the landmark depicted.
   for (FIRVisionLatitudeLongitude *location in landmark.locations) {
     double latitude = [location.latitude doubleValue];
     double longitude = [location.longitude doubleValue];
   }

   float confidence = [landmark.confidence floatValue];
}

Następne kroki

,

Możesz użyć Firebase ML do rozpoznawania dobrze znanych punktów orientacyjnych na obrazie.

Zanim zaczniesz

    Jeśli jeszcze nie dodałeś Firebase do swojej aplikacji, zrób to, wykonując czynności opisane w przewodniku wprowadzającym .

    Użyj Menedżera pakietów Swift, aby zainstalować i zarządzać zależnościami Firebase.

    1. W Xcode przy otwartym projekcie aplikacji przejdź do File > Add Packages .
    2. Po wyświetleniu monitu dodaj repozytorium Firebase Apple platforms SDK:
    3.   https://github.com/firebase/firebase-ios-sdk
    4. Wybierz bibliotekę Firebase ML.
    5. Po zakończeniu Xcode automatycznie rozpocznie rozwiązywanie i pobieranie zależności w tle.

    Następnie wykonaj konfigurację w aplikacji:

    1. W swojej aplikacji zaimportuj Firebase:

      Szybki

      import FirebaseMLModelDownloader

      Cel C

      @import FirebaseMLModelDownloader;
  1. Jeśli jeszcze nie włączyłeś interfejsów API opartych na chmurze dla swojego projektu, zrób to teraz:

    1. Otwórz stronę Firebase ML APIs w konsoli Firebase.
    2. Jeśli jeszcze nie zaktualizowałeś swojego projektu do planu cenowego Blaze, kliknij Uaktualnij , aby to zrobić. (Zostaniesz poproszony o uaktualnienie tylko wtedy, gdy Twój projekt nie jest objęty planem Blaze).

      Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API opartych na chmurze.

    3. Jeśli interfejsy API oparte na chmurze nie są jeszcze włączone, kliknij opcję Włącz interfejsy API oparte na chmurze .

Skonfiguruj wykrywacz punktów orientacyjnych

Domyślnie wykrywacz chmur używa stabilnej wersji modelu i zwraca do 10 wyników. Jeśli chcesz zmienić któreś z tych ustawień, określ je za pomocą obiektu VisionCloudDetectorOptions , jak w poniższym przykładzie:

Szybki

let options = VisionCloudDetectorOptions()
options.modelType = .latest
options.maxResults = 20

Cel C

  FIRVisionCloudDetectorOptions *options =
      [[FIRVisionCloudDetectorOptions alloc] init];
  options.modelType = FIRVisionCloudModelTypeLatest;
  options.maxResults = 20;
  

W następnym kroku przekaż obiekt VisionCloudDetectorOptions podczas tworzenia obiektu detektora chmury.

Uruchom wykrywacz punktów orientacyjnych

Aby rozpoznać punkty orientacyjne na obrazie, przekaż obraz jako UIImage lub CMSampleBufferRef do metody detect(in:) obiektu VisionCloudLandmarkDetector :

  1. Uzyskaj instancję VisionCloudLandmarkDetector :

    Szybki

    lazy var vision = Vision.vision()
    
    let cloudDetector = vision.cloudLandmarkDetector(options: options)
    // Or, to use the default settings:
    // let cloudDetector = vision.cloudLandmarkDetector()
    

    Cel C

    FIRVision *vision = [FIRVision vision];
    FIRVisionCloudLandmarkDetector *landmarkDetector = [vision cloudLandmarkDetector];
    // Or, to change the default settings:
    // FIRVisionCloudLandmarkDetector *landmarkDetector =
    //     [vision cloudLandmarkDetectorWithOptions:options];
    
  2. Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg zakodowany w base64. Aby przetworzyć UIImage :

    Szybki

    guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return }
    let base64encodedImage = imageData.base64EncodedString()

    Cel C

    NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
    NSString *base64encodedImage =
      [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
  3. Następnie przekaż obraz do metody detect(in:) :

    Szybki

    cloudDetector.detect(in: visionImage) { landmarks, error in
      guard error == nil, let landmarks = landmarks, !landmarks.isEmpty else {
        // ...
        return
      }
    
      // Recognized landmarks
      // ...
    }
    

    Cel C

    [landmarkDetector detectInImage:image
                         completion:^(NSArray<FIRVisionCloudLandmark *> *landmarks,
                                      NSError *error) {
      if (error != nil) {
        return;
      } else if (landmarks != nil) {
        // Got landmarks
      }
    }];
    

Uzyskaj informacje o uznanych punktach orientacyjnych

Jeśli rozpoznanie punktu orientacyjnego powiedzie się, tablica obiektów VisionCloudLandmark zostanie przekazana do procedury obsługi uzupełniania. Z każdego obiektu można uzyskać informacje o rozpoznanym na obrazie punkcie orientacyjnym.

Na przykład:

Szybki

for landmark in landmarks {
  let landmarkDesc = landmark.landmark
  let boundingPoly = landmark.frame
  let entityId = landmark.entityId

  // A landmark can have multiple locations: for example, the location the image
  // was taken, and the location of the landmark depicted.
  for location in landmark.locations {
    let latitude = location.latitude
    let longitude = location.longitude
  }

  let confidence = landmark.confidence
}

Cel C

for (FIRVisionCloudLandmark *landmark in landmarks) {
   NSString *landmarkDesc = landmark.landmark;
   CGRect frame = landmark.frame;
   NSString *entityId = landmark.entityId;

   // A landmark can have multiple locations: for example, the location the image
   // was taken, and the location of the landmark depicted.
   for (FIRVisionLatitudeLongitude *location in landmark.locations) {
     double latitude = [location.latitude doubleValue];
     double longitude = [location.longitude doubleValue];
   }

   float confidence = [landmark.confidence floatValue];
}

Następne kroki