Catch up on everthing we announced at this year's Firebase Summit. Learn more

Nhận dạng các mốc một cách an toàn với Cloud Vision bằng cách sử dụng Firebase Auth và Functions trên các nền tảng của Apple

Để gọi API Google Cloud từ ứng dụng của bạn, bạn cần tạo một API REST trung gian để xử lý ủy quyền và bảo vệ các giá trị bí mật như khóa API. Sau đó, bạn cần viết mã trong ứng dụng di động của mình để xác thực và giao tiếp với dịch vụ trung gian này.

Một cách để tạo API REST này là sử dụng Chức năng và Xác thực Firebase, cung cấp cho bạn một cổng không có máy chủ được quản lý vào API Google Cloud để xử lý xác thực và có thể được gọi từ ứng dụng dành cho thiết bị di động của bạn với SDK được tạo sẵn.

Hướng dẫn này trình bày cách sử dụng kỹ thuật này để gọi API Cloud Vision từ ứng dụng của bạn. Phương pháp này sẽ cho phép tất cả người dùng đã xác thực truy cập vào các dịch vụ tính phí Cloud Vision thông qua dự án Cloud của bạn, vì vậy hãy cân nhắc xem cơ chế xác thực này có đủ cho trường hợp sử dụng của bạn hay không trước khi tiếp tục.

Trước khi bắt đầu

Định cấu hình dự án của bạn

Nếu bạn chưa thêm căn cứ hỏa lực để ứng dụng của bạn, làm như vậy bằng cách làm theo các bước trong hướng dẫn bắt đầu .

Sử dụng Trình quản lý gói Swift để cài đặt và quản lý các phần phụ thuộc của Firebase.

  1. Trong Xcode, với dự án ứng dụng của bạn mở, điều hướng tới File> Swift gói> Thêm gói phụ thuộc.
  2. Khi được nhắc, hãy thêm kho lưu trữ SDK nền tảng Apple Firebase:
  3.   https://github.com/firebase/firebase-ios-sdk
      
  4. Chọn thư viện ML của Firebase.
  5. Khi hoàn tất, Xcode sẽ tự động bắt đầu giải quyết và tải xuống các phần phụ thuộc của bạn trong nền.

Tiếp theo, thực hiện một số thiết lập trong ứng dụng:

  1. Trong ứng dụng của bạn, hãy nhập Firebase:

    Nhanh

    import Firebase

    Objective-C

    @import Firebase;

Một vài bước cấu hình nữa và chúng tôi đã sẵn sàng:

  1. Nếu bạn chưa bật API dựa trên đám mây cho dự án của mình, hãy làm như vậy ngay bây giờ:

    1. Mở trang căn cứ hỏa lực ML API của các firebase console.
    2. Nếu bạn chưa nâng cấp dự án của bạn để cơ chế định giá Blaze, bấm Nâng cấp để làm như vậy. (Bạn sẽ chỉ được nhắc nâng cấp nếu dự án của bạn không nằm trong gói Blaze.)

      Chỉ các dự án cấp Blaze mới có thể sử dụng API dựa trên đám mây.

    3. Nếu API dựa trên đám mây chưa được kích hoạt, nhấp chuột Enable API dựa trên đám mây.
  2. Định cấu hình các khóa API Firebase hiện có của bạn để không cho phép truy cập vào API Cloud Vision:
    1. Mở Credentials trang của Cloud console.
    2. Đối với mỗi khóa API trong danh sách, mở giao diện chỉnh sửa, và trong phần Restrictions Key, thêm tất cả các API có sẵn trừ API Mây Vision vào danh sách.

Triển khai chức năng có thể gọi

Tiếp theo, triển khai Chức năng đám mây mà bạn sẽ sử dụng để kết nối ứng dụng của mình và API Cloud Vision. Các functions-samples kho chứa một ví dụ bạn có thể sử dụng.

Theo mặc định, việc truy cập API Cloud Vision thông qua chức năng này sẽ chỉ cho phép những người dùng đã xác thực ứng dụng của bạn truy cập vào API Cloud Vision. Bạn có thể sửa đổi chức năng cho các yêu cầu khác nhau.

Để triển khai chức năng:

  1. Clone hoặc tải về chức năng-mẫu repo và thay đổi về vision-annotate-image thư mục:
    git clone https://github.com/firebase/functions-samples
    cd vision-annotate-image
    
  2. Cài đặt phụ thuộc:
    cd functions
    npm install
    cd ..
    
  3. Nếu bạn không có các căn cứ hỏa lực CLI, cài đặt nó .
  4. Khởi tạo một dự án căn cứ hỏa lực trong vision-annotate-image thư mục. Khi được nhắc, hãy chọn dự án của bạn trong danh sách.
    firebase init
  5. Triển khai chức năng:
    firebase deploy --only functions:annotateImage

Thêm Firebase Auth vào ứng dụng của bạn

Chức năng có thể gọi được triển khai ở trên sẽ từ chối bất kỳ yêu cầu nào từ những người dùng chưa xác thực ứng dụng của bạn. Nếu bạn chưa làm như vậy, bạn sẽ cần phải thêm căn cứ hỏa lực Auth để ứng dụng của bạn.

Thêm các phụ thuộc cần thiết vào ứng dụng của bạn

Sử dụng Trình quản lý gói Swift để cài đặt Chức năng đám mây cho thư viện Firebase.

1. Chuẩn bị hình ảnh đầu vào

Để gọi Cloud Vision, hình ảnh phải được định dạng dưới dạng chuỗi được mã hóa base64. Để xử lý một UIImage :

Nhanh

guard let imageData = uiImage.jpegData(compressionQuality: 1.0f) else { return }
let base64encodedImage = imageData.base64EncodedString()

Objective-C

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. Gọi hàm có thể gọi để nhận ra các điểm mốc

Để nhận ra các địa danh tại một hình ảnh, gọi hàm có thể được gọi thông qua một yêu cầu JSON Mây Vision .

  1. Đầu tiên, khởi tạo một phiên bản của Chức năng đám mây:

    Nhanh

    lazy var functions = Functions.functions()
    

    Objective-C

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. Tạo một yêu cầu với loại thiết lập để LANDMARK_DETECTION :

    Nhanh

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["maxResults": 5, "type": "LANDMARK_DETECTION"]
    ]
    

    Objective-C

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"maxResults": @5, @"type": @"LANDMARK_DETECTION"}
    };
    
  3. Cuối cùng, gọi hàm:

    Nhanh

    functions.httpsCallable("annotateImage").call(requestData) { (result, error) in
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
      // Function completed succesfully
    }
    

    Objective-C

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if (error.domain == FIRFunctionsErrorDomain) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[FIRFunctionsErrorDetailsKey];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. Nhận thông tin về các địa danh đã được công nhận

Nếu các hoạt động công nhận mang tính bước ngoặt thành công, một phản ứng JSON của BatchAnnotateImagesResponse sẽ được trả lại trong kết quả của công việc. Mỗi đối tượng trong landmarkAnnotations mảng đại diện cho một bước ngoặt đã được ghi nhận trong các hình ảnh. Đối với mỗi mốc, bạn có thể lấy tọa độ giới hạn của nó trong hình ảnh đầu vào, tên của mốc, vĩ độ và kinh độ, ID thực thể Sơ đồ tri thức của nó (nếu có) và điểm tin cậy của đối sánh. Ví dụ:

Nhanh

if let labelArray = (result?.data as? [String: Any])?["landmarkAnnotations"] as? [[String:Any]] {
  for labelObj in labelArray {
    let landmarkName = labelObj["description"]
    let entityId = labelObj["mid"]
    let score = labelObj["score"]
    let bounds = labelObj["boundingPoly"]
    // Multiple locations are possible, e.g., the location of the depicted
    // landmark and the location the picture was taken.
    guard let locations = labelObj["locations"] as? [[String: [String: Any]]] else { continue }
    for location in locations {
      let latitude = location["latLng"]?["latitude"]
      let longitude = location["latLng"]?["longitude"]
    }
  }
}

Objective-C

NSArray *labelArray = result.data[@"landmarkAnnotations"];
for (NSDictionary *labelObj in labelArray) {
  NSString *landmarkName = labelObj[@"description"];
  NSString *entityId = labelObj[@"mid"];
  NSNumber *score = labelObj[@"score"];
  NSArray *bounds = labelObj[@"boundingPoly"];
  // Multiple locations are possible, e.g., the location of the depicted
  // landmark and the location the picture was taken.
  NSArray *locations = labelObj[@"locations"];
  for (NSDictionary *location in locations) {
    NSNumber *latitude = location[@"latLng"][@"latitude"];
    NSNumber *longitude = location[@"latLng"][@"longitude"];
  }
}