برای فراخوانی Google Cloud API از برنامه خود، باید یک REST API میانی ایجاد کنید که مجوزها را کنترل می کند و از مقادیر مخفی مانند کلیدهای API محافظت می کند. سپس برای احراز هویت و برقراری ارتباط با این سرویس میانی، باید کدی را در اپلیکیشن موبایل خود بنویسید.
یکی از راههای ایجاد این API REST استفاده از احراز هویت و توابع Firebase است که یک دروازه مدیریتشده و بدون سرور به APIهای Google Cloud ارائه میکند که احراز هویت را مدیریت میکند و میتواند از برنامه تلفن همراه شما با SDKهای از پیش ساخته شده فراخوانی شود.
این راهنما نشان می دهد که چگونه از این تکنیک برای فراخوانی Cloud Vision API از برنامه خود استفاده کنید. این روش به همه کاربران احراز هویت شده اجازه میدهد از طریق پروژه Cloud شما به خدمات صورتحساب Cloud Vision دسترسی داشته باشند، بنابراین قبل از ادامه، بررسی کنید که آیا این مکانیسم تأیید برای مورد استفاده شما کافی است یا خیر.
قبل از شروع
پروژه خود را پیکربندی کنید
اگر قبلاً Firebase را به برنامه خود اضافه نکرده اید، این کار را با دنبال کردن مراحل راهنمای شروع کار انجام دهید.برای نصب و مدیریت وابستگی های Firebase از Swift Package Manager استفاده کنید.
- در Xcode، با باز بودن پروژه برنامه، به File > Add Packages بروید.
- وقتی از شما خواسته شد، مخزن SDK پلتفرم های Apple Firebase را اضافه کنید:
- کتابخانه Firebase ML را انتخاب کنید.
- پرچم
-ObjC
را به بخش Other Linker Flags تنظیمات ساخت هدف خود اضافه کنید. - پس از اتمام، Xcode به طور خودکار شروع به حل و دانلود وابستگی های شما در پس زمینه می کند.
https://github.com/firebase/firebase-ios-sdk.git
در مرحله بعد، تنظیمات درون برنامه ای را انجام دهید:
- در برنامه خود، Firebase را وارد کنید:
سویفت
import FirebaseMLModelDownloader
هدف-C
@import FirebaseMLModelDownloader;
چند مرحله دیگر پیکربندی، و ما آماده هستیم:
اگر قبلاً API های مبتنی بر Cloud را برای پروژه خود فعال نکرده اید، اکنون این کار را انجام دهید:
- صفحه Firebase ML APIs کنسول Firebase را باز کنید.
اگر قبلاً پروژه خود را به طرح قیمت گذاری Blaze ارتقا نداده اید، برای انجام این کار روی Upgrade کلیک کنید. (فقط اگر پروژه شما در طرح Blaze نباشد، از شما خواسته می شود که ارتقا دهید.)
فقط پروژه های سطح Blaze می توانند از API های مبتنی بر ابر استفاده کنند.
- اگر APIهای مبتنی بر Cloud قبلاً فعال نشدهاند، روی Enable Cloud-based APIs کلیک کنید.
- کلیدهای Firebase API موجود خود را برای جلوگیری از دسترسی به Cloud Vision API پیکربندی کنید:
- صفحه Credentials کنسول Cloud را باز کنید.
- برای هر کلید API در لیست، نمای ویرایش را باز کنید و در قسمت Key Restrictions، همه API های موجود به جز Cloud Vision API را به لیست اضافه کنید.
تابع فراخوانی را اجرا کنید
در مرحله بعد، Cloud Function را که برای پل زدن برنامه خود و Cloud Vision API استفاده خواهید کرد، مستقر کنید. مخزن functions-samples
حاوی مثالی است که می توانید از آن استفاده کنید.
بهطور پیشفرض، دسترسی به Cloud Vision API از طریق این تابع به کاربران تأیید شده برنامه شما اجازه میدهد به Cloud Vision API دسترسی داشته باشند. شما می توانید عملکرد را برای نیازهای مختلف تغییر دهید.
برای استقرار تابع:
- مخزن functions-samples را کلون یا دانلود کنید و به فهرست
Node-1st-gen/vision-annotate-image
تغییر دهید:git clone https://github.com/firebase/functions-samples
cd Node-1st-gen/vision-annotate-image
- نصب وابستگی ها:
cd functions
npm install
cd ..
- اگر Firebase CLI را ندارید، آن را نصب کنید .
- یک پروژه Firebase را در دایرکتوری
vision-annotate-image
راه اندازی کنید. وقتی از شما خواسته شد، پروژه خود را در لیست انتخاب کنید.firebase init
- استقرار تابع:
firebase deploy --only functions:annotateImage
Firebase Auth را به برنامه خود اضافه کنید
تابع قابل فراخوانی که در بالا مستقر شده است، هر درخواستی از سوی کاربران غیراصالتآمیز برنامه شما را رد میکند. اگر قبلاً این کار را نکردهاید، باید Firebase Auth را به برنامه خود اضافه کنید.
وابستگی های لازم را به برنامه خود اضافه کنید
از Swift Package Manager برای نصب کتابخانه Cloud Functions برای Firebase استفاده کنید.
1. تصویر ورودی را آماده کنید
برای فراخوانی Cloud Vision، تصویر باید به عنوان یک رشته کدگذاری شده با base64 فرمت شود. برای پردازش یکUIImage
: سویفت
guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return } let base64encodedImage = imageData.base64EncodedString()
هدف-C
NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f); NSString *base64encodedImage = [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
2. برای تشخیص نشانه ها، تابع قابل فراخوانی را فراخوانی کنید
برای تشخیص نشانهها در یک تصویر، تابع قابل فراخوانی را با ارسال درخواست JSON Cloud Vision فراخوانی کنید.ابتدا یک نمونه از توابع ابری را مقداردهی اولیه کنید:
سویفت
lazy var functions = Functions.functions()
هدف-C
@property(strong, nonatomic) FIRFunctions *functions;
یک درخواست با نوع تنظیم شده روی
LANDMARK_DETECTION
ایجاد کنید:سویفت
let requestData = [ "image": ["content": base64encodedImage], "features": ["maxResults": 5, "type": "LANDMARK_DETECTION"] ]
هدف-C
NSDictionary *requestData = @{ @"image": @{@"content": base64encodedImage}, @"features": @{@"maxResults": @5, @"type": @"LANDMARK_DETECTION"} };
در نهایت تابع را فراخوانی کنید:
سویفت
do { let result = try await functions.httpsCallable("annotateImage").call(requestData) print(result) } catch { if let error = error as NSError? { if error.domain == FunctionsErrorDomain { let code = FunctionsErrorCode(rawValue: error.code) let message = error.localizedDescription let details = error.userInfo[FunctionsErrorDetailsKey] } // ... } }
هدف-C
[[_functions HTTPSCallableWithName:@"annotateImage"] callWithObject:requestData completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) { if (error) { if ([error.domain isEqualToString:@"com.firebase.functions"]) { FIRFunctionsErrorCode code = error.code; NSString *message = error.localizedDescription; NSObject *details = error.userInfo[@"details"]; } // ... } // Function completed succesfully // Get information about labeled objects }];
3. اطلاعاتی در مورد نشانه های شناخته شده دریافت کنید
اگر عملیات تشخیص نقطه عطف با موفقیت انجام شود، پاسخ JSON BatchAnnotateImagesResponse در نتیجه کار برگردانده می شود. هر شی در آرایه landmarkAnnotations
نشان دهنده نقطه عطفی است که در تصویر شناسایی شده است. برای هر نقطه عطف، میتوانید مختصات مرزی آن را در تصویر ورودی، نام نقطه عطف، طول و عرض جغرافیایی، شناسه موجودیت نمودار دانش (در صورت موجود بودن)، و امتیاز اطمینان از مسابقه را دریافت کنید. به عنوان مثال:
سویفت
if let labelArray = (result?.data as? [String: Any])?["landmarkAnnotations"] as? [[String:Any]] {
for labelObj in labelArray {
let landmarkName = labelObj["description"]
let entityId = labelObj["mid"]
let score = labelObj["score"]
let bounds = labelObj["boundingPoly"]
// Multiple locations are possible, e.g., the location of the depicted
// landmark and the location the picture was taken.
guard let locations = labelObj["locations"] as? [[String: [String: Any]]] else { continue }
for location in locations {
let latitude = location["latLng"]?["latitude"]
let longitude = location["latLng"]?["longitude"]
}
}
}
هدف-C
NSArray *labelArray = result.data[@"landmarkAnnotations"];
for (NSDictionary *labelObj in labelArray) {
NSString *landmarkName = labelObj[@"description"];
NSString *entityId = labelObj[@"mid"];
NSNumber *score = labelObj[@"score"];
NSArray *bounds = labelObj[@"boundingPoly"];
// Multiple locations are possible, e.g., the location of the depicted
// landmark and the location the picture was taken.
NSArray *locations = labelObj[@"locations"];
for (NSDictionary *location in locations) {
NSNumber *latitude = location[@"latLng"][@"latitude"];
NSNumber *longitude = location[@"latLng"][@"longitude"];
}
}