Aby wywoływać interfejs Google Cloud API z aplikacji, musisz utworzyć poziom pośredni Interfejs API typu REST, który obsługuje autoryzację i chroni wartości obiektów tajnych, takie jak klucze interfejsu API. Następnie wykonaj te czynności: napisz kod w aplikacji mobilnej, aby uwierzytelnić się w tej usłudze pośredniej i komunikować się z nią.
Jednym ze sposobów utworzenia tego interfejsu API typu REST jest skorzystanie z Uwierzytelniania i funkcji Firebase – udostępnia on zarządzaną, bezserwerową bramę do Interfejsy Google Cloud APIs, które obsługują uwierzytelnianie i można je wywoływać z aplikacji mobilnej za pomocą gotowych pakietów SDK.
Z tego przewodnika dowiesz się, jak za pomocą tej metody wywoływać interfejs Cloud Vision API z aplikacji. Ta metoda pozwoli wszystkim uwierzytelnionym użytkownikom na dostęp do płatnych usług Cloud Vision za pośrednictwem Twojego projektu Cloud, więc Zanim przejdziesz dalej, zastanów się, czy ten mechanizm uwierzytelniania jest wystarczający w Twoim przypadku użycia.
.Zanim zaczniesz
Konfigurowanie projektu
Jeśli nie masz jeszcze w aplikacji dodanej Firebase, wykonaj czynności podane w przewodniku dla początkujących.Użyj menedżera pakietów Swift, aby zainstalować zależności Firebase i nimi zarządzać.
- W Xcode po otwarciu projektu aplikacji przejdź do File > Dodaj pakiety.
- Gdy pojawi się prośba, dodaj repozytorium SDK platform Apple Platform SDK Firebase:
- Wybierz bibliotekę Firebase ML.
- Dodaj flagę
-ObjC
do sekcji Inne flagi łączące w ustawieniach kompilacji celu. - Po zakończeniu Xcode automatycznie rozpocznie rozpoznawanie i pobieranie lub zależności w tle.
https://github.com/firebase/firebase-ios-sdk.git
Następnie skonfiguruj w aplikacji:
- W aplikacji zaimportuj Firebase:
Swift
import FirebaseMLModelDownloader
Objective-C
@import FirebaseMLModelDownloader;
Jeszcze kilka kroków konfiguracyjnych i możemy zaczynać:
-
Jeśli w swoim projekcie nie włączono jeszcze interfejsów API działających w chmurze, zrób to. teraz:
- Otwórz Firebase ML Strona interfejsów API w konsoli Firebase.
-
Jeśli Twój projekt nie został jeszcze przeniesiony na abonament Blaze, kliknij Aby to zrobić, przejdź na wyższą wersję. (Prośba o uaktualnienie wyświetli się tylko wtedy, gdy projekt nie jest objęty abonamentem Blaze).
Tylko projekty na poziomie Blaze mogą korzystać z interfejsów API działających w chmurze.
- Jeśli interfejsy API działające w chmurze nie są włączone, kliknij Włącz działające w chmurze interfejsów API.
- Skonfiguruj istniejące klucze interfejsu API Firebase, aby zablokować dostęp do chmury
Interfejs Vision API:
- Otwórz stronę Dane logowania w konsoli Cloud.
- Dla każdego klucza interfejsu API na liście otwórz widok edycji i w polu Klucz Sekcja Ograniczenia; dodaj wszystkie dostępne interfejsy API oprócz Cloud Vision API.
Wdrażanie funkcji możliwej do wywołania
Następnie wdróż funkcję w Cloud Functions, której będziesz używać do mostu aplikacji i Cloud Functions
Vision API. Repozytorium functions-samples
zawiera przykład
których możesz użyć.
Domyślnie dostęp do interfejsu Cloud Vision API za pomocą tej funkcji pozwoli dostęp do interfejsu Cloud Vision API mają tylko uwierzytelnieni użytkownicy Twojej aplikacji. Dostępne opcje dostosować funkcję do różnych wymagań.
Aby wdrożyć funkcję:
- Skopiuj lub pobierz repozytoriumfunctions-samples.
i przejdź do katalogu
Node-1st-gen/vision-annotate-image
:git clone https://github.com/firebase/functions-samples
cd Node-1st-gen/vision-annotate-image
- Zainstaluj zależności:
cd functions
npm install
cd ..
- Jeśli nie masz interfejsu wiersza poleceń Firebase, zainstaluj go.
- Zainicjowanie projektu Firebase w
vision-annotate-image
katalogu. Gdy pojawi się prośba, wybierz projekt z listy.firebase init
- Wdróż funkcję:
firebase deploy --only functions:annotateImage
Dodaj Uwierzytelnianie Firebase do swojej aplikacji
Wdrożona powyżej funkcja wywoływana odrzuca wszystkie żądania pochodzące z nieuwierzytelnionych do użytkowników Twojej aplikacji. Dodaj Firebase, jeśli jeszcze nie zostało to zrobione Uwierzytelnianie w aplikacji.
Dodaj niezbędne zależności do aplikacji
Użyj menedżera pakietów Swift, aby zainstalować bibliotekę Cloud Functions dla Firebase.
Teraz możesz zacząć rozpoznawać tekst na obrazach.
1. Przygotowywanie obrazu wejściowego
Aby można było wywołać Cloud Vision, obraz musi być sformatowany w formacie base64 ciągu znaków. Aby przetworzyćUIImage
:
Swift
guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return } let base64encodedImage = imageData.base64EncodedString()
Objective-C
NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f); NSString *base64encodedImage = [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
2. Wywołaj funkcję wywoływania do rozpoznawania tekstu
Aby rozpoznać punkty orientacyjne na zdjęciu, wywołaj funkcję wywołującą Żądanie JSON Cloud Vision.Najpierw zainicjuj instancję Cloud Functions:
Swift
lazy var functions = Functions.functions()
Objective-C
@property(strong, nonatomic) FIRFunctions *functions;
Utwórz prośbę. Cloud Vision API obsługuje 2 typy wykrywania tekstu:
TEXT_DETECTION
iDOCUMENT_TEXT_DETECTION
. Zobacz dokumenty OCR w Cloud Vision różnic w tych 2 przypadkach użycia.Swift
let requestData = [ "image": ["content": base64encodedImage], "features": ["type": "TEXT_DETECTION"], "imageContext": ["languageHints": ["en"]] ]
Objective-C
NSDictionary *requestData = @{ @"image": @{@"content": base64encodedImage}, @"features": @{@"type": @"TEXT_DETECTION"}, @"imageContext": @{@"languageHints": @[@"en"]} };
Na koniec wywołaj funkcję:
Swift
do { let result = try await functions.httpsCallable("annotateImage").call(requestData) print(result) } catch { if let error = error as NSError? { if error.domain == FunctionsErrorDomain { let code = FunctionsErrorCode(rawValue: error.code) let message = error.localizedDescription let details = error.userInfo[FunctionsErrorDetailsKey] } // ... } }
Objective-C
[[_functions HTTPSCallableWithName:@"annotateImage"] callWithObject:requestData completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) { if (error) { if ([error.domain isEqualToString:@"com.firebase.functions"]) { FIRFunctionsErrorCode code = error.code; NSString *message = error.localizedDescription; NSObject *details = error.userInfo[@"details"]; } // ... } // Function completed succesfully // Get information about labeled objects }];
3. Wyodrębnianie tekstu z bloków rozpoznanego tekstu
Jeśli operacja rozpoznawania tekstu zakończy się powodzeniem, odpowiedź JSON o wartości
BatchAnnotateImagesResponse
zostaną zwrócone w wyniku zadania. Adnotacje tekstowe znajdują się w sekcji
fullTextAnnotation
.
Rozpoznany tekst wyświetli się jako ciąg w polu text
. Przykład:
Swift
let annotation = result.flatMap { $0.data as? [String: Any] }
.flatMap { $0["fullTextAnnotation"] }
.flatMap { $0 as? [String: Any] }
guard let annotation = annotation else { return }
if let text = annotation["text"] as? String {
print("Complete annotation: \(text)")
}
Objective-C
NSDictionary *annotation = result.data[@"fullTextAnnotation"];
if (!annotation) { return; }
NSLog(@"\nComplete annotation:");
NSLog(@"\n%@", annotation[@"text"]);
Możesz także uzyskać informacje dotyczące określonych regionów obrazu. W przypadku każdej wartości block
,
paragraph
, word
i symbol
, możesz włączyć rozpoznawanie tekstu w regionie
i współrzędne graniczne regionu. Przykład:
Swift
guard let pages = annotation["pages"] as? [[String: Any]] else { return }
for page in pages {
var pageText = ""
guard let blocks = page["blocks"] as? [[String: Any]] else { continue }
for block in blocks {
var blockText = ""
guard let paragraphs = block["paragraphs"] as? [[String: Any]] else { continue }
for paragraph in paragraphs {
var paragraphText = ""
guard let words = paragraph["words"] as? [[String: Any]] else { continue }
for word in words {
var wordText = ""
guard let symbols = word["symbols"] as? [[String: Any]] else { continue }
for symbol in symbols {
let text = symbol["text"] as? String ?? ""
let confidence = symbol["confidence"] as? Float ?? 0.0
wordText += text
print("Symbol text: \(text) (confidence: \(confidence)%n")
}
let confidence = word["confidence"] as? Float ?? 0.0
print("Word text: \(wordText) (confidence: \(confidence)%n%n")
let boundingBox = word["boundingBox"] as? [Float] ?? [0.0, 0.0, 0.0, 0.0]
print("Word bounding box: \(boundingBox.description)%n")
paragraphText += wordText
}
print("%nParagraph: %n\(paragraphText)%n")
let boundingBox = paragraph["boundingBox"] as? [Float] ?? [0.0, 0.0, 0.0, 0.0]
print("Paragraph bounding box: \(boundingBox)%n")
let confidence = paragraph["confidence"] as? Float ?? 0.0
print("Paragraph Confidence: \(confidence)%n")
blockText += paragraphText
}
pageText += blockText
}
}
Objective-C
for (NSDictionary *page in annotation[@"pages"]) {
NSMutableString *pageText = [NSMutableString new];
for (NSDictionary *block in page[@"blocks"]) {
NSMutableString *blockText = [NSMutableString new];
for (NSDictionary *paragraph in block[@"paragraphs"]) {
NSMutableString *paragraphText = [NSMutableString new];
for (NSDictionary *word in paragraph[@"words"]) {
NSMutableString *wordText = [NSMutableString new];
for (NSDictionary *symbol in word[@"symbols"]) {
NSString *text = symbol[@"text"];
[wordText appendString:text];
NSLog(@"Symbol text: %@ (confidence: %@\n", text, symbol[@"confidence"]);
}
NSLog(@"Word text: %@ (confidence: %@\n\n", wordText, word[@"confidence"]);
NSLog(@"Word bounding box: %@\n", word[@"boundingBox"]);
[paragraphText appendString:wordText];
}
NSLog(@"\nParagraph: \n%@\n", paragraphText);
NSLog(@"Paragraph bounding box: %@\n", paragraph[@"boundingBox"]);
NSLog(@"Paragraph Confidence: %@\n", paragraph[@"confidence"]);
[blockText appendString:paragraphText];
}
[pageText appendString:blockText];
}
}