Aby wywołać interfejs Google Cloud API z aplikacji, musisz utworzyć pośredni interfejs REST API, który będzie obsługiwać autoryzację i chronić tajne wartości, takie jak klucze interfejsu API. Następnie musisz napisać kod w aplikacji mobilnej, aby uwierzytelnić się w tej usłudze pośredniej i komunikować się z nią.
Jednym ze sposobów utworzenia tego interfejsu API REST jest użycie Uwierzytelniania Firebase i Funkcji, które zapewniają zarządzaną, bezserwerową bramę do Cloud APIs, która obsługuje uwierzytelnianie i może być wywoływana z aplikacji mobilnej za pomocą gotowych pakietów SDK.
W tym przewodniku pokazujemy, jak używać tej techniki do wywoływania interfejsu Cloud Vision API z poziomu aplikacji. Ta metoda umożliwia wszystkim uwierzytelnionym użytkownikom dostęp do płatnych usług Cloud Vision za pomocą Twojego projektu w chmurze. Zanim przejdziesz dalej, zastanów się, czy ten mechanizm autoryzacji jest wystarczający w Twoim przypadku.
Zanim zaczniesz
Skonfiguruj projekt
- Jeśli nie korzystasz jeszcze z Firebase, dodaj tę usługę do projektu aplikacji na Androida.
-
Jeśli nie masz jeszcze włączonych interfejsów API opartych na chmurze w swoim projekcie, zrób to teraz:
- Otwórz Firebase MLstronę Interfejsy API w konsoli Firebase.
-
Jeśli nie masz jeszcze projektu w abonamencie Blaze z płatnością za wykorzystane zasoby, kliknij Uaktualnij. (Prośba o uaktualnienie pojawi się tylko wtedy, gdy projekt nie jest objęty abonamentem Blaze).
Tylko projekty w ramach abonamentu Blaze mogą korzystać z interfejsów API opartych na chmurze.
- Jeśli interfejsy API oparte na chmurze nie są jeszcze włączone, kliknij Włącz interfejsy API oparte na chmurze.
- Skonfiguruj istniejące klucze interfejsu Firebase API, aby zablokować dostęp do interfejsu Cloud Vision API:
- Otwórz stronę Dane logowania w konsoli Cloud.
- W przypadku każdego klucza interfejsu API na liście otwórz widok edycji i w sekcji Ograniczenia klucza dodaj do listy wszystkie dostępne interfejsy API z wyjątkiem interfejsu Cloud Vision API.
Wdrażanie funkcji wywoływanej
Następnie wdróż funkcję Cloud Functions, która będzie łączyć Twoją aplikację z interfejsem Cloud Vision API. W repozytorium functions-samples znajdziesz przykładowy plik, którego możesz użyć.
Domyślnie dostęp do interfejsu Cloud Vision API za pomocą tej funkcji będzie możliwy tylko dla uwierzytelnionych użytkowników aplikacji. Możesz zmodyfikować funkcję, aby dostosować ją do różnych wymagań.
Aby wdrożyć funkcję:
- Skopiuj lub pobierz repozytorium functions-samples
i przejdź do katalogu
Node-1st-gen/vision-annotate-image:git clone https://github.com/firebase/functions-samplescd Node-1st-gen/vision-annotate-image - Zainstaluj zależności:
cd functionsnpm installcd .. - Jeśli nie masz wiersza poleceń Firebase, zainstaluj go.
- Zainicjuj projekt w Firebase w katalogu
vision-annotate-image. Gdy pojawi się prośba, wybierz projekt z listy.firebase init
- Wdróż funkcję:
firebase deploy --only functions:annotateImage
Dodawanie Uwierzytelniania Firebase do aplikacji
Wdrożona powyżej funkcja wywoływana odrzuci każde żądanie od nieuwierzytelnionych użytkowników aplikacji. Jeśli jeszcze tego nie zrobisz, musisz dodać do aplikacji Firebase Authentication.
Dodawanie do aplikacji niezbędnych zależności
<project>/<app-module>/build.gradle.kts lub <project>/<app-module>/build.gradle):
implementation("com.google.firebase:firebase-functions:22.1.0") implementation("com.google.code.gson:gson:2.8.6")
Możesz już rozpocząć rozpoznawanie tekstu na obrazach.
1. Przygotowywanie obrazu wejściowego
Aby wywołać Cloud Vision, obraz musi być sformatowany jako ciąg tekstowy zakodowany w formacie base64. Aby przetworzyć obraz z zapisanego identyfikatora URI pliku:- Pobierz obraz jako obiekt
Bitmap:Kotlin
var bitmap: Bitmap = MediaStore.Images.Media.getBitmap(contentResolver, uri)
Java
Bitmap bitmap = MediaStore.Images.Media.getBitmap(getContentResolver(), uri);
- Opcjonalnie możesz zmniejszyć rozmiar obrazu, aby zaoszczędzić przepustowość. Zobacz
zalecane rozmiary obrazów w Cloud Vision.
Kotlin
private fun scaleBitmapDown(bitmap: Bitmap, maxDimension: Int): Bitmap { val originalWidth = bitmap.width val originalHeight = bitmap.height var resizedWidth = maxDimension var resizedHeight = maxDimension if (originalHeight > originalWidth) { resizedHeight = maxDimension resizedWidth = (resizedHeight * originalWidth.toFloat() / originalHeight.toFloat()).toInt() } else if (originalWidth > originalHeight) { resizedWidth = maxDimension resizedHeight = (resizedWidth * originalHeight.toFloat() / originalWidth.toFloat()).toInt() } else if (originalHeight == originalWidth) { resizedHeight = maxDimension resizedWidth = maxDimension } return Bitmap.createScaledBitmap(bitmap, resizedWidth, resizedHeight, false) }
Java
private Bitmap scaleBitmapDown(Bitmap bitmap, int maxDimension) { int originalWidth = bitmap.getWidth(); int originalHeight = bitmap.getHeight(); int resizedWidth = maxDimension; int resizedHeight = maxDimension; if (originalHeight > originalWidth) { resizedHeight = maxDimension; resizedWidth = (int) (resizedHeight * (float) originalWidth / (float) originalHeight); } else if (originalWidth > originalHeight) { resizedWidth = maxDimension; resizedHeight = (int) (resizedWidth * (float) originalHeight / (float) originalWidth); } else if (originalHeight == originalWidth) { resizedHeight = maxDimension; resizedWidth = maxDimension; } return Bitmap.createScaledBitmap(bitmap, resizedWidth, resizedHeight, false); }
Kotlin
// Scale down bitmap size bitmap = scaleBitmapDown(bitmap, 640)
Java
// Scale down bitmap size bitmap = scaleBitmapDown(bitmap, 640);
- Przekonwertuj obiekt bitmapy na ciąg znaków zakodowany w formacie Base64:
Kotlin
// Convert bitmap to base64 encoded string val byteArrayOutputStream = ByteArrayOutputStream() bitmap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutputStream) val imageBytes: ByteArray = byteArrayOutputStream.toByteArray() val base64encoded = Base64.encodeToString(imageBytes, Base64.NO_WRAP)
Java
// Convert bitmap to base64 encoded string ByteArrayOutputStream byteArrayOutputStream = new ByteArrayOutputStream(); bitmap.compress(Bitmap.CompressFormat.JPEG, 100, byteArrayOutputStream); byte[] imageBytes = byteArrayOutputStream.toByteArray(); String base64encoded = Base64.encodeToString(imageBytes, Base64.NO_WRAP);
Obraz reprezentowany przez obiekt
Bitmap musi być w pozycji pionowej i nie wymagać dodatkowego obracania.
2. Wywołaj funkcję wywoływalną, aby rozpoznać tekst
Aby rozpoznać tekst na obrazie, wywołaj funkcję wywoływalną, przekazując żądanie JSON Cloud Vision.
Najpierw zainicjuj instancję Cloud Functions:
Kotlin
private lateinit var functions: FirebaseFunctions // ... functions = Firebase.functionsJava
private FirebaseFunctions mFunctions; // ... mFunctions = FirebaseFunctions.getInstance();Zdefiniuj metodę wywoływania funkcji:
Kotlin
private fun annotateImage(requestJson: String): Task<JsonElement> { return functions .getHttpsCallable("annotateImage") .call(requestJson) .continueWith { task -> // This continuation runs on either success or failure, but if the task // has failed then result will throw an Exception which will be // propagated down. val result = task.result?.data JsonParser.parseString(Gson().toJson(result)) } }Java
private Task<JsonElement> annotateImage(String requestJson) { return mFunctions .getHttpsCallable("annotateImage") .call(requestJson) .continueWith(new Continuation<HttpsCallableResult, JsonElement>() { @Override public JsonElement then(@NonNull Task<HttpsCallableResult> task) { // This continuation runs on either success or failure, but if the task // has failed then getResult() will throw an Exception which will be // propagated down. return JsonParser.parseString(new Gson().toJson(task.getResult().getData())); } }); }Utwórz żądanie JSON. Interfejs Cloud Vision API obsługuje 2 typy wykrywania tekstu:
TEXT_DETECTIONiDOCUMENT_TEXT_DETECTION. Różnice między tymi dwoma przypadkami użycia znajdziesz w dokumentacji OCR Cloud Vision.Kotlin
// Create json request to cloud vision val request = JsonObject() // Add image to request val image = JsonObject() image.add("content", JsonPrimitive(base64encoded)) request.add("image", image) // Add features to the request val feature = JsonObject() feature.add("type", JsonPrimitive("TEXT_DETECTION")) // Alternatively, for DOCUMENT_TEXT_DETECTION: // feature.add("type", JsonPrimitive("DOCUMENT_TEXT_DETECTION")) val features = JsonArray() features.add(feature) request.add("features", features)Java
// Create json request to cloud vision JsonObject request = new JsonObject(); // Add image to request JsonObject image = new JsonObject(); image.add("content", new JsonPrimitive(base64encoded)); request.add("image", image); //Add features to the request JsonObject feature = new JsonObject(); feature.add("type", new JsonPrimitive("TEXT_DETECTION")); // Alternatively, for DOCUMENT_TEXT_DETECTION: //feature.add("type", new JsonPrimitive("DOCUMENT_TEXT_DETECTION")); JsonArray features = new JsonArray(); features.add(feature); request.add("features", features);Opcjonalnie podaj wskazówki dotyczące języka, aby ułatwić wykrywanie języka (zobacz obsługiwane języki):
Kotlin
val imageContext = JsonObject() val languageHints = JsonArray() languageHints.add("en") imageContext.add("languageHints", languageHints) request.add("imageContext", imageContext)Java
JsonObject imageContext = new JsonObject(); JsonArray languageHints = new JsonArray(); languageHints.add("en"); imageContext.add("languageHints", languageHints); request.add("imageContext", imageContext);Na koniec wywołaj funkcję:
Kotlin
annotateImage(request.toString()) .addOnCompleteListener { task -> if (!task.isSuccessful) { // Task failed with an exception // ... } else { // Task completed successfully // ... } }Java
annotateImage(request.toString()) .addOnCompleteListener(new OnCompleteListener<JsonElement>() { @Override public void onComplete(@NonNull Task<JsonElement> task) { if (!task.isSuccessful()) { // Task failed with an exception // ... } else { // Task completed successfully // ... } } });
3. Wyodrębnianie tekstu z bloków rozpoznanego tekstu
Jeśli operacja rozpoznawania tekstu się powiedzie, w wyniku zadania zostanie zwrócona odpowiedź JSON w formacie BatchAnnotateImagesResponse. Adnotacje tekstowe znajdziesz w obiekciefullTextAnnotation.
Rozpoznany tekst możesz uzyskać jako ciąg tekstowy w polu text. Przykład:
Kotlin
val annotation = task.result!!.asJsonArray[0].asJsonObject["fullTextAnnotation"].asJsonObject
System.out.format("%nComplete annotation:")
System.out.format("%n%s", annotation["text"].asString)
Java
JsonObject annotation = task.getResult().getAsJsonArray().get(0).getAsJsonObject().get("fullTextAnnotation").getAsJsonObject();
System.out.format("%nComplete annotation:%n");
System.out.format("%s%n", annotation.get("text").getAsString());
Możesz też uzyskać informacje dotyczące konkretnych obszarów obrazu. W przypadku każdego z tych elementów: block, paragraph, word i symbol możesz uzyskać tekst rozpoznany w regionie oraz współrzędne ograniczające region. Przykład:
Kotlin
for (page in annotation["pages"].asJsonArray) {
var pageText = ""
for (block in page.asJsonObject["blocks"].asJsonArray) {
var blockText = ""
for (para in block.asJsonObject["paragraphs"].asJsonArray) {
var paraText = ""
for (word in para.asJsonObject["words"].asJsonArray) {
var wordText = ""
for (symbol in word.asJsonObject["symbols"].asJsonArray) {
wordText += symbol.asJsonObject["text"].asString
System.out.format(
"Symbol text: %s (confidence: %f)%n",
symbol.asJsonObject["text"].asString,
symbol.asJsonObject["confidence"].asFloat,
)
}
System.out.format(
"Word text: %s (confidence: %f)%n%n",
wordText,
word.asJsonObject["confidence"].asFloat,
)
System.out.format("Word bounding box: %s%n", word.asJsonObject["boundingBox"])
paraText = String.format("%s%s ", paraText, wordText)
}
System.out.format("%nParagraph: %n%s%n", paraText)
System.out.format("Paragraph bounding box: %s%n", para.asJsonObject["boundingBox"])
System.out.format("Paragraph Confidence: %f%n", para.asJsonObject["confidence"].asFloat)
blockText += paraText
}
pageText += blockText
}
}
Java
for (JsonElement page : annotation.get("pages").getAsJsonArray()) {
StringBuilder pageText = new StringBuilder();
for (JsonElement block : page.getAsJsonObject().get("blocks").getAsJsonArray()) {
StringBuilder blockText = new StringBuilder();
for (JsonElement para : block.getAsJsonObject().get("paragraphs").getAsJsonArray()) {
StringBuilder paraText = new StringBuilder();
for (JsonElement word : para.getAsJsonObject().get("words").getAsJsonArray()) {
StringBuilder wordText = new StringBuilder();
for (JsonElement symbol : word.getAsJsonObject().get("symbols").getAsJsonArray()) {
wordText.append(symbol.getAsJsonObject().get("text").getAsString());
System.out.format("Symbol text: %s (confidence: %f)%n", symbol.getAsJsonObject().get("text").getAsString(), symbol.getAsJsonObject().get("confidence").getAsFloat());
}
System.out.format("Word text: %s (confidence: %f)%n%n", wordText.toString(), word.getAsJsonObject().get("confidence").getAsFloat());
System.out.format("Word bounding box: %s%n", word.getAsJsonObject().get("boundingBox"));
paraText.append(wordText.toString()).append(" ");
}
System.out.format("%nParagraph:%n%s%n", paraText);
System.out.format("Paragraph bounding box: %s%n", para.getAsJsonObject().get("boundingBox"));
System.out.format("Paragraph Confidence: %f%n", para.getAsJsonObject().get("confidence").getAsFloat());
blockText.append(paraText);
}
pageText.append(blockText);
}
}