Google 致力于为黑人社区推动种族平等。查看具体举措

Используйте модель TensorFlow Lite для вывода с помощью ML Kit на Android

Вы можете использовать ML Kit для выполнения на устройстве вывода с TensorFlow Lite модели.

Для этого API требуется Android SDK уровня 16 (Jelly Bean) или новее.

Прежде чем вы начнете

  1. Если вы еще не сделали, добавить Firebase в свой Android проекта .
  2. Добавьте зависимости для библиотек ML Kit Android для вашего модуля (приложение уровня) Gradle файл (обычно app/build.gradle ):
    apply plugin: 'com.android.application'
    apply plugin: 'com.google.gms.google-services'
    
    dependencies {
      // ...
    
      implementation 'com.google.firebase:firebase-ml-model-interpreter:22.0.3'
    }
    
  3. Преобразуйте модель TensorFlow, которую вы хотите использовать, в формат TensorFlow Lite. См Токо: TensorFlow Lite Оптимизация конвертер .

Разместите или свяжите свою модель

Прежде чем вы сможете использовать модель TensorFlow Lite для вывода в своем приложении, вы должны сделать модель доступной для ML Kit. ML Kit может использовать модели TensorFlow Lite, размещенные удаленно с помощью Firebase, в комплекте с двоичным приложением или и то, и другое.

Разместив модель в Firebase, вы можете обновить модель, не выпуская новую версию приложения, и вы можете использовать удаленную конфигурацию и A / B-тестирование для динамического обслуживания различных моделей для разных групп пользователей.

Если вы решите предоставлять модель только путем размещения ее в Firebase, а не связывать ее со своим приложением, вы можете уменьшить начальный размер загрузки своего приложения. Однако имейте в виду, что если модель не связана с вашим приложением, любые связанные с ней функции не будут доступны до тех пор, пока ваше приложение не загрузит модель в первый раз.

Связывая свою модель с приложением, вы можете гарантировать, что функции машинного обучения вашего приложения по-прежнему работают, когда модель, размещенная в Firebase, недоступна.

Размещение моделей в Firebase

Чтобы разместить модель TensorFlow Lite в Firebase:

  1. В разделе ML Kit от Firebase консоли выберите вкладку Пользовательская.
  2. Нажмите кнопку Добавить пользовательскую модель (или добавить другую модель).
  3. Укажите имя , которое будет использоваться для идентификации вашей модели в проекте Firebase, а затем загрузить файл модели TensorFlow Lite (обычно заканчивается в .tflite или .lite ).
  4. В вашем приложении манифест, заявить , что требуется разрешение INTERNET:
    <uses-permission android:name="android.permission.INTERNET" />
    

После добавления пользовательской модели в проект Firebase вы можете ссылаться на модель в своих приложениях, используя указанное вами имя. В любой момент вы можете загрузить новую модель TensorFlow Lite, и ваше приложение загрузит новую модель и начнет использовать ее при следующем перезапуске приложения. Вы можете определить условия устройства, необходимые для вашего приложения, чтобы попытаться обновить модель (см. Ниже).

Связывайте модели с приложением

Чтобы связать модель TensorFlow Lite с приложением, скопируйте файл модели (обычно заканчивающийся в .tflite или .lite ) для вашего приложения assets/ папки. (Вы , возможно , потребуется создать папку первых , щелкнув правой кнопкой мыши на app/ папку, затем щелкните Создать> Папка> Активы папки.)

Затем, добавьте следующие строки в ваше приложении build.gradle файла , чтобы обеспечить Gradle не сжимает модели при создании приложения:

android {

    // ...

    aaptOptions {
        noCompress "tflite"  // Your model's file extension: "tflite", "lite", etc.
    }
}

Файл модели будет включен в пакет приложения и доступен для ML Kit в качестве исходного ресурса.

Загрузите модель

Чтобы использовать модель TensorFlow Lite в своем приложении, сначала настройте ML Kit в соответствии с местоположениями, в которых доступна ваша модель: удаленно с помощью Firebase, в локальном хранилище или и то, и другое. Если вы укажете и локальную, и удаленную модель, вы можете использовать удаленную модель, если она доступна, и вернуться к модели, хранящейся локально, если удаленная модель недоступна.

Настроить модель, размещенную в Firebase

Если вы принимали модель с Firebase, создать FirebaseCustomRemoteModel объект, указав имя присвоенного модель , когда вы загрузили его:

Джава

FirebaseCustomRemoteModel remoteModel =
        new FirebaseCustomRemoteModel.Builder("your_model").build();

Котлин + KTX

val remoteModel = FirebaseCustomRemoteModel.Builder("your_model").build()

Затем запустите задачу загрузки модели, указав условия, при которых вы хотите разрешить загрузку. Если модели нет на устройстве или доступна более новая версия модели, задача асинхронно загрузит модель из Firebase:

Джава

FirebaseModelDownloadConditions conditions = new FirebaseModelDownloadConditions.Builder()
        .requireWifi()
        .build();
FirebaseModelManager.getInstance().download(remoteModel, conditions)
        .addOnCompleteListener(new OnCompleteListener<Void>() {
            @Override
            public void onComplete(@NonNull Task<Void> task) {
                // Success.
            }
        });

Котлин + KTX

val conditions = FirebaseModelDownloadConditions.Builder()
    .requireWifi()
    .build()
FirebaseModelManager.getInstance().download(remoteModel, conditions)
    .addOnCompleteListener {
        // Success.
    }

Многие приложения запускают задачу загрузки в своем коде инициализации, но вы можете сделать это в любой момент, прежде чем вам понадобится использовать модель.

Настроить локальную модель

Если в комплекте модели с вашим приложением, создайте FirebaseCustomLocalModel объект, указав имя файла модели TensorFlow Lite:

Джава

FirebaseCustomLocalModel localModel = new FirebaseCustomLocalModel.Builder()
        .setAssetFilePath("your_model.tflite")
        .build();

Котлин + KTX

val localModel = FirebaseCustomLocalModel.Builder()
    .setAssetFilePath("your_model.tflite")
    .build()

Создайте интерпретатор по вашей модели

После настройки источников модели, создать FirebaseModelInterpreter объект из одного из них.

Если у вас есть только локально комплектация модели, просто создать интерпретатор из вашего FirebaseCustomLocalModel объекта:

Джава

FirebaseModelInterpreter interpreter;
try {
    FirebaseModelInterpreterOptions options =
            new FirebaseModelInterpreterOptions.Builder(localModel).build();
    interpreter = FirebaseModelInterpreter.getInstance(options);
} catch (FirebaseMLException e) {
    // ...
}

Котлин + KTX

val options = FirebaseModelInterpreterOptions.Builder(localModel).build()
val interpreter = FirebaseModelInterpreter.getInstance(options)

Если у вас есть удаленно размещенная модель, вам нужно будет убедиться, что она была загружена, прежде чем запускать ее. Вы можете проверить состояние задачи модели загрузки с использованием модели менеджер isModelDownloaded() метода.

Хотя вам нужно только подтвердить это перед запуском интерпретатора, если у вас есть как модель с удаленным размещением, так и модель с локальным пакетом, может иметь смысл выполнить эту проверку при создании экземпляра интерпретатора модели: создайте интерпретатор из удаленной модели, если он был загружен, а в противном случае - из локальной модели.

Джава

FirebaseModelManager.getInstance().isModelDownloaded(remoteModel)
        .addOnSuccessListener(new OnSuccessListener<Boolean>() {
            @Override
            public void onSuccess(Boolean isDownloaded) {
                FirebaseModelInterpreterOptions options;
                if (isDownloaded) {
                    options = new FirebaseModelInterpreterOptions.Builder(remoteModel).build();
                } else {
                    options = new FirebaseModelInterpreterOptions.Builder(localModel).build();
                }
                FirebaseModelInterpreter interpreter = FirebaseModelInterpreter.getInstance(options);
                // ...
            }
        });

Котлин + KTX

FirebaseModelManager.getInstance().isModelDownloaded(remoteModel)
    .addOnSuccessListener { isDownloaded -> 
    val options =
        if (isDownloaded) {
            FirebaseModelInterpreterOptions.Builder(remoteModel).build()
        } else {
            FirebaseModelInterpreterOptions.Builder(localModel).build()
        }
    val interpreter = FirebaseModelInterpreter.getInstance(options)
}

Если у вас есть только модель, размещенная на удаленном хосте, вам следует отключить связанные с моделью функции - например, выделение серым цветом или скрытие части пользовательского интерфейса - до тех пор, пока вы не подтвердите, что модель была загружена. Вы можете сделать это путем присоединения слушателя к модельному менеджера download() метод:

Джава

FirebaseModelManager.getInstance().download(remoteModel, conditions)
        .addOnSuccessListener(new OnSuccessListener<Void>() {
            @Override
            public void onSuccess(Void v) {
              // Download complete. Depending on your app, you could enable
              // the ML feature, or switch from the local model to the remote
              // model, etc.
            }
        });

Котлин + KTX

FirebaseModelManager.getInstance().download(remoteModel, conditions)
    .addOnCompleteListener {
        // Download complete. Depending on your app, you could enable the ML
        // feature, or switch from the local model to the remote model, etc.
    }

Укажите вход и выход модели

Затем настройте форматы ввода и вывода интерпретатора модели.

Модель TensorFlow Lite принимает в качестве входных данных и создает в качестве выходных данных один или несколько многомерных массивов. Эти массивы содержат либо byte , int , long или float значения. Вы должны настроить ML Kit с учетом количества и размеров («формы») массивов, используемых вашей моделью.

Если вы не знаете форму и тип данных ввода и вывода вашей модели, вы можете использовать интерпретатор Python TensorFlow Lite для проверки вашей модели. Например:

import tensorflow as tf

interpreter = tf.lite.Interpreter(model_path="my_model.tflite")
interpreter.allocate_tensors()

# Print input shape and type
print(interpreter.get_input_details()[0]['shape'])  # Example: [1 224 224 3]
print(interpreter.get_input_details()[0]['dtype'])  # Example: <class 'numpy.float32'>

# Print output shape and type
print(interpreter.get_output_details()[0]['shape'])  # Example: [1 1000]
print(interpreter.get_output_details()[0]['dtype'])  # Example: <class 'numpy.float32'>

После того как вы определили формат ввода и вывода вашей модели, вы можете настроить модель переводчика вашего приложения путем создания FirebaseModelInputOutputOptions объекта.

Так , например, с плавающей точкой изображения модели классификации может принимать в качестве входных данных в N x224x224x3 массив float значений, представляющая партию N 224x224 три канала (RGB) изображения, и производить в качестве вывода список 1000 float значений, каждые из которых представляет Вероятность того, что изображение является членом одной из 1000 категорий, предсказываемых моделью.

Для такой модели вы должны настроить ввод и вывод интерпретатора модели, как показано ниже:

Джава

FirebaseModelInputOutputOptions inputOutputOptions =
        new FirebaseModelInputOutputOptions.Builder()
                .setInputFormat(0, FirebaseModelDataType.FLOAT32, new int[]{1, 224, 224, 3})
                .setOutputFormat(0, FirebaseModelDataType.FLOAT32, new int[]{1, 5})
                .build();

Котлин + KTX

val inputOutputOptions = FirebaseModelInputOutputOptions.Builder()
        .setInputFormat(0, FirebaseModelDataType.FLOAT32, intArrayOf(1, 224, 224, 3))
        .setOutputFormat(0, FirebaseModelDataType.FLOAT32, intArrayOf(1, 5))
        .build()

Выполнить вывод по входным данным

Наконец, чтобы выполнить вывод с использованием модели, получите свои входные данные и выполните любые преобразования данных, которые необходимы для получения входного массива правильной формы для вашей модели.

Например, если у Вас есть модель классификации изображения с входной формой [1 224 224 3] значений с плавающей точкой, вы можете создать входной массив из Bitmap объекта , как показано в следующем примере:

Джава

Bitmap bitmap = getYourInputImage();
bitmap = Bitmap.createScaledBitmap(bitmap, 224, 224, true);

int batchNum = 0;
float[][][][] input = new float[1][224][224][3];
for (int x = 0; x < 224; x++) {
    for (int y = 0; y < 224; y++) {
        int pixel = bitmap.getPixel(x, y);
        // Normalize channel values to [-1.0, 1.0]. This requirement varies by
        // model. For example, some models might require values to be normalized
        // to the range [0.0, 1.0] instead.
        input[batchNum][x][y][0] = (Color.red(pixel) - 127) / 128.0f;
        input[batchNum][x][y][1] = (Color.green(pixel) - 127) / 128.0f;
        input[batchNum][x][y][2] = (Color.blue(pixel) - 127) / 128.0f;
    }
}

Котлин + KTX

val bitmap = Bitmap.createScaledBitmap(yourInputImage, 224, 224, true)

val batchNum = 0
val input = Array(1) { Array(224) { Array(224) { FloatArray(3) } } }
for (x in 0..223) {
    for (y in 0..223) {
        val pixel = bitmap.getPixel(x, y)
        // Normalize channel values to [-1.0, 1.0]. This requirement varies by
        // model. For example, some models might require values to be normalized
        // to the range [0.0, 1.0] instead.
        input[batchNum][x][y][0] = (Color.red(pixel) - 127) / 255.0f
        input[batchNum][x][y][1] = (Color.green(pixel) - 127) / 255.0f
        input[batchNum][x][y][2] = (Color.blue(pixel) - 127) / 255.0f
    }
}

Затем создайте FirebaseModelInputs объект со своими входными данными, и передать его и входные и выходные параметры в модели для интерпретатора модели «s run метода:

Джава

FirebaseModelInputs inputs = new FirebaseModelInputs.Builder()
        .add(input)  // add() as many input arrays as your model requires
        .build();
firebaseInterpreter.run(inputs, inputOutputOptions)
        .addOnSuccessListener(
                new OnSuccessListener<FirebaseModelOutputs>() {
                    @Override
                    public void onSuccess(FirebaseModelOutputs result) {
                        // ...
                    }
                })
        .addOnFailureListener(
                new OnFailureListener() {
                    @Override
                    public void onFailure(@NonNull Exception e) {
                        // Task failed with an exception
                        // ...
                    }
                });

Котлин + KTX

val inputs = FirebaseModelInputs.Builder()
        .add(input) // add() as many input arrays as your model requires
        .build()
firebaseInterpreter.run(inputs, inputOutputOptions)
        .addOnSuccessListener { result ->
            // ...
        }
        .addOnFailureListener { e ->
            // Task failed with an exception
            // ...
        }

Если вызов успешен, то вы можете получить вывод, вызвав getOutput() метод объекта , который передается слушателю успеха. Например:

Джава

float[][] output = result.getOutput(0);
float[] probabilities = output[0];

Котлин + KTX

val output = result.getOutput<Array<FloatArray>>(0)
val probabilities = output[0]

Как вы используете выходные данные, зависит от модели, которую вы используете.

Например, если вы выполняете классификацию, в качестве следующего шага вы можете сопоставить индексы результата с метками, которые они представляют:

Джава

BufferedReader reader = new BufferedReader(
        new InputStreamReader(getAssets().open("retrained_labels.txt")));
for (int i = 0; i < probabilities.length; i++) {
    String label = reader.readLine();
    Log.i("MLKit", String.format("%s: %1.4f", label, probabilities[i]));
}

Котлин + KTX

val reader = BufferedReader(
        InputStreamReader(assets.open("retrained_labels.txt")))
for (i in probabilities.indices) {
    val label = reader.readLine()
    Log.i("MLKit", String.format("%s: %1.4f", label, probabilities[i]))
}

Приложение: Модель безопасности

Независимо от того, как вы делаете свои модели TensorFlow Lite доступными для ML Kit, ML Kit хранит их в стандартном сериализованном формате protobuf в локальном хранилище.

Теоретически это означает, что любой может скопировать вашу модель. Однако на практике большинство моделей настолько привязаны к конкретному приложению и обфусцированы оптимизацией, что риск такой же, как у конкурентов, разобравших и повторно использующих ваш код. Тем не менее, вы должны знать об этом риске, прежде чем использовать пользовательскую модель в своем приложении.

На уровне Android API 21 (Lollipop) и новее модель загружается в каталог , который исключен из автоматического резервного копирования .

На уровне API Android 20 и старше, модель загружается в папку с именем com.google.firebase.ml.custom.models в приложение-частного внутреннего хранилища. Если включена функция резервного копирования файлов с помощью BackupAgent , вы можете выбрать , чтобы исключить этот каталог.