Déclencheurs Cloud Storage


Vous pouvez déclencher une fonction en réponse à l'importation, à la mise à jour ou à la suppression de fichiers et de dossiers dans Cloud Storage.

Les exemples de cette page sont basés sur un exemple de fonction qui se déclenche lorsque des fichiers image sont importés dans Cloud Storage. Cet exemple de fonction montre comment accéder aux attributs d'événement, télécharger un fichier vers une instance Cloud Functions et d'autres principes de base de la gestion des événements Cloud Storage.

Importer les modules requis

Pour commencer, importez le module requis pour gérer Cloud Storage. événements:

Node.js

 const {onObjectFinalized} = require("firebase-functions/v2/storage");

Python

 from firebase_functions import storage_fn

Pour compiler l'exemple complet, ajoutez également les dépendances pour les outils Firebase Admin SDK et de traitement des images :

Node.js

 const {initializeApp} = require("firebase-admin/app");
const {getStorage} = require("firebase-admin/storage");
const logger = require("firebase-functions/logger");
const path = require("path");

// library for image resizing
const sharp = require("sharp");

initializeApp();

Python

 import io
import pathlib

from PIL import Image

from firebase_admin import initialize_app

initialize_app()
from firebase_admin import storage

Définir la portée d'une fonction Cloud Storage

Utilisez le modèle suivant pour définir la portée sur un bucket Cloud Storage spécifique et définissez les options de votre choix:

Node.js

// scope handler to a specific bucket, using storage options parameter
export archivedopts = onObjectArchived({ bucket: "myBucket" }, (event) => {
  //…
});

Python

# Scope handler to a specific bucket using storage options parameter
@storage_fn.on_object_archived(bucket="myBucket")
def archived_bucket(event: storage_fn.CloudEvent[storage_fn.StorageObjectData]):
    # ...

En revanche, l'exemple de fonction de générateur de miniatures est limité au bucket par défaut du projet :

Node.js

exports.generateThumbnail = onObjectFinalized({cpu: 2}, async (event) => {
// ...
});

Python

@storage_fn.on_object_archived()
def generatethumbnail(event: storage_fn.CloudEvent[storage_fn.StorageObjectData]):
    # ...

Définir l'emplacement de la fonction

Une non-concordance entre peuvent entraîner l'échec du déploiement. De plus, la distance entre l'emplacement d'un bucket Cloud Storage et l'emplacement de la fonction peut créer une latence réseau importante. Pour éviter ces situations, spécifiez l'emplacement de la fonction afin qu'il corresponde à l'emplacement du bucket/déclencheur de l'une des manières suivantes :

  • L'emplacement de la fonction est identique à celui du déclencheur
  • L'emplacement de la fonction se trouve dans l'emplacement du déclencheur (lorsque la région du déclencheur est duale/multirégionale)
  • La fonction peut se trouver n'importe où si la région du déclencheur est définie sur us-central1.

Gérer les événements Cloud Storage

Les gestionnaires suivants permettent de répondre aux événements Cloud Storage :

Node.js

  • onObjectArchived envoyé uniquement lorsqu'un bucket a été activé la gestion des versions des objets. Cet événement indique que la version active d'un objet est devenue à la version archivée, soit parce qu'elle a été archivée, soit parce qu'elle a été remplacé par l'importation d'un objet du même nom.
  • onObjectDeleted : envoyé lorsqu'un objet a été définitivement supprimé. Cela inclut les objets écrasés ou supprimés dans le cadre de la configuration du cycle de vie du bucket. Pour les buckets avec gestion des versions des objets activé, il n'est pas envoyé lorsqu'un objet est archivé (voir onArchive), même si l'archivage s'effectue via la méthode storage.objects.delete.
  • onObjectFinalized : envoyé lorsqu'un objet (ou une nouvelle génération d'un objet existant) est correctement créé dans le bucket. Cela inclut la copie ou la réécriture d'un objet existant. Les échecs d'importation ne génèrent pas cet événement.
  • onMetadataUpdated : envoyé lorsque les métadonnées d'un objet existant sont modifiées.

Python

  • on_object_archived envoyé uniquement lorsqu'un bucket a été activé la gestion des versions des objets. Cet événement indique que la version en ligne d'un objet a été archivée (soit à la suite d'un archivage, soit parce qu'elle a été remplacée lors de l'importation d'un objet portant le même nom).
  • on_object_deleted Envoyée lorsqu'un objet a été définitivement supprimé. Cela inclut les objets écrasés ou supprimés dans le cadre de la configuration du cycle de vie du bucket. Pour les buckets avec gestion des versions des objets activé, il n'est pas envoyé lorsqu'un objet est archivé (voir onArchive), même si l'archivage s'effectue via la méthode storage.objects.delete.
  • on_object_finalized : envoyé lorsqu'un objet (ou une nouvelle génération d'un objet existant) est correctement créé dans le bucket. Cela inclut la copie ou de réécrire un objet existant. Les échecs d'importation ne génèrent pas cet événement.
  • on_metadata_updated : envoyé lorsque les métadonnées d'un objet existant sont modifiées.

Accéder aux attributs de l'objet Cloud Storage

Cloud Functions expose un certain nombre d'attributs d'objet Cloud Storage tels que la taille et le type de contenu de l'objet pour le fichier mis à jour. metageneration est incrémenté à chaque fois que le paramètre les métadonnées de l'objet. Pour les nouveaux objets, la valeur metageneration est 1.

Node.js

const fileBucket = event.data.bucket; // Storage bucket containing the file.
const filePath = event.data.name; // File path in the bucket.
const contentType = event.data.contentType; // File content type.

Python

bucket_name = event.data.bucket
file_path = pathlib.PurePath(event.data.name)
content_type = event.data.content_type

L'exemple de génération de vignettes utilise certains de ces attributs pour détecter les sorties cas dans lesquels la fonction renvoie:

Node.js

// Exit if this is triggered on a file that is not an image.
if (!contentType.startsWith("image/")) {
  return logger.log("This is not an image.");
}
// Exit if the image is already a thumbnail.
const fileName = path.basename(filePath);
if (fileName.startsWith("thumb_")) {
  return logger.log("Already a Thumbnail.");
}

Python

# Exit if this is triggered on a file that is not an image.
if not content_type or not content_type.startswith("image/"):
    print(f"This is not an image. ({content_type})")
    return

# Exit if the image is already a thumbnail.
if file_path.name.startswith("thumb_"):
    print("Already a thumbnail.")
    return

Télécharger, transformer et importer un fichier

Dans certains cas, il n'est pas nécessaire de télécharger des fichiers depuis Cloud Storage Toutefois, pour effectuer des tâches intensives telles que la génération d'une image miniature à partir d'un fichier stocké dans Cloud Storage, vous devez télécharger des fichiers dans l'instance de fonctions, c'est-à-dire la machine virtuelle qui exécute votre code.

Utiliser Cloud Functions avec des programmes de traitement d'images tels que sharp pour Node.js et Pillow pour Python, vous pouvez effectuer sur les fichiers image graphiques. Voici un exemple de la façon de créez une vignette pour un fichier image importé:

Node.js

/**
 * When an image is uploaded in the Storage bucket,
 * generate a thumbnail automatically using sharp.
 */
exports.generateThumbnail = onObjectFinalized({cpu: 2}, async (event) => {

  const fileBucket = event.data.bucket; // Storage bucket containing the file.
  const filePath = event.data.name; // File path in the bucket.
  const contentType = event.data.contentType; // File content type.

  // Exit if this is triggered on a file that is not an image.
  if (!contentType.startsWith("image/")) {
    return logger.log("This is not an image.");
  }
  // Exit if the image is already a thumbnail.
  const fileName = path.basename(filePath);
  if (fileName.startsWith("thumb_")) {
    return logger.log("Already a Thumbnail.");
  }

  // Download file into memory from bucket.
  const bucket = getStorage().bucket(fileBucket);
  const downloadResponse = await bucket.file(filePath).download();
  const imageBuffer = downloadResponse[0];
  logger.log("Image downloaded!");

  // Generate a thumbnail using sharp.
  const thumbnailBuffer = await sharp(imageBuffer).resize({
    width: 200,
    height: 200,
    withoutEnlargement: true,
  }).toBuffer();
  logger.log("Thumbnail created");

  // Prefix 'thumb_' to file name.
  const thumbFileName = `thumb_${fileName}`;
  const thumbFilePath = path.join(path.dirname(filePath), thumbFileName);

  // Upload the thumbnail.
  const metadata = {contentType: contentType};
  await bucket.file(thumbFilePath).save(thumbnailBuffer, {
    metadata: metadata,
  });
  return logger.log("Thumbnail uploaded!");
});

Téléchargez le fichier sur votre instance Cloud Functions. À cet endroit, vous pouvez traiter le fichier selon les besoins, puis l'importer dans Cloud Storage. Lorsque vous effectuez des tâches asynchrones, assurez-vous de renvoyer une promesse JavaScript dans votre rappel.

Python

@storage_fn.on_object_finalized()
def generatethumbnail(event: storage_fn.CloudEvent[storage_fn.StorageObjectData]):
    """When an image is uploaded in the Storage bucket, generate a thumbnail
    automatically using Pillow."""

    bucket_name = event.data.bucket
    file_path = pathlib.PurePath(event.data.name)
    content_type = event.data.content_type

    # Exit if this is triggered on a file that is not an image.
    if not content_type or not content_type.startswith("image/"):
        print(f"This is not an image. ({content_type})")
        return

    # Exit if the image is already a thumbnail.
    if file_path.name.startswith("thumb_"):
        print("Already a thumbnail.")
        return

    bucket = storage.bucket(bucket_name)

    image_blob = bucket.blob(str(file_path))
    image_bytes = image_blob.download_as_bytes()
    image = Image.open(io.BytesIO(image_bytes))

    image.thumbnail((200, 200))
    thumbnail_io = io.BytesIO()
    image.save(thumbnail_io, format="png")
    thumbnail_path = file_path.parent / pathlib.PurePath(f"thumb_{file_path.stem}.png")
    thumbnail_blob = bucket.blob(str(thumbnail_path))
    thumbnail_blob.upload_from_string(thumbnail_io.getvalue(), content_type="image/png")

Ce code crée une vignette de 200 x 200 pixels pour l'image enregistrée dans un répertoire temporaire, puis la réimporte dans Cloud Storage.