|
Cliquez sur votre fournisseur Gemini API pour afficher le contenu et le code spécifiques à ce fournisseur sur cette page. |
Les modèles d'IA générative de Google sont disponibles dans des régions spécifiques.
Lorsque vous initialisez le service de backend Vertex AI Gemini API dans votre code, vous pouvez éventuellement spécifier l'emplacement du modèle auquel vous accédez dans vos requêtes. Consultez la liste des emplacements disponibles plus loin sur cette page.
Voici quelques points clés et bonnes pratiques concernant les lieux :
Les limites de capacité sont définies par modèle, par région et par minute.
Si vous ne spécifiez pas d'emplacement, la valeur par défaut est
us-central1.Pour éviter d'atteindre les limites de capacité de manière inattendue, nous vous recommandons de définir l'emplacement sur
globaldans vos requêtes.Si la définition de l'emplacement sur
globalne s'applique pas à votre cas d'utilisation, envisagez de distribuer explicitement l'emplacement où vous accédez aux modèles. Par exemple, vous pouvez définir l'emplacement en fonction de celui de votre utilisateur final à l'aide de Firebase Remote Config.
En savoir plus sur la position global
Pour accéder à la quasi-totalité des modèles Gemini, Vertex AI Gemini API accepte un emplacement global, ce qui signifie que votre requête sera traitée par un modèle disponible n'importe où dans le pool mondial.
Définir le paramètre de localisation sur global pour vos requêtes peut vous aider à éviter d'atteindre les limites de capacité du modèle et à réduire les erreurs d'épuisement des ressources (429).
Exemples de code
Notez que ces exemples montrent comment accéder à un modèle Gemini, mais vous pouvez également spécifier un emplacement lorsque vous accédez à un modèle Imagen.
Remplacez LOCATION par le code de localisation (par exemple, europe-west4) de la liste des emplacements disponibles plus loin sur cette page.
Swift
// ...
// Initialize the Vertex AI Gemini API backend service
// Specify the location for where you want to access the model
let ai = FirebaseAI.firebaseAI(backend: .vertexAI(location: "LOCATION"))
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "MODEL_NAME")
// ...
Kotlin
// ...
// Initialize the Vertex AI Gemini API backend service
// Specify the location for where you want to access the model
val model = Firebase.ai(backend = GenerativeBackend.vertexAI(location = "LOCATION"))
.generativeModel("MODEL_NAME")
// ...
Java
// ...
// Initialize the Vertex AI Gemini API backend service
// Specify the location for where you want to access the model
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.vertexAI("LOCATION"))
.generativeModel("MODEL_NAME");
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
// ...
Web
// ...
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI Gemini API backend service
// Specify the location for where you want to access the model
const ai = getAI(firebaseApp, { backend: new VertexAIBackend('LOCATION') });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: 'MODEL_NAME' });
// ...
Dart
// ...
// Initialize the Vertex AI Gemini API backend service
// Specify the location for where you want to access the model
final ai = await FirebaseAI.vertexAI(location: 'LOCATION');
// Create a `GenerativeModel` instance with a model that supports your use case
final model = ai.generativeModel(model: 'MODEL_NAME');
// ...
Unity
// ...
// Initialize the Vertex AI Gemini API backend service
// Specify the location for where you want to access the model
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.VertexAI(location: "LOCATION"));
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "MODEL_NAME");
// ...
Notez que si vous spécifiez un emplacement où le modèle n'est pas disponible, vous recevrez une erreur 404 indiquant que le modèle was not found or your project does not have access to it.
Régions acceptées
Google Cloud utilise des régions. Google Cloud ne stocke les données client que dans la région que vous spécifiez pour toutes les fonctionnalités en disponibilité générale d'IA générative sur Vertex AI.
L'IA générative sur Vertex AI est disponible dans les régions suivantes. Il est possible que certains modèles et/ou certaines versions spécifiques ne soient pas disponibles dans toutes les régions. (Pour en savoir plus sur la disponibilité par région, consultez la documentation Google Cloud.)
Tous les modèles Gemini (à l'exception des modèles Gemini Live) sont également disponibles dans un emplacement global. Pour les modèles Imagen, l'emplacement global n'est pas accepté.
États-Unis
- Columbus, Ohio (
us-east5) - Dallas, Texas (
us-south1) - Iowa (
us-central1) - Las Vegas, Nevada (
us-west4) - Moncks Corner, Caroline du Sud (
us-east1) - Virginie du Nord (
us-east4) - Oregon (
us-west1)
Canada
- Montréal (
northamerica-northeast1)
Amérique du Sud
- São Paulo, Brésil (
southamerica-east1)
Europe
- Belgique (
europe-west1) - Finlande (
europe-north1) - Francfort, Allemagne (
europe-west3) - Londres, Royaume-Uni (
europe-west2) - Madrid, Espagne (
europe-southwest1) - Milan, Italie (
europe-west8) - Pays-Bas (
europe-west4) - Paris, France (
europe-west9) - Varsovie, Pologne (
europe-central2) - Zurich, Suisse (
europe-west6)
Asie-Pacifique
- Comté de Changhua, Taïwan (
asia-east1) - Hong Kong, Chine (
asia-east2) - Mumbai, Inde (
asia-south1) - Séoul, Corée du Sud (
asia-northeast3) - Singapour (
asia-southeast1) - Sydney, Australie (
australia-southeast1) - Tokyo, Japon (
asia-northeast1)
Moyen-Orient
- Dammam, Arabie saoudite (
me-central2) - Doha, Qatar (
me-central1) - Tel Aviv, Israël (
me-west1)