Membuat teks dari prompt multimodal menggunakan Gemini API


Saat memanggil Gemini API dari aplikasi Anda menggunakan Vertex AI in Firebase SDK, Anda dapat memerintahkan model Gemini untuk menghasilkan teks berdasarkan input multimodal. Perintah multimodal dapat mencakup beberapa modalitas (atau jenis input), seperti teks beserta gambar, PDF, video, dan audio.

Untuk pengujian dan iterasi pada perintah multimodal, sebaiknya gunakan Vertex AI Studio

Sebelum memulai

Jika Anda belum melakukannya, selesaikan panduan memulai untuk Vertex AI in Firebase SDK. Pastikan Anda telah melakukan semua hal berikut:

  1. Siapkan project Firebase baru atau yang sudah ada, termasuk menggunakan Paket harga Blaze dan aktifkan API yang diperlukan.

  2. Hubungkan aplikasi Anda ke Firebase, termasuk mendaftarkan aplikasi dan menambahkan konfigurasi Firebase ke aplikasi Anda.

  3. Tambahkan SDK dan lakukan inisialisasi layanan Vertex AI serta model generatif dalam aplikasi Anda.

Setelah menghubungkan aplikasi ke Firebase, menambahkan SDK, dan menginisialisasi layanan Vertex AI dan model generatif, Anda siap untuk memanggil Gemini API.

Membuat teks dari teks dan satu gambar

Pastikan Anda telah menyelesaikan bagian Sebelum memulai dalam panduan ini sebelum mencoba contoh ini.

Anda dapat memanggil Gemini API dengan perintah multimodal yang menyertakan teks dan satu file (seperti gambar, seperti yang ditunjukkan dalam contoh ini). Untuk panggilan ini, Anda perlu menggunakan model yang mendukung perintah multimodal (seperti Gemini 1.5 Pro).

File yang didukung mencakup gambar, PDF, video, audio, dan lainnya. Pastikan untuk meninjau persyaratan dan rekomendasi untuk file input.

Pilih apakah Anda ingin melakukan streaming respons (generateContentStream) atau menunggu respons hingga seluruh hasilnya dihasilkan (generateContent).

Streaming

Anda dapat mencapai interaksi yang lebih cepat dengan tidak menunggu seluruh hasil dari pembuatan model, dan sebagai gantinya menggunakan streaming untuk menangani hasil parsial.

Tanpa streaming

Atau, Anda dapat menunggu seluruh hasil, bukan streaming; tindakan hasilnya hanya ditampilkan setelah model menyelesaikan seluruh pembuatan {i>checkout<i}.

Pelajari cara memilih model Gemini dan jika perlu, lokasi sesuai untuk kasus penggunaan dan aplikasi Anda.

Membuat teks dari teks dan beberapa gambar

Pastikan Anda telah menyelesaikan langkah Sebelum memulai dari panduan ini sebelum mencoba contoh ini.

Anda dapat memanggil Gemini API dengan perintah multimodal yang menyertakan teks dan beberapa file (seperti gambar, seperti yang ditunjukkan dalam contoh ini). Untuk ini Anda harus menggunakan model yang mendukung perintah multimodal (seperti Gemini 1.5 Pro).

File yang didukung mencakup gambar, PDF, video, audio, dan lainnya. Pastikan untuk meninjau persyaratan dan rekomendasi untuk file input.

Pilih apakah Anda ingin men-streaming respons (generateContentStream) atau menunggu untuk respons hingga seluruh hasil dibuat (generateContent).

Streaming

Anda dapat mencapai interaksi yang lebih cepat dengan tidak menunggu seluruh hasil dari pembuatan model, dan sebagai gantinya menggunakan streaming untuk menangani hasil parsial.

Tanpa streaming

Atau, Anda dapat menunggu seluruh hasil, bukan streaming; hasilnya hanya ditampilkan setelah model menyelesaikan seluruh proses pembuatan.

Pelajari cara memilih model Gemini dan jika perlu, lokasi sesuai untuk kasus penggunaan dan aplikasi Anda.

Membuat teks dari teks dan video

Pastikan Anda telah menyelesaikan langkah Sebelum memulai dari panduan ini sebelum mencoba contoh ini.

Anda dapat memanggil Gemini API dengan perintah multimodal yang menyertakan teks dan satu video (seperti yang ditunjukkan dalam contoh ini). Untuk ini Anda harus menggunakan model yang mendukung perintah multimodal (seperti Gemini 1.5 Pro).

Pastikan untuk meninjau persyaratan dan rekomendasi untuk file input.

Pilih apakah Anda ingin men-streaming respons (generateContentStream) atau menunggu untuk respons hingga seluruh hasil dibuat (generateContent).

Streaming

Anda dapat mencapai interaksi yang lebih cepat dengan tidak menunggu seluruh hasil dari pembuatan model, dan sebagai gantinya menggunakan streaming untuk menangani hasil sebagian.

Tanpa streaming

Atau, Anda dapat menunggu seluruh hasil, bukan streaming; tindakan hasil hanya ditampilkan setelah model menyelesaikan seluruh pembuatan {i>checkout<i}.

Pelajari cara memilih model Gemini dan jika perlu, lokasi sesuai untuk kasus penggunaan dan aplikasi Anda.

Persyaratan dan rekomendasi untuk file input

Untuk mempelajari jenis file yang didukung, cara menentukan jenis MIME, dan cara memastikan file dan permintaan multimodal Anda memenuhi persyaratan serta mengikuti praktik terbaik, lihat Persyaratan dan file input yang didukung untuk Vertex AI Gemini API.

Kamu bisa apa lagi?

  • Pelajari cara menghitung token sebelum mengirim perintah panjang ke model.
  • Siapkan Cloud Storage for Firebase agar Anda dapat menyertakan file berukuran besar dalam permintaan multimodal menggunakan URL Cloud Storage. File dapat mencakup gambar, PDF, video, dan audio.
  • Mulailah berpikir tentang mempersiapkan diri untuk produksi, termasuk menyiapkan Firebase App Check untuk melindungi Gemini API dari penyalahgunaan oleh klien yang tidak berwenang.

Mencoba kemampuan Gemini API lainnya

Pelajari cara mengontrol pembuatan konten

Anda juga dapat bereksperimen dengan prompt dan konfigurasi model menggunakan Vertex AI Studio.

Pelajari lebih lanjut model Gemini

Pelajari model yang tersedia untuk berbagai kasus penggunaan serta kuota dan harganya.


Berikan masukan tentang pengalaman Anda dengan Vertex AI in Firebase