Gemini API menggunakan Firebase AI Logic
Buat aplikasi dan fitur web dan seluler yang didukung AI dengan model Gemini dan Imagen menggunakan Firebase AI Logic
Firebase AI Logic memberi Anda akses ke model AI generatif terbaru dari Google: model Gemini dan model Imagen.
Jika perlu memanggil Gemini API atau Imagen API secara langsung dari aplikasi seluler atau web — bukan sisi server — Anda dapat menggunakan SDK klien Firebase AI Logic. SDK klien ini dibuat khusus untuk digunakan dengan aplikasi seluler dan web, yang menawarkan opsi keamanan terhadap klien yang tidak sah serta integrasi dengan layanan Firebase lainnya.
SDK klien ini tersedia dalam Swift untuk platform Apple, Kotlin & Java untuk Android, JavaScript untuk web, Dart untuk Flutter, dan Unity.
Dengan SDK klien ini, Anda dapat menambahkan personalisasi AI ke aplikasi, membangun pengalaman chat AI, membuat pengoptimalan dan otomatisasi yang didukung AI, dan banyak lagi.
Perlu fleksibilitas atau integrasi sisi server yang lebih besar?
Genkit adalah framework open source Firebase untuk pengembangan AI sisi server yang canggih dengan akses luas ke model dari Google, OpenAI, Anthropic, dan lainnya. Fitur ini mencakup fitur AI yang lebih canggih dan alat lokal khusus.
Kemampuan utama
Input multimodal dan bahasa alami |
Model Gemini bersifat
multimodal, sehingga perintah yang dikirim ke Gemini API dapat mencakup teks,
gambar, PDF, video, dan audio. Beberapa model Gemini juga dapat
menghasilkan output multimodal.
Model Gemini dan Imagen dapat diberi perintah dengan input bahasa natural. |
Rangkaian kemampuan yang terus berkembang | Dengan SDK, Anda dapat memanggil Gemini API atau Imagen API langsung dari aplikasi seluler atau web untuk membangun pengalaman chat AI, membuat gambar, menggunakan alat (seperti panggilan fungsi dan perujukan dengan Google Penelusuran), melakukan streaming input dan output multimodal (termasuk audio), dan banyak lagi. |
Keamanan dan pencegahan penyalahgunaan untuk aplikasi produksi |
Gunakan
Firebase App Check untuk membantu
melindungi API yang mengakses model Gemini dan Imagen
dari penyalahgunaan oleh klien yang tidak berwenang.
Firebase AI Logic juga memiliki batas frekuensi per pengguna secara default, dan batas frekuensi per pengguna ini dapat dikonfigurasi sepenuhnya. |
Infrastruktur yang andal | Manfaatkan infrastruktur skalabel yang dibuat untuk digunakan dengan aplikasi seluler dan web, seperti mengelola file dengan Cloud Storage for Firebase, mengelola data terstruktur dengan penawaran database Firebase (seperti Cloud Firestore), dan menetapkan konfigurasi waktu proses secara dinamis dengan Firebase Remote Config. |
Bagaimana cara kerjanya?
Firebase AI Logic menyediakan SDK klien, layanan proxy, dan fitur lainnya yang memungkinkan Anda mengakses model AI generatif Google untuk membuat fitur AI di aplikasi seluler dan web Anda.
Dukungan untuk model Google dan penyedia "Gemini API"
Kami mendukung semua model Gemini dan model Imagen 3 terbaru, dan Anda dapat memilih penyedia "Gemini API" pilihan Anda untuk mengakses model ini. Kami mendukung Gemini Developer API dan Vertex AI Gemini API. Pelajari perbedaan antara penggunaan dua penyedia API.
Jika memilih untuk menggunakan Gemini Developer API, Anda dapat memanfaatkan "paket gratis" mereka agar dapat memulai dan menjalankan kampanye dengan cepat.
SDK klien seluler & web
Anda mengirim permintaan ke model langsung dari aplikasi seluler atau web menggunakan SDK klien Firebase AI Logic kami, yang tersedia dalam bahasa Swift untuk platform Apple, Kotlin & Java untuk Android, JavaScript untuk Web, Dart untuk Flutter, dan Unity.
Jika Anda telah menyiapkan kedua penyedia Gemini API di project Firebase, Anda dapat beralih antar-penyedia API hanya dengan mengaktifkan API lain dan mengubah beberapa baris kode inisialisasi.
Selain itu, SDK klien kami untuk Web menawarkan akses eksperimental ke inferensi hybrid dan di perangkat untuk aplikasi web yang berjalan di Chrome di desktop. Konfigurasi ini memungkinkan aplikasi Anda menggunakan model di perangkat saat tersedia, tetapi kembali dengan lancar ke model yang dihosting di cloud saat diperlukan.
Layanan proxy
Layanan proxy kami bertindak sebagai gateway antara klien dan penyedia Gemini API pilihan Anda (dan model Google). Layanan ini menyediakan layanan dan integrasi yang penting untuk aplikasi seluler dan web. Misalnya, Anda dapat menyiapkan Firebase App Check untuk membantu melindungi penyedia API pilihan Anda dan resource backend Anda dari penyalahgunaan oleh klien yang tidak sah.
Hal ini sangat penting jika Anda memilih untuk menggunakan Gemini Developer API karena layanan proxy kami dan integrasi App Check ini memastikan bahwa kunci API Gemini Anda tetap berada di server dan tidak disematkan dalam codebase aplikasi Anda.
Alur implementasi
Siapkan project Firebase dan hubungkan aplikasi Anda ke Firebase | Gunakan alur kerja terpandu di halaman Firebase AI Logic di konsol Firebase untuk menyiapkan project (termasuk mengaktifkan API yang diperlukan untuk penyedia Gemini API yang Anda pilih), mendaftarkan aplikasi ke project Firebase, lalu menambahkan konfigurasi Firebase ke aplikasi Anda. | |
Menginstal dan melakukan inisialisasi SDK | Instal Firebase AI Logic SDK yang khusus untuk platform aplikasi Anda, lalu lakukan inisialisasi layanan dan buat instance model di aplikasi Anda. | |
Mengirim permintaan perintah ke model Gemini dan Imagen | Gunakan SDK untuk mengirim perintah hanya teks atau multimodal ke model Gemini untuk membuat
teks dan kode,
output terstruktur (seperti JSON)
dan
gambar.
Atau, Anda juga dapat meminta model Imagen untuk
membuat gambar.
Bangun pengalaman yang lebih kaya dengan chat bolak-balik, streaming dua arah untuk teks dan audio, dan panggilan fungsi. |
|
Bersiap untuk produksi | Terapkan integrasi penting untuk aplikasi seluler dan web, seperti melindungi API dari penyalahgunaan dengan Firebase App Check dan menggunakan Firebase Remote Config untuk memperbarui parameter dalam kode Anda dari jarak jauh (seperti nama model). |
Langkah berikutnya
Mulai mengakses model dari aplikasi seluler atau web Anda