Dùng Gemini API để tạo các cuộc trò chuyện nhiều lượt


Bằng cách sử dụng Gemini API, bạn có thể tạo các cuộc trò chuyện dạng tự do trên nhiều chặng. SDK Vertex AI in Firebase đơn giản hoá quy trình bằng cách quản lý trạng thái của cuộc trò chuyện, không giống như với generateContentStream() hoặc generateContent() thân mến! Bạn không phải tự lưu trữ nhật ký trò chuyện.

Trước khi bắt đầu

Hãy hoàn tất hướng dẫn bắt đầu sử dụng SDK Vertex AI in Firebase. Hãy đảm bảo rằng bạn đã hoàn thành tất cả các bước sau:

  1. Thiết lập một dự án Firebase mới hoặc hiện có, bao gồm cả việc sử dụng Gói giá linh hoạt và bật các API bắt buộc.

  2. Kết nối ứng dụng của bạn với Firebase, bao gồm cả việc đăng ký ứng dụng và thêm Cấu hình Firebase cho ứng dụng của bạn.

  3. Thêm SDK và khởi chạy dịch vụ Vertex AI và mô hình tạo sinh trong ứng dụng của bạn.

Sau khi bạn kết nối ứng dụng của mình với Firebase, thêm SDK và khởi chạy Dịch vụ Vertex AI và mô hình tạo sinh, bạn đã sẵn sàng gọi Gemini API.

Gửi yêu cầu lời nhắc trò chuyện

Để tạo một cuộc trò chuyện nhiều lượt (chẳng hạn như trò chuyện), hãy bắt đầu bằng cách khởi tạo trò chuyện bằng cách gọi startChat(). Sau đó sử dụng sendMessageStream() (hoặc sendMessage()) để gửi tin nhắn cho người dùng mới. cũng sẽ thêm tin nhắn và câu trả lời vào lịch sử trò chuyện.

Có hai lựa chọn cho role được liên kết với nội dung trong một cuộc trò chuyện:

  • user: vai trò đưa ra lời nhắc. Đây là giá trị mặc định cho lệnh gọi đến sendMessageStream() (hoặc sendMessage()) và hàm gửi ra trường hợp ngoại lệ nếu vai trò khác được chuyển.

  • model: vai trò đưa ra câu trả lời. Vai trò này có thể được dùng khi gọi startChat() bằng history hiện có.

Chọn xem bạn muốn truyền trực tuyến câu trả lời (sendMessageStream) hay đợi cho phản hồi cho đến khi tạo toàn bộ kết quả (sendMessage).

Phát trực tuyến

Bạn có thể đạt được các tương tác nhanh hơn bằng cách không phải chờ toàn bộ kết quả từ việc tạo mô hình và thay vào đó sử dụng luồng để xử lý một phần kết quả.

Không truyền trực tuyến

Hoặc, bạn có thể chờ toàn bộ kết quả thay vì truy cập trực tuyến; thời gian kết quả chỉ được trả về sau khi mô hình hoàn tất toàn bộ quá trình tạo của chúng tôi.

Tìm hiểu cách chọn một mô hình Gemini và không bắt buộc phải chọn một vị trí phù hợp với trường hợp sử dụng và ứng dụng của bạn.

Bạn có thể làm gì khác?

  • Tìm hiểu cách tính mã thông báo trước khi gửi các câu lệnh dài đến mô hình.
  • Thiết lập Cloud Storage for Firebase để bạn có thể đưa các tệp lớn vào yêu cầu đa phương thức bằng cách sử dụng Cloud Storage URL. Tệp có thể bao gồm hình ảnh, PDF, video và âm thanh.
  • Hãy bắt đầu nghĩ đến việc chuẩn bị sản xuất, bao gồm thiết lập Firebase App Check để bảo vệ Gemini API khỏi hành vi lạm dụng của các ứng dụng trái phép.

Hãy thử các tính năng khác của Gemini API

Tìm hiểu cách kiểm soát việc tạo nội dung

Bạn cũng có thể thử nghiệm với các câu lệnh và cấu hình mô hình bằng cách sử dụng Vertex AI Studio.

Tìm hiểu thêm về các mô hình Gemini

Tìm hiểu về những mô hình có sẵn cho nhiều trường hợp sử dụnghạn mức và giá.


Gửi ý kiến phản hồi về trải nghiệm của bạn với Vertex AI in Firebase