Dùng Gemini API để tạo các cuộc trò chuyện nhiều lượt


Khi sử dụng API Gemini, bạn có thể tạo các cuộc trò chuyện dạng tự do trên nhiều chặng. Vertex AI cho Firebase SDK giúp đơn giản hoá quy trình bằng cách quản lý trạng thái của cuộc trò chuyện, không giống như với generateContentStream() hoặc generateContent(), bạn không phải tự lưu trữ lịch sử cuộc trò chuyện.

Trước khi bắt đầu

Nếu bạn chưa làm như vậy, hãy làm theo hướng dẫn bắt đầu sử dụng Vertex AI cho Firebase SDK. Hãy đảm bảo rằng bạn đã hoàn thành tất cả các bước sau:

  • Thiết lập một dự án Firebase mới hoặc hiện có, bao gồm cả việc sử dụng Gói giá linh hoạt và bật các API bắt buộc.

  • Kết nối ứng dụng của bạn với Firebase, bao gồm cả việc đăng ký ứng dụng và thêm Cấu hình Firebase cho ứng dụng của bạn.

  • Thêm SDK và khởi chạy dịch vụ Vertex AI và mô hình tạo sinh trong ứng dụng của bạn.

Sau khi bạn kết nối ứng dụng của mình với Firebase, thêm SDK và khởi chạy dịch vụ Vertex AI và mô hình tạo sinh, bạn đã sẵn sàng gọi Gemini API.

Gửi yêu cầu lời nhắc trò chuyện

Để tạo một cuộc trò chuyện nhiều lượt (chẳng hạn như trò chuyện), hãy bắt đầu bằng cách khởi tạo trò chuyện bằng cách gọi startChat(). Sau đó sử dụng sendMessageStream() (hoặc sendMessage()) để gửi tin nhắn cho người dùng mới. cũng sẽ thêm tin nhắn và câu trả lời vào lịch sử trò chuyện.

Có hai lựa chọn cho role được liên kết với nội dung trong một cuộc trò chuyện:

  • user: vai trò đưa ra lời nhắc. Đây là giá trị mặc định cho lệnh gọi đến sendMessageStream() (hoặc sendMessage()) và hàm gửi ra trường hợp ngoại lệ nếu vai trò khác được chuyển.

  • model: vai trò đưa ra câu trả lời. Vai trò này có thể được dùng khi gọi startChat() bằng history hiện có.

Chọn xem bạn muốn truyền trực tuyến câu trả lời (sendMessageStream) hay đợi cho phản hồi cho đến khi tạo toàn bộ kết quả (sendMessage).

Phát trực tuyến

Bạn có thể đạt được các tương tác nhanh hơn bằng cách không phải chờ toàn bộ kết quả từ việc tạo mô hình và thay vào đó sử dụng luồng để xử lý một phần kết quả.

Ví dụ này cho thấy cách sử dụng sendMessageStream() để truyền trực tuyến câu trả lời từ mô hình:

Không truyền trực tuyến

Hoặc, bạn có thể chờ toàn bộ kết quả thay vì truy cập trực tuyến; thời gian kết quả chỉ được trả về sau khi mô hình hoàn tất toàn bộ quá trình tạo của chúng tôi.

Dưới đây là ví dụ minh hoạ cách sử dụng sendMessage() để gửi thông báo cho người dùng mới:

Tìm hiểu cách chọn một mô hình Gemini và không bắt buộc phải chọn một vị trí phù hợp với trường hợp sử dụng và ứng dụng của bạn.

Bạn có thể làm gì khác?

Dùng thử các tính năng khác của Gemini API

Tìm hiểu cách kiểm soát việc tạo nội dung

Bạn cũng có thể thử nghiệm với các câu lệnh và cấu hình mô hình bằng cách sử dụng Vertex AI Studio.

Tìm hiểu thêm về các mô hình Gemini

Tìm hiểu về những mô hình có sẵn cho nhiều trường hợp sử dụnghạn mức và giá.


Gửi ý kiến phản hồi trải nghiệm của bạn khi dùng Vertex AI cho Firebase