Projektowanie promptów

Gdy wysyłasz żądanie do modelu generatywnego, dołączasz do niego prompt. Starannie formułując prompty, możesz wpływać na model, aby generował dane wyjściowe odpowiadające Twoim potrzebom.

Prompty dla modeli Gemini

Prompty dla modeli Gemini mogą zawierać pytania, instrukcje, informacje kontekstowe, przykłady z kilku przykładów i częściowe dane wejściowe, które model może wykorzystać do wykonania zadania lub kontynuowania pracy.

Więcej informacji o projektowaniu promptów znajdziesz w dokumentacji Google Cloud:

Prompty dla modeli Imagen

Więcej informacji o strategiach i opcjach promptów w usłudze Imagen znajdziesz w dokumentacji Google Cloud.

Inne opcje kontrolowania generowania treści

  • Skonfiguruj parametry modelu, aby kontrolować, jak model wygeneruje odpowiedź. W przypadku modeli Gemini te parametry to maksymalna liczba tokenów wyjściowych, temperatura, topK i topP. W przypadku modeli Imagen obejmują one format obrazu, generowanie osób, znak wodny itp.
  • Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymania odpowiedzi, które mogą być uznane za szkodliwe, w tym wypowiedzi szerzące nienawiść i treści o charakterze jednoznacznie seksualnym.
  • Ustaw instrukcje systemowe, aby kierować działaniem modelu. Ta funkcja jest jak „wstęp”, który dodajesz przed udostępnieniem modelu w celu uzyskania dalszych instrukcji od użytkownika końcowego.
  • Przekaż schemat odpowiedzi wraz z prośbą o podanie konkretnego schematu wyjściowego. Ta funkcja jest najczęściej używana do generowania danych wyjściowych w formacie JSON, ale może też służyć do zadań klasyfikacji (np. gdy chcesz, aby model używał określonych etykiet).