Projektowanie promptów

Gdy wysyłasz żądanie do modelu generatywnego, dołączasz do niego prompt. Starannie formułując prompty, możesz wpływać na model, aby generował dane wyjściowe odpowiadające Twoim potrzebom.

Prompty dla modeli Gemini

Prompty dla modeli Gemini mogą zawierać pytania, instrukcje, informacje kontekstowe, przykłady z kilku przykładów i częściowe dane wejściowe, aby model mógł dokończyć działanie lub kontynuować.

Więcej informacji o projektowaniu promptów znajdziesz w dokumentacji Google Cloud:

Prompty dla modeli Imagen

Więcej informacji o strategiach i opcjach promptów w usłudze Imagen znajdziesz w dokumentacji Google Cloud.

Inne opcje umożliwiające kontrolowanie generowania treści

  • Skonfiguruj parametry modelu, aby kontrolować, jak model wygeneruje odpowiedź. W przypadku modeli Gemini te parametry to maksymalna liczba tokenów wyjściowych, temperatura, topK i topP. W przypadku modeli Imagen obejmują one format obrazu, generowanie osób, znak wodny itp.
  • Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymania odpowiedzi, które mogą być uznane za szkodliwe, w tym wypowiedzi szerzące nienawiść i treści o charakterze jednoznacznie seksualnym.
  • Ustaw instrukcje systemowe, aby kierować działaniem modelu. Ta funkcja jest jak „wstęp”, który dodajesz przed udostępnieniem modelu w celu uzyskania dalszych instrukcji od użytkownika końcowego.
  • Przekaż schemat odpowiedzi wraz z promptem, aby określić konkretny schemat wyjściowy. Ta funkcja jest najczęściej używana do generowania danych wyjściowych w formacie JSON, ale można jej też używać do zadań klasyfikacji (np. gdy chcesz, aby model używał określonych etykiet).