Projektowanie promptów

Gdy wysyłasz żądanie do modelu generatywnego, dołączasz do niego prompt. Starannie formułując te prompty, możesz pokierować modelem tak, aby uzyskać oczekiwany wynik.

Prompty dla modeli Gemini

Prompty dla modeli Gemini mogą zawierać pytania, instrukcje, informacje kontekstowe, przykłady z kilkoma odpowiedziami i częściowe dane wejściowe, które model ma uzupełnić lub kontynuować.

Więcej informacji o projektowaniu promptów znajdziesz w Google Clouddokumentacji:

Prompty dla modeli Imagen

Więcej informacji o Imagen znajdziesz w dokumentacji Google Cloud.

Inne opcje sterowania generowaniem treści

  • Skonfiguruj parametry modelu, aby określić, jak model ma generować odpowiedź. W przypadku modeli Gemini te parametry obejmują maksymalną liczbę tokenów wyjściowych, temperaturę, topK i topP. W przypadku Imagen obejmują one m.in. współczynnik proporcji, generowanie osób, znak wodny itp.
  • Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymania odpowiedzi, które mogą być uznane za szkodliwe, w tym wypowiedzi szerzące nienawiść i treści o charakterze jednoznacznie seksualnym.
  • Ustaw instrukcje systemowe, aby sterować zachowaniem modelu. Ta funkcja działa jak wstęp, który dodajesz, zanim model otrzyma dalsze instrukcje od użytkownika.
  • Przekaż schemat odpowiedzi wraz z promptem, aby określić konkretny schemat danych wyjściowych. Ta funkcja jest najczęściej używana podczas generowania danych wyjściowych w formacie JSON, ale można jej też używać w zadaniach klasyfikacyjnych (np. gdy chcesz, aby model używał określonych etykiet lub tagów).