Ollama プラグインは、Ollama プラグインによってサポートされているローカル LLM へのインターフェースを提供します。 Ollama。
前提条件
このプラグインを使用するには、まず Ollama サーバーをインストールして実行する必要があります。Google Chat では Ollama をダウンロードの手順に沿って操作してください。 できます。
Ollama CLI を使用して、目的のモデルをダウンロードします。例:
ollama pull gemma2
開発では、開発マシンで Ollama を実行します。デプロイされているアプリ Ollama は通常、アプリ バックエンドとは異なる GPU アクセラレーションのマシンで実行します。 Genkit を実行するリポジトリです。
構成
このプラグインを使用するには、ollama.Init()
を呼び出して Ollama のアドレスを指定します。
server:
import "github.com/firebase/genkit/go/plugins/ollama"
// Init with Ollama's default local address.
if err := ollama.Init(ctx, "http://127.0.0.1:11434"); err != nil {
return err
}
用途
コンテンツを生成するには、まずコンテンツに基づいてモデル定義を作成する必要があります。 モデルを定義します。たとえば、Gemma 2 をインストールした場合は、次のようになります。
model := ollama.DefineModel(
ollama.ModelDefinition{
Name: "gemma2",
Type: "chat", // "chat" or "generate"
},
&ai.ModelCapabilities{
Multiturn: true,
SystemRole: true,
Tools: false,
Media: false,
},
)
その後、モデル参照を使用して Ollama サーバーにリクエストを送信できます。
genRes, err := model.Generate(ctx, ai.NewGenerateRequest(
nil, ai.NewUserTextMessage("Tell me a joke.")), nil)
if err != nil {
return err
}
詳しくは、コンテンツの生成をご覧ください。