Ollama プラグイン

Ollama プラグインは、Ollama プラグインによってサポートされているローカル LLM へのインターフェースを提供します。 Ollama

インストール

npm i --save genkitx-ollama

構成

このプラグインでは、最初に ollama サーバーをインストールして実行する必要があります。フォロー 手順については、https://ollama.com/download をご覧ください。

Ollama CLI を使用して、目的のモデルをダウンロードできます。次に例を示します。

ollama pull gemma

このプラグインを使用するには、configureGenkit() を呼び出すときに指定します。

import { ollama } from 'genkitx-ollama';

export default configureGenkit({
  plugins: [
    ollama({
      models: [
        {
          name: 'gemma',
          type: 'generate', // type: 'chat' | 'generate' | undefined
        },
      ],
      serverAddress: 'http://127.0.0.1:11434', // default local address
    }),
  ],
});

Authentication

カスタム ヘッダー(静的、 (例: API キー、動的)を含む)は、ollama 構成プラグインで指定できます。

静的ヘッダー:

ollama({
  models: [{ name: 'gemma'}],
  requestHeaders: {
    'api-key': 'API Key goes here'
  },
  serverAddress: 'https://my-deployment',
}),

リクエストごとに動的にヘッダーを設定することもできます。次の例は、環境変数を使用して ID トークンを設定する方法を 使用します。

import { GoogleAuth } from 'google-auth-library';
import { ollama, OllamaPluginParams } from 'genkitx-ollama';
import { configureGenkit, isDevEnv } from '@genkit-ai/core';

const ollamaCommon = {models: [{name: "gemma:2b"}]};
const ollamaDev = {
  ...ollamaCommon,
  serverAddress: 'http://127.0.0.1:11434',
} as OllamaPluginParams;
const ollamaProd = {
  ...ollamaCommon,
  serverAddress: 'https://my-deployment',
  requestHeaders: async (params) => ({
    Authorization: `Bearer ${await getIdToken(params.serverAddress)}`,
  }),
} as OllamaPluginParams;

export default configureGenkit({
  plugins: [
    ollama(isDevEnv() ? ollamaDev: ollamaProd),
  ],
});

export async function getIdToken(url: string): Promise<string> {
  const auth = getAuthClient();
  const client = await auth.getIdTokenClient(url);
  return client.idTokenProvider.fetchIdToken(url);
}

let auth: GoogleAuth;
function getAuthClient() {
  // Lazy load GoogleAuth client.
  if (!auth) {
    auth = new GoogleAuth();
  }
  return auth;
}

用途

このプラグインは、モデル参照を静的にエクスポートしません。次のいずれかを指定します。 文字列識別子を使用して構成したモデル:

const llmResponse = await generate({
  model: 'ollama/gemma',
  prompt: 'Tell me a joke.',
});