Ollama プラグイン

Ollama プラグインは、Ollama でサポートされているローカル LLM へのインターフェースを提供します。

インストール

npm i --save genkitx-ollama

設定

このプラグインでは、最初に ollama サーバーをインストールして実行する必要があります。手順については、https://ollama.com/download をご覧ください。

Ollama CLI を使用して、関心のあるモデルをダウンロードできます。次に例を示します。

ollama pull gemma

このプラグインを使用するには、configureGenkit() を呼び出すときに指定します。

import { ollama } from 'genkitx-ollama';

export default configureGenkit({
  plugins: [
    ollama({
      models: [
        {
          name: 'gemma',
          type: 'generate', // type: 'chat' | 'generate' | undefined
        },
      ],
      serverAddress: 'http://127.0.0.1:11434', // default local address
    }),
  ],
});

エネルギー効率比率(EER)

カスタム ヘッダー(API キーなどの静的ヘッダー、または認証ヘッダーなどの動的ヘッダー)を必要とする ollama のリモート デプロイにアクセスするには、ollama 構成プラグインでそれらを指定します。

静的ヘッダー:

ollama({
  models: [{ name: 'gemma'}],
  requestHeaders: {
    'api-key': 'API Key goes here'
  },
  serverAddress: 'https://my-deployment',
}),

リクエストごとにヘッダーを動的に設定することもできます。Google Auth ライブラリを使用して ID トークンを設定する方法の例を次に示します。

import { GoogleAuth } from 'google-auth-library';
import { ollama, OllamaPluginParams } from 'genkitx-ollama';
import { configureGenkit, isDevEnv } from '@genkit-ai/core';

const ollamaCommon = {models: [{name: "gemma:2b"}]};
const ollamaDev = {
  ...ollamaCommon,
  serverAddress: 'http://127.0.0.1:11434',
} as OllamaPluginParams;
const ollamaProd = {
  ...ollamaCommon,
  serverAddress: 'https://my-deployment',
  requestHeaders: async (params) => ({
    Authorization: `Bearer ${await getIdToken(params.serverAddress)}`,
  }),
} as OllamaPluginParams;

export default configureGenkit({
  plugins: [
    ollama(isDevEnv() ? ollamaDev: ollamaProd),
  ],
});

export async function getIdToken(url: string): Promise<string> {
  const auth = getAuthClient();
  const client = await auth.getIdTokenClient(url);
  return client.idTokenProvider.fetchIdToken(url);
}

let auth: GoogleAuth;
function getAuthClient() {
  // Lazy load GoogleAuth client.
  if (!auth) {
    auth = new GoogleAuth();
  }
  return auth;
}

使用量

このプラグインは、モデル参照を静的にエクスポートしません。文字列識別子を使用して、構成したモデルのいずれかを指定します。

const llmResponse = await generate({
  model: 'ollama/gemma',
  prompt: 'Tell me a joke.',
});