Ollama 플러그인

Ollama 플러그인은 Ollama에서 지원하는 모든 로컬 LLM에 인터페이스를 제공합니다.

설치

npm i --save genkitx-ollama

구성

이 플러그인을 사용하려면 먼저 ollama 서버를 설치하고 실행해야 합니다. 다음 안내를 따르세요. https://ollama.com/download

Ollama CLI를 사용하여 관심 있는 모델을 다운로드할 수 있습니다. 예를 들면 다음과 같습니다.

ollama pull gemma

이 플러그인을 사용하려면 configureGenkit()를 호출할 때 지정합니다.

import { ollama } from 'genkitx-ollama';

export default configureGenkit({
  plugins: [
    ollama({
      models: [
        {
          name: 'gemma',
          type: 'generate', // type: 'chat' | 'generate' | undefined
        },
      ],
      serverAddress: 'http://127.0.0.1:11434', // default local address
    }),
  ],
});

인증

커스텀 헤더 (API 키 같은 정적 헤더 또는 인증 헤더와 같은 동적 헤더)가 필요한 ollama의 원격 배포에 액세스하려면 ollama 구성 플러그인에서 지정할 수 있습니다.

정적 헤더:

ollama({
  models: [{ name: 'gemma'}],
  requestHeaders: {
    'api-key': 'API Key goes here'
  },
  serverAddress: 'https://my-deployment',
}),

요청별로 헤더를 동적으로 설정할 수도 있습니다. 다음은 Google 인증 라이브러리를 사용하여 ID 토큰을 설정하는 방법의 예입니다.

import { GoogleAuth } from 'google-auth-library';
import { ollama, OllamaPluginParams } from 'genkitx-ollama';
import { configureGenkit, isDevEnv } from '@genkit-ai/core';

const ollamaCommon = {models: [{name: "gemma:2b"}]};
const ollamaDev = {
  ...ollamaCommon,
  serverAddress: 'http://127.0.0.1:11434',
} as OllamaPluginParams;
const ollamaProd = {
  ...ollamaCommon,
  serverAddress: 'https://my-deployment',
  requestHeaders: async (params) => ({
    Authorization: `Bearer ${await getIdToken(params.serverAddress)}`,
  }),
} as OllamaPluginParams;

export default configureGenkit({
  plugins: [
    ollama(isDevEnv() ? ollamaDev: ollamaProd),
  ],
});

export async function getIdToken(url: string): Promise<string> {
  const auth = getAuthClient();
  const client = await auth.getIdTokenClient(url);
  return client.idTokenProvider.fetchIdToken(url);
}

let auth: GoogleAuth;
function getAuthClient() {
  // Lazy load GoogleAuth client.
  if (!auth) {
    auth = new GoogleAuth();
  }
  return auth;
}

사용량

이 플러그인은 모델 참조를 정적으로 내보내지 않습니다. 문자열 식별자를 사용하여 구성한 모델 중 하나를 지정합니다.

const llmResponse = await generate({
  model: 'ollama/gemma',
  prompt: 'Tell me a joke.',
});