Ollama 插件提供 Ollama 支持的任何本地 LLM 的接口。
安装
npm i --save genkitx-ollama
配置
该插件要求您先安装并运行 Ollama 服务器。您可以按照以下说明操作:https://ollama.com/download
您可以使用 Ollama CLI 下载您感兴趣的模型。例如:
ollama pull gemma
如需使用此插件,请在初始化 Genkit 时指定该插件:
import { genkit } from 'genkit';
import { ollama } from 'genkitx-ollama';
const ai = genkit({
plugins: [
ollama({
models: [
{
name: 'gemma',
type: 'generate', // type: 'chat' | 'generate' | undefined
},
],
serverAddress: 'http://127.0.0.1:11434', // default local address
}),
],
});
身份验证
如果您想访问需要自定义标头(静态标头,例如 API 密钥,或动态标头,例如身份验证标头)的 Ollama 远程部署,可以在 Ollama 配置插件中指定这些标头:
静态标头:
ollama({
models: [{ name: 'gemma'}],
requestHeaders: {
'api-key': 'API Key goes here'
},
serverAddress: 'https://my-deployment',
}),
您还可以为每个请求动态设置标头。以下示例展示了如何使用 Google Auth 库设置 ID 令牌:
import { GoogleAuth } from 'google-auth-library';
import { ollama } from 'genkitx-ollama';
import { genkit } from 'genkit';
const ollamaCommon = { models: [{ name: 'gemma:2b' }] };
const ollamaDev = {
...ollamaCommon,
serverAddress: 'http://127.0.0.1:11434',
};
const ollamaProd = {
...ollamaCommon,
serverAddress: 'https://my-deployment',
requestHeaders: async (params) => {
const headers = await fetchWithAuthHeader(params.serverAddress);
return { Authorization: headers['Authorization'] };
},
};
const ai = genkit({
plugins: [
ollama(isDevEnv() ? ollamaDev : ollamaProd),
],
});
// Function to lazily load GoogleAuth client
let auth: GoogleAuth;
function getAuthClient() {
if (!auth) {
auth = new GoogleAuth();
}
return auth;
}
// Function to fetch headers, reusing tokens when possible
async function fetchWithAuthHeader(url: string) {
const client = await getIdTokenClient(url);
const headers = await client.getRequestHeaders(url); // Auto-manages token refresh
return headers;
}
async function getIdTokenClient(url: string) {
const auth = getAuthClient();
const client = await auth.getIdTokenClient(url);
return client;
}
用法
此插件不会静态导出模型引用。使用字符串标识符指定您配置的模型之一:
const llmResponse = await ai.generate({
model: 'ollama/gemma',
prompt: 'Tell me a joke.',
});
嵌入器
Ollama 插件支持嵌入,可用于相似搜索和其他 NLP 任务。
const ai = genkit({
plugins: [
ollama({
serverAddress: 'http://localhost:11434',
embedders: [{ name: 'nomic-embed-text', dimensions: 768 }],
}),
],
});
async function getEmbedding() {
const embedding = await ai.embed({
embedder: 'ollama/nomic-embed-text',
content: 'Some text to embed!',
})
return embedding;
}
getEmbedding().then((e) => console.log(e))